INTERVIEWS

Mehr Qualität, geringere Kosten, höhere Effizienz. AI in der Produktion von Nahrungsmitteln

Das Interview führt Gunnar Brune von AI.Hamburg | September 23, 2020

Dr. Ralph Grothmann
Dr. Ralph Grothmann

Herr Grothmann studierte an der Universität Bremen Wirtschaftswissenschaften mit dem Schwerpunkt Finanz- und Investitionstheorie, insbesondere Modellierung von Finanzmärkten mit neuronalen Netzen. Nach seinem Abschluss als Diplom Ökonom im Jahr 1999 und seiner Promotion im Jahr 2003 an der Universität Bremen ist er seit 2003 bei der Siemens AG tätig. Zunächst bei der Corporate Technology in Forschungsgruppe für Lernende Systeme, derzeit ist er Principal Consultant für Forecasting-Lösungen und leitet ein Data Lab für Siemens in Deutschland. Herr Grothmann ist ein Mitglied des wissenschaftlichen Beirats der Deutschen Gesellschaft für Operations Research (GOR e.V.) und Mitbegründer der GOR Arbeitsgruppe (AG) Analytics und stellvertretender Leiter der AG Prognoseverfahren.

Über die Siemens AG
Siemens ist ein weltweit tätiges Unternehmen mit dem Fokus auf Elektrifizierung, Automatisierung und Digitalisierung. Als einer der größten Anbieter energieeffizienter, ressourcenschonender Technologien ist Siemens führend bei Systemen für die Energieerzeugung und -übertragung sowie die medizinische Diagnose. Bei Lösungen für Infrastruktur und Industrie nimmt das Unternehmen eine Vorreiterrolle ein. Die Siemens AG beschäftigte zum 30. September 2019 auf fortgeführter Basis rund 385.000 Mitarbeiter und erwirtschaftete im Geschäftsjahr 2019 Umsatzerlöse in Höhe von rund 87 Mrd. € und einen Gewinn nach Steuern von 5,6 Milliarden €.

 


 

Gunnar Brune/AI.Hamburg: Herr Dr. Grothmann, was machen Sie und was machen Sie mit künstlicher Intelligenz?

Dr. Ralph Grothmann: Ich leite das Data Lab der Siemens-Region Deutschland in Bremen. Dort beschäftigen wir uns mit allen Fragestellungen rund um Data-Analytics. Wir nutzen maschinelles Lernen bzw. künstliche Intelligenz und arbeiten cross-sectional, also branchenübergreifend. Von Automotive bis Food & Beverage gibt es deshalb viele Themen für uns.

Gunnar Brune/AI.Hamburg: Was ist Ihr Forschungsschwerpunkt?

Dr. Ralph Grothmann: Ich persönlich komme aus der Zeitreihenanalytik. In der Forschung ist mein Schwerpunkt die Analyse von dynamischen Systemen, Zeitreihenprognosemodelle und speziell die Nutzung rekurrenter neuronaler Netze. Das heißt, mich interessiert, wie sich ein Sensorwert entwickelt oder sich eine Kombination von Sensorwerten über die Zeit darstellt. Diese Modelle werden beispielsweise bei präventiver Wartung und in der Prognose der Kundennachfrage eingesetzt. Also Fragen wie der, wie viele Kunden ein Produkt in den nächsten 3, 6 oder 12 Monaten nachfragen, damit Produktionsplanungs- und Steuerungsprognosen sowie Rohstoffpreisprognosen gemacht werden können.

Gunnar Brune/AI.Hamburg: Sie haben 10 Jahre an Künstlicher Intelligenz geforscht und bringen sie jetzt in der Produktion zur Anwendung. Geben Sie uns bitte ein Beispiel für eine typische AI-Technologie, mit der Sie arbeiten.

Dr. Ralph Grothmann: Wir arbeiten viel mit neuronalen Netzen. Ein spezieller Typ von neuronalen Netzen sind die Convolution Neuronal Networks. Diese können lokale Strukturen und lokale Nachbarschaftsstrukturen in den Daten erkennen. Hiermit können wir viele Fragen zur Qualität in der Produktion beantworten. Wir lösen damit zum Beispiel Lokalisierungs- und Bewertungsprobleme von Lötstellen. Praktisch bedeutet dies: Bilder erkennen, Features automatisiert generieren und darauf aufbauend diese klassifizieren um zu erkennen, ob eine Lötstelle in Ordnung ist, oder zu erkennen, wo eine defekte Lötstelle liegt. Die grundliegende Technologie kann man in vielen Industrien anwenden.

Mein Team analysiert teilweise sehr unterschiedlichste Datenquellen. Dazu zählen Bilddaten, aber auch Sound- und Vibrationsdaten. Stellen sie sich einen Rasierapparat vor, der nach dem Anschalten brummt. Anhand dieses Brummens können sie eine Qualitätsprüfung am Ende des Bandes durchführen, um festzustellen ob der Apparat funktioniert oder einen Defekt aufweist. Das ist eine typische Anwendung in der Qualitätssicherung. Weitere Arbeitsschwerpunkte sind die Analyse von unstrukturierten Daten, also Textdaten und Logfiles. Dazu kommen Längsschnittdaten im Sinne von Zeitreihen oder zeitlichen Entwicklungen. Für Klassifikationsmodelle analysieren wir wiederum Querschnittsdaten.

Im Längsschnitt schaue ich mir die Temperatur über den Tag an. Querschnittsdaten dagegen sind z.B. die Temperatur, die Luftfeuchtigkeit und andere Wetterfaktoren zur gleichen Zeit, zum Beispiel um 12 Uhr mittags. Auf dieser Basis könnte man bei einer bestimmten Datenlage sagen: „Es ist Sommer“. Ich habe also einen Merkmalsvektor, der nur Eigenschaften eines Objektes charakterisiert. Wenn sie Bonitätsprüfungen durchführen, dann haben solvente Kunden andere Charakteristika als insolvente Kunden. Im Customer-Relationship-Management wiederum gilt es, die Kunden zu identifizieren, die auf Grund ihrer Charakteristika eher auf eine Leistung reagieren, als andere.

Gunnar Brune/AI.Hamburg: Die Ernährungsindustrie ist ein Schwerpunkt Ihrer Arbeit. Mit welchen Themen haben Sie es hier zu tun und wie setzen Sie Künstliche Intelligenz ein?

Dr. Ralph Grothmann: In der Produktion der Ernährungsindustrie adressieren wir mit Künstlicher Intelligenz in den meisten Fällen die Qualität der Produkte. Oft gibt es einen Verarbeitungs- oder Produktionsprozess mit natürlich schwankenden Rohstoffen. Dann ist es das Ziel, eine Beziehung herzustellen, zwischen einer definierten Produktqualität und den Eingangsgrößen bzw. Produktionsparametern auf der Eingabeseite. Hierfür setzen wir neuronale Netze ein. Ein neuronales Netz ist ein nichtlineares Regressionsmodell welches die verschiedenen Teile in Beziehung setzen kann. Damit finden wir in der Produktion heraus, wann es zu minderer Qualität kommen kann und wo die Qualität schon frühzeitig positiv beeinflusst werden kann.

Gunnar Brune/AI.Hamburg: Was kann man sich dazu vorstellen? Kann diese Technologie einem Braumeister oder Käser helfen, die Fermentation besser zu steuern?

Dr. Ralph Grothmann: Das wären mögliche Anwendungen. Auch wenn Sie Durchmischungsprozesse haben oder Reinigungsprozesse. Hier stehen bestimmte Sensorwerte zur Verfügung und die AI kann mit der Information unterstützen, wann ein Durchmischungsprozess abgeschlossen ist oder ein Reinigungsprozess frühzeitig beendet werden kann. Ein anderer Fall wäre, wenn man sieht, dass Ausschuss produziert wurde. Hier stellt sich die Frage, ob es systematische Muster im Anlagenbetrieb und im Anlagenverhalten gibt. Daraus kann dann eine Diagnose abgeleitet werden, und man kann den Anlagenbetrieb so ändern, dass ein fehlerhafter Betrieb der Anlage systematisch vermieden wird.

Gunnar Brune/AI.Hamburg: Das bedeutet wiederum, dass AI dem Menschen hilft, den Prozess genauer zu steuern?

Dr. Ralph Grothmann: Exakt! So kann ein Prozess zum Beispiel ressourcenschonender gesteuert werden. Dafür wird im Food & Beverage-Bereich häufig mit Bilderkennung gearbeitet. Damit kann automatisiert die Qualität von Eingangsrohstoffen bewertet werden. Stellen sich vor: Sie haben Pflanzen und sie wollen den Reifegrad messen. Mit der Bilderkennung können sie auch messen, wie viele Stiele dabei sind und wie viele Blätter geliefert wurden. Auf diese Weise kann die Künstliche Intelligenz einem menschlichen Kontrolleur helfen und sie oder ihn entlasten.

Das funktioniert auch auf dem Feld: Ein Szenario dafür wäre, dass eine Drohne über ein Feld fliegt. Nehmen wir an, dass die Pflanzen in Reihen angeordnet sind. Dann kann man erkennen, wie der Wachstumsstand der Pflanzen ist, wie viel Unkraut dazwischen wächst und man kann eine Wachstumsprognose abgeben. Konkreter: Wenn eine Drohne tief über ein Erdbeerfeld fliegt, dann können Sie sehen, wie die Erdbeeren gewachsen sind, Sie können sehen, ob sich andere Pflanzen, die Sie ggf. nicht wollen, zwischen den Erdbeeren befinden, und Sie können eine Ertragsprognose machen. All dies ist denkbar.

Oder gehen wir vom Feld zurück an eine Anlage in der Produktion: Nehmen wir an, ein Produkt wird automatisiert bewegt, zum Beispiel ein Baguette oder eine Pizza. Typisch wäre hier die Pizza Salami auf der sie vier Salamischeiben haben wollen, die natürlich auch noch ansprechend auf der Pizza positioniert sein sollen. Bisher gibt es dafür einen manuellen Kontrollprozess, der die Zahl und die Passung der Scheiben überprüft und diesen Prozess können Sie jetzt automatisieren.

Gunnar Brune/AI.Hamburg: Was muss für ein gutes Digitalisierungsprojekt mit Künstlicher Intelligenz bedacht werden?

Dr. Ralph Grothmann: Ein gutes Digitalisierungsprojekt deckt 4 Ecken eines Quadrats ab, sozusagen eines magischen Quadrats der Digitalisierung:

  1. Daten: Welches Datenmaterial liegt vor?
  2. Businesslogik und Domänenknowhow: Was ist die Problemstellung, was wollen Sie erkennen und mit welcher Güte?
  3. Methodik – oft durch externe Expertise. Was ist die richtige Methodik, um ein Modell zu erstellen? Was funktioniert und erfüllt die Qualitätsanforderungen?
  4. User Experience: Wer betreibt die Anlage/Anwendung und was muss der User mit dem Modell machen? Wie bringe ich ihm die Modellergebnisse nahe? Wie bette ich das in einen Arbeitsprozess ein und wie kann ich die neuen Informationen und Prozesse dem Nutzer, zum Beispiel dem Anlagenfahrer, vermitteln und ihm das Arbeiten damit ermöglichen. Erst wenn Sie den Benutzer, entsprechend abgeholt haben, können Sie davon ausgehen, dass die Künstliche Intelligenz auch entsprechend benutzt wird.

Ein Beispiel aus der Auswahl der AI-Methodik: Ich muss immer ein adäquates Modell für die Fragestellung finden. Wenn die Businesslogik sagt, ich möchte ein interpretierbares Modell, dann kann ich nicht mit neuronalen Netzen arbeiten, die nicht interpretierbar sind. Wenn ich keine Lichtlinearitäten habe, dann reichen andere Verfahrensklassen, als wenn ich hochdimensional nichtlinear modellieren muss. Die Überlegungen zur Methodik sind also ein Feld von sich überlagernden Bedingungen.

Gunnar Brune/AI.Hamburg: Für alle 4 Bereiche gibt es bestimmt Spezialisten. Zum Beispiel wird es Experten für die User Experience geben. Ist Ihre Aufgabe in so einem Projekt die des Jupp Heynkes des Maschinenparks: Sie trainieren die Algorithmen damit sie mit den Menschen im Team funktionieren?

Dr. Ralph Grothmann: Jupp Heynkes lassen wir mal dahin gestellt, ich sehe mich eher bei Florian Kohfeld (Trainer von Werder Bremen, Anm. d. Red.). Ja, ich versuche Daten und Modell zusammenzubringen und damit bestmöglich die Anforderungen von Domäneninhaber und Business zu verwirklichen. Ich kümmere mich, wenn ich das Modell übergebe, auch darum, dass die, die das Modell benutzen müssen, es verstehen. Das bedeutet auch, klar zu sagen, wo die Grenzen des Modells sind, was ich erwarten kann, was ich nicht erwarten kann. Also in welcher Situation es anwendbar ist oder eben nicht. Ich erkläre auch, wie man das Ergebnis eines solchen Modells interpretieren kann. Künstliche Intelligenz gibt eine Entscheidungsunterstützung, manchmal auch unter Unsicherheit. Man muss auch aufmerksam bei den Begrifflichkeiten sein. Wenn ich über eine Prognose oder über eine Klassifikation spreche, dann ist das etwas anderes, als wenn jemand aus seiner Domäne kommt und darüber spricht. Es ist auch wichtig, dass man versteht, dass die Technologien, die wir im Moment adressieren, zwar marktreif sind, und sich in ersten Anwendungen auch sehr gut bewährt haben. Aber sie sind noch in gewisser Weise fragil. Das heißt, es erfordert im Moment noch Experten, die Modelle kalibrieren, warten und pflegen, damit ein gutes Ergebnis garantiert werden kann. Natürlich gibt es das Ziel, dass Künstliche Intelligenz zu einer Commodity wird und dass man in Zukunft über automatisiertes maschinelles Lernen Modelle mit minimalem Konfigurationsaufwand wird herstellen können. Wenn Sie mal überlegen, früher brauchten sie einen Experten, der ihnen den DSL Router konfiguriert hat, heute packen sie das Ding aus und stecken den Stecker rein. Was maschinelles Lernen angeht, sind wir aktuell noch in der Situation dass sie einen Techniker brauchen, also sie können das noch nicht allein, wenn sie kein Experte sind. Es gibt aber deutliche Trends dahingehend, dass diese Prozesse automatisiert werden und durch weniger Data Scientists begleitet werden müssen.

Gunnar Brune/AI.Hamburg: Das wir überhaupt so viel Künstliche Intelligenz jetzt sehen, hat aber doch auch damit zu tun, dass die Technik immer leichter anzuwenden wird?

Dr. Ralph Grothmann: Genau! Die Komplexität wird den Anwendungen immer mehr genommen und das wird sich fortsetzen. Ein weiterer bestimmender Grund, warum wir jetzt so viel AI sehen ist, dass auch die Verfahrensseite und die Güte die manche Verfahren und Methoden haben, in den letzten Jahren noch einen Kick nach vorn erhalten haben. Bei vielen Anwendungen braucht man 90% Güte, aber oft hatten wir in den letzten Jahren nur 85%. Das war ganz nett, aber das war eben nicht für einen robusten Betrieb geeignet. Unter anderem durch die technologische Entwicklung im Bereich von neuronalen Netzen sind wir jetzt endlich in der Lage, genau über diese Schallmauer zu springen und deshalb wird AI wirtschaftlich immer interessanter.

Gunnar Brune/AI.Hamburg: Wie wurde diese Weiterentwicklung erreicht?

Dr. Ralph Grothmann: Ein schönes Beispiel ist die Bilderkennung, insbesondere die Gesichtserkennung. Im Wesentlichen musste früher ein Spezialist die Features annotieren. Ein Feature kann bei der Gesichtserkennung der Abstand zwischen den Augen, der Abstand von Augen und Nase, die Gesichtsform und etwas anderes sein. Dieser Prozess der Annotation ist jetzt quasi als Vorverarbeitungsschritt in das neuronale Netzwerk über Convolutions integriert. Und dadurch ist er natürlich auch uninterpretierbar geworden. Aber: Das Netzwerk ist jetzt in der Lage, Features zu generieren und darauf dann eine eigenständige Bewertung vorzunehmen. Das war der eigentliche Quantensprung. Es bedeutet aber auch, dass wir immer noch über das Interpretieren von Daten sprechen, bzw. der Optimierung von Modellen anhand von Daten. Es ist nicht so, dass das Netzwerk intelligent im Sinne eines Menschen wäre.

Gunnar Brune/AI.Hamburg: Künstliche Intelligenz kann also noch nicht beim Literarischen Quartett mitreden?

Dr. Ralph Grothmann: Richtig! Wir reden dabei auch nicht von Kreativität, das ist nicht denkbar.

Gunnar Brune/AI.Hamburg: Das ist nicht denkbar, weil lernende Maschinen „nur“ lernen Dinge schneller und besser tun, aber sie lernen nicht zu reflektieren?

Dr. Ralph Grothmann: Exakt! Und natürlich steuert der Mensch über die Bereitstellung des Lernmaterials auch die Ergebnisse die AI liefert.

Um auf die Produktqualität zu kommen: Wenn sie die Qualität von Rind- oder Schweinefleisch besser evaluieren wollen, dann können sie dies über dessen Infrarotspektrum machen. Jedes Gewebe hat eine unterschiedliche Signatur. Wassergehalt ist ein wichtiger Faktor. Damit können Sie Rückschlüsse auf das Tier ziehen, wie es ernährt wurde und wie schnell es gemästet wurde. Sie können die Produktqualität anhand dieser Produktcharakteristika sehen. Durch diese erste Einschätzung können sie teilweise auf aufwändige Laboruntersuchungen verzichten.

Gunnar Brune/AI.Hamburg: Wie lernen sie Algorithmen an und woher nehmen sie die Trainingswerte in der industriellen Anwendung?

Dr. Ralph Grothmann: Einem mathematischen Modell sind die Datenpunkte egal. Sie müssen also die Daten im ersten Schritt bewerten und überlegen, welche Daten das wahre System wiedergeben. Nehmen wir als das Beispiel Konsumentenverhalten und stellen uns ein Unternehmen des Versandhandels vor. Von einem Händler, der schon seit 1980 im Markt ist, bekommen sie mit Sicherheit auch Datenbestände aus dieser Zeit. Ich glaube aber nicht, dass diese Daten tatsächlich noch aktuelles Konsumentenverhalten wiederspiegeln. In den 80er Jahren gab es andere Trends und andere Technik. Die Leute hatten ein anderes Mindset als heute. Ich übertreibe mal etwas: Wenn man sich anschaut, wie sich Konsumenten in der Finanzkrise 2008 verhalten haben und damit versucht zu beschrieben, wie sie sich heute 2019 oder 2020 verhalten, dann wird das zu Problemen führen. Das heißt, es ist von zentraler Bedeutung, ein Verständnis davon zu haben, was überhaupt die richtigen Daten sind. Also das Alter der Daten, der Umfang der Daten und vieles mehr. Wenn ihnen in der medizinischen Anwendung das Modell zurückspielt, das Gewicht des Patienten sei ein wichtiger Faktor, dann müssen sie darüber nachdenken, ob das Gewicht entscheidend ist, oder ob das Gewicht einfach eine Stellvertretervariable für das Geschlecht ist, weil Männer schwerer sind als Frauen. Und dann haben sie ein Problem, denn allein mit dem Modellwissen und ohne das Expertenwissen sind sie verloren.

Gunnar Brune/AI Hamburg: Das bedeutet, dass es für Sie als Mathematiker bei Bestimmung und Training der AI wichtig ist, Hinweise zu bekommen, welchem Ergebnis welcher Wert zugeordnet werden kann, welche die Variablen sind, die zu messen sind, wie ihre Güte beurteilt werden kann und welche Werte für die Anwendung repräsentativ sind?

Ralph Dr. Grothmann: Richtig. Es gibt verschiedene Möglichkeiten, das zu beurteilen. Beispielsweise könnte ich auf Basis des Gewichts eine Zufallsvariable konstruieren, von der ich weiß, dass sie keine Bedeutung hat, weil sie einfach eine zufällige Verteilung hat, die zu der Gewichtsverteilung passt. Dann könnte ich versuchen, diese ins Modell einzustellen, um damit Scheinzusammenhänge zu erkennen. Und damit auch Kontrollen durchführen, um zu unterscheiden, ist es tatsächlich etwas, was ich sehe oder ist es ein Scheinzusammenhang. Scheinkorrelation sage ich jetzt nicht, weil das wäre nur ein linearer Zusammenhang. Nicht zuletzt bin ich natürlich darauf angewiesen, dass mir ein Experte sagt, „Ja, das ist korrekt.“, oder „Nein, das ist eigentlich nicht korrekt“. Ganz besonders schwer wird es, wenn Kombinationen wirksam werden, also immer wenn zwei Variablen zusammenwirken, die isoliert betrachtet anscheinend keinen Einfluss haben.

Gunnar Brune/AI.Hamburg: Wie ist der Weg zu einer funktionierenden, AI-unterstützten Anlage? Nehmen wir an, bei einer großen Molkerei wird eine Anlage mit AI-Komponenten installiert und man modelliert die Prozesse. Dafür gibt es viele Messpunkte. Sie sprechen mit dem Käser und suchen die besten Algorithmen aus. Und dann stellen Sie fest, die Algorithmen können es doch noch nicht so richtig, die müssen Sie besser trainieren. Oder sie stellen vielleicht fest, dass ein Algorithmus den Prozess nicht gut genug abbilden kann und sprechen noch mal mit dem Käser um eine bessere Lösung zu finden. Kann man sich das so ungefähr vorstellen?

Dr. Ralph Grohmann: Ja! Sie müssen sich das als einen iterativen Prozess vorstellen. Das macht man üblicherweise agil. Das heißt, wir definieren, wie ein erstes Minimal Viable Product oder Modell, also Minimal Viable Modell, aussehen könnte, dass die Aufgabenstellung adressiert. Damit bauen wir in kurzer Zeit einen ersten Prototypen, an dem der Kunde bereits sieht, in welche Richtung es geht. Wir sagen dann auch, welche Probleme es gibt: Was wir festgestellt haben, was funktioniert und was nicht. Daraus ergeben sich in der Diskussion mit den Domänenexperten die Modifikationen im Modell. Das wird dann schnell iteriert, so dass man in Wochen- oder 2-Wochen-Sprints auch entsprechend in der Lage ist, ein Modell auf die Beine zu stellen.

Gunnar Brune/AI.Hamburg: Und das Modell bringen sie dann für den Test auf die Maschine?

Dr. Ralph Grothmann: Idealerweise findet ein Test schon offline statt, und das unter realen Bedingungen. Wenn man schon im Bereich AI ist, dann kann man AI auch virtuell in Betrieb nehmen. Dazu benötigen sie einen digitalen Zwilling der Anlage auf dem sie das Modell versuchsweise laufen lassen. Nach erfolgreichem Lauf der Tests folgt dann natürlich das Deployment des AI-Modells auf die Anlage.

Gunnar Brune/AI.Hamburg: Nehmen wir an, dieses Interview liest der Geschäftsführer eines mittelständischen Produktionsbetriebs. Würden Sie ihm sagen, dass die Technik reif ist für sein Unternehmen?

Dr. Ralph Grothmann: Auf jeden Fall. Wir reden ja längst von funktionierenden Anwendungen in verschiedenen Industrien. Andererseits ist Künstliche Intelligenz auch noch keine Commodity. Es ist eine neue Technologie und damit haben sie indirekt ein höheres Projektrisiko. In manchen Projekten ist es nicht klar, ob mit den vorhandenen Daten die Aufgabenstellung lösbar ist. Bei anderen Aufgaben, wo es Referenzen und Erfahrungen gibt, ist es natürlich etwas anderes. Gerade bei der Bilderkennung und Bildverarbeitung kann ich ihnen sagen, welche Anwendung wahrscheinlich ziemlich gut funktionieren wird und welche nicht. Bei bestimmten Produktionsprozessen ist es schwieriger als bei anderen. Und dann ist es auch so, dass sie durch die verschiedenen Zwischenschritte einer agilen Prototypentwicklung schon sehr frühzeitig sagen können, ob man schnell ans Ziel kommt, ob es sich lohnt, weiterzumachen, oder ob noch einmal über das Scoping und die Aufgabenstellung gesprochen werden muss.

Gunnar Brune/AI.Hamburg: Bei Künstlicher Intelligenz kommt oft auch Big Data in Spiel. Wie ist es in Ihrer Arbeit? Wie viele Datenpunkte werden in so einem Projekt für eine Produktionsanlage benötigt?

Dr. Ralph Grothmann: Das ist sehr stark davon abhängig, wie einfach oder schwer die Aufgabenstellung ist. Ein lapidares Beispiel: Wenn sie eine Sinuswelle beschreiben, dann brauchen sie 20 Datenpunkte oder sogar weniger und sie haben ein perfektes Modell ihrer Sinuswelle. Da hilft ihnen dann auch keine Million von Datenpunkten, weil diese einfach redundant sind. Ich brauche eine statistisch repräsentative Stichprobe des Modells, die auch die verschiedenen Betriebszustände wiederspiegelt, um etwas machen zu können. Schauen wir uns noch einmal das Beispiel einer Bildverarbeitung an. Oft brauche ich nicht 100.000 Bilder sondern ein paar hundert Bilder um diese zu trainieren. Dazu arbeite ich mit Tricks in der Bildbearbeitung und der Anwendung von Transferlernen. Damit meine ich das „Verrauschen“ von Bildern, das Drehen von Bildern, die Farbanpassung. Dann kann ich mir „wie Münchhausen“ eine größere Datenmenge generieren, diese dann auch nutzen. und die Datenhungrigkeit von Deep Learning und ähnlichen Verfahren bedienen. Im Sinne des Transferlernens kann ich auch einem Netzwerk, dem ich für Kunden A beigebracht habe, Kartoffeln zu erkennen, auch für Kunden B beibringen, rote Beete zu erkennen. Und vielleicht brauche ich dann für die roten Beete weniger Bilder.

Gunnar Brune/AI.Hamburg: Was kommt als nächster Schritt auf uns zu: Werden wir jetzt unsere Hausaufgaben machen und die Möglichkeiten nutzen, welche die bestehende Technologie bietet oder steht schon die nächste Ausbaustufe an der Tür und man läuft als Mensch der Entwicklung der technischen Möglichkeiten hinterher?

Dr. Ralph Grothmann: In Bezug auf die Trends: Ich sehe auf der einen Seite den Trend zum maschinellen Lernen. Das heißt, dass diese Modelle einfacher anwendbar werden und der Selbstkonfigurationsprozess immer stärker automatisiert, also ohne menschliche Eingriffe/Experteneingriffe, bei garantiert gutem Ergebnis, erfolgen kann. Gleichzeitig sind wir noch lange nicht bei einer richtig breiten AI oder einer richtig integrativen AI. Nehmen wir die Bildverarbeitung: Hier schaue ich mir Bilder an. Aber ich lasse das ganze andere Material der Anlage, also Erschütterungswerte etc. meistens noch außen vor. Wir dürfen nicht vergessen, dass ein kognitives System verschiedenen Sinneseindrücken arbeitet: Es sieht Bilder, hört und fühlt Vibrationen und hat noch andere Sensor-Readings. Also Zahlenreihen, oder Sensoren, die es sonst noch gibt: Kälte etc. Die Fusion dieser unterschiedlichen Wissensquellen passiert im Moment höchstens durch das Aneinanderstellen oder das parallel Aneinanderstellen von unterschiedlichen Modellen, die dann hybridartig wieder zusammengeführt werden, wenn überhaupt. Was aber tatsächlich noch fehlt wäre ein integriertes Modell, das sich Bilder, Töne, Sensordaten, numerische Werte und auch noch Logfiles ansieht und dann zu einer Entscheidung kommt. Nicht als Sammelsurium von Einzelmodellen, sondern als integrativer Ansatz. Das ist eine Vision von AI, die monolithisch ist und nicht nur ein Flickenteppich.

Ja, ich meine, die Techniken sind alle da. Sie haben gute Modelle für die Verarbeitung von Bildern oder von Vibrationen oder von einfachen Zeitreihen. Aber sie haben noch kein Modell, das alles gemeinsam kann.

Gunnar Brune/AI.Hamburg: Das heißt, die Interpretation des Bildes wird zusammengeführt mit der Interpretation der Vibration, wird zusammengeführt mit der Temperatur, die herrschte im Prozesszusammenhang. Aber man macht es heute am Ende und nicht schon im laufenden Prozess, zu früheren Zeitpunkten im Ablauf.

Dr. Ralph Grothmann: Korrekt. Diese verschiedenen Werte sind einfache Mosaiksteine, aber das gleich ein Gesamtbild daraus wird, das fehlt eigentlich.

Gunnar Brune/AI.Hamburg: Das ist auch Ihr Wunsch für die Zukunft: Wir können es schon, wir wollen es endlich auch tun?

Dr. Ralph Grothmann: So ähnlich. Aktuell ist es spannend, unsere neue Technologie robust und nachhaltig in Produktions- und Geschäftsprozesse einbringen zu können. Damit haben wir auch schon eine ganze Menge zu tun. Im nächsten Schritt wollen wir die nächste Ausbaustufe starten in der wir noch genauer verstehen was die Netzwerke machen und zu früherem Zeitpunkt Informationen abrufen und integrierte Interpretationen generieren.

Gunnar Brune/AI.Hamburg: Herr Dr. Grothmann, vielen Dank für dieses Gespräch.


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie- und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!” und dem Bildband „Roadside”. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

Ähnliche Beiträge

European AI: The time to invest is now
European AI: The time to invest is now
PHOTOPIA-Hype in den Messehallen: Imaging-Szene feiert in Hamburg die ganze Welt der Foto- und Videografie
PHOTOPIA hype throughout the exhibition halls: Imaging scene celebrates the world of photography and videography in Hamburg