Felix Faber

Felix Faber, MindPeak | Foto: MindPeak

Felix Faber: „Die wichtigste Voraussetzung für moderne Krebstherapien ist, sehr genau zu wissen, welcher Tumor vorliegt. Für die Befundung wird ein Farbstoff eingesetzt, der sehr viele Zellen einfärbt, die sehr umfangreich und komplex gezählt werden müssen. Er heißt “PD-L1”. Einige Pathologen rebellieren fast dagegen, weil sie sich fragen, wie sie diese Arbeit manuell überhaupt zu Kassensätzen schaffen können. Deshalb gibt es ein sehr großes Interesse an der Anwendung von Künstlicher Intelligenz an dieser Stelle.“

Felix Faber ist Unternehmer und Informatiker. 2008 gründete er das Online-Spiele-Unternehmen Bytro Labs, welches 2013 mit der Stillfront Group fusionierte und 2015 an die Börse ging (aktuelle Marktkapitalisierung USD 3 Mrd.). Er verbrachte mehrere Monate im Silicon Valley mit dem German Accelerator. Mit der Universität Freiburg gewann er zwei Weltmeisterschaften im Roboterfußball. 2018 gründete er mit Dr. Tobias Lang das Startup MindPeak. MindPeak entwickelt mit Hilfe von künstlicher Intelligenz Bilderkennungssoftware für die Krebszellenanalyse und ist innerhalb weniger Jahre zu einem der führenden Unternehmen im Bereich des Einsatzes von KI zur Krebsdiagnostik aufgestiegen. Durch künstliche Intelligenz und Deep Learning wird der Arbeitsalltag von Pathologen erheblich erleichtert und die Ergebnisgenauigkeit durch die Zusammenarbeit von Mensch und KI deutlich erhöht. MindPeaks Mission ist es, mikroskopische und pathologische Analysen sehr viel mehr Menschen als bisher zugänglich zu machen.

 


 

Gunnar Brune/AI.Hamburg: Herr Felix Faber, woran arbeiten Sie?

Felix Faber: Wir entwickeln AI-Software für Pathologen in der Krebsbefundung bzw. Diagnostik. Pathologen schauen sich menschliches Gewebe an und suchen dort Tumorzellen. Das machen sie den ganzen Tag. Unsere Software unterstützt sie, in dem sie Tumorzellen anzeigt und weitere Auffälligkeiten auszählt, die ansonsten ein Pathologe mühselig auszählen muss.

Gunnar Brune/AI.Hamburg: Können Sie genauer beschreiben, was da passiert?

Felix Faber: Wenn bei einem Menschen ein Verdacht auf Krebs besteht, wird mit einer kleinen Nadel oder bei einer OP Gewebe entnommen und an ein pathologisches Labor geschickt. Dort wird das Gewebe in sehr dünne Scheiben geschnitten, auf einen Objektträger gelegt und mit speziellen Stoffen eingefärbt. Der Pathologe legt diesen Glasträger unter das Mikroskop oder scannt ihn und schaut sich das Bild am Bildschirm an. Das Bild wird ca. 400-fach vergrößert und dadurch sehr groß. Wenn man es ausdrucken würde, wäre es mehrere Meter breit und hoch. Auf diesem Bild werden dann die Krebszellen oder andere Strukturen gesucht. Wenn ich dieses riesige Bild auf meinem Computerbildschirm habe, kann ich natürlich auch mit Deep Learning trainierte Künstliche Intelligenz dafür einsetzen, um die Tumoren oder auffälligen Stellen zu finden und dem Pathologen zu zeigen. Es gibt noch eine zweite Tätigkeit der AI. Wenn ein Tumor gefunden wurde, dann muss er auch charakterisiert werden, um danach die Behandlung zu bestimmen. Ein Tumor hat verschiedene Eigenschaften, und diese können sichtbar gemacht werden. Dazu wird der Tumor mit Farbstoffen, die mit Antikörpern verbunden sind – es gibt hunderte davon – gefärbt, die mit dem Tumor reagieren. Der Pathologe muss die reagierenden Tumorzellen mit den nicht reagierenden ins Verhältnis setzen. Dadurch entsteht ein sehr genaues Bild von dem Tumor, das dem Onkologen sagt, welche Therapie und welche Medikamente eingesetzt werden können. Das manuelle Zählen ist zeitaufwändig, es dauert und ist auch eine Tätigkeit, die Pathologen nervt und für die gerne Unterstützung angenommen wird.

Dieses Zählen der Zellen und das Ergebnis ins Verhältnis zu setzen ist aber auch etwas, was der Computer sehr gut kann. Das Selektieren und Zählen einer großen Menge von Zellen ist mit dem Computer genauer, weil er in der üblichen Zeit nicht hunderte Zellen wie der Mensch, sondern tausende Zellen zählen kann und somit ein genaueres Ergebnis abliefert, als wenn man nur 100 Zellen auszählt.

Gunnar Brune/AI.Hamburg: Das Ergebnis ist also schon deshalb genauer, weil mehr Zellen gezählt werden können?

Felix Faber: Richtig. Es kann schon wichtig sein, welche 150 Zellen ausgezählt wurden, und ob sie etwas mehr links oder etwas mehr rechts liegen. Wenn es um 1 bis 2 Prozent geht, wie es bei einigen Tumoren der Fall ist, dann macht es schnell einen Unterschied, wo genau gezählt wurde. Da hilft es, wenn man mehrere tausend Zellen auszählen kann.

AI-unterstützte Tumorzellenidentifikation. Foto MindPEAK

Abb.: AI-unterstützte Tumorzellenidentifikation. Foto MindPeak

Gunnar Brune/AI.Hamburg: Heißt das, dass die Häufigkeit eines bestimmten Zelltyps eine spezielle Therapie nach sich zieht, z.B. eine bestimmte Chemotherapie?

Felix Faber: Ja, häufig ist es in der modernen Krebstherapie allerdings so, dass es ein quasi “passgenaues” Medikament gibt, das statt der Chemotherapie zur Anwendung kommen kann und das ist dann das Ergebnis dieser Auszählung.

Gunnar Brune/AI.Hamburg: Also dank der AI kann man spezifischer therapieren und einige starke Nebenwirkungen vermeiden?

Felix Faber: Richtig.

Gunnar Brune/AI.Hamburg: Das ist ja schon sehr interessant. Was ist das spannendste Projekt, an dem Sie gerade arbeiten?

Felix Faber: Bisher waren alle Projekte spannend. Aber jetzt gibt es ein Projekt, wo es einen besonders hohen Bedarf seitens der Pathologen gibt. Dazu muss man wissen, dass viele Medikamente auf einer speziellen Mechanik in den Zellen aufbauen, dem so genannten programmierten Zelltod. Dieser wird durch das Immunsystem eingeleitet und dieser Mechanismus schlägt bei den Tumorzellen fehl, weil sie sich quasi davor verstecken. Der programmierte Zelltod wird durch ein Protein geregelt, für dessen Entdeckung vor kurzem sogar der Nobelpreis verliehen wurde. An diesem Punkt setzen eine ganze Reihe von Medikamenten an und die Behandlungsergebnisse sind teilweise extrem gut. Die wichtigste Voraussetzung für moderne Krebstherapien ist, sehr genau zu wissen, welcher Tumor vorliegt. Für die Befundung wird ein Farbstoff eingesetzt, der sehr viele Zellen einfärbt, die sehr umfangreich und komplex gezählt werden müssen. Er heißt “PD-L1”. Einige Pathologen rebellieren fast dagegen, weil sie sich fragen, wie sie diese Arbeit manuell überhaupt zu Kassensätzen schaffen können. Deshalb gibt es ein sehr großes Interesse an der Anwendung von Künstlicher Intelligenz an dieser Stelle.

Einerseits findet man glücklicherweise immer mehr Tumorarten, auf die dieses Medikament anspricht. Es steigt also auch die Zahl der Fälle, die so aufwändig ausgewertet werden müssen. Andererseits ist die Arbeit der Pathologen in diesem Fall so extrem umfangreich und wird in diesem Maße nicht von den Krankenkassen vergütet, so dass man wirklich eine Lösung finden muss.

Es ist ein allgemeines Problem in der Pathologie, dass es durch die Alterung der Gesellschaft, immer mehr Tumorfälle gibt. Es gibt aber auch immer mehr Medikamente, die gut wirken, aber eine so aufwändige und genaue Befundung verlangen wie eben beschrieben. Entsprechend steigt die Zahl der Objektträger, die jeder Pathologe pro Patient zu analysieren hat. In letzter Zeit ist auch deshalb der Beruf des Pathologen nicht mehr so attraktiv und in Europa und Amerika sinkt die Zahl der aktiven Pathologen.

Kurz gesagt: Die Zahl der Patienten steigt, die Zahl der Analysen pro Patient und der Aufwand pro Analyse nehmen zu, aber die Zahl der Pathologen sinkt. Das führt zwangsläufig zu langen Wartezeiten für Patienten und in bestimmten Situationen provoziert dieser Druck auch Fehldiagnosen.

Gunnar Brune/AI.Hamburg: Das bedeutet, dass es sich um eine strukturelle Herausforderung der modernen Medizin handelt. Viele dieser neuen Medikamente können gar nicht zur Anwendung kommen, wenn man nicht die Ärzte bzw. Pathologen befähigt, genau zu identifizieren, welchem Patienten welches dieser sehr spezifischen Medikamente helfen kann.

Felix Faber: Und es kommen täglich mehr und komplexere Medikamente, die auch noch genauere Auszählungen verlangen. Während es früher ausreichte, ab 20 Prozent der untersuchten Zellen ein Medikament einzusetzen, liegt dieser sogenannte Threshold heute oft bei 1 bis 2 Prozent, innerhalb derer ein spezielles Medikament zum Einsatz kommen kann.

Gunnar Brune/AI.Hamburg: Was sind die Methoden, was sind die Künstlichen Intelligenzen, die Sie einsetzen, um zu diesen Ergebnissen zu kommen?

Felix Faber: Wir beschäftigen uns schon seit langer Zeit, seit 2001, mit neuronalen Netzen. Sie waren mal aus der Mode gekommen, sind aber seit 2012, weil sie viele Daten und Rechenpower benötigen, wieder sehr nützlich geworden. Wir setzen stark auf diese Technologie und entwickeln unsere eigenen Netzwerkarchitekturen, weil wir vor sehr unterschiedlichen Herausforderungen stehen. Wir verwenden also keine vorgebaute oder vortrainierte Architektur aus dem Internet..

Was ist anders bei uns? Zum einen: Zellen sehen ganz anders aus als Echtweltobjekte wie Autos, Fußgängerüberwege, Fahrräder und deshalb passen normale AI-Architekturen nicht auf uns. Zum anderen müssen wir in der Diagnostik mit einer unglaublichen Geschwindigkeit arbeiten. Der Pathologe arbeitet mit riesigen Bildern, aber er will sich kein riesiges Computingcluster in sein Arztzimmer stellen. Deshalb haben wir sehr viel mit Netzarchitekturen getestet, die auf eine Gaming-Grafikkarte passen und nicht ein riesiges Amazon-Webservices-Cluster benötigen. Die dritte Sache, die sehr wichtig ist, ist die Art und Weise des Trainings der AI. Wir setzen unüberwachte Methoden ein, um die Netze zu initialisieren und so die Menge der Daten, die von Ärzten gelabelt – also verifiziert – werden muss, auf ein Minimum zu begrenzen. Unsere Daten müssen immer von Ärzten gelabelt werden, teilweise auch von mehreren Ärzten. Das ist natürlich teuer. Wir können nicht mit Laien arbeiten, wie dies beim autonomen Fahren stattfindet, wo jeder Mensch weiß, wie ein Baum aussieht. In unserem Fall sind es hochkomplexe Strukturen, und das muss der Experte machen.

Gunnar Brune/AI.Hamburg: Sie setzen unüberwachte Methoden ein?

Felix Faber: Wir setzen unüberwachtes Lernen ein, unsupervised Learning in neuronalen Netzen. Man kann sagen, dass das eine Art von Clusterung ist. Die AI lernt selbst, aus den bestehenden Daten bestimmte Cluster zu bilden. Diese setzen wir ein, um ein neuronales Netz vorzutrainieren. Dann hat es schon mal etwas gelernt, es weiß aber noch nicht, was. Dann kommen die Experten und labeln mit ihrem Wissen. Sie sagen also dem Netz, was es gefunden hat. In anderen Worten: Die Initialisierung erfolgt durch unsupervised Learning und im zweiten Schritt wird dann mit gelabelten Daten nachtrainiert.

Gunnar Brune/AI.Hamburg: Woher stammen die Daten?

Felix Faber: Wir sind gleich zu Beginn sehr relevante Partnerschaften mit Kliniken eingegangen, z.B. mit der größten norddeutschen Pathologie, dem Institut für Hämatopathologie Hamburg und der Charité in Berlin. Mittlerweile haben wir 10 Partnerschaften mit verschiedenen Laboren. Diese Labore entwickeln mit uns zusammen neue Produkte. Durch sie bekommen wir auch die Basisdaten, also Scans von Objektträgern. Das Labeling der Objektträger führen wir mit unserem Pathologennetzwerk durch.

Gunnar Brune/AI.Hamburg: Ist das noch ein Experimentalstadium oder gibt es schon Pathologen, die Ihre Produkte gekauft haben?

Felix Faber: Unsere Künstliche Intelligenz wird schon verkauft und ist mittlerweile in 8 Laboren im Einsatz.

Gunnar Brune/AI.Hamburg: Wohin geht die Reise?

Felix Faber: Die Krebs-Befundung bzw. Krebsdiagnostik ist ein breites Feld. Es gibt viele Tumor-Arten und es gibt viele verschiedene Tätigkeiten, die der Pathologe dort tun muss. Wir haben bisher Zellenauszählungen im Brust- und Lungenbereich durchgeführt und auch die Nagelpilz-Diagnose unterstützt. Letztlich ist unser Ziel, in den nächsten vier Jahren 80 Prozent der Tätigkeiten der Pathologen mit AI zu unterstützen. Es bleibt also viel zu tun. Letztlich ist es das Ziel, die Pathologen zu unterstützen, den Workload bewältigen zu können, der in der Zukunft auf sie zukommt, und insgesamt die Befundung schneller und günstiger machen zu können.

Gunnar Brune/AI.Hamburg: Wie sieht es mit der Akzeptanz der Künstlichen Intelligenz bei den Ärzten aus?

Felix Faber: Auf jeden Fall hilft es, dass AI bei Pathologen in aller Munde ist. Seit etwa drei Jahren werden auf Konferenzen sehr viele Paper über AI-Lösungen vorgestellt. Die Erwartung ist also, diese Technologie endlich auch nutzen zu können. Die Realität ist allerdings, dass die klinische Befundung ein manueller Prozess ist, der in jedem Labor ein wenig unterschiedlich ist. Das heißt, die Proben sehen alle ein wenig anders aus. Der Mensch kann sie trotzdem auswerten, aber die Maschine hat Schwierigkeiten, mit dieser Varianz umzugehen. Letztlich ist das eins der größten Probleme, warum bisher noch so wenig Lösungen in die Pathologie Anwendung gefunden haben. Das wird auch oft unterschätzt. Es gibt dann Studien, in denen 98 Prozent Genauigkeit in der Brustkrebserkennung erreicht wird, aber dann macht der Scannerhersteller ein Softwareupdate und die Studie ist nicht mehr reproduzierbar. Wenn eine AI overfittet ist, also zu spezifisch auf eine ganz bestimmte Umgebungssituation trainiert wurde, dann treten genau diese Probleme auf.

Einer unserer USPs ist, dass wir mit der Varianz, die es in der klinischen Routine gibt, umgehen können. Wir haben eine AI, die in allen Labors funktioniert und müssen sie nicht für jedes Labor neu einstellen.

Gunnar Brune/AI.Hamburg: Wie konnte das gelingen?

Felix Faber: Viel Ausprobieren in der Architektur und der Selektion der Trainingsdaten. Es ist wichtig, eine Breite bei den Labors zu haben. Die Tiefe der Daten ist nicht so entscheidend. Es ist ebenso wichtig, Daten von vielen Scannern und Stainern, also den Färbeautomaten, zu bekommen.

Gunnar Brune/AI.Hamburg: Also nicht nur die „guten auswählen“ und zu stark standardisieren zum Anfang?

Felix Faber: Genau, wir wollen ja den Pathologen in ihrem heutigen Alltag helfen, aber wir wollen nicht, dass sie ihren Workflow für uns umstellen müssen. Unser Ansatz ist nicht, schrittweise vorzugehen und erst mit einem Labor zu trainieren und dann mit dem nächsten und dem nächsten. Unser Denken ist, dass, wenn man Fliegen lernen will, nicht schneller mit den Flügeln flattern sollte, sondern ein eigenes Konzept haben sollte: ein Flugzeug. Nur mit einer wirklich neuen Lösung können wir eine neue Eigenschaft erschaffen. Deshalb habe wir einen neuen, anderen Ansatz gewählt, der sehr erfolgreich ist.

Dazu gehört, dass wir viele Methoden komplett geändert haben. Wir haben mit Augmentierungsmethoden gearbeitet wie sie auch in der Automobilindustrie eingesetzt werden, aber wir haben sie grundsätzlich verändert und an „unsere“ Zellstrukturen angepasst, indem wir mit künstlichen Daten eine notwendige Breite in die Daten gegeben haben.

Gunnar Brune/AI.Hamburg: Was ist eine Augmentierungsmethode?

Felix Faber: Wenn wir ein Bild von einer Zelle haben, ist dieses meistens lila eingefärbt. Die Farbtöne der Labore unterscheiden sich aber. Statt mit den Daten von verschiedenen Laboren zu arbeiten, haben wir von uns aus am Computer Lilatöne verändert und damit die Künstliche Intelligenz trainiert. Das ist natürlich nicht genau dasselbe und nicht die gleiche Art der Komplexität. Aber das Vorgehen unterstützt das neuronale Netze dabei, generalisieren zu können.

Ich glaube, was ich jetzt sage, ist eine Urban Legend, aber es hilft ganz gut, das Problem zu verstehen. Es gab mal eine AI, die war ganz gut darin, Panzer zu erkennen. Man hat dann festgestellt, dass sie nicht die Panzer erkannt hatte, sondern, weil Panzer meist bei schlechtem Wetter fotografiert wurden, von grauem Wetter auf graue Panzer geschlossen. Eine Datenaugmentierung hätte jetzt den Himmel mal blau und mal rot gefärbt und so verhindert, dass das neuronale Netz „schummelt“.

Es macht deshalb Sinn, sich früh zu fragen, was der Alltag in den Labors mit sich bringt. Und so haben wir ganz früh Workshops mit Pathologen gemacht, um zu sehen, was für eine Unterstützung wirklich benötigt wird. Am Ende war es dann so: Die Ideen für die unsere Produkte kamen aus den Laboren selbst!

Gunnar Brune/AI.Hamburg: Sie sagen, dass Sie mit neuronalen Netzen arbeiten, bei denen man zunächst nicht erklären kann, was sie tun, betonen aber die Erklärbarkeit der eigenen Lösungen. Wie passt das zusammen?

Felix Faber: Wenn wir ein Netz anwenden, dann erhalten wir am Ende eine Zahl. Zum Beispiel kann es sein, dass 1.000 Zellen gezählt wurden und 30 Prozent davon gefärbt wurden. Diese geben wir den Pathologen für seinen Report zurück. Aber natürlich ist schwer nachzuvollziehen, wie diese Zahl zustande gekommen ist. Deshalb visualisieren wir die Basis, auf der das neuronale Netz zählt und markieren bzw. zeigen dem Pathologen, was das Netz zu jeder dieser Zellen denkt. So kann nachvollzogen werden, dass das Ergebnis, in diesem Fall die Zahl 30 Prozent, plausibel ist. Je nach Anwendungsfall zeigen wir, was die Künstliche Intelligenz mit welcher Wahrscheinlichkeit identifiziert hat. Nehmen wir mal den Nagelpilz als Beispiel. Dabei kann man herauslesen, wo genau die Pilze mit welchen Wahrscheinlichkeiten sind und selbst beurteilen, wie die AI gearbeitet hat.

Gunnar Brune/AI.Hamburg: Im Zusammenhang mit Gesundheit und AI geht es sehr oft um Krebserkrankungen und Leben und Tod. In diesem Gespräch taucht jetzt immer wieder das Stichwort Nagelpilz auf, ein Thema, das man eher bei der TV-Werbung verortet. Was ist da los? Ist das für Sie überhaupt profitabel?

Felix Faber: Naja, Nagelpilz ist weit verbreitet und er wird auch von Pathologen untersucht, von Dermato-Pathologen. Nur wird hier ein Nagel geschnitten und auf Objektträgern nach Pilzen untersucht. Natürlich hat eine Nagelpilzdiagnose nicht die gleiche Bedeutung wie die Suche nach einem Tumor. Aber es ist generell der gleiche Vorgang: Ob ich Tumorzellen suche oder Pilze suche, ich suche die Nadel im Heuhaufen. Ich muss auf einem riesigen Bild kleine Veränderungen wahrnehmen.

Gunnar Brune/AI.Hamburg: Ist das für Sie ein Experimentier- oder Geschäftsfeld?

Felix Faber: Ich würde sagen, beides. Es ist ein Geschäftsfeld, denn wir machen nichts, was die Pathologen nicht wollen. In dem ersten Fall war es ein Projekt, eine Doktorarbeit, von einer Dermato-Pathologin zusammen mit dem Dermatologikum hier in Hamburg, die das Problem gerne lösen wollten.

Gunnar Brune/AI.Hamburg: Sie beschäftigen sich, wie aktuell viele, die mit Künstlicher Intelligenz arbeiten, mit Neuronalen Netzen und mit Grafikkarten, die aus der Gaming-Welt stammen. Wie kommt es dazu, was ist der technologische Hintergrund?

Felix Faber: Ich denke, aktuell führt an neuronalen Netzen und Grafikkarten kaum ein Weg vorbei. Als wir angefangen haben, mit Künstlicher Intelligenz zu arbeiten, und sie das erste Mal angewendet haben, gab es Methoden, die zu den damaligen Bedingungen besser funktioniert haben, wie zum Beispiel Support-Vector-Machines. Aber die waren furchtbar schwierig zu parametrisieren, also einzustellen. Schon damals hat unser Professor Martin Riedmiller daran gearbeitet, komplette Bilder einem neuronalen Netz zu geben, um darauf etwas zu erkennen. Als ich davon das erste Mal hörte, dachte ich noch, „ok, das ist schwer!“. Aber dann kam die Idee auf, Bilddaten auf Grafikkarten zu rechnen, was die Berechnung extrem beschleunigt hat. Dann wurden auch noch die Datenmengen immer größer. Und man hat festgestellt, dass diese Methode bei den größeren Datenmengen und der neu vorhandenen Rechenpower am besten skaliert bzw. funktioniert.

Warum hat man das vorher anders gemacht? Nun, man hatte nicht so viel Rechenpower und die Testdatensätze, mit denen man gearbeitet hat waren auch relativ klein. Also eher ein paar hundert Textseiten oder ein paar hundert Bilder. Es gab eine Art Wettbewerb zwischen den Forschern, wer damit am besten trainieren konnte. Man hat sich damals noch nicht vorstellen können, dass man auch auf Millionen von Bildern trainieren könnte. Letztendlich haben sich diese Methoden extrem weiterentwickelt. Seit 2012 schlagen sie alle AI- Wettbewerbe und sind entsprechend State of the Art. Sie sind auch das, was ich konkret mit AI meine. Eigentlich umfasst AI ja viel mehr, also alle Methoden, die versuchen, Aufgaben zu lösen, die der Mensch schon löst. Heute verbindet man aber im Alltagsgebrauch vor allem Deep Learning mit künstlicher Intelligenz

Gunnar Brune/AI.Hamburg: Welche weiteren Felder öffnen sich mit dem, was Sie tun für die Medizin in der Zukunft?

Felix Faber: Es gibt viele Unternehmen, die mit Künstlicher Intelligenz arbeiten, und die auf einigen Gebieten sehr, sehr gut, aber auch sehr spezialisiert sind. MindPeak ist anders und eher ein Unternehmen, das sich breit aufgestellt hat. Einige meiner Gründer-Kollegen und ich, wir beschäftigen uns schon sehr lange mit Künstlicher Intelligenz, Deep Learning und Machine Learning. Die Arbeit mit Pathologen und Laboren nimmt bei uns eine große Rolle ein, weil ihre Bedeutung steigt und sie ein wachsender Kostenfaktor im Gesundheitssystem ist.

Wir werden als Gesellschaft älter, die Möglichkeiten der Medizin werden mehr, es muss in irgendeiner Form gelingen, die Kosten zu beherrschen. Hier haben wir mit Künstlicher Intelligenz ein unglaublich großes Potenzial. AI wird sehr viel leisten können. So viel, dass wir uns die Frage stellen müssen, was die AI nicht leisten soll! Weil wir wollen, dass bestimmte Handlungen und Entscheidungen zwingend von einem Menschen getroffen werden müssen.

In Gesprächen sagen mir Pathologen, dass sie begeistert sind von den Möglichkeiten der neuen teilweise sehr speziell bzw. individuell wirksamen Medikamente. Aber diese benötigen, wie wir schon beschrieben haben, einen großen Aufwand in der Pathologie und sie kosten zusätzlich auch hunderte bis tausende Euro. Wenn man sie dem falschen Patienten gibt, ist dem Patienten in einer oft lebensbedrohenden Situation nicht geholfen und das Gesundheitssystem ist zusätzlich finanziell sehr stark belastet. Insgesamt erhöht sich der Druck auf die Pathologen immer mehr. Gerade hier liefert die Künstliche Intelligenz einen mehrfach wichtigen Beitrag zum medizinischen Fortschritt.

Hamburg hat für sich selbst erklärt, ein Leuchtturm für Künstliche Intelligenz werden zu wollen. Das finden wir toll und daran arbeiten wir mit. Wir sehen aber auch, was noch zu tun ist, damit Hamburg diese Leuchturmfunktion auch ausfüllen kann.

Gunnar Brune/AI.Hamburg: Leuchtturmfunktion ist ein gutes Stichwort. Sie beschäftigen sich seit Beginn dieses Jahrtausends mit Künstlicher Intelligenz. Was sagen Sie einem Mittelständler, der vielleicht auch in der Medizintechnik beheimatet ist und exzellente Arbeit leistet, vielleicht in Linsentechnik Weltspitze ist, aber von neuronalen Netzen noch nie etwas gehört hat? Was sagen sie ihm, wie man den Einstieg findet.

Felix Faber: Ich rate dazu, dass man jemanden fragt, der sich mit AI auskennt, um die Denkweise zu verstehen und erstmal zu begreifen, welche Probleme man damit lösen kann.

In der Aufzählung, kurz vor dem Ende des Intreviews muss ein Wort gestrichen werden:

Daraufhin muss ich schauen, wo es solchen Probleme gibt, um sie anschließend mit AI anzugehen. Meistens sind es Aufgaben, die sich häufig wiederholen, wie zum Beispiel in der Qualitätskontrolle am Fließband. Oder die Identifikation von Vorkommnissen, die aus der Norm fallen, wie bei der Predictive Maintenance. Wenn ich weiß, was ich mit AI tun will, stehen mir zwei Wege offen: Ich kann jemanden einstellen, der mir die Lösung entwickelt oder ich kann die Arbeit an einen externen Dienstleister herausgeben. Klar ist, dass unternehmensinterne Experten für die jeweilige Anwendung benötigt werden. Sie sind es, die Daten generieren und labeln, etwa wie die Pathologen und Labore, mit denen wir arbeiten, wie ich es eingangs beschrieben habe. Das heißt auch: Man kann die Datenerhebung oft nicht komplett outsourcen.

Gunnar Brune/AI.Hamburg: Was planen Sie als nächstes?

Felix Faber: Wir entwickeln eine Lösung für Lymphknoten-Metastasen, also Tumore, die metastasieren. Gerade bei Brustkrebs werden Lymphknoten, in diesem Fall Wächter-Lymphknoten, entnommen, um zu prüfen, ob sich in ihnen Metastasen befinden. Für diese Untersuchung entwickeln wir gerade gemeinsam mit dem Institut für Hämatopathologie Hamburg eine Künstliche Intelligenz.

Gunnar Brune/AI.Hamburg: Diese Entwicklungen verlangen nach Investitionen. Wie sind Sie finanziert, wie überzeugen Sie Ihre Investoren?

Felix Faber: Wir sind Venture-Capital finanziert, wir haben zu Beginn eine ganze Reihe von Business-Angels, vor allem aus der Labor-Branche für uns begeistern können und dann einige Venture Capitalists aus dem Healthcare Bereich und die Stadt Hamburg als Investoren gewinnen können.

Gunnar Brune/AI.Hamburg: Sie entwickeln sich weiter. Was würden Sie sich wünschen, um die Hürden, die bestehen zu überwinden?

Felix Faber: Es würde sehr helfen, wenn hier ein Ökosystem, gerade für AI-Unternehmen, idealerweise auch noch im Health-Bereich, entstehen würde. Ich war selbst einige Male und auch länger in San Francisco und im Silicon Valley und die Region zieht offensichtlich viel Knowhow und Leute an. Dort wird Wissen schnell geteilt. Es würde deshalb sehr helfen, auch hier so ein Ökosystem zu haben, das Investoren und Mitarbeiter anzieht und wenn klar wäre: „Mensch, für AI, ganz besonders Health AI, dafür muss ich in Hamburg investieren und in Hamburg arbeiten.“ Man könnte sehr viel erreichen, wenn man die Brand der Stadt in diesem Sinne nach außen stärker formen würde.

Gunnar Brune/AI.Hamburg: Herr Faber, vielen Dank für das Gespräch.


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie- und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!” und dem Bildband „Roadside”. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

Matthias Steffen, FUSE-AI: „Hätten wir in Deutschland doch mehr kluge Investoren und nicht nur die, die in Pizzadienste investieren!“

Matthias Steffen

Matthias Steffen, FUSE-AI | Foto: Matthias Steffen

Matthias Steffen: „Hätten wir in Deutschland doch mehr kluge Investoren und nicht nur die, die in Pizzadienste investieren!“

Matthias Steffen berät Unternehmen aus der Gesundheitswirtschaft, wie z.B. Asklepios, Almirall, Merck aber auch Ministerien wie z.B. das Auswärtige Amt. Seine unternehmerischen Erfahrungen liegen in den Bereich Software Entwicklung und integrierter Kommunikation. Er ist in zahlreichen Verbänden tätig, wie dem BitKom, KI-Verband, BIM – Bundesverband Internet Medizin uva. Im Jahre 2016 rief er den Medical App Award ins Leben.

2017 gründete er die FUSE-AI GmbH mit drei weiteren Wissenschaftlern. Als Investor konnte das Schweizer Unternehmen XLife Sciences AG gewonnen werden. Im Jahre 2019 wurde er in den Vorstand des Life Science Nord e.V. gewählt. In regelmässigen Abständen trägt er zu Themen „KI und Medizin” auf Kongressen vor (Z.B. Gesundheitswirtschaftskongress Hamburg) und entwickelt so das Netzwerk von FUSE-AI weiter.

 


 

Gunnar Brune/AI.Hamburg: Herr Matthias Steffen, woran arbeiten Sie?

Matthias Steffen: Wir konservieren das Wissen der Chefärzte mit unserer AI-Software. Chefärzte gehen mit 65 Jahren in den Ruhestand und nehmen ihr Wissen mit. Sie haben es vielleicht ihren Assistenzärzten übergeben. Aber natürlich dauert es länger, bis diese die vollen Fähigkeiten eines alten Hasen erreicht haben. Unser Ziel ist, dass die jüngeren, nachwachsenden Ärzte von diesem Wissen der alten Chefärzte profitieren können.

Und: Wir wollen, dass die Ärzte bei der Befundung eine Unterstützung erhalten. Man muss sich vorstellen, dass ein Radiologe den ganzen Tag an einem Bildschirm sitzt und nur Schwarz-Weiß-Bilder sieht. Eine multiparametrische MRT kann bis zu 2000 Schnitte haben, durch die er mit seiner Maus durchscrollen muss. In diesen vielen Grauwerten muss er die Läsionen und die suspekten Areale erkennen und diese Ergebnisse dann dem Urologen übermitteln. Dafür ist es sehr hilfreich, wenn er einen Hinweis bekommt, in welchem Slide eine Läsion zu erkennen oder zu vermuten ist.

In anderen Worten: Es geht dabei darum, Netze zu trainieren mit dem Wissen der erfahrenen Ärzte. Das machen wir mit von den erfahrenen Ärzten voran notierten Daten.

Gunnar Brune/AI.Hamburg: Herr Matthias Steffen, welches ist das spannendste aktuelle Projekt, an dem Sie arbeiten?

Matthias Steffen: Speziell im Healthcare-Bereich konzentrieren wir uns auf das Thema Prostata. Das nächste Thema, das sehr spannend ist, ist Genetik. Wie können wir in der Genetik AI einsetzen? Das menschliche Genom ist ja mittlerweile analysiert, aber was bedeutet das in der personalisierten Medizin? Was kann Künstliche Intelligenz hier leisten? Das ist eine ganz wichtige Fragestellung. Gerade ist der Nobelpreis für Medizin an die Entdeckerinnen der Genschere Crispr/Cas9 vergeben worden. Das ist ein riesiges Zukunftsfeld. Wir haben vor kurzem eine Arbeitsgruppe mit Wissenschaftlern aus diesem Bereich gegründet, um zum Thema Demenz zu forschen. Wir wollen wissen, welche genetischen und gesundheitlichen Parameter beachtet werden müssen, um eine Vorhersage machen zu können, wann einem Menschen Demenz droht. Wir wollen diese Vorhersage vor der Stunde Null machen, wenn die Demenz eintritt, damit man vorbeugend Medikamente geben kann. Das Thema Vorhersage interessiert uns auch generell. Stellen sie sich vor, sie kommen aus dem Skiurlaub und als Hamburger sind sie nicht ganz so gelenkig und haben sich Knie oder Oberschenkel gebrochen. Der Arzt kann bisher nicht wissen, wie sich in ihrem speziellen Fall der Heilungsverlauf darstellen wird. Ein normaler Bruch ist bei einem guten Verlauf nach 4-6 Wochen schon gut verheilt. Bei einem schlechten Verlauf kann es ein halbes bis zu einem ganzen Jahr dauern. Mit AI könnte man erklären, mit welchem Risiko sich ein Bruch schlecht entwickeln oder eben gut entwickeln wird, weil man das neuronale Netz mit vielen vergangenen Fällen trainiert hat.

Die Vorhersage ist das zentrale Thema neben der Bilderkennung. Im konkreten Fall könnten wir mit Künstlicher Intelligenz nach der MRT oder CT eine Vorhersage geben, wie sich der Bruch entwickeln wird. Wenn die Ärzte das schon vorher wüssten, dann wird das sehr interessant für die Behandlung und Therapie, die dann ganz anders aussehen kann. Mit so einer besseren/trefflichen Vorhersage würde die Therapie deutlich effektiver sein. Das könnte neben dem gesundheitlichen Vorteil auch einen Kostenvorteil für die Krankenkassen bedeuten.

Gunnar Brune/AI.Hamburg: Quasi ein Deus ex Machina dank dem Wissen der alten Ärzte? Wie konservieren Sie denn das Wissen der alten Ärzte?

Matthias Steffen: Wir brauchen für die AI annotiertes, also gelabeltes Material von den Radiologen, denn nur damit lernt unser System.

Wir sagen deshalb den Ärzten, dass sie eine sehr genaue Befundung für uns machen sollen. Dafür müssen sie das Organ im Bild genau umzeichnen. Diesen Befund nennen wir die Ground Truth, die Grundwahrheit. Wir müssen davon ausgehen, dass das, was der Chefarzt einzeichnet, die beste dafür mögliche Kennzeichnung ist. Auch die eventuell dort entdeckte Läsion, also das Krebsgeschwür, muss sehr genau umzeichnet werden. Im Alltag macht ein Arzt das normalerweise nicht so detailliert. Wir können also sehr sicher sein, gute Daten zu haben.

Gunnar Brune/AI.Hamburg: So mancher alte Hase lernt dann noch von Ihnen, wie gut er wirklich ist?

Matthias Steffen: Das würden wir uns nicht anmaßen. Aber wenn sie regelmäßig rund 500 Fälle haben, die sie von Radiologen bekommen und damit ihr Netz trainieren, dann werden sie immer besser sein als der beste Radiologe, weil wir ja auch immer wieder neu trainieren. In unserer Arbeit haben wir ebenso gesehen, wieviel die Erfahrung in der Radiologie ausmacht. Das ermutigt uns zu sagen, dass wir dank der mit den Daten der alten Chefärzte trainierten Künstlichen Intelligenz auch zur medizinische Qualität der Arbeit der jüngeren Radiologen beitragen können.

Der Prozess geht von der Radiologie bis zur Urologie. Es wird die Zeit kommen, dass die multiparametrischen Daten dazu geeignet sind, virtuelle 3D-Organe zu bilden, also digital nachgebildete Zwillinge von Organen. Das wird dann für die Planung und zielgenaue Biopsie des Organs genutzt.

Gunnar Brune/AI.Hamburg: Was ist das Besondere in der medizinischen Anwendung von AI?

Matthias Steffen: In der Medizin arbeiten wir in den Prozessen für Forschung und Entwicklung nicht viel anders als diejenigen, die zum Beispiel im Bereich Logistik arbeiten. Bei unseren medizinischen Anwendungen ist natürlich die Nachvollziehbarkeit unserer Ergebnisse besonders wichtig. Der TÜV Süd, TÜV Nord, oder eine andere benannte Stelle (staatlich benannte und überwachte Stellen, die für Hersteller prüfen, Anm. d. Red.) oder die FDA in den Vereinigten Staaten überprüfen die Ergebnisse unserer Netze. Hier müssen wir, anders als in der Logistik oder anderen Branchen, unter Beweis stellen, dass unsere Lösung besser ist als das, was bisher im Markt ist. Gerade bei den Amerikanern findet dazu ein ganz hartes Benchmarking statt. Wir müssen versuchen, immer wieder eine Steigerung gegenüber dem zu bringen, was schon im Markt ist. Wenn also eine bestehende Lösung eine Genauigkeit von 93 Prozent erreicht, dann müssen wir 94 Prozent erreichen. Das ist die besondere Herausforderung in der Medizin, weil es dort eben um Leben und Tod gehen kann.

Gunnar Brune/AI.Hamburg: Woher erhalten Sie die Daten, mit denen Sie arbeiten und trainieren?

Matthias Steffen: Das ist sehr schwierig. Es gibt einige, wie zum Beispiel Dr. med. Heiner Steffens von radprax, die sehr weitsichtig sind und einen Vertrag mit uns abschließen, der sie juristisch absichert und der auch den Prozess der Anonymisierung der Patientendaten beschreibt. Es gibt extra Tools für PACS-Systeme (Picture Archiving and Communication System – digitale Archivsysteme zur Verarbeitung, Verwaltung und Archivierung von medizinischen Bildern, Anm. d. Red.), die geeignet sind, die Namen und privaten Daten der Patienten aus den digitalen Daten herauszulöschen.

Gunnar Brune/AI.Hamburg: Das heißt, sie erhalten von Doktoren diese Dateien, diese werden anonymisiert und dann wird damit die Künstliche Intelligenz trainiert?

Matthias Steffen: Wenn die Daten in so einem PACS-System angekommen sind, wird der Radiologe von uns beauftragt, die Organe und Läsionen zu markieren. Das ist sehr aufwändig. Er schafft diese Arbeit vielleicht 20-30 mal an einem ganzen Tag. Aber das ist die Grundlage, um die AI trainieren zu können. Wenn wir die Daten direkt aus dem PACS-System bekämen, könnte unsere AI nichts damit anfangen. Sie muss erst lernen, wie das Organ aussieht, wie eine Läsion aussieht, und dann lernt das System. Danach erst kann das System generalisieren. Man hat dem Watson-Team von IBM oft vorgeworfen, dass es ganz viel Bildmaterial gesammelt und daraufhin verglichen habe. Aber das ist bei Künstlicher Intelligenz ja anders, weil sie generalisiert, so dass auch eine etwas andersartige Form als Läsion erkannt werden kann.

Gunnar Brune/AI.Hamburg: Wie stellen Sie sicher, dass die Ergebnisse neuronaler Netze nachvollziehbar sind?

Matthias Steffen: Das ist eine große Frage, wie sie auch von Verbraucherschützern oder vom Justizministerium gestellt wird: Ist die Arbeit von AI nachvollziehbar oder handelt es sich um eine Black Box? Hier gibt es bei uns den TÜV bzw. die benannte Stelle, die nach gesetzlichen und regulatorischen Vorgaben prüfen, ob das, was wir als Ziel ausgeben, auch so ist. Der TÜV kontrolliert anhand von neuen Daten, ob eine Prostata oder eine Läsion zuverlässig erkannt wird und ob das Ergebnis mit dem der Ärzte vergleichbar ist. Das Thema „Warum gibt es diese Ergebnisse oder sind sie aus einer Black Box“ ist eine Diskussion, die unter IT-Experten geführt wird, aber im Alltag und dem Verkauf dieser Lösungen keine Rolle spielt. Wichtig ist nur, und das müssen wir bei den benannten Stellen oder der FDA unter Beweis stellen, dass unsere Lösungen geeignet sind, die Leistungen der Radiologen zu übertreffen.

Interessant ist außerdem, noch mehr zu erkennen, z.B. Auffälligkeiten in der Zellstruktur oder an den Organen. Ich bin selbst kein Mediziner, aber diese „Drittmeinung“ bzw. der Hinweis auf weitere Dinge, das ist für die Radiologen oft sehr interessant.

Gunnar Brune/AI.Hamburg: Sie meinen Hinweise der AI, dass es weitere Auffälligkeiten gibt, die dazu Anlass geben insgesamt noch genauer hinzuschauen?

Matthias Steffen: Ja, genau, das wird auch sehr stark auf Kongressen diskutiert.

Gunnar Brune/AI.Hamburg: Was erwarten Sie in der Zukunft für diesen AI-Anwendungsbereich an weiterem Nutzen?

Matthias Steffen: Im Wesentlichen erleichtert AI natürlich den diagnostischen Prozess. Gleichzeitig bringt sie auch eine neue Effizienz, die Krankenkassen entlastet, die diese Behandlung bezahlen müssen. Für einen Privatpatient werden in den hier relevanten Fällen um die 500 – 800 Euro von der Krankenkasse erstattet, für einen gesetzlich versicherten Patient werden bis zu 100 Euro erstattet. Ein Radiologe macht am Tag rund 20 Befundungen. Wenn ein Radiologe in Zukunft 30 Befundungen machen kann, werden die Preise langfristig sinken. Das ist für die gesamte Gesundheitswirtschaft ein riesiger Vorteil.

Natürlich wird in allen Bereichen geforscht und Neues gefunden. So haben wir eine App entwickelt, die man auf die Hautoberfläche hält und die ein bösartiges Melanom oder eine einfache Keratose erkennen kann. Das kann eine großartige Lösung sein, um einem Patienten vorab etwas in Form einer Art von „Selbstdiagnose“ an die Hand zu geben. Die Dermatologen wünschen sich, dass Hautveränderungen gut dokumentiert werden und dass ein Hautkrebs in einem Frühstadium erkannt werden kann. Denn ein nicht erkannter Hautkrebs kann dazu führen, dass sich die Metastasen im ganzen Körper verbreiten.

Es gibt noch weitere Möglichkeiten für den Einsatz von AI. Unter den Kardiologen wird diskutiert, ob man nicht ein Gerät für ein Dreikanalkardiogramm entwickeln kann, das man einfach auf die Brust klebt, und das die Daten über WLAN auf eine App auf dem Smartphone und von dort weiter zu einem Kardiologen überträgt. So könnte man zum Beispiel den Verlauf der Heilung einer Herzoperation laufend beobachten. Wenn das System gelernt hat, welche Daten aus der App auf einen Notfall hinweisen, kann es wiederum einen Alarm beim Kardiologen auslösen.

Gunnar Brune/AI.Hamburg: Kollegin Künstliche Intelligenz. Wie gehen die Ärzte mit ihr um?

Matthias Steffen: Mit Blick auf die vergangenen 4-5 Jahre kann man sagen, dass zu Beginn AI bei den Kongressen auf große Ablehnung stieß. Jetzt gibt es sehr viele Lösungen – gerade von Universitäten entwickelt –, wie AI diagnostische Prozesse beschleunigen kann. Ich habe keine Umfragezahlen. Aber mein persönlicher Eindruck ist, dass sich die Akzeptanz von AI-Tools bei der Mehrzahl der Ärzten so verbessert hat, dass sie diese heute sofort einsetzen würden, weil sie von diesen Tools eine höhere medizinische Qualität und Patientennutzen erwarten. Ich glaube, dass die Ärzte sich langsam darauf einstellen, Künstliche Intelligenz einzusetzen. Ich habe auch ein Interview mit Herrn Tschentscher (Erster Bürgermeister von Hamburg und Mediziner, Anm. d. R.) geführt. Er sagte sinngemäß: „Warum werden so viele Fragen gestellt? Wir haben in der Labormedizin schon immer mit Algorithmen und Excel-Listen gearbeitet und versucht, Vorhersagen zu machen. Das ist jetzt nur eine konsequente Weiterentwicklung.“

Deshalb sind Ärzte von diesen technologischen Neuerungen nicht so weit entfernt. Hier in Hamburg gibt es zum Beispiel Herrn Professor Huland an der Martini-Klinik. In der Prostata-Diagnose hat er schon vor 30 Jahren angefangen, Daten zu sammeln. Er hat alle Patienten aus 30 Jahren in seiner Kartei und er kennt seine Patienten gut, weil er jedes Jahr einen Anamnesebogen an sie verschickt. Dieser hat übrigens die sehr hohe Rücklaufquote von rund 90 Prozent!

Saver Internet Day mit Matthias Steffen | Fuse AI
Saver Internet Day in Berlin, organisiert vom Bundesministeriums der Justiz und Verbraucherschutz, gemeinsam mit dem BITKOM. FUSE-AI, Matthias Steffen (auf der Bühne) wurde eingeladen, um über AI in der Medizin zu referieren.

Gunnar Brune/AI.Hamburg: Wunderbar, wenn ich jetzt Radiologe wäre und von der AI profitieren will, dann rufe ich Sie an und sie stellen mir ein System für einen bestimmten Betrag hin. Richtig?

Matthias Steffen: Fast. Es bieten sich verschiedene Vertriebswege an, die wir jetzt einschlagen. So gibt es z.B. sogenannte Teleradiologieverbünde, wo an einem zentralen Ort ein Server, ein Hub etabliert wurde. Hier können Radiologen ihre Kollegen ansprechen, wenn sie z.B. bei einem Lungen-CT eine Zweitmeinung benötigen. Sie können die Daten über ein besonders geschütztes DICOM System (DICOM, Digital Imaging and Communications in Medicine) austauschen. Eins dieser Netzwerke hat 1000 Anschlüsse, ein anderes hat 500 Kliniken angeschlossen. Diese Netzwerke fragen mich: „Herr Steffen, wann sind sie endlich fertig?“ (lacht). Hätten wir in Deutschland doch mehr kluge Investoren und nicht nur die, die in Pizzadienste investieren! Wenn wir diese klugen Investoren gefunden hätten, dann wären wir natürlich auch weiter. Es gibt eine große Firma in Israel, Zebra Medical Vision, die wurde von Amerikanern und Isrealis sofort groß unterstützt. Alle machen in diesem Bereich fast das Gleiche und versuchen sich gegenseitig in der Genauigkeit zu übertrumpfen. Wie gehen wir vor? Wir verhandeln mit den Unternehmen wie Philips, Siemens oder GE, damit unsere Lösungen in deren PACS-Systemen integriert werden. Man muss sich das so vorstellen, dass der Arzt die Daten aus dem PACS-System entnimmt und durchscrollt. Er hat dabei die Möglichkeit, einen Button zu klicken, um das Organ und die Läsion angezeigt zu bekommen. Oder er kann, das planen wir gerade, die aufgenommenen Daten, auf einen Server legen, damit sie nachts von der AI schon vorbefundet werden. Der Radiologe kommt dann morgens an seinen Arbeitsplatz und die Daten aus den MRTs liegen vorbefundet bereit. So kann er sehr effizient arbeiten und in der gleichen Zeit fast das Doppelte leisten.

Gunnar Brune/AI.Hamburg: Sie haben schon eine große Erfahrung mit Künstlicher Intelligenz. Wenn Sie jetzt einem Mittelständler sprechen, der Sie fragt, wie man den Einstieg findet, was sagen sie ihm?

Matthias Steffen: Natürlich erstmal bei AI.Hamburg oder ARIC anrufen und sich beraten lassen. Das ist ja das Gute an diesen Organisationen, dass sie verschiedene Seminare für die Geschäftsleitung oder operative Ebene anbieten. So bildet man sich erstmal einen Überblick. Und dann muss natürlich ein Pilot umgesetzt werden. Wir haben mal einen Piloten umgesetzt für eine Firma, die Ölproben untersucht, um festzustellen, ob eine Maschine noch intakt ist. Dies erfolgt zum Beispiel bei Windkraftanlagen. Diese Proben durchlaufen verschiedene Prüfprozesse, die natürlich alle automatisiert werden könnten.

Gunnar Brune/AI.Hamburg: Was planen Sie als Nächstes?

Matthias Steffen: Der nächste Schritt ist die Zertifizierung nach den neuen Regularien von MDA IIa (Medical Device Regulation / Medizinprodukteverordnung der EU) und nach FDA, weil wir auch in den USA und in Asien tätig werden wollen. Wir möchten ein wenig wie Bosch Zündkerzen funktionieren, die auch unter den Marken Mercedes, Ford etc. verkauft werden. Es ist nicht wichtig, dass auf dem Produkt unser Name steht. Unser Ziel ist, als White-Label-Lösung bei Siemens, GE oder Philips integriert zu werden. Die Endkunden müssen nicht wissen, dass es von uns kommt.

Gunnar Brune/AI.Hamburg: Was sollte passieren, damit Künstliche Intelligenz schneller zum Durchbruch kommt?

Matthias Steffen: Ich würde sagen, man müsste ein Ministerium für Künstliche Intelligenz einrichten. Wenn wir nicht erkennen, dass AI auch in der Schule gelernt werden muss, dann haben wir verloren. Ich wünsche mir eine politische Institution, die die AI-Landschaft strukturiert und aufbaut und zwar auf Ministerialebene. Das wäre mein Wunsch. Übrigens nicht nur auf Bundesebene, auch in den Ländern.

Gunnar Brune/AI.Hamburg: Herr Steffen, vielen Dank für das Interview.


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie- und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!” und dem Bildband „Roadside”. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

Prof. Dr. Sascha Spoun

Prof. Dr. Sascha Spoun | Foto: Leuphana

Prof. Dr. Sascha Spoun: „Die Künstliche Intelligenz fordert die Universität auf andere Weise heraus, als man im ersten Moment denken würde. Es kommt nämlich darauf an, die Kombination von menschlicher Intelligenz mit lernenden Maschinen näher zu betrachten.“

Sascha Spoun ist seit 2006 Präsident der Leuphana Universität Lüneburg und Gastprofessor für Universitätsmanagement an der Universität St. Gallen (HSG). Spoun ist außerdem Mitglied in einer Reihe von Kuratorien, Jurys und Verwaltungsräten.

Er studierte Wirtschaftswissenschaften (lic.oec. HSG, diplômé HEC Paris) und Politikwissenschaften (dipl.sc.pol.) in Ann Arbor (University of Michigan Business School), München, Paris (Sciences Po, HEC) und St. Gallen, wo er für zwei Jahre auch Präsident der Studierendenschaft war. Neben seiner Tätigkeit als Gastprofessor an der Universität St. Gallen lehrte er auch von 2004 bis 2010 an der Universität Zürich. Seine Forschungsarbeiten widmen sich dem Public Management sowie Zielen, Inhalten, Methoden und Ergebnissen der Hochschulentwicklung. An der Universität St. Gallen leitete er von 1999 bis 2006 das Reformprojekt “Neukonzeption der Lehre”, eine fundamentale Umstellung des Studiums auf Bachelor und Master sowie die Einführung verschiedener didaktischer und organisatorischer Innovationen.

 


 

Gunnar Brune/AI.Hamburg: Herr Prof. Dr. Spoun, an der Leuphana studieren für gewöhnlich Menschen. Lernen in Zukunft auch „lernende Maschinen“ an der Universität?

Prof. Dr. Sascha Spoun: Intelligente Maschinen können lernen. Siri ist ein Beispiel, das viele kennen werden. Das ist immer noch ein beeindruckendes, manche Menschen verängstigendes Instrument, das sie sich in ihrem Alltag zunutze machen können. Wenn nicht nur wir Menschen dynamische, veränderliche und entwicklungsfähige Wesen sind, sondern wenn wir diese Eigenschaften auch auf Maschinen übertragen können, dann haben wir eine Chance, mit der stetig wachsenden Komplexität unserer Welt besser umgehen zu können, bei allen offenen Fragen und Risiken, die daraus entstehen.

Gunnar Brune/AI.Hamburg: Das war eine große Zukunftsfrage zum Einstieg. Mal ganz einfach gefragt: Welche Rolle spielt Künstliche Intelligenz heute für eine Universität wie die Leuphana?

Prof. Dr. Sascha Spoun: Eine Auseinandersetzung mit lernenden Maschinen in Forschung und Lehre ist für Universitäten essentiell. Algorithmen haben schon in den letzten Jahrzehnten unsere Welt dramatisch verändert. Sie können Anwendungen darstellen, die viele Routineprozesse übernehmen und uns so bei Aufgaben, die extrem mühsam sind, unterstützen. Deshalb stellt der Umgang mit lernenden Maschinensystemen, Künstlicher Intelligenz, eine wichtige Bildungsaufgabe dar. Dabei geht es aber nicht nur um die vielfältigen Anwendungsmöglichkeiten, sondern auch um die Reflexion dessen, was daraus im Weiteren folgen kann. Nehmen wir das Beispiel des autonomen Fahrens. Verursachen solche Systeme einen Unfall, eine Beschädigung, eine Körperverletzung, stellt sich die Frage, wer die Verantwortung dafür trägt. Es geht also um das Nachdenken darüber, was es bedeutet, Künstliche Intelligenz in unserer Welt einzusetzen.

Gunnar Brune/AI.Hamburg: Fordert die Künstliche Intelligenz die Intelligenz an der Universität heraus?

Prof. Dr. Sascha Spoun: Natürlich ist es Aufgabe und Herausforderung für Universitäten, etwa den Einsatz Künstlicher Intelligenz für den Umgang mit großen Datenmengen zu verstehen und zu beherrschen. Aber, die Künstliche Intelligenz fordert die Universität auf andere Weise heraus, als man im ersten Moment denken würde. Es kommt nämlich darauf an, die Kombination von menschlicher Intelligenz mit lernenden Maschinen näher zu betrachten.

Gunnar Brune/AI.Hamburg: Und deshalb findet die Beschäftigung mit der AI an der Leuphana nicht nur in der Mathematik, den Ingenieurwissenschaften etc., sondern zum Beispiel auch in den Sozialwissenschaften statt?

Prof. Dr. Sascha Spoun: So ist es. Man könnte sagen, dass die Leuphana so etwas wie eine „grüne“ London School of Economics sein will. Ein Ort des Nachdenkens über solche Entwicklungen mit dem Ziel, die Verantwortung, die wir für die heutige und die zukünftige Generation tragen, immer mitzudenken.

Ich glaube, im Studium geht es wesentlich auch darum, zu erkennen, wer man selbst ist, mit welchen Sachverhalten man es zu tun hat und welche Bedeutung sie haben. Zu lernen, wie ich mich in einem Team bewege, wie ich mit Problemen umgehe, usw. Diese Geläufigkeit ist eine der Lernaufgaben für Studierende. Das gilt für alle Fächer. Zwar ist die Professionalisierung nach den Fächern verschieden, aber die fachunabhängigen grundsätzlichen Bildungs- und Entwicklungsaufgaben sind vergleichbar.

Gunnar Brune/AI.Hamburg: Ist es notwendig, sich mit Künstlicher Intelligenz „als Hausaufgabe“ an der Universität zu beschäftigen, oder ist die Aufgabe größer?

Prof. Dr. Sascha Spoun: Es ist beides. Das eine betrifft die Bildungsidee, die Bildungstraditionen, die Rollen der Universität, die Rollen der Wissenschaft und des Wissens insgesamt, usw.; das sind historische, systemische, gesellschaftliche, wirtschaftliche und politische Fragen. Die andere Aufgabe stellen die nicht gelösten und die noch zu erwartenden Probleme dar, die Zukunftsorientierung. Rückschau alleine reicht nicht.

Zentralgebäude

Zentralgebäude der Leuphana Universität, Foto Leuphana

Gunnar Brune/AI.Hamburg: Also ist es nicht die Künstliche Intelligenz, die uns herausfordert, sondern die Verantwortung…

Prof. Dr. Sascha Spoun: … für die Gesellschaft und für die Zukunft. Hier kann AI helfen, zum Beispiel bei Klimamodellen oder bei Fragen des Verlaufs von Pandemien und der Abschätzung ihrer Folgen. Diese Aufzählung ließe sich beliebig fortsetzen.

Wie man mit Künstlicher Intelligenz umgeht, ist nicht eine Frage von „technical change“, sondern eine „adaptive challenge“. Ich muss die Fragen nach meinen Werten, meinen Kompetenzen, meinen Prinzipien, nach dem, was für mich handlungsleitend ist, stellen können und dann auch wissen, auf welchen Wegen ich sie zur Diskussion mit Dritten stellen und beantworten kann. Wenn wir Künstliche Intelligenz auch in diesem Sinne verstehen, entwickeln und beherrschen lernen, dann kann sie uns dabei helfen, den Herausforderungen der Zukunft zu begegnen.

Gunnar Brune/AI.Hamburg: Herr Professor Spoun, vielen Dank für das Gespräch.


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie- und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!” und dem Bildband „Roadside”. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

Dr. Ralph Grothmann

Prof. Dr. Ulf Brefeld | Foto: Leuphana

Prof. Dr. Ulf Brefeld: „Wenn ich jetzt nicht in AI investiere, dann kann es sein, dass das mein letzter entscheidender Fehler war.“

Ulf Brefeld ist Professor für Maschinelles Lernen an der Leuphana Universität Lüneburg. Nach dem Studium der Informatik an der Universität des Saarlandes, Saarbrücken und der Technischen Universität Berlin promovierte er an der Humboldt-Universität zu Berlin und am Max-Planck-Institut für Informatik in Saarbrücken. Er war Postdoc an der Technischen Universität Berlin und der Universität Bonn und arbeitete für Yahoo! Research, Barcelona, bevor er die Leitung der Recommender-Gruppe bei Zalando übernahm. Von 2012 bis 2015 war er Professor für Knowledge Mining & Assessment an der TU Darmstadt und am DIPF, Frankfurt am Main. Ulf Brefeld interessiert sich für statistisches Maschinelles Lernen und Data-Mining.

 


 

Gunnar Brune/AI.Hamburg: Herr Professor Brefeld, Sie sind Informatiker an der Leuphana Universität. Wenn man Ihren Publikationen folgt, dann bekommt man den Eindruck, dass – Stichwort Machine Learning – nicht nur Menschen Maschinen trainieren, sondern auch Maschinen Sportler. Ist das so?

Prof. Dr. Ulf Brefeld: Sportler*innen trainieren wir mit unseren Lernalgorithmen noch nicht, aber wir arbeiten tatsächlich viel im Bereich Sport. Im Prinzip geht Maschinelles Lernen bzw. Künstliche Intelligenz ja in alle Bereiche unseres Lebens hinein. Wir kooperieren z.B. mit dem Deutschen Fußballbund und der Deutschen Fußball Liga (DFL) und versuchen die Koordination der Spieler*innen auf dem Fußballplatz besser zu verstehen und auch analytisch zu fassen, um dann Aussagen zu machen, die Fußballvereine interessieren. Die Methoden, die wir dazu entwickeln, sind dabei nicht zwingend auf Profifußball beschränkt, sondern erlauben uns auch andere Bewegungsdaten besser zu verstehen, z.B. Migration, öffentlicher Nahverkehr oder allgemein Probleme, in denen sich ein oder mehrere Agenten oder Objekte in Raum und Zeit bewegen.

Gunnar Brune/AI.Hamburg: Eine Sekunde, ich komme da nicht ganz mit. Die Frage „Wie schieße ich ein Tor?“ ist verwandt mit der Frage, wie ein Migrant zu seinem Ziel findet und mit der Frage, an wie vielen roten Ampeln ich auf dem Weg zur Leuphana Universität anhalten muss?

Prof. Dr. Ulf Brefeld: Formal gesehen sind das ähnliche Problemstellungen: wir haben Sequenzen von Zeitstempeln und Orten. Diese beschreiben ein Zeit-Raum-Problem von einem oder mehreren Agenten, in diesem Fall Personen, die sich nach irgendeinem Muster bewegen. In der Regel, laufen Menschen ja nicht zufällig durch die Gegend, sondern sie verfolgen mit ihrer Bewegung ein Ziel. Die Fußballer wollen z.B. ein Tor erzielen, Störche wollen in Afrika überwintern, der öffentliche Personennahverkehr will pünktlich sein. So unterschiedlich diese Situationen sind und so unterschiedlich wir sie umgangssprachlich beschreiben, so ähnlich sind sich die Formalisierungen.

Gunnar Brune/AI.Hamburg: Was macht in diesem Zusammenhang gesellschaftlich sehr relevanter Themen ausgerechnet den Fußball zum Forschungsgegenstand?

Prof. Dr. Ulf Brefeld: Beim Fußball haben wir die Daten durch die Kooperation mit der DFL und dem DFB. Die Positionen der einzelnen Fußballspieler in den Spielen der ersten und zweiten Bundesliga werden regelmäßig mit Spezialkameras aufgenommen, um die Daten zu generieren. In den anderen Fällen ist es nicht so einfach. Generell ist die Verarbeitung von personenbezogenen Daten sinnvollerweise durch den Datenschutz eingeschränkt.

Gunnar Brune/AI.Hamburg: Und findet man dabei die allgemein bekannten Spielsysteme wie 4-4-2 oder 4-3-3 wieder? Oder schaut man nach anderen Dingen?

Prof. Dr. Ulf Brefeld: Wir schauen weniger nach Systemen. Oft widersprechen sich da auch die Expert*innen, und bereits kleine taktische Umstellungen verändern manchmal den Charakter der Aufstellung. Es geht uns tatsächlich mehr um Koordination.

Gunnar Brune/AI.Hamburg: Wenn Sie diese Frage beantworten wollen, wie suchen Sie dafür den Algorithmus aus und wie trainieren Sie ihn? Ein Marketingprofessor kann seinen Algorithmus z.B. mit Amazon-Bewertungen trainieren, aber wie macht man das bei einem Fußballspiel?

Prof. Dr. Ulf Brefeld: Das Vorgehen ist grundsätzlich eigentlich immer gleich. Man überlegt sich zunächst, wie man die Qualität eines etwaigen Algorithmus’ evaluieren möchte. Aus der Evaluierung entspringt dann eine Blaupause des Algorithmus auf natürliche Weise. Beim Fußball ist es beispielsweise so: Wir maximieren den „Gewinn“ (Reward). Dazu messen wir keine Tore, die sind beim Fußball zu zufällig, sondern z.B. das Eindringen in den Strafraum mit dem Ball. Wird der Ball vorher verloren, dann ist es ein negatives Beispiel. Trägt ein Team den Ball in den Strafraum des Gegners, dann ist es ein positives Beispiel. Aus historischen Spielen lernt das System dann die Aktionen der Spieler*innen im Kontext zu bewerten und kann Wahrscheinlichkeiten berechnen, ob diese Aktionen zu einem positiven oder negativen Ausgang führten.

Abbildung:
Fussball_Passwahrscheinl_Prf

AI sagt Passgenauigkeit voraus: Der Ball ist beim blauen Spieler mit dem schwarzen Kreis oben an der Mittellinie. Rot markiert sind die Räume, in denen die Mitspieler angespielt werden können (je röter, desto sicherer ist der Pass) und die Zahlen sind Wahrscheinlichkeiten, dass ein Zuspiel auch funktioniert (Laufwege, Schwierigkeit des Passes, Abfangwahrscheinlichkeiten, usw.). Quelle: Prof. Dr. Ulf Brefeld, Leuphana Universität Lüneburg

Gunnar Brune/AI.Hamburg: Was kommt dabei heraus? Kann man einem Trainer danach empfehlen, dass er seine Mannschaft diagonale, halbhohe Pässe trainieren lassen soll? Wie weit ist die Forschung hier aktuell?

Prof. Dr. Ulf Brefeld: Wir können durchaus Empfehlungen ableiten, für eine sportwissenschaftliche Fundierung bräuchten wir allerdings eine längerfristige Kooperation mit Sportwissenschaftler*innen oder einem Verein. Im Augenblick beschränken wir uns daher auf die Grundlagenforschung im Bereich der Koordination mehrerer Agenten in Raum und Zeit. In Deutschland scheinen viele Vereine für datengetriebene Analysen noch nicht wirklich bereit, sie kommen traditionell aus einer anderen Zeit und sind häufig noch nicht so weit in Sachen Digitalisierung. Manchmal habe ich auch den Eindruck, dass es starke Ressentiments gibt, dass Datenanalysen die Seele des Fußballs auffressen könnten usw. Aber abgesehen von uns arbeiten natürlich große Vereine wie z.B. FC Barcelona oder Liverpool FC ebenfalls an datengetriebenen Einsichten, die die Mannschaft voranbringen. Geschadet hat es ihnen bisher nicht.

Gunnar Brune/AI.Hamburg: Künstliche Intelligenz erlaubt uns in vielen Fällen, aus unserem linearen Denken auszubrechen und komplexe Situationen besser zu verstehen. Gibt es so eine Art Vorurteil, dass die digitalen Analysen alles gleich machen, anstatt die Vorteile von etwas Besonderem zu erkennen?

Prof. Dr. Ulf Brefeld: Ich denke, es ist etwas anders. Es gibt Dinge, die kann der Mensch gut und es gibt Dinge, die können die Maschinen gut. Immer wenn wir versuchen, etwas zu machen, was die Maschinen besser können, scheitern wir. Und andersherum ist es genauso. Maschinen schreiben jetzt z.B. keine extrem tollen Gedichte. In vielen Bereichen könnte man vielleicht Mehrwerte schaffen, indem man hybride Lösungen sucht. Die Maschinen machen den Teil, den sie gut können, wir machen den Teil, den wir gut können. Ich denke, wir müssen dafür neue Formen der Zusammenarbeit finden.

Gunnar Brune/AI.Hamburg: Also in neuen Formen der Zusammenarbeit besser verstehen, wie der Ball in den Strafraum kommt oder der Bus pünktlich abfährt?

Prof. Dr. Ulf Brefeld: Genau! Die Trainer*innen und Busfahrer*innen können und wollen wir nicht ersetzen, auch nicht die Co-Trainer*innen und Scouts, aber wir können Algorithmen bauen, die ihnen mehr Zeit verschaffen. In der Spielvorbereitung sehen sich die Videoanalysten mehrere Spiele des Gegners an und schneiden Szenen zusammen, die sie für wichtig halten. Wenn wir diese Arbeit (teil-)automatisieren könnten, dann hätten sie schon viele Stunden Zeit gespart und könnten sich mit anderen Dingen beschäftigen.

Genau in solch sensiblen Bereichen brauchen die Vereine aber eine individuelle Lösung, die die eigene Spielphilosophie und Tradition des Vereins implementiert. Eine solche Lösung kann daher nur in einer Kooperation mit einem Verein entwickelt werden. Wir arbeiten z.B. in einigen Projekten mit dem Deutschen Fußballbund zusammen. Heute (das Interview wurde am 28.08.20 geführt) werden wir die Sieger beim zweiten Hackathon der DFB-Akademie küren. Die teilnehmenden Teams mussten verschiedene Challenges bewältigen, dazu zählten das taktische Verhalten in Offensive und Defensive oder das Umschaltspiel bei Ballgewinn oder Ballverlust. (https://www.dfb.de/news/detail/dfb-akademie-initiiert-zweiten-hackathon-212119/).

Gunnar Brune/AI.Hamburg: Der Fußball ist ein schönes Beispiel und wir wissen, der Fußball regiert die Welt, aber vielleicht können wir auch über andere Anwendungen sprechen?

Prof. Dr. Ulf Brefeld: Ich betrachte als Wissenschaftler immer die formale Repräsentation eines Problems. Wir können also gerne über andere Anwendungen von Künstlicher Intelligenz sprechen. Wir entwickeln neue Algorithmen, die formale Probleme lösen, die man vorher auf diese Art nicht lösen konnte. Irgendjemand hat mal gesagt: Angewandte Mathematik mit Feenstaub.

Gunnar Brune/AI.Hamburg: Mit Feenstaub?

Prof. Dr. Ulf Brefeld: Vielleicht nicht im wörtlichen Sinn. Die Idee meiner Forschungsgruppe an der Leuphana ist die Entwicklung formaler Methoden für Probleme, die über Raum und Zeit definiert sind. Zum Beispiel Trajektorien- und Multiagentenprobleme wie das Fußballprojekt. Wir arbeiten auch an dem Verstehen von Nutzern im Internet oder in Online-Szenarien. Hier ist die Trajektorie gegeben durch User-Navigation auf einer Website. Ein anderer Fokus von uns liegt auf adaptiven Lernumgebungen. In einem Projekt zu einem elektronischen Geschichtsbuch für Kinder haben wir versucht, herauszufinden, was die Kinder mit dem „Buch“ im Unterricht und zu Hause machen. Ziel wäre es, aus dem Nutzerverhalten einen Prädiktor für erfolgreiches Lernen abzuleiten. Einen solchen Prädiktor könnte man dann in das Buch einprogrammieren und das Buch zu einem adaptiven Buch machen. Im Dialog mit dem Kind könnte das Buch dann zum Beispiel hinweisen „Du hast die Seite mit der Lösung für die Frage noch gar nicht zu Ende gelesen, warte noch mit der Antwort“.

Im Augenblick versuchen wir weiter in Richtung Lernen und Üben zu gehen, in dem wir eine Art adaptive Lernumgebung schaffen. Wir brauchen dafür aber nicht nur die Informatik, sondern z.B. auch Didaktik, Psychologie und Linguistik im Team. Fördermittel für solche großen interdisziplinären Projekte sind oft schwer zu finden, aber wir sind derzeit auf einem sehr guten Weg mit einer Stiftung.

Gunnar Brune/AI.Hamburg: In fast allen Interviews dieser Reihe kommen wir irgendwann auf die Frage, woher die Algorithmen kommen. Im Film „The Social Network“ wird der Facebook-Algorithmus noch mit leichter Hand an eine Scheibe geschrieben. In dieser Interviewreihe haben bisher viele Anwender gesagt, “ich schaue mir das Problem an, suche mir einen Algorithmus und probiere den auf dem Problem aus“. Sie sind der erste, der sagt, dass er die auch selber baut.

Prof. Dr. Ulf Brefeld: Sie haben wahrscheinlich vorher eher mit Anwender*innen gesprochen, die Methoden der Künstlichen Intelligenz anwenden und versuchen, Probleme mit bereits existierenden Algorithmen zu lösen. Wir entwickeln dagegen neue Methoden für Probleme, für die es noch keine Standardalgorithmen gibt.

Gunnar Brune/AI.Hamburg: Wie macht man so etwas?

Prof. Dr. Ulf Brefeld: Wir versuchen für das Problem eine geeignete Fehlerfunktion zu finden, die wir dann minimieren, damit die Lösung möglichst keinen Fehler macht. Sobald die Funktion gefunden ist, leiten wir sie ab, berechnen einen Gradienten oder nutzen ein anderes Optimierungsverfahren, das sich anbietet. Wir wollen die technische Entwicklung dabei immer ein wenig weiter nach vorn schieben.

Gunnar Brune/AI.Hamburg: Wie hoch ist die Mathematik, die dafür verwendet wird? Ist die Mathematik im Rahmen des Abi-Wissens, also Intervalle, Abweichungen, Ableitungen, nur umfangreicher? Oder ist das eine Mathematik, wo der normale Abiturient mit gesundem Menschenverstand aussteigt. Wie kompliziert ist so eine Formel von den Grundbausteinen?

Prof. Dr. Ulf Brefeld: Die ist eigentlich überschaubar. Ich denke, wenn sie gut in Mathe sind und Lust darauf haben, dann ist das kein Problem. Aber wir lesen schon viel in Büchern, die man nicht jeden Tag liest und suchen dort z.B. nach Optimierungsalgorithmen oder neuen Ideen. Zum Beispiel, haben wir in letzter Zeit viel mit konvexen Hüllen gemacht.

Gunnar Brune/AI.Hamburg: Was ist eine konvexe Hülle?

Prof. Dr. Ulf Brefeld: Das ist die kleinste Teilmenge der Daten, die alle anderen Daten umgibt. Salopp gesagt, alle Punkte, die den Rand der Daten bestimmen. Oft ist man z.B. an Gruppenstrukturen in den Daten interessiert. Man versucht also Aussagen über ähnliche Datenpunkte zu machen, in dem man sie als eine Gruppe (Cluster) zusammenfasst. Man analysiert dann nicht mehr die einzelnen Punkte, sondern nur noch die Gruppe als Ganzes, die z.B. durch ihren Mittelwert bestimmt wird.

Wenn wir den Ansatz über konvexe Hüllen verfolgen, repräsentieren wir die Datenpunkte nicht durch Mittelwerte, sondern durch Extremwerte, die am Rand der Datenpunkte liegen, also auf der konvexen Hülle. Wir erhoffen uns dadurch eine bessere Erklärbarkeit der Gruppenzugehörigkeit. Wenn man mir z.B. sagt „Du bist in diesem Cluster“, dann weiß ich eigentlich nicht, wie nah ich wirklich am Zentrum des Clusters bin, wie groß er ist, wie weit die anderen entfernt sind, usw. Ich weiß nur, dass ich in dieser Gruppe bin, aber nicht, was drumherum existiert. Wenn ich aber sage, dass ich näher an dem einen oder anderen Extremwert bin, dann habe ich gleich eine Art Skala, auf der ich mich selbst verorten kann.

Gunnar Brune/AI.Hamburg: Könnte man so ein Modell auch auf die politische Landschaft anwenden? So wie – insbesondere für die USA – man bisher davon ausging, dass der Kampf um die „Mitte“ stattfindet, man aktuell aber den Eindruck gewinnt, die Extreme bestimmen die Entscheidung mehr und sich die Taktik der Wahlkämpfer entsprechend verändert hat? Könnte man dies mit so einem Modell untersuchen?

Prof. Dr. Ulf Brefeld: Möglicherweise ja.

Gunnar Brune/AI.Hamburg: Kommen wir nochmal zur Entstehung der Algorithmen zurück. Wie können die noch entstehen?

Prof. Dr. Ulf Brefeld: Algorithmen können auch aus vorhandenen Problemen heraus entstehen. Das heißt, jemand möchte ein bestimmtes Problem mit bestimmten Daten lösen. In der Praxis haben entweder die Probleme oder die Daten eigentlich immer irgendwelche Eigenschaften, die man ausnutzen kann, um eine bessere Lösung zu finden als mit Standardalgorithmen. Man muss dazu also das Problem und die Daten gut verstehen. Im Prinzip läuft es dann wieder wie vorhin beschrieben. Man würde wieder versuchen, eine Fehlerfunktion aufzustellen, die dann minimiert wird. Es kann gut sein, dass diese Fehlerfunktion ähnlich zu der eines Standardalgorithmus’ ist, aber vielleicht über einen zusätzlichen Term verfügt, der die charakteristischen Eigenschaften des vorliegenden Problems/der Daten ausnutzt.

Gunnar Brune/AI.Hamburg: Was muss sich der Laie unter einem Algorithmus vorstellen? So etwas wie eine mathematische Formel?

Ein Algorithmus ist eine Berechnungsvorschrift, also eine Blaupause, die die mathematische Idee in die Computerwelt übersetzt. Es ist eine Vorschrift, in der Variablen, Formeln, aber auch Kontrollstrukturen wie z.B. Schleifen vorhanden sind. Wenn ich z.B. ein Modell lernen möchte, dann schaue ich mir vielleicht zuerst nur einen Datenpunkt an und prüfe, ob das aktuelle Modell diesen Datenpunkt richtig vorhersagt. Falls ja, nehme ich den nächsten Datenpunkt und wiederhole den Test. Falls nein, ändere ich gemäß den mathematischen Formeln zunächst das Modell, bevor ich zum nächsten Datenpunkt übergehe. Die Schritte wiederhole ich dann solange bis das Modell konvergiert ist und, im besten Fall keine Fehler mehr macht. Diese Berechnungsvorschrift ist der Algorithmus.

Gunnar Brune/AI.Hamburg: Aktuell trainieren wir die Künstliche Intelligenz, Dinge für uns zu tun, für die wir viel Zeit benötigen würden oder die wir als Menschen wegen ihrer Komplexität nicht tun können. Was brauchen wir, um mit Künstlicher Intelligenz viel weiter zu kommen? Was wäre der nächste Schritt und woran fehlt es? Akzeptanz in der Anwendung, finanzielle Mittel, Computerpower oder Informatikstudenten?

Prof. Dr. Ulf Brefeld: In der Bevölkerung fehlt es vielleicht ein wenig an Akzeptanz. Bei dem Schulbuchprojekt haben einige Lehrer*innen das elektronische Buch beispielsweise abgelehnt und gar nicht im Unterricht eingesetzt. Weiterhin sehe ich das Problem, wenn auch nicht so stark wie vielleicht noch vor zwei bis drei Jahren, dass die Wirtschaft schon gerne Daten analysieren würde, aber die Notwendigkeit zu investieren nicht erkannt hat oder nicht gewillt ist, diese Investitionen zu realisieren. Man muss sich wirklich überlegen, vor welchem Sprung wir gerade sind. Wir stoßen das Tor zu einer neuen Welt auf, in der die Karten neu gemischt werden. Von den Unternehmen und Marken, die wir heute kennen, ist nicht gesagt, dass sie morgen noch da sind. Wir konkurrieren gerade nicht allein mit der westlichen Welt, wir konkurrieren mit allen. Ein Beispiel: Wenn es jemandem heute gelingt, Kresse mit Hilfe eines Computers anzubauen, also automatisch mittels Sensoren Wärme, Wasser usw. optimal auf die täglichen Bedürfnisse der Pflanze einzustellen, dann wird sie oder er morgen Kresse viel billiger anbauen als alle anderen. D.h. wenn ich jetzt nicht in Künstliche Intelligenz investiere, dann kann es sein, dass das mein letzter entscheidender Fehler war.
Insgesamt würde ich aber sagen, dass es sich gebessert hat. Dennoch haben Deutschland und die deutsche Wirtschaft einen extremen Nachholbedarf. Wir sind noch nicht gut aufgestellt, auch wenn wir gerade etwas aufholen. Und: Wir brauchen noch viel mehr Data Scientists.

Gunnar Brune/AI.Hamburg: Aber ist Data Science nicht gerade sehr beliebt bei den Studenten und wächst nicht genug Nachwuchs heran?

Prof. Dr. Ulf Brefeld: Ja, das ist richtig, aber wir brauchen viel mehr. Es wird wahrscheinlich noch Jahre brauchen, bis wir überhaupt die Menge an Expert*innen ausbilden, die wir brauchen. Zwar bietet mittlerweile jede Universität einen Data-Science-Studiengang an, aber die Studierenden brauchen Zeit, bis sie ihr Studium abgeschlossen haben, und die meisten Programme sind recht klein und nehmen nur wenige Studierende auf. Wir könnten heute tausende, vielleicht zehntausende Absolvent*innen entlassen und sie würden alle sofort einen Job finden.

Gunnar Brune/AI.Hamburg: Data Science ist doch nur ein Teil von Künstlicher Intelligenz.

Prof. Dr. Ulf Brefeld: Im Prinzip ist Data Science etwas angewandter, oft sogar fachbezogen und beinhaltet u.a. auch Datenbankthemen, die in der reinen AI so nicht zu finden sind. Gerade deshalb sind diese Absolventen sehr relevant für die Wirtschaft. Ein*e Data Scientist besetzt eine Schnittstellenposition. Wenn man eine große Firma wäre, dann hätte man optimalerweise Spezialist*innen für Künstliche Intelligenz, man hätte die Data Scientists, die den Transfer in die Abteilungen übernehmen und man hätte die Softwareentwickler*innen, die Konzepte in die Praxis umsetzen. Im Zuge dessen entwickeln sich jetzt viele neue Berufsbilder wie z.B. Data Engineer, Data Scouts.

Gunnar Brune/AI.Hamburg: Jetzt sind wir schon in der Praxis angekommen, obwohl Sie Forscher sind. Lassen Sie uns deshalb einen Schritt zurückgehen und fragen, wohin die Forschung geht. Geht sie in die Breite und versucht immer mehr Anwendungsfälle zu finden, oder steht man vor einer Tür, die einem noch ganz andere Möglichkeiten bietet, wenn es gelingt, sie zu öffnen? Brauchen Sie zum Beispiel mehr Rechenpower?

Prof. Dr. Ulf Brefeld: In Bezug auf Rechenpower gibt es bereits eine klare Trennung von universitärer und industrieller Forschung. Allein der Strom für die Berechnung von Googles AlphaStar kostete mehrere hunderttausend Dollar, von der Hardware ganz zu schweigen. Das ist für eine Universität natürlich nicht machbar. Die Rechenpower bestimmt dadurch zu einem großen Teil auch die Probleme, die man angehen und realistischerweise lösen kann. Dies gilt insbesondere für moderne neuronale Architekturen, die nicht mehr mit klassischen CPUs, sondern auf GPUs, also speziellen Hochleistungsgrafikkarten, berechnet werden.

Gunnar Brune/AI.Hamburg: Das heißt, diese Grafikkarten wurden tatsächlich ursprünglich u.a. für Computerspiele entwickelt?

Prof. Dr. Ulf Brefeld: Ja. Im Grunde sind das gewöhnliche Grafikkarten, die als High-End-Versionen produziert werden. So, wie wir sie nutzen, wären sie natürlich zu teuer für Gamer. Für uns werden zum Beispiel Hochleistungsbusse in die Rechner eingebaut, damit die Daten schneller auf die Grafikkarten kommen, die Wärmeentwicklung der Karten ist anders und die damit verbundene Lebensdauer bei Dauerbetrieb sehr viel höher usw. Die bessere Hardware und die Verfügbarkeit von sehr großen Datenmengen hat die Forschung mit neuronalen Netzen wieder belebt. Es gibt hier aber oft keine theoretischen Erkenntnisse, die einem verraten, wie genau so ein neuronales Netz für ein bestimmtest Problem aussehen sollte. Man muss daher möglichst viele verschiedene Architekturen ausprobieren. Das ist sehr aufwändig und man braucht eine vernünftige Infrastruktur, um ein gutes Netz zu identifizieren.

Gunnar Brune/AI.Hamburg: Das klingt jetzt ein wenig wie die Berichte eines Anwenders, mit dem ich gesprochen habe, bei dem gute neue Lösungen in der Anwendung von neuronalen Netzen auch viel vom Zufall abhingen.

Prof. Dr. Ulf Brefeld: Ja. Es gibt viel Ausprobieren mit diesen Netzen. Das ist ein wenig schade, denn das steht natürlich unserer erkenntnisgetriebenen Forschung entgegen. Natürlich sind neuronale Netze nicht komplett theoriefrei, aber im Augenblick überwiegt noch die Black Box. Viele probieren daher lange herum und berichten dann das eine tolle Ergebnis. Das hat mit Wissenschaft dann natürlich nicht mehr viel zu tun.

Gunnar Brune/AI.Hamburg: Ist das nicht ein wenig ernüchternd?

Prof. Dr. Ulf Brefeld: Genau, hier sind wir als Forscher gefragt, und deshalb gibt es zur Zeit viele Ansätze, die sich mit der Interpretierbarkeit von neuronalen Netzen beschäftigen. Wir wollen verstehen, wie das Modell aussehen muss, wenn neuronale Netze eingesetzt werden sollen. Wir wollen Erklärbarkeit schaffen. Und wir wollen, dass uns das neuronale Netz hilft zu verstehen, warum es zu einer Entscheidung gekommen ist. In diesem Zusammenhang ist auch die Konfidenz einer Entscheidung wichtig. Oft reichen bereits minimale Veränderungen in einem Bild aus, um den darin zu sehenden Hund fälschlicherweise als Auto zu klassifizieren.

Gunnar Brune/AI.Hamburg: Wie das bekannte Beispiel von dem verpixelten Portraitfoto von Barak Obama, das eine AI als weißen Menschen „hochgerechnet“ hat?

Prof. Dr. Ulf Brefeld: Ja. Wenn ich die Lösung ernst nehmen will, dann darf so etwas nicht passieren. Wenn ich ein Bild leicht verrausche, erwarte ich, dass die Klassifikation eben auch nur leicht anders ist und nicht komplett falsch. Das Problem ist, dass Datenpunkte oft nahe an Entscheidungsgrenzen liegen. Auf der einen Seite sind z.B. die Hunde, auf der anderen Seite die Autos. Durch das leichte Verändern eines Bildes rutscht der Datenpunkt manchmal auf die andere Seite der Entscheidungsgrenze und wird dann als Auto klassifiziert.

Gunnar Brune/AI.Hamburg: Hilft hier jetzt mehr Rechenpower oder ein besseres Verständnis der Modelle und vielleicht bessere Modelle?

Prof. Dr. Ulf Brefeld: Ja klar, im Endeffekt wäre ein Teil der Lösung, mehr Daten verarbeiten zu können. Denn je mehr Daten ich habe und verarbeiten kann, desto besser lässt sich die zugrundeliegende Verteilung approximieren. Für größere Datenmengen kann man oft einfachere Modelle benutzen. Aber nicht auf jede Frage gibt es auch eine einfache Antwort. Und deshalb forschen wir auch daran, komplexe Modelle besser anwenden und verstehen zu können.

Und eigentlich ist gar nicht so wichtig, ob mehr Daten oder bessere Modelle und Methoden die Lösung sind. In der Forschung machen wir für beide Wege große Fortschritte. Wie ich vorhin schon gesagt habe: Es wäre wunderbar, wenn diese Fortschritte in der Forschung Künstlicher Intelligenz in unserer Gesellschaft und Wirtschaft auf etwas mehr Akzeptanz und Investitionsbereitschaft träfen. Wir könnten viel erreichen.

Gunnar Brune/AI.Hamburg: Herr Professor Brefeld, vielen Dank für das Gespräch.


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie- und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!” und dem Bildband „Roadside”. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

AI.Hamburg HK Zahlen Infographic

AI.Hamburg fördert das Wissen und den breiten Einsatz von künstlicher Intelligenz und maschinellen Lernens in den Unternehmen der Region. Doch wie weit sind wir in Hamburg, wie weit nutzen wir unsere Chancen? Die aktuelle Studie der Handwerkskammer macht Mut. Die Entwicklung ist sehr dynamisch, viele Unternehmen und Forscher profitieren von der Zusammenarbeit. 70 % der AI-Entwickler haben Kontakt zu Hamburger AI-Wissenschaftlern.

71 % der Anwender haben sich mit AI intern verbessert. 80 % mehr AI-Anwendungen in Hamburg sind in den nächsten Monaten geplant. Und AI lohnt sich auch finanziell: 45 % der Anwender haben mit AI Kosten reduzieren können. Aber: Das gilt für die, die in Hamburg AI schon nutzen. Die Unternehmen, die dies nicht tun, geraten ins Hintertreffen. Oder, wie es einer unserer Gesprächspartner vor kurzem sagte: Wenn ich mich jetzt nicht mit AI beschäftige, könnte es sein, dass das mein letzter entscheidender Fehler war.

Die lesenswerte Studie der Handelskammer Hamburg findet man hier:
https://www.hk24.de/produktmarken/digitalportal/technologien/standpunktepapier-kuenstliche-intelligenz-4899146

Dr. Ralph Grothmann
Dr. Ralph Grothmann

Herr Grothmann studierte an der Universität Bremen Wirtschaftswissenschaften mit dem Schwerpunkt Finanz- und Investitionstheorie, insbesondere Modellierung von Finanzmärkten mit neuronalen Netzen. Nach seinem Abschluss als Diplom Ökonom im Jahr 1999 und seiner Promotion im Jahr 2003 an der Universität Bremen ist er seit 2003 bei der Siemens AG tätig. Zunächst bei der Corporate Technology in Forschungsgruppe für Lernende Systeme, derzeit ist er Principal Consultant für Forecasting-Lösungen und leitet ein Data Lab für Siemens in Deutschland. Herr Grothmann ist ein Mitglied des wissenschaftlichen Beirats der Deutschen Gesellschaft für Operations Research (GOR e.V.) und Mitbegründer der GOR Arbeitsgruppe (AG) Analytics und stellvertretender Leiter der AG Prognoseverfahren.

Über die Siemens AG
Siemens ist ein weltweit tätiges Unternehmen mit dem Fokus auf Elektrifizierung, Automatisierung und Digitalisierung. Als einer der größten Anbieter energieeffizienter, ressourcenschonender Technologien ist Siemens führend bei Systemen für die Energieerzeugung und -übertragung sowie die medizinische Diagnose. Bei Lösungen für Infrastruktur und Industrie nimmt das Unternehmen eine Vorreiterrolle ein. Die Siemens AG beschäftigte zum 30. September 2019 auf fortgeführter Basis rund 385.000 Mitarbeiter und erwirtschaftete im Geschäftsjahr 2019 Umsatzerlöse in Höhe von rund 87 Mrd. € und einen Gewinn nach Steuern von 5,6 Milliarden €.

 


 

Gunnar Brune/AI.Hamburg: Herr Dr. Grothmann, was machen Sie und was machen Sie mit künstlicher Intelligenz?

Dr. Ralph Grothmann: Ich leite das Data Lab der Siemens-Region Deutschland in Bremen. Dort beschäftigen wir uns mit allen Fragestellungen rund um Data-Analytics. Wir nutzen maschinelles Lernen bzw. künstliche Intelligenz und arbeiten cross-sectional, also branchenübergreifend. Von Automotive bis Food & Beverage gibt es deshalb viele Themen für uns.

Gunnar Brune/AI.Hamburg: Was ist Ihr Forschungsschwerpunkt?

Dr. Ralph Grothmann: Ich persönlich komme aus der Zeitreihenanalytik. In der Forschung ist mein Schwerpunkt die Analyse von dynamischen Systemen, Zeitreihenprognosemodelle und speziell die Nutzung rekurrenter neuronaler Netze. Das heißt, mich interessiert, wie sich ein Sensorwert entwickelt oder sich eine Kombination von Sensorwerten über die Zeit darstellt. Diese Modelle werden beispielsweise bei präventiver Wartung und in der Prognose der Kundennachfrage eingesetzt. Also Fragen wie der, wie viele Kunden ein Produkt in den nächsten 3, 6 oder 12 Monaten nachfragen, damit Produktionsplanungs- und Steuerungsprognosen sowie Rohstoffpreisprognosen gemacht werden können.

Gunnar Brune/AI.Hamburg: Sie haben 10 Jahre an Künstlicher Intelligenz geforscht und bringen sie jetzt in der Produktion zur Anwendung. Geben Sie uns bitte ein Beispiel für eine typische AI-Technologie, mit der Sie arbeiten.

Dr. Ralph Grothmann: Wir arbeiten viel mit neuronalen Netzen. Ein spezieller Typ von neuronalen Netzen sind die Convolution Neuronal Networks. Diese können lokale Strukturen und lokale Nachbarschaftsstrukturen in den Daten erkennen. Hiermit können wir viele Fragen zur Qualität in der Produktion beantworten. Wir lösen damit zum Beispiel Lokalisierungs- und Bewertungsprobleme von Lötstellen. Praktisch bedeutet dies: Bilder erkennen, Features automatisiert generieren und darauf aufbauend diese klassifizieren um zu erkennen, ob eine Lötstelle in Ordnung ist, oder zu erkennen, wo eine defekte Lötstelle liegt. Die grundliegende Technologie kann man in vielen Industrien anwenden.

Mein Team analysiert teilweise sehr unterschiedlichste Datenquellen. Dazu zählen Bilddaten, aber auch Sound- und Vibrationsdaten. Stellen sie sich einen Rasierapparat vor, der nach dem Anschalten brummt. Anhand dieses Brummens können sie eine Qualitätsprüfung am Ende des Bandes durchführen, um festzustellen ob der Apparat funktioniert oder einen Defekt aufweist. Das ist eine typische Anwendung in der Qualitätssicherung. Weitere Arbeitsschwerpunkte sind die Analyse von unstrukturierten Daten, also Textdaten und Logfiles. Dazu kommen Längsschnittdaten im Sinne von Zeitreihen oder zeitlichen Entwicklungen. Für Klassifikationsmodelle analysieren wir wiederum Querschnittsdaten.

Im Längsschnitt schaue ich mir die Temperatur über den Tag an. Querschnittsdaten dagegen sind z.B. die Temperatur, die Luftfeuchtigkeit und andere Wetterfaktoren zur gleichen Zeit, zum Beispiel um 12 Uhr mittags. Auf dieser Basis könnte man bei einer bestimmten Datenlage sagen: „Es ist Sommer“. Ich habe also einen Merkmalsvektor, der nur Eigenschaften eines Objektes charakterisiert. Wenn sie Bonitätsprüfungen durchführen, dann haben solvente Kunden andere Charakteristika als insolvente Kunden. Im Customer-Relationship-Management wiederum gilt es, die Kunden zu identifizieren, die auf Grund ihrer Charakteristika eher auf eine Leistung reagieren, als andere.

Gunnar Brune/AI.Hamburg: Die Ernährungsindustrie ist ein Schwerpunkt Ihrer Arbeit. Mit welchen Themen haben Sie es hier zu tun und wie setzen Sie Künstliche Intelligenz ein?

Dr. Ralph Grothmann: In der Produktion der Ernährungsindustrie adressieren wir mit Künstlicher Intelligenz in den meisten Fällen die Qualität der Produkte. Oft gibt es einen Verarbeitungs- oder Produktionsprozess mit natürlich schwankenden Rohstoffen. Dann ist es das Ziel, eine Beziehung herzustellen, zwischen einer definierten Produktqualität und den Eingangsgrößen bzw. Produktionsparametern auf der Eingabeseite. Hierfür setzen wir neuronale Netze ein. Ein neuronales Netz ist ein nichtlineares Regressionsmodell welches die verschiedenen Teile in Beziehung setzen kann. Damit finden wir in der Produktion heraus, wann es zu minderer Qualität kommen kann und wo die Qualität schon frühzeitig positiv beeinflusst werden kann.

Gunnar Brune/AI.Hamburg: Was kann man sich dazu vorstellen? Kann diese Technologie einem Braumeister oder Käser helfen, die Fermentation besser zu steuern?

Dr. Ralph Grothmann: Das wären mögliche Anwendungen. Auch wenn Sie Durchmischungsprozesse haben oder Reinigungsprozesse. Hier stehen bestimmte Sensorwerte zur Verfügung und die AI kann mit der Information unterstützen, wann ein Durchmischungsprozess abgeschlossen ist oder ein Reinigungsprozess frühzeitig beendet werden kann. Ein anderer Fall wäre, wenn man sieht, dass Ausschuss produziert wurde. Hier stellt sich die Frage, ob es systematische Muster im Anlagenbetrieb und im Anlagenverhalten gibt. Daraus kann dann eine Diagnose abgeleitet werden, und man kann den Anlagenbetrieb so ändern, dass ein fehlerhafter Betrieb der Anlage systematisch vermieden wird.

Gunnar Brune/AI.Hamburg: Das bedeutet wiederum, dass AI dem Menschen hilft, den Prozess genauer zu steuern?

Dr. Ralph Grothmann: Exakt! So kann ein Prozess zum Beispiel ressourcenschonender gesteuert werden. Dafür wird im Food & Beverage-Bereich häufig mit Bilderkennung gearbeitet. Damit kann automatisiert die Qualität von Eingangsrohstoffen bewertet werden. Stellen sich vor: Sie haben Pflanzen und sie wollen den Reifegrad messen. Mit der Bilderkennung können sie auch messen, wie viele Stiele dabei sind und wie viele Blätter geliefert wurden. Auf diese Weise kann die Künstliche Intelligenz einem menschlichen Kontrolleur helfen und sie oder ihn entlasten.

Das funktioniert auch auf dem Feld: Ein Szenario dafür wäre, dass eine Drohne über ein Feld fliegt. Nehmen wir an, dass die Pflanzen in Reihen angeordnet sind. Dann kann man erkennen, wie der Wachstumsstand der Pflanzen ist, wie viel Unkraut dazwischen wächst und man kann eine Wachstumsprognose abgeben. Konkreter: Wenn eine Drohne tief über ein Erdbeerfeld fliegt, dann können Sie sehen, wie die Erdbeeren gewachsen sind, Sie können sehen, ob sich andere Pflanzen, die Sie ggf. nicht wollen, zwischen den Erdbeeren befinden, und Sie können eine Ertragsprognose machen. All dies ist denkbar.

Oder gehen wir vom Feld zurück an eine Anlage in der Produktion: Nehmen wir an, ein Produkt wird automatisiert bewegt, zum Beispiel ein Baguette oder eine Pizza. Typisch wäre hier die Pizza Salami auf der sie vier Salamischeiben haben wollen, die natürlich auch noch ansprechend auf der Pizza positioniert sein sollen. Bisher gibt es dafür einen manuellen Kontrollprozess, der die Zahl und die Passung der Scheiben überprüft und diesen Prozess können Sie jetzt automatisieren.

Gunnar Brune/AI.Hamburg: Was muss für ein gutes Digitalisierungsprojekt mit Künstlicher Intelligenz bedacht werden?

Dr. Ralph Grothmann: Ein gutes Digitalisierungsprojekt deckt 4 Ecken eines Quadrats ab, sozusagen eines magischen Quadrats der Digitalisierung:

  1. Daten: Welches Datenmaterial liegt vor?
  2. Businesslogik und Domänenknowhow: Was ist die Problemstellung, was wollen Sie erkennen und mit welcher Güte?
  3. Methodik – oft durch externe Expertise. Was ist die richtige Methodik, um ein Modell zu erstellen? Was funktioniert und erfüllt die Qualitätsanforderungen?
  4. User Experience: Wer betreibt die Anlage/Anwendung und was muss der User mit dem Modell machen? Wie bringe ich ihm die Modellergebnisse nahe? Wie bette ich das in einen Arbeitsprozess ein und wie kann ich die neuen Informationen und Prozesse dem Nutzer, zum Beispiel dem Anlagenfahrer, vermitteln und ihm das Arbeiten damit ermöglichen. Erst wenn Sie den Benutzer, entsprechend abgeholt haben, können Sie davon ausgehen, dass die Künstliche Intelligenz auch entsprechend benutzt wird.

Ein Beispiel aus der Auswahl der AI-Methodik: Ich muss immer ein adäquates Modell für die Fragestellung finden. Wenn die Businesslogik sagt, ich möchte ein interpretierbares Modell, dann kann ich nicht mit neuronalen Netzen arbeiten, die nicht interpretierbar sind. Wenn ich keine Lichtlinearitäten habe, dann reichen andere Verfahrensklassen, als wenn ich hochdimensional nichtlinear modellieren muss. Die Überlegungen zur Methodik sind also ein Feld von sich überlagernden Bedingungen.

Gunnar Brune/AI.Hamburg: Für alle 4 Bereiche gibt es bestimmt Spezialisten. Zum Beispiel wird es Experten für die User Experience geben. Ist Ihre Aufgabe in so einem Projekt die des Jupp Heynkes des Maschinenparks: Sie trainieren die Algorithmen damit sie mit den Menschen im Team funktionieren?

Dr. Ralph Grothmann: Jupp Heynkes lassen wir mal dahin gestellt, ich sehe mich eher bei Florian Kohfeld (Trainer von Werder Bremen, Anm. d. Red.). Ja, ich versuche Daten und Modell zusammenzubringen und damit bestmöglich die Anforderungen von Domäneninhaber und Business zu verwirklichen. Ich kümmere mich, wenn ich das Modell übergebe, auch darum, dass die, die das Modell benutzen müssen, es verstehen. Das bedeutet auch, klar zu sagen, wo die Grenzen des Modells sind, was ich erwarten kann, was ich nicht erwarten kann. Also in welcher Situation es anwendbar ist oder eben nicht. Ich erkläre auch, wie man das Ergebnis eines solchen Modells interpretieren kann. Künstliche Intelligenz gibt eine Entscheidungsunterstützung, manchmal auch unter Unsicherheit. Man muss auch aufmerksam bei den Begrifflichkeiten sein. Wenn ich über eine Prognose oder über eine Klassifikation spreche, dann ist das etwas anderes, als wenn jemand aus seiner Domäne kommt und darüber spricht. Es ist auch wichtig, dass man versteht, dass die Technologien, die wir im Moment adressieren, zwar marktreif sind, und sich in ersten Anwendungen auch sehr gut bewährt haben. Aber sie sind noch in gewisser Weise fragil. Das heißt, es erfordert im Moment noch Experten, die Modelle kalibrieren, warten und pflegen, damit ein gutes Ergebnis garantiert werden kann. Natürlich gibt es das Ziel, dass Künstliche Intelligenz zu einer Commodity wird und dass man in Zukunft über automatisiertes maschinelles Lernen Modelle mit minimalem Konfigurationsaufwand wird herstellen können. Wenn Sie mal überlegen, früher brauchten sie einen Experten, der ihnen den DSL Router konfiguriert hat, heute packen sie das Ding aus und stecken den Stecker rein. Was maschinelles Lernen angeht, sind wir aktuell noch in der Situation dass sie einen Techniker brauchen, also sie können das noch nicht allein, wenn sie kein Experte sind. Es gibt aber deutliche Trends dahingehend, dass diese Prozesse automatisiert werden und durch weniger Data Scientists begleitet werden müssen.

Gunnar Brune/AI.Hamburg: Das wir überhaupt so viel Künstliche Intelligenz jetzt sehen, hat aber doch auch damit zu tun, dass die Technik immer leichter anzuwenden wird?

Dr. Ralph Grothmann: Genau! Die Komplexität wird den Anwendungen immer mehr genommen und das wird sich fortsetzen. Ein weiterer bestimmender Grund, warum wir jetzt so viel AI sehen ist, dass auch die Verfahrensseite und die Güte die manche Verfahren und Methoden haben, in den letzten Jahren noch einen Kick nach vorn erhalten haben. Bei vielen Anwendungen braucht man 90% Güte, aber oft hatten wir in den letzten Jahren nur 85%. Das war ganz nett, aber das war eben nicht für einen robusten Betrieb geeignet. Unter anderem durch die technologische Entwicklung im Bereich von neuronalen Netzen sind wir jetzt endlich in der Lage, genau über diese Schallmauer zu springen und deshalb wird AI wirtschaftlich immer interessanter.

Gunnar Brune/AI.Hamburg: Wie wurde diese Weiterentwicklung erreicht?

Dr. Ralph Grothmann: Ein schönes Beispiel ist die Bilderkennung, insbesondere die Gesichtserkennung. Im Wesentlichen musste früher ein Spezialist die Features annotieren. Ein Feature kann bei der Gesichtserkennung der Abstand zwischen den Augen, der Abstand von Augen und Nase, die Gesichtsform und etwas anderes sein. Dieser Prozess der Annotation ist jetzt quasi als Vorverarbeitungsschritt in das neuronale Netzwerk über Convolutions integriert. Und dadurch ist er natürlich auch uninterpretierbar geworden. Aber: Das Netzwerk ist jetzt in der Lage, Features zu generieren und darauf dann eine eigenständige Bewertung vorzunehmen. Das war der eigentliche Quantensprung. Es bedeutet aber auch, dass wir immer noch über das Interpretieren von Daten sprechen, bzw. der Optimierung von Modellen anhand von Daten. Es ist nicht so, dass das Netzwerk intelligent im Sinne eines Menschen wäre.

Gunnar Brune/AI.Hamburg: Künstliche Intelligenz kann also noch nicht beim Literarischen Quartett mitreden?

Dr. Ralph Grothmann: Richtig! Wir reden dabei auch nicht von Kreativität, das ist nicht denkbar.

Gunnar Brune/AI.Hamburg: Das ist nicht denkbar, weil lernende Maschinen „nur“ lernen Dinge schneller und besser tun, aber sie lernen nicht zu reflektieren?

Dr. Ralph Grothmann: Exakt! Und natürlich steuert der Mensch über die Bereitstellung des Lernmaterials auch die Ergebnisse die AI liefert.

Um auf die Produktqualität zu kommen: Wenn sie die Qualität von Rind- oder Schweinefleisch besser evaluieren wollen, dann können sie dies über dessen Infrarotspektrum machen. Jedes Gewebe hat eine unterschiedliche Signatur. Wassergehalt ist ein wichtiger Faktor. Damit können Sie Rückschlüsse auf das Tier ziehen, wie es ernährt wurde und wie schnell es gemästet wurde. Sie können die Produktqualität anhand dieser Produktcharakteristika sehen. Durch diese erste Einschätzung können sie teilweise auf aufwändige Laboruntersuchungen verzichten.

Gunnar Brune/AI.Hamburg: Wie lernen sie Algorithmen an und woher nehmen sie die Trainingswerte in der industriellen Anwendung?

Dr. Ralph Grothmann: Einem mathematischen Modell sind die Datenpunkte egal. Sie müssen also die Daten im ersten Schritt bewerten und überlegen, welche Daten das wahre System wiedergeben. Nehmen wir als das Beispiel Konsumentenverhalten und stellen uns ein Unternehmen des Versandhandels vor. Von einem Händler, der schon seit 1980 im Markt ist, bekommen sie mit Sicherheit auch Datenbestände aus dieser Zeit. Ich glaube aber nicht, dass diese Daten tatsächlich noch aktuelles Konsumentenverhalten wiederspiegeln. In den 80er Jahren gab es andere Trends und andere Technik. Die Leute hatten ein anderes Mindset als heute. Ich übertreibe mal etwas: Wenn man sich anschaut, wie sich Konsumenten in der Finanzkrise 2008 verhalten haben und damit versucht zu beschrieben, wie sie sich heute 2019 oder 2020 verhalten, dann wird das zu Problemen führen. Das heißt, es ist von zentraler Bedeutung, ein Verständnis davon zu haben, was überhaupt die richtigen Daten sind. Also das Alter der Daten, der Umfang der Daten und vieles mehr. Wenn ihnen in der medizinischen Anwendung das Modell zurückspielt, das Gewicht des Patienten sei ein wichtiger Faktor, dann müssen sie darüber nachdenken, ob das Gewicht entscheidend ist, oder ob das Gewicht einfach eine Stellvertretervariable für das Geschlecht ist, weil Männer schwerer sind als Frauen. Und dann haben sie ein Problem, denn allein mit dem Modellwissen und ohne das Expertenwissen sind sie verloren.

Gunnar Brune/AI Hamburg: Das bedeutet, dass es für Sie als Mathematiker bei Bestimmung und Training der AI wichtig ist, Hinweise zu bekommen, welchem Ergebnis welcher Wert zugeordnet werden kann, welche die Variablen sind, die zu messen sind, wie ihre Güte beurteilt werden kann und welche Werte für die Anwendung repräsentativ sind?

Ralph Dr. Grothmann: Richtig. Es gibt verschiedene Möglichkeiten, das zu beurteilen. Beispielsweise könnte ich auf Basis des Gewichts eine Zufallsvariable konstruieren, von der ich weiß, dass sie keine Bedeutung hat, weil sie einfach eine zufällige Verteilung hat, die zu der Gewichtsverteilung passt. Dann könnte ich versuchen, diese ins Modell einzustellen, um damit Scheinzusammenhänge zu erkennen. Und damit auch Kontrollen durchführen, um zu unterscheiden, ist es tatsächlich etwas, was ich sehe oder ist es ein Scheinzusammenhang. Scheinkorrelation sage ich jetzt nicht, weil das wäre nur ein linearer Zusammenhang. Nicht zuletzt bin ich natürlich darauf angewiesen, dass mir ein Experte sagt, „Ja, das ist korrekt.“, oder „Nein, das ist eigentlich nicht korrekt“. Ganz besonders schwer wird es, wenn Kombinationen wirksam werden, also immer wenn zwei Variablen zusammenwirken, die isoliert betrachtet anscheinend keinen Einfluss haben.

Gunnar Brune/AI.Hamburg: Wie ist der Weg zu einer funktionierenden, AI-unterstützten Anlage? Nehmen wir an, bei einer großen Molkerei wird eine Anlage mit AI-Komponenten installiert und man modelliert die Prozesse. Dafür gibt es viele Messpunkte. Sie sprechen mit dem Käser und suchen die besten Algorithmen aus. Und dann stellen Sie fest, die Algorithmen können es doch noch nicht so richtig, die müssen Sie besser trainieren. Oder sie stellen vielleicht fest, dass ein Algorithmus den Prozess nicht gut genug abbilden kann und sprechen noch mal mit dem Käser um eine bessere Lösung zu finden. Kann man sich das so ungefähr vorstellen?

Dr. Ralph Grohmann: Ja! Sie müssen sich das als einen iterativen Prozess vorstellen. Das macht man üblicherweise agil. Das heißt, wir definieren, wie ein erstes Minimal Viable Product oder Modell, also Minimal Viable Modell, aussehen könnte, dass die Aufgabenstellung adressiert. Damit bauen wir in kurzer Zeit einen ersten Prototypen, an dem der Kunde bereits sieht, in welche Richtung es geht. Wir sagen dann auch, welche Probleme es gibt: Was wir festgestellt haben, was funktioniert und was nicht. Daraus ergeben sich in der Diskussion mit den Domänenexperten die Modifikationen im Modell. Das wird dann schnell iteriert, so dass man in Wochen- oder 2-Wochen-Sprints auch entsprechend in der Lage ist, ein Modell auf die Beine zu stellen.

Gunnar Brune/AI.Hamburg: Und das Modell bringen sie dann für den Test auf die Maschine?

Dr. Ralph Grothmann: Idealerweise findet ein Test schon offline statt, und das unter realen Bedingungen. Wenn man schon im Bereich AI ist, dann kann man AI auch virtuell in Betrieb nehmen. Dazu benötigen sie einen digitalen Zwilling der Anlage auf dem sie das Modell versuchsweise laufen lassen. Nach erfolgreichem Lauf der Tests folgt dann natürlich das Deployment des AI-Modells auf die Anlage.

Gunnar Brune/AI.Hamburg: Nehmen wir an, dieses Interview liest der Geschäftsführer eines mittelständischen Produktionsbetriebs. Würden Sie ihm sagen, dass die Technik reif ist für sein Unternehmen?

Dr. Ralph Grothmann: Auf jeden Fall. Wir reden ja längst von funktionierenden Anwendungen in verschiedenen Industrien. Andererseits ist Künstliche Intelligenz auch noch keine Commodity. Es ist eine neue Technologie und damit haben sie indirekt ein höheres Projektrisiko. In manchen Projekten ist es nicht klar, ob mit den vorhandenen Daten die Aufgabenstellung lösbar ist. Bei anderen Aufgaben, wo es Referenzen und Erfahrungen gibt, ist es natürlich etwas anderes. Gerade bei der Bilderkennung und Bildverarbeitung kann ich ihnen sagen, welche Anwendung wahrscheinlich ziemlich gut funktionieren wird und welche nicht. Bei bestimmten Produktionsprozessen ist es schwieriger als bei anderen. Und dann ist es auch so, dass sie durch die verschiedenen Zwischenschritte einer agilen Prototypentwicklung schon sehr frühzeitig sagen können, ob man schnell ans Ziel kommt, ob es sich lohnt, weiterzumachen, oder ob noch einmal über das Scoping und die Aufgabenstellung gesprochen werden muss.

Gunnar Brune/AI.Hamburg: Bei Künstlicher Intelligenz kommt oft auch Big Data in Spiel. Wie ist es in Ihrer Arbeit? Wie viele Datenpunkte werden in so einem Projekt für eine Produktionsanlage benötigt?

Dr. Ralph Grothmann: Das ist sehr stark davon abhängig, wie einfach oder schwer die Aufgabenstellung ist. Ein lapidares Beispiel: Wenn sie eine Sinuswelle beschreiben, dann brauchen sie 20 Datenpunkte oder sogar weniger und sie haben ein perfektes Modell ihrer Sinuswelle. Da hilft ihnen dann auch keine Million von Datenpunkten, weil diese einfach redundant sind. Ich brauche eine statistisch repräsentative Stichprobe des Modells, die auch die verschiedenen Betriebszustände wiederspiegelt, um etwas machen zu können. Schauen wir uns noch einmal das Beispiel einer Bildverarbeitung an. Oft brauche ich nicht 100.000 Bilder sondern ein paar hundert Bilder um diese zu trainieren. Dazu arbeite ich mit Tricks in der Bildbearbeitung und der Anwendung von Transferlernen. Damit meine ich das „Verrauschen“ von Bildern, das Drehen von Bildern, die Farbanpassung. Dann kann ich mir „wie Münchhausen“ eine größere Datenmenge generieren, diese dann auch nutzen. und die Datenhungrigkeit von Deep Learning und ähnlichen Verfahren bedienen. Im Sinne des Transferlernens kann ich auch einem Netzwerk, dem ich für Kunden A beigebracht habe, Kartoffeln zu erkennen, auch für Kunden B beibringen, rote Beete zu erkennen. Und vielleicht brauche ich dann für die roten Beete weniger Bilder.

Gunnar Brune/AI.Hamburg: Was kommt als nächster Schritt auf uns zu: Werden wir jetzt unsere Hausaufgaben machen und die Möglichkeiten nutzen, welche die bestehende Technologie bietet oder steht schon die nächste Ausbaustufe an der Tür und man läuft als Mensch der Entwicklung der technischen Möglichkeiten hinterher?

Dr. Ralph Grothmann: In Bezug auf die Trends: Ich sehe auf der einen Seite den Trend zum maschinellen Lernen. Das heißt, dass diese Modelle einfacher anwendbar werden und der Selbstkonfigurationsprozess immer stärker automatisiert, also ohne menschliche Eingriffe/Experteneingriffe, bei garantiert gutem Ergebnis, erfolgen kann. Gleichzeitig sind wir noch lange nicht bei einer richtig breiten AI oder einer richtig integrativen AI. Nehmen wir die Bildverarbeitung: Hier schaue ich mir Bilder an. Aber ich lasse das ganze andere Material der Anlage, also Erschütterungswerte etc. meistens noch außen vor. Wir dürfen nicht vergessen, dass ein kognitives System verschiedenen Sinneseindrücken arbeitet: Es sieht Bilder, hört und fühlt Vibrationen und hat noch andere Sensor-Readings. Also Zahlenreihen, oder Sensoren, die es sonst noch gibt: Kälte etc. Die Fusion dieser unterschiedlichen Wissensquellen passiert im Moment höchstens durch das Aneinanderstellen oder das parallel Aneinanderstellen von unterschiedlichen Modellen, die dann hybridartig wieder zusammengeführt werden, wenn überhaupt. Was aber tatsächlich noch fehlt wäre ein integriertes Modell, das sich Bilder, Töne, Sensordaten, numerische Werte und auch noch Logfiles ansieht und dann zu einer Entscheidung kommt. Nicht als Sammelsurium von Einzelmodellen, sondern als integrativer Ansatz. Das ist eine Vision von AI, die monolithisch ist und nicht nur ein Flickenteppich.

Ja, ich meine, die Techniken sind alle da. Sie haben gute Modelle für die Verarbeitung von Bildern oder von Vibrationen oder von einfachen Zeitreihen. Aber sie haben noch kein Modell, das alles gemeinsam kann.

Gunnar Brune/AI.Hamburg: Das heißt, die Interpretation des Bildes wird zusammengeführt mit der Interpretation der Vibration, wird zusammengeführt mit der Temperatur, die herrschte im Prozesszusammenhang. Aber man macht es heute am Ende und nicht schon im laufenden Prozess, zu früheren Zeitpunkten im Ablauf.

Dr. Ralph Grothmann: Korrekt. Diese verschiedenen Werte sind einfache Mosaiksteine, aber das gleich ein Gesamtbild daraus wird, das fehlt eigentlich.

Gunnar Brune/AI.Hamburg: Das ist auch Ihr Wunsch für die Zukunft: Wir können es schon, wir wollen es endlich auch tun?

Dr. Ralph Grothmann: So ähnlich. Aktuell ist es spannend, unsere neue Technologie robust und nachhaltig in Produktions- und Geschäftsprozesse einbringen zu können. Damit haben wir auch schon eine ganze Menge zu tun. Im nächsten Schritt wollen wir die nächste Ausbaustufe starten in der wir noch genauer verstehen was die Netzwerke machen und zu früherem Zeitpunkt Informationen abrufen und integrierte Interpretationen generieren.

Gunnar Brune/AI.Hamburg: Herr Dr. Grothmann, vielen Dank für dieses Gespräch.


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie- und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!” und dem Bildband „Roadside”. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

Dr. Robin P. G. Tech, delphai
Dr. Robin P. G. Tech, delphai

“Ganz oft bin ich fasziniert davon, dass die Komplexität nicht in dem einen Framework oder Algorithmus liegt, sondern darin, die verschiedenen Techniken so zu verknüpfen, dass genau das herauskommt, was für die Aufgabe benötigt wird.”

Dr. Robin P. G. Tech ist Geschäftsführer und Co-founder von delphai (https://www.delphai.com). delphai entwickelt Market Intelligence Software, die automatisch die neuesten Technologien und innovativen Unternehmen aus der ganzen Welt analysiert. Darüber hinaus ist Dr. Tech Forscher am WZB und MIT, Berater des Deutschen Bundestages über mehrere Ausschüsse hinweg, High-Tech-Koordinator beim Deutschen Startup Verband, Beirat von Blockchain for Science sowie Mitglied des Wirtschaftsbeirats von B90/ Die Grünen.

 


 

Gunnar Brune/AI.Hamburg: Wofür setzen Sie bei delphai künstliche Intelligenz ein?

Dr. Robin P. G. Tech: delphai ist eine Market-Intelligence-Software. Das bedeutet in unserem speziellen Fall, dass wir global Daten über Organisationen sammeln. Dazu setzen wir sogenannte Scraper- und Crawler-Programme ein. Das ist sehr ähnlich zu dem, wie Google seine Daten sammelt. D.h., diese Programme gehen “mit großen Netzen” durch das Internet und sammeln Daten. Google ist dabei natürlich an allem interessiert, wir “nur” an Organisationen. Wenn also einer unserer Crawler auf eine Event-Website geht, dann identifiziert er alle teilnehmenden Firmen, die die Konferenz besucht haben oder auf der Messe waren. Genauso machen wir dies mit Newslettern und mit Nachrichtenartikeln generell. Bis zu diesem Punkt werden dafür Suchroboter eingesetzt, die noch keine Künstliche Intelligenz nutzen.

Bei Nachrichtenartikeln kommt bei uns die erste Stufe unserer Künstlichen Intelligenz ins Spiel. Wir haben Algorithmen entwickelt, die automatisiert Texte dahingehend auslesen können, um welche Firma und um welches Thema es geht. Das kann z.B. ein neues Produkt, eine Akquise, eine Finanzierung oder ein anderes Thema sein. Aus der unstrukturierten Welt des Internet gewinnen wir so strukturierte Daten, die wir in Tabellenform ausweisen können. Ganz praktisch steht dann zum Beispiel in der ersten Zeile der Name des Unternehmens, in der zweiten Zeile der Standort des Headquarters usw. Mit diesen Ergebnissen fängt dann die nächste Stufe unserer Künstlichen Intelligenz an, die Organisationen und Unternehmen nach Industrien, Technologien und anderen Themen zu klassifizieren.

Gunnar Brune/AI.Hamburg: Welche Formen Künstlicher Intelligenz kommen bei dieser inhaltlichen Analyse von Texten zum Einsatz?

Dr. Robin P. G. Tech: Für jeden dieser Schritte setzen wir eigene spezifische Künstliche Intelligenz ein. Die Überführung von unstrukturierten in strukturierte Daten, die Klassifizierung von Unternehmen, das machen jeweils einzelne neuronale Netze, die genau dafür trainiert wurden, die können nichts anderes. Die meisten AIs, über die wir sprechen, sind „Narrow AIs“, die eine Sache richtig gut können. Meistens zumindest oder im Idealfall! Sobald man denen aber irgendeine andere Aufgabe gibt, dann sind sie komplett verloren. Für Textanalysen haben wir ein neuronales Netz, das speziell für die Identifikation von Produkten trainiert ist. Ein anderes neuronales Netz ist speziell auf Mergers & Acquisitions trainiert. Wenn man das eine auf den anderen Fall ansetzen würde, erhielte man keine sinnvolle Antwort.

Diese Arbeit erfolgt mit Künstlicher Intelligenz, die im supervised Learning trainiert wurde. Wir annotieren Daten, wir annotieren Text und bringen der AI bei, wonach sie Ausschau halten muss und soll. Den unsupervised Ansatz nutzen wir dort, wo Organisationen wenig Textdaten über ein Attribut produzieren. Man kann sich das gut vorstellen. Alle Organisationen haben Themen, über die sie viel und gerne sprechen. Firmen schreiben viel über Ihre Produkte und was sie alles toll machen. Aber, es gibt auch andere Themen, zu denen es vielleicht weniger zu erzählen gibt oder weniger kommuniziert werden soll. Trotzdem sind dies natürlich Attribute, welche die Firma hat. In diesen Fällen können wir dies nicht in den Texten annotieren und der AI zeigen, was wir suchen. Es gibt einfach zu wenig Material für supervised Learning, also muss die Künstliche Intelligenz selbst lernen. In solchen Fällen haben wir vielleicht Datensätze, dank derer wir von der Existenz eines Attributs wissen. Wir setzen dann verschiedene Modelle unsupervised ein und benchmarken die Ergebnisse mit dem, was wir schon wissen. Die Modelle, die dann untrainiert die richtigen Ergebnisse liefern, die behalten und verbessern wir. Das Gute an dem unsupervised Ansatz ist, dass wir der AI eben nicht sagen, wonach sie suchen soll, sie sucht die Auffälligkeiten selbst.

Gunnar Brune/AI.Hamburg: Sind diese AIs dann auch besonders wichtig für Ihr Unternehmen?

Dr. Robin P. G. Tech: Tatsächlich können wir anhand genau dieser AIs festmachen, wo wir einen Vorsprung haben. Ein schönes Beispiel ist der Bereich Natural Language Processing als Subkategorie von Künstlicher Intelligenz. Dieser hat in den letzten Jahren einen enormen Aufschwung gewonnen. Wir sehen dies an der Bedeutung, die Chatbots heute haben. Hier gibt es natürlich auch viel wissenschaftliche Aufmerksamkeit. Wir vergleichen unsere Ergebnisse mit denen der aktuellen Forschung, wie wir sie auf Preprint-Archiven wie „arXiv“ finden. Gerade bei dem unsupervised Ansatz in der Identifikation von Attributen von Unternehmen liegen wir in den Kriterien Accuracy, Recall etc. 6,5 Prozent über den Ergebnissen ganz neuer Preprints. Wir wissen daher, dass wir hier einen relevanten Vorsprung haben.

Gunnar Brune/AI.Hamburg: Sie liegen mit Ihrer Arbeit vor der Forschung? Liegt das auch daran, dass Sie in Ihrem spezifischen Feld über einen besonders umfangreichen Datensatz verfügen?

Dr. Robin P. G. Tech: Ja, das finde ich natürlich sehr cool und dafür lobe ich meine Mitarbeiter maximal. Denn auf der einen Seite stand in diesem Fall eine Gruppe von 10 WissenschaftlerInnen, die ein Jahr gearbeitet haben. Bei delphai dagegen sind wir insgesamt nur 30 Leute, und von uns haben nur 2 ½ an diesem spezifischen Set innerhalb von 2 Monaten bessere Ergebnisse produziert. Aber natürlich ist ein wichtiger Punkt, dass wir schon enorm viele Daten haben. Wir verfügen zu diesem Punkt über etwas mehr als 12 Millionen hochqualitative Firmendatensätze. Wenn man so einen Schatz hat, dann kann man ständig neue Fragen beantworten und so seinen Datensatz noch weiter ausbauen.

Gunnar Brune/AI.Hamburg: Sie haben beschrieben, dass Ihre Künstliche Intelligenz teilweise sehr spezifisch ist. Wie flexibel sind Sie dann?

Dr. Robin P. G. Tech: Die Infrastruktur dahinter haben wir so aufgebaut, dass wir sie immer wieder anpassen können. Das ist im Bereich von AI auch sehr relevant. Die Ergebnisse werden dann in Dashboards online dargestellt. Unsere Kunden nutzen Abo-Modelle und können mit der Software online alle Datenanalysen selbst durchführen.

Auch in der Interaktion kommt Künstliche Intelligenz zur Anwendung, denn wir setzen Natural Language Queries ein. Ich kann dafür im Suchbalken Fragen eingeben wie: „Zeige mir alle Unternehmen für Fleet-Management-Software in Europa, die seit 2005 tätig sind“. Mit dem Drücken von „Enter“ wird die Maschine einen Datensatz generieren, der zu der Frage passt. Der Datensatz beinhaltet auch Graphen und Texte, so dass die Frage umfassend beantwortet wird.

Gunnar Brune/AI.Hamburg: Was machen Ihre Kunden mit diesen Daten?

Dr. Robin P. G. Tech: Die Kunden setzen unsere Services für unterschiedliche Themen ein. Sie betreiben Wettbewerbsanalysen, erstellen Kundenprofile, identifizieren Akquiseziele. Bisher waren dafür enorm zeitaufwändige manuelle Recherchen notwendig, denn man muss über Google, über Websites und andere Quellen suchen, um die jeweils aktuellen Informationen und News zu einem Unternehmen zu finden. In vielen Fällen sparen sie auch die Kosten für Teams von Unternehmensberatern, die bisher – und weiterhin – oft mit solchen Studien beauftragt werden.

Gunnar Brune/AI.Hamburg: Sie haben ein sehr differenziertes System aufgebaut, in dem Sie mit Künstlicher Intelligenz arbeiten: Einfache Suchalgorithmen, die noch nicht intelligent sind, spezifische, supervised trainierte Algorithmen und letztendlich die unsupervised trainierten und optimierten Modelle für besondere Fragen. Was sind das für Algorithmen, die Sie insgesamt nutzen und trainieren? Schreiben Sie diese selbst, oder sind es bewährte und bekannte Algorithmen?

Dr. Robin P. G. Tech: Ich bin überzeugt, dass jede Technologie-Entwicklung ein Remix von Dingen ist, die schon da sind. So gehen wir auch vor. Wir gehen nicht blind durch die Welt. Gerade in der Software-Entwicklung gibt es einen sehr regen Austausch zu Open Source Modellen. Anregung geben auch die Modelle BERT von Google oder BART von Facebook AI. Die Frameworks, in denen man arbeiten kann, sind auch definiert. Wenn man sich in die Facebook Welt mit PyTorch begibt, findet man ein ganzes Ecosystem von Menschen, die sich mit ähnlichen Fragestellungen auseinandersetzen, und darauf kann man natürlich ansetzen. Ich finde, das Coole ist, Stichwort „Standing on the Shoulders of Giants“, auf dem aufzubauen, was vielleicht nicht ein oder zwei Giants gemacht haben, sondern Tausende von anderen Menschen, die sich damit auseinandergesetzt haben. Es ist aber meist nur der erste Schritt, den man damit etwas schneller gehen kann. Danach kommen noch dreißig weitere, die wir selbst gehen müssen, um Anwendungen für unsere Anforderungen zu entwickeln und umzuformen. Ganz oft bin ich fasziniert davon, dass die Komplexität nicht in dem einen Framework oder Algorithmus liegt, sondern darin, die verschiedenen Techniken so zu verknüpfen, dass genau das herauskommt, was für die Aufgabe benötigt wird.

Diese Kombinationen von Techniken validieren oder bestärken sich auch immer wieder. Ein Beispiel: Wir haben einen Similarity Search Algorithmus, dessen Aufgabe es ist, Ähnlichkeiten zwischen dem Unternehmen A und den Unternehmen B und C zu identifizieren und am Ende zu sagen: Unternehmen B ist Unternehmen A ähnlicher als Unternehmen C. Das klingt zunächst relativ einfach. Aber dann haben wir festgestellt, dass die Klassifikationen für Industrien und Technologien, die wir darüber laufen lassen, ein zusätzlicher Impetus für den Similarity Search sein können. Und daraufhin haben wir auch noch gesehen, dass die Klassifizierung von den Quellen darüber hinaus auch noch mal ein Input sein kann. Wenn wir zwei Firmen immer wieder bei den gleichen Konferenzen sehen, ist das natürlich auch ein Aspekt von Ähnlichkeit. Das sind vielleicht super generelle Messen, wo alle sind, aber das können auch spezifische Messen sein, die ein weiteres Puzzleteil im Ähnlichkeitsalgorithmus abdecken können. Das meine ich mit der Kombination von Technologien und Input. Deshalb ist es manchmal ganz frech, wenn manche behaupten, sie haben den einen Algorithmus gefunden, der gleich alles erklärt.

Gunnar Brune/AI.Hamburg: Das würde mich genauer interessieren. Die traditionellen multivariaten Analysemethoden, wie zum Beispiel die Ähnlichkeitsanalysen, die in der BWL, im Marketing und in der Marktforschung eingesetzt werden, erfordern oft eine Reduktion der Genauigkeit, um eine Verständlichkeit für das Management und eine Operationalisierung zu erlauben. Sie gehen allerdings weiter und kombinieren Technologien bzw. Perspektiven, um präzisere Ergebnisse zu erhalten?

Dr. Robin P. G. Tech: So ähnlich. Die ersten Iterationen der Similarity Search liefen ausschließlich auf Website-Texten. Dazu wurde u.a. ein vektorisierendes Modell eingesetzt und der Algorithmus vergleicht diese Vektoren. Wenn also zwei Firmen ganz viel über IoT oder Industrieanwendungen geschrieben haben, dann hat sich aus den Websitetexten ein ähnlicher Vektor ergeben und das machte sie ähnlich. Was wir dann gemacht haben war, dass wir weitere Inputquellen hinzugezogen haben. Das waren die Ergebnisse der Scraper und Crawler. Es waren zunächst relativ simple Ergebnisse wie „Unternehmen A war auf der Hannover Messe“, „Unternehmen B war auf dem Mobile World Congress“. Andere Ergebnisse haben wir erst klassifiziert: D.h., aus einem Modell, in dem wir neuronale Netze eingesetzt haben, wurde ein Input generiert, der in ein weiteres Modell eingespeist wurde, nämlich in die eigentliche Similarity Search.

Gunnar Brune/AI.Hamburg: Für den Laien: Es ist eine Teamarbeit verschiedener Künstlicher Intelligenzen mit dem Menschen als Architekt und Trainer?

Dr. Robin P. G. Tech: Genau, und Teil davon ist nicht nur eine Vektorisierung, sondern auch ein supervised Ansatz. D.h., das neuronale Netz bekommt als Inputs zusätzlich die Vektorisierung und Klassifizierung und als Gold-Standard darüber hinaus die Trainings-Datensätze, die Menschen generiert haben. Und noch drei oder vier weitere Inputs.

Gunnar Brune/AI.Hamburg: Das war der Blick in den Maschinenraum, wie sieht das Ergebnis für den Kunden, den Menschen aus?

Dr. Robin P. G. Tech: Das ist bei delphai ein Online-, Self-Service-Dashboard, d.h. die Interaktionsebene ist eine Software, in der ich alle für Market Intelligence relevanten Fragen eintippen und Antworten genieren kann. Auf einer Makroebene werden Firmencluster dargestellt, zum Beispiel: Wo sitzen die Fleet-Management-Software-Unternehmen auf der Landkarte? Oder wo sind denn die Quantencomputer-Unternehmen? Dann wird dargestellt wie die Unternehmen zusammenhängen. Gibt es Cluster oder ist das super dispers? Gibt es vielleicht auch – wenn ich technologisch suche – prävalente Industrien, in denen eine Technologie heute schon häufiger eingesetzt wird? Oder gibt es “weak Signals“, weil es nur drei oder vier Organisationen gibt, die bereits in einer Nische aktiv sind. So kann man die großen Trends und die weak Signals identifizieren, die gerade erst als kleine Pflänzchen zu sehen sind.

Im nächsten Schritt hat man die Möglichkeit, sich mit einem sehr detailreichen und multidimensionalen Blick diese Firmen anzusehen. Was machen sie? Wie sind sie finanziert? Über die Similarity Search findet man auch die Konkurrenten. Man sieht die neuesten Produkt-News, Job-News, Patente, all das gesammelt dargestellt und in einer Ansicht nach Tabs geordnet. Hier kann man sich Listen von potentiellen Kunden, Wettbewerbern und Akquisezielen erstellen. Ab diesem Punkt vermag man die Listen auch kontinuierlich tracken. Zusätzlich haben wir ein Modul entwickelt, die eigenen firmeninternen Daten einzuspeisen, und die fließen dann als zusätzliche Information in die Suchen ein. Man kann also das eigene Unternehmen mit anderen Ecosystemen matchen. Und man kann Spezialisten suchen. Oder man kann die eigenen Business Units oder Kompetenzen mit den Clustern eines Ecosystems matchen.

Gunnar Brune/AI.Hamburg: Schauen wir noch weiter nach vorn. Künstliche Intelligenz funktioniert mit Daten und trainierten Robotern. Diese Roboter oder Maschinen, wenn ich sie einmal habe, kann ich relativ leicht multiplizieren. Das heißt, Sie sind in einem Geschäft, das sehr skalierbar ist.

Dr. Robin P. G. Tech: Das kann man so sagen.

Gunnar Brune/AI.Hamburg: Das hat die Gemeinheit, dass der „The Winner-takes-it-all“-Effekt sehr brutal sein kann. Wie gelingt es einer Firma wie Ihrer , gegen Unternehmen wie Google überhaupt zu bestehen?

Dr. Robin P. G. Tech: Das Beispiel Google ist gut. Da bestehen auch persönliche Verbindungen. Mein PhD-Stipendium kam von Google for Entrepreneurs. Wir haben von unseren Beiräten engen Austausch zu Google, SAP usw. Wir haben die natürlich auch gefragt, warum wir das eigentlich machen. Bei Google ist die Doktrin, dass unser Geschäft „Out-of-Core“ ist. Google will die allgemeine Suchmaschine sein. Sie hätten natürlich auch massive, monopolartige Marktvorteile, vielleicht ist das ein weiterer Grund. Vielleicht passt es auch nicht zur DNA des Unternehmens. Sei es, wie es ist: es gab irgendwann eine klare Entscheidung, unser Geschäft nicht zu machen.

Ich finde es selbst faszinierend, wenn ich Gespräche mit den CEOs von sehr großen Konzernen wie z.B. ABB führe. Man würde eigentlich denken, die sind gesetzt, die haben ihre Market-Intelligence Software und alles ist gut. Oder der große Automobilhersteller aus Norddeutschland, da denkt man, die sind so groß und so lange im Geschäft, die haben bestimmt die eine perfekte Lösung für Market Intelligence. Haben sie aber nicht. Das finde ich natürlich gut für uns.

Gunnar Brune/AI.Hamburg: Was meinen Sie, woran das liegen kann?

Dr. Robin P. G. Tech: Meine These ist, dass sich die Technologien zu schnell für diese Unternehmen weiterentwickeln. Nehmen wir zum Beispiel „Wer liefert was“, das ist ja quasi ein Monopolist in der Dachregion für Lieferantennetzwerke und -Kataloge. Die sind aber auch „stuck in the old days“ und in ihren Pfadabhängigkeiten, weil sie sehen, dass ihre manuell kuratierten Datenbanken mit einem altmodischen User-Interface seit Jahren gut funktionieren. Warum also sollte dies in Zukunft nicht weiter funktionieren? Und dann kommen andere und sagen: Nein, wir haben das alles automatisiert. Wir crawlen das Netz und wir können auf einmal automatisch herausfinden, wer eine Philips-Schraube in einer bestimmten Größe und Legierung liefert. Der eine Aspekt ist also der technologische Wandel, dem sich viele Incumbents nicht schnell genug stellen und sich nicht schnell genug weiterentwickeln. In anderen Worten, das ist das klassische Pfadabhängigkeitsproblem.

Der andere Aspekt ist, dass alle Nutzer einen jeweils anderen Blick auf den Markt haben. Nehmen wir das Beispiel der Similarity Search. Sie sagten, dass Sie dies aus der BWL kennen. Für Sie sind Unternehmen vielleicht ähnlich, welche in den gleichen Märkten tätig sind und ähnliche Umsatz- und Mitarbeiterzahlen haben. Ein anderer Kunde von uns kommt aber vielleicht aus der Forschung und Entwicklung. Für ihn ist ein ähnliches Unternehmen eins, das ähnliche Technologien einsetzt. Ob dieses Unternehmen in der gleichen Industrie arbeitet, ist in diesem Fall egal. Ob das eine Unternehmen 20 und das andere Unternehmen 20.000 Mitarbeiter hat, ist dann vielleicht auch egal. Hier ist vielleicht interessanter, ob beide Unternehmen Quantencomputer einsetzen.

Das bringt uns zurück zur der Diskussion über Künstlicher Intelligenz. Ganz viele der Entwicklungen sind sehr fokussiert. Man hat einen Algorithmus, und der kann eine Sache super, super gut. Damit wird eine Kundengruppe und deren Perspektive auf Market Intelligence abgedeckt. Aber wenn ein neuer Kunde mit einem anderen Blick auf die Märkte kommt, muss man im schlimmsten Fall von vorn anfangen. Wenn man Glück hat, so wie bei uns, entwickeln wir einfach ein weiteres neuronales Netz, das auf diese neue Anforderung trainiert ist. Es kann aber auch sein, dass der Kunde komplett neue Daten haben will und dann ist man komplett zurück auf Square one und muss erst mal neu beginnen, die Daten zu sammeln.

Das ist auch der Grund, warum Newcomer, wie wir im Bereich Marktbeobachtung, Marktanalyse, Marktstrategie immer wieder ein Chance haben werden.

Gunnar Brune/AI.Hamburg: Augenblicklich liefern Sie Ihren Kunden als Ergebnis der Arbeit der Künstlichen Intelligenz interaktive Dashboards, mit denen diese arbeiten können. Wohin geht die Reise, was dürfen wir in fünf Jahren erwarten?

Dr. Robin P. G. Tech: Ich kann nicht sagen, wie es in fünf Jahren aussehen wird, aber es gibt ein paar Pfade, die ich mir gut vorstellen kann. Einer davon ist auf jeden Fall der Datenpfad. Wir haben inzwischen eine Infrastruktur aufgebaut, mit der wir auch ganz andere Daten sammeln können. In Zukunft wird es nicht nur um Unternehmen, sondern auch um Forschungsprojekte gehen. Die werden genauso klassifiziert und nun kann ich Filter setzen für Unternehmen, Konzerne, Startups, Forschungsprojekte etc. Und es wird weitere Spielarten geben.

Was die Interaktion angeht, gibt es eine Entwicklung, dass Unternehmen sich ihre eigenen Dashboards bauen. Das finden wir auch total gut. Denn jedes Unternehmen, jede Abteilung hat eine eigene Perspektive auf die Welt. Es ergibt Sinn, die mit einem maßgeschneiderten Dashboard bzw. Interface darzustellen, welches vielleicht SAP oder die interne, eigene IT entwickelt hat. Das bedeutet, dass für delphai API-Calls gemacht werden. Wir definieren in diesem Fall gemeinsam mit den Kunden die Schnittstellen. Für unser Beispiel Similarity Search gibt es dann einen API-Call für similar Organisations und unsere Maschinen liefern als Output nur die Daten, aber nicht mehr das Interface.

Spannend ist auch, dass wir jetzt die Möglichkeit bieten, interne Unternehmensdaten mit einzuspeisen und dadurch der Maschine zu ermöglichen, Verknüpfungen zwischen bereits vorhandenen Kompetenzen und möglichen, neuen Geschäftsfeldern herzustellen. Ich glaube, dass da noch viel Potential drin steckt ist. Es disruptet auch den Ansatz von Unternehmensberatern wie McKinsey, denen man eine Million bezahlt, damit diese aufzeigen, wo man noch Neugeschäft machen könnte. Stattdessen gibt man der Maschine die Daten und sie schlägt schon solche Geschäftsfelder vor, die eine Verbindung zu den bestehenden Kompetenzen haben.

In Abstimmung mit zwei Stiftungen haben wir ein SDG-Classification-Tool entwickelt. Die SDGs sind die „Sustainable Development Goals“, 17 Ziele der nachhaltigen Entwicklung bis 2030, die von den Vereinten Nationen ausgegeben wurden. Hier haben wir es mit vielen „unbeobachtbaren“ Attributen zu tun, weil viele Firmen ihren Bezug zu den SDGs nicht kommunizieren oder vielleicht auch noch nicht analysiert haben. In wenigen Wochen können wir darstellen, mit welchen SDGs ein Unternehmen besonders große Anknüpfungspunkte hat.

Gunnar Brune/AI.Hamburg: Kurz mal nachgefragt: Das bedeutet, dass Sie in 2 Monaten ein Ranking der Dax-Unternehmen in Bezug auf die aktuelle SDG-Performance erstellen könnten?

Dr. Robin P. G. Tech: Fast, bzw. nicht ganz, denn dafür müssten wir eine Bewertung vornehmen. Aber wir könnten z.B. für den Standort Hamburg darstellen, wie sich die ansässigen Unternehmen auf die SDGs verteilen und welche SDG-Kompetenzcluster sich in Hamburg befinden.

Mit einer großen Rückversicherung arbeiten wir gerade an dem Thema Risk Assessment, also der Risiko-Klassifizierung von Unternehmen. Das waren die kurzfristigen Entwicklungen. Mittel- bis langfristig geht es bei uns darum, zu internationalisieren. Wir haben auch schon einen Kunden in den USA, und da geht natürlich auch noch mehr, denn unsere Daten sind global, also sind auch unsere Services global. Das werden wir als Nächstes angehen.

Gunnar Brune/AI.Hamburg: Danke für diesen Blick in die Zukunft. Sie sind Experte, für Sie sind diese Dinge sehr greifbar. Was sagen Sie denen, zum Beispiel im mittelständischen Unternehmen, die sich fragen, wie sie Künstliche Intelligenz einsetzen können, aber noch keinen Zugang finden?

Dr. Robin P. G. Tech: Das ist sehr idiosynkratrisch, denn es gibt Unternehmen, die schon viele Daten in weiterverarbeitbaren Formaten haben. Andere Unternehmen haben gar keinen Zugang dazu. Ganz grundsätzlich glaube ich, dass man sich der Technologie vom Output nähern sollte. Also nicht überlegen, welche Künstliche Intelligenz man nutzen will, sondern, was man erreichen will. Es gibt viele Beispiele, die Orientierung bieten können. Ein kleines Beispiel von einem großen Unternehmen sind die Weichen der Deutschen Bahn. Das Problem ist: Eine Weiche kann irgendwann kaputt gehen. Wie kann man das Problem angehen? Die Lösung ist, wenn wir die Stromabnahme der Weichen kontrollieren, dann können wir Anomalien der Stromabnahme identifizieren und dadurch vorhersagen, ob dieser Weiche ein Ausfall droht. Die Deutsche Bahn hat also nicht von vornherein gesagt, dass man unbedingt IoT, Sensoren und AI einsetzen will. Vielmehr hat man vom Problem ausgehend Lösungen gefunden, Technologien geprüft und Anbieter gebenchmarkt – von denen es ja auch schon viele für Predictive Maintenance gibt.

Die Kurzantwort ist also: Wie nähere ich mich Künstlicher Intelligenz? Fange mit einem Problem an, dass du hast und dann arbeite dich rückwärts zur AI vor.

Gunnar Brune/AI.Hamburg: Danke für dieses Gespräch.

Dashboard von delphai: Mit künstlicher Intelligenz wurde eine Übersicht über den globalen Markt für Fleet Management erstellt
Dashboard von delphai: Mit künstlicher Intelligenz wurde eine Übersicht über den globalen Markt für Fleet Management erstellt.

Weitergehende Links zu Fachthemen in diesem Interview:


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie- und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!” und dem Bildband „Roadside”. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777


Foto Credit: Morris Mac Matzen

Eugen L. Gross

“Mein Wunsch für die Zukunft von Künstlicher Intelligenz ist, dass alle Menschen verstehen, dass es keine Science-Fiction ist, sondern ein Schweizer Taschenmesser, das jeder nutzen sollte.”

Eugen Gross hat langjährige Erfahrung in vielen Bereichen der TV- und Bewegtbildproduktion sowohl von der kreativen als auch der technischen Seite. Er hat eine Ausbildung zum Kameraassistenten in Wien absolviert, als Kameramann hauptsächlich für Show und Unterhaltungsformate gearbeitet, war SNG Operator und Ü-Wagenleiter, hat selbst produziert und Regie geführt.

Aufgrund der Veränderung des Marktes und der Digitalisierung der Medien sah er die Notwendigkeit einer beruflichen Veränderung. Neben vielen kleineren Workshops hat er sich in Köln zum Producer fortgebildet und anschließend an der Hamburg Media School den Zertifikatslehrgang „Executive MBA in Media Management“ absolviert. Seine fundierte Berufserfahrung konnte er dort durch das praxisnahe Studium erweitern. Aus der Masterarbeit ist aiconix entstanden.

 


 

Gunnar Brune/AI.Hamburg: Herr Gross, Sie waren Kameramann und jetzt setzen Sie Künstliche Intelligenz für die Analyse von Videos ein. Was machen Sie und wie kam es dazu?

Eugen L. Gross: Ich bin als Kameramann komischerweise immer an Daten interessiert gewesen. Ich glaube, ich war der Einzige, der eine Pivottabelle gemacht hat, um auszuwerten, wie viele Tage ich gearbeitet habe, wie viele Reisetage ich hatte usw. Das hat mich immer interessiert. Ich war immer technisch affin, zeitweise war ich Ü-Wagenleiter und sogar ein bisschen Satellitentechniker. Ich komme nicht vom „Film“. Das habe ich zwar ganz früher gemacht, genau genommen komme ich vom Fernsehen. Ich bin der klassische Fernseh-Fuzzi. Meine Welt, das war die Show klassische Unterhaltung. 20:15 Uhr, Vorhang auf für die Red Hot Chili Peppers, auch Thomas Gottschalk und Anne Will.

Gunnar Brune/AI.Hamburg: Sie haben vor allem Live-TV gemacht?

Eugen L. Gross: Ja, ich habe natürlich auch Dokus gemacht. Ich habe zum Beispiel eine Produktionsfirma für eine Langzeit-Doku in Kiel gehabt. Aber mein Daily Business war über viele, viele Jahre die Unterhaltung. Ich habe 80 Konzerte gemacht von Tokio Hotel bis Helene Fischer, von Marianne und Michael bis zu den New Yorker Philharmonikern. Ich habe alle Talks gemacht von Harald Schmidt bis Anne Will und Beckmann. Ich habe auch einen Berufsverband für Fernseh-Kameraleute mitgegründet.

Gunnar Brune/AI Hamburg: Und jetzt arbeiten Sie nicht mehr mit der Kamera, sondern mit Künstlicher Intelligenz. Wie sind Sie dazu gekommen?

Durch meinen MBA in Media Management kam ich auf die Frage, wie man Daten besser nutzen kann. Ich bin der Meinung, Daten werden aktuell zu viel für den Vertrieb genutzt und zu wenig, um besseren Content und bessere Produkte zu entwickeln. Man muss einfach alle Faktoren zusammenbringen, und das geht nur mit Künstlicher Intelligenz. Und mit dieser Idee habe ich aiconix gegründet.

Gunnar Brune/AI Hamburg: Was ist Ihr spannendstes Projekt gerade?

Eugen L. Gross: Das Spannendste ist immer das Aktuellste. Spracherkennung, also Speech-to-Text ist im Moment das, worum sich fast alles dreht. Vieles beginnt mit Speech-to-Text. Vertrieblich: Die Kunden beginnen mit Speech-to-Text. Auch die Inhalte eines Videos werden heute anhand des Textes erkannt, dabei ist egal, wie das Bild aussieht. So ist das heute, dazu kann ich später noch mehr erzählen. Gerade bei Kurzformaten transportiert die Sprache die Informationen.

Wenn ich Sprache in Informationen bzw. Text umwandeln kann, dann kann ich sie semantisch analysieren und ich kann Topics extrahieren. Dafür benötigt man Speech-to-Text und wir haben da in alle Richtungen Lösungen. Wir haben ein Frontend und bieten eine API, also eine Schnittstelle an. Außerdem haben wir einen Slackbot. Und, hier sind wir Vorreiter, wir machen das auch live. Wir machen das schon für den Hessischen Landtag. Wir bewerben uns gerade für ein Projekt im Deutschen Bundestag. Wir haben Anfragen von Staatsanwaltschaften, der Polizei, oder der Bundespressekonferenz. Bei letzterer geht es zum Beispiel um Live-Untertitel. Damit ist Speech-to-Text für uns auch betriebswirtschaftlich gerade besonders wichtig.

Wir sind dabei Cloud-agnostisch und deshalb breit aufgestellt. Wir sind im Oracle-Startup-Programm, sind gerade eine Partnerschaft mit Microsoft eingegangen, wir nutzen parallel Amazon, Google, viele kleine Provider und sind für alles offen.

Gunnar Brune/AI.Hamburg: Sie nehmen also den Sound auf, erfassen die Texte und dann laufen sehr, sehr schnell semantische Analysen?

Eugen L. Gross: Fast, es läuft sehr, sehr schnell Speech-to-Text. Wenn du Semantik haben möchtest, ist das ein extra Call. Du musst erstmal den Text bekommen und den schickst du nochmals zu einem anderen Provider und kannst über den dann die Topics extrahieren. Dabei ist extrem interessant, bei längeren Videos oder Podcasts Inhaltsverzeichnisse mit Zeitangabe anzulegen. Mich wundert, dass das vor uns meines Wissens noch keiner gemacht hat! Ein Podcast ist ein gutes Anwendungsbeispiel. Bei einem langen Podcast, der 60 Minuten dauert, möchte ich doch nicht die 60 Minuten durchhören, um den einen Punkt zu finden, der mich interessiert. Ich möchte gerne wissen, dass es in den ersten zehn Minuten ein Intro gibt, in den zweiten zehn Minuten geht es – zum Beispiel – um eine Berufsbeschreibung und in den dritten zehn Minuten geht es um AI. Ich möchte mir vielleicht nur die dritten zehn Minuten mit dem Thema AI anhören. Ich möchte auch nicht alle 20 Folgen eines Podcasts anhören, wenn nur die Folge 14 mein Interesse AI betrifft. Spotify hat gerade ein großes Projekt ausgeschrieben, an dem man als Entwickler teilnehmen kann. Hier geht es um die Frage, welche Möglichkeiten es gibt, thematisch in die einzelnen Folgen hineinzugehen.

Nehmen wir an, du warst bei einem langen Webinar oder bei einer Konferenz, die acht Stunden gedauert hat. Am Ende wird ein Video zur Verfügung gestellt. Du kannst dich an einen besonders interessanten Vortrag erinnern, oder es wurde eine spannende Sache gesagt, aber du kannst nicht Control-F drücken und die Suchfunktion zu aktivieren, um auf dieses Stichwort zu springen. Du hast meistens auch keinen Überblick über die Themen. In diesen Anwendungen ist noch viel Musik drin und es beginnt alles mit Speech-to-Text.

Gunnar Brune/AI.Hamburg: Klingt super, aber wie lösen Sie die Tücke im Detail? Wie wird die Sprache erkannt?

Eugen L. Gross: Das wäre schön, aber keine Künstliche Intelligenz für Speech-to-Text kann zur Zeit Sprache im Moment des Sprechens erkennen. Manche Provider testen in den ersten sieben bis zehn Sekunden, um welche Sprache es sich handelt. Es gibt dafür noch keine andere Lösung. Du hast Geräusche angesprochen, das ist ein Riesenthema. Wenn du im Hintergrund Musik hast, kannst du sie wegfiltern. Wenn du Straßengeräusche hast, kannst du sie wegfiltern. Aber wir haben noch keine Lösung gefunden, generell die Sprache zu extrahieren, um alle Geräusche wegzufiltern. Das was der Mensch so gut kann. Als Mensch kann ich zwischen all diesen Geräuschen die Sprache erkennen. Wir haben noch kein Modell gefunden, welches dies allgemeingültig kann. Wir können das immer nur für einzelne Geräusche oder für Geräuschgruppen machen. Was funktioniert, ist die Sprache zu verbessern, um sie besser zu erkennen zu können. Die AI hat inzwischen eine gute Qualität. Wenn ein Sprecher deutlich spricht, zum Beispiel, wenn er politische Reden hält, dann ist das unser Ideal. Denn diese sind meist geübte Sprecher mit einem guten Mikrofon. Aber in dem Moment, und wir haben dazu aktuell ein paar Cases, in dem in einer Reality-TV-Sendung gesagt wird „Ey Dicker, Alter“, dann wird das ein Desaster. Auf einer Messe war die Digitalstaatsministerin Dorothee Bär bei uns zu Gast. Die fragte dann: „Kann der a’ fränkisch?“ Die Antwort war natürlich „Nein, der kann kein Fränkisch“. Ich bin Österreicher. Sobald du in den Dialekt kommst, geht die Qualität deutlich zurück. Das liegt daran, dass die deutsche Sprache keine so große Bedeutung in der Welt hat. Für die englische Sprache gibt eine deutlich größere Datenbasis, mit der trainiert werden konnte Deswegen kann Künstliche Intelligenz einen Inder oder einen Australier, die Englisch sprechen, relativ gut verstehen und erkennen. Bei der deutschen Sprache ist es so, dass die Qualität der Künstlichen Intelligenz in München oder in Wien heruntergeht, weil sie auf Hochdeutsch trainiert ist und die Dialekte ein Riesenthema sind. Dabei sind Dialekte für mich ein echtes Herzensthema. Ich habe im Kopf und als Architektur schon eine Lösung dafür, aber leider noch kein Budget, um das umzusetzen.

Aktuell ist es so, dass wir mehrere Künstliche Intelligenzen nutzen, um das Optimum für Speech-to-Text zu erzielen. Wenn diese sich bei einem Begriff nicht einig sind, welcher der Richtige ist, so wird dieser unterstrichen. Dann werden einem die verschiedenen Optionen angeboten. So muss man sich nicht um den ganzen Text kümmern, sondern nur noch um die blau markierten Wörter, bei denen die AIs unterschiedlicher Meinung waren. Im Text ist das ganz einfach zu sehen: Alles, was schwarz ist, ist eine 100 Prozent-Trefferquote. Bei Grün geht es um Groß- und Kleinschreibung, wir haben den Prozess so optimiert, dass dies als erstes geprüft wird. Bei Blau wird es interessant, weil unser eigener Algorithmus mehrere Quellen mit unterschiedlichen Ergebnissen für seine Entscheidung bewertet hat. Schwierig sind zum Beispiel Zahlen: Bei Zahlen ist es so, dass manche Provider diese Zahlen ausschreiben, andere geben Zahlen in Ziffern an. Wenn ein Text ganz viele blaue Markierungen hat, dann hat unser Algorithmus ganz stark arbeiten müssen, weil es immense Unterschiede zwischen den einzelnen Providern gab. Das bedeutet, die Künstliche Intelligenz ist ein Gerüst. Und unsere hilft als Meta-Ebene, die die höchste Wahrscheinlichkeit für Speech-to-Text zurückgeben kann. Aber ich würde jedem empfehlen, gerade wenn es um sensible Daten geht, die nicht falsch sein dürfen, noch einmal eine Endkontrolle zu machen.

Was bedeutet das praktisch? Nehmen wir ein 4-Minuten-Video. Das braucht wahrscheinlich so 20 bis 30 Minuten Arbeit, wenn man es abtippt. Um eine Untertitel-Datei zu erstellen mit einem Sekundencode benötigt man in der Regel das Zehnfache, also vierzig Minuten für das 4-Minuten-Video. Mit AI-Unterstützung kostet es nur ein paar Cent zuzüglich der Endkontrolle. Das heißt, der Workflow ist immens viel preiswerter und schneller.

Zusammengefasst: Mit unserem Speech-to-Text-Service sind wir einerseits ein Meta-Anbieter, d.h. wir haben einen Algorithmus, der die Daten anderer Anbieter optimiert, so dass die höchsten Wahrscheinlichkeiten erreicht werden. Dazu trainieren wir auch eine eigene AI, nicht als eigene Spracherkennung, sondern als Supporting-Technologie. Für den Auftrag des Landtags mussten wir für die Transkription erstmal besser sein als Google. Das geht natürlich durch unseren Meta-Algorithmus immer ganz gut. Aber es war ganz klar, wenn ein Abgeordneter auf die Bühne geht und der Parlamentspräsident diesen ankündigt „Hier ist der Abgeordnete Vranitzky“, dann muss der richtig erkannt werden, auch wenn der keinen Namen hat, der im Wörterbuch steht wie Meier oder Müller. Genau das kann Google nicht, weil deren Technologie natürlich viel breiter aufgestellt ist. Wir trainieren für die Aufgaben unserer Kunden diese speziellen Worte an. Zum Beispiel wird für eine medizinische Konferenz das medizinische Vokabular zusätzlich trainiert. Wir hatten letztens ein Thema, weil Zahlen schlecht in der Live-Transkription erkannt wurden. Dieses Problem war uns prinzipiell schon bekannt, denn wie gesagt sind Zahlen oft eine Schwäche der Modelle. Es gab in dem speziellen Fall aber absurde Fehler. Phonetisch wird manchmal eine Million mit einer Milliarde verwechselt, aber in diesem Fall wurde 38 zu 24, was eigentlich phonetisch überhaupt nichts miteinander zu tun hat. Wenn wir so eine Besonderheit entdecken, trainieren wir ganz konkret.

Gunnar Brune/AI.Hamburg: Der aktuelle Nutzen ist klar. Ich kann sogar lesen, was gesagt wird, und ich kann es sehr, möglicherweise relativ schnell bekommen, mit weniger Aufwand, auch weniger Stenografen. Wohin geht die Reise? Welchen Nutzen wird uns das in Zukunft bringen?

Eugen L. Gross: Vieles wird viel schneller gehen. Meinen letzten Film habe ich in Mexiko für Red Bull gemacht und damals habe ich zwei Tage auf das Transkript und die Übersetzung gewartet, bis ich im Schnitt weiterarbeiten konnte. Das geht mit AI jetzt schon sehr viel schneller und besser. Ich habe letztens mit einem Journalisten gesprochen, er ist Abteilungsleiter von einem Wirtschaftsmagazin. Wenn er ein Interview führt, dann nimmt er das mit dem
iPhone auf. Er verdient ganz gut. Trotzdem muss er selbst transkribieren. Da sitzt er dann 3 Stunden am Tag mit den Aufnahmen von seinen eigenen Interviews und tippt sie ab. Das muss nicht sein. Das kann AI sehr viel schneller, besser, kostengünstiger. Er sollte sich darauf konzentrieren, einen Artikel zu schreiben, denn das ist seine Kernkompetenz ist.

Gunnar Brune/AI.Hamburg: Wie kommen Sie an Ihre Algorithmen? Nutzen Sie Kataloge oder arbeiten Sie mit Mathematikern, die Ihnen Algorithmen schreiben?

Eugen L. Gross: Sowohl als auch. Der erste Schritt bei unserer Plattform war tatsächlich, die AI-Angebote von Google, Amazon und Microsoft anzusehen. Was können die? Und wie können wir als Metaebene einen Benefit generieren, in dem wir kuratieren? Welcher Algorithmus ist für den Use Case der Beste?

Gunnar Brune/AI.Hamburg: Verstehen Sie mich nicht falsch. Sie sind Kameramann, wie konnten Sie das beurteilen?

Eugen L. Gross: (lacht) Na ja, ganz einfach, indem du eine Sprachaufnahme in die Maschine wirfst und parallel ein Transkript manuell angefertigt hast. Nehmen wir an, Microsoft machte 60 Fehler, Amazon 20 Fehler und Google vielleicht nur zehn Fehler, dann wussten wir, dass Google die besten Ergebnisse hat.

Gunnar Brune/AI.Hamburg: Sie haben es also einfach ausprobiert? Sie haben nicht die mathematischen Formeln analysiert, sondern gesagt, wir probieren das einfach aus, und was besser ist, ist besser?

Eugen L. Gross: Genau. Wir haben tatsächlich von der Sprache ein manuelles Transkript angefertigt und dieses manuelle Transkript gegenüber den Transkripten, der AI gebenchmarkt, unter idealen Verhältnissen. Und wir haben festgestellt: Das Ergebnis ist in jeder Sprache anders. Der eine Anbieter ist in Deutsch besser, der andere ist besser in Englisch oder Russisch. Wenn jemand Russisch transkribieren möchte und uns auswählt, dann kriegt er einen anderen Provider und genau das ist unser Versprechen. Du kannst bei uns den billigsten Provider nutzen, der dann aber nur 80 Prozent der Accuracy hat, die der Beste liefert. Wenn dir das reicht, weil es um den Schnitt eines Langformats einer Dokumentation geht, also um grob zu verstehen, worum es geht, dann ist das schon genug. Aber; wenn du eine Nachrichtenagentur bist, unter Druck arbeitest und Untertitel brauchst, dann wird eine bessere Qualität verlangt. Dann kriegst du bei uns auch die besten Ergebnisse. Das ist unser Versprechen.

Gunnar Brune/AI.Hamburg: Ihr Modell ist also, Künstliche Intelligenz für die Aufgaben Ihrer Kunden zu kuratieren. Man kann einfach nur den einen preiswerten Algorithmus laufen lassen. Oder man kann die 10 Besten nutzen und die Meta-Auswertung dazu nutzen?

Eugen L. Gross: Richtig. Das ist aber auch nur der Anfang für uns. Wir haben den Algorithmus gebaut, den ich vorhin beschrieben habe, der aus den verschiedenen Quellen, die Daten vergleicht und die Antwort mit der höchsten Wahrscheinlichkeit anbietet. Zu Beginn war es ein smartes Modell, weil wir Kunden ersparen, verschiedene Implementierungen von Apps machen zu müssen, denn wir haben sie alle schon eingebunden. Aber das Ziel war natürlich sehr schnell, dass wir nicht nur Daten von anderen verkaufen, sondern eigene Modelle anbieten. Und die haben wir sofort angefangen zu trainieren. Wir haben eine eigene Gesichtserkennung entworfen. Wir haben Einstellungsgrößen von Aufnahmen in ein eigenes Modell gebaut. Das war für mich als Kameramann auch für die Vision, die wir haben, sehr wichtig. Dieses Modell erkennt, ob eine Person im Closeup oder in der amerikanischen Einstellung. Ist sie „head to toe“? Wie viele Personen stehen im Bild? Das ist ein eigenes Modell und eine spannende Anwendung für die Zukunft.

Gunnar Brune/AI.Hamburg: Wir sind also bei der Bilderkennung angelangt. Vorher haben wir viel über Sprache gesprochen, wie weit ist die Analyse der Bilder mit AI?

Eugen L. Gross: Ich habe diesen Case, da ist eine Werbeagentur an uns herangetreten, um zu eruieren, warum manche Social-Media-Postings für einen Kunden, einen Auto-Hersteller gut laufen und andere nicht gut laufen. Wir sind von der Arbeitshypothese ausgegangen, dass die Perspektive, in der ein Auto fotografiert wurde und die Farben, mit denen es dargestellt wurde, einen Einfluss auf den Erfolg der Postings bei der Zielgruppe haben. Wir unterscheiden hier zum Beispiel zwischen braunen, wärmeren Farben in einem ländlichen Umfeld oder stahlblauen Farben im städtischen Umfeld mit Hochhäusern. Der Gedanke ist, dass man sich vielleicht als städtischer Mensch mehr für ein SUV im urbanen Umfeld interessiert oder vielleicht genau das Gegenteil, weil man sich mit dem SUV in der Stadt bewegt, aber sich selbst als Landmensch versteht. Das ist mit der AI gut zu eruieren, denn es gibt dafür Anwendungsfälle und vor allem auch Provider, die Farbspektren aus Bildern extrahieren, die Fahrzeuge erkennen. Die auch erkennen können, von welcher Perspektive das Fahrzeug fotografiert wurde, also von der Seite, von vorn oder von hinten. Die identifizieren, wie viel Prozent des Bildes mit einem Fahrzeug bedeckt werden. Das ist ein Ansatz, der in Richtung visuelles Storytelling geht und dabei geht es um die Beantwortung der Frage, welche Bilder gut beim Publikum ankommen.

Der Grund, warum ich dieses Startup gegründet habe, ist genau dieser: Ich bin der Meinung, dass zu viele Daten für Marketing und Sales verwendet werden und zu wenige für die Kreativen. Daten können die Kreativen sehr gut darin unterstützen, zu verstehen, warum die Zielgruppe in der Sekunde 50 abgeschaltet hat. Was ist denn in Sekunde 50 passiert? Damit meine ich nicht die Ebene der einzelnen Person, sondern die ganze Zielgruppe. Wenn ich 20 Prozent dieser Zielgruppe verliere, dann muss ich mir doch als Kreativer ansehen, was in diesem Storytelling falsch gelaufen ist. Das ist das große, große Ziel, mit dem wir wahrscheinlich auch weltweit sehr viel mehr Potenzial haben. Und daran arbeiten wir gerade.

Wir haben hier ja mehrere Ansätze, und wir haben drei verschiedene Quellen. Die eine ist das Medium selbst – im aktuellen Fall ein Online-Kurzformat. Die zweite Quelle sind die Daten, die wir daraus extrahieren können und uns sagen: Wer spricht über welches Thema? Wie ist die Schnittfolge? Wir können natürlich auch die Farben anschauen. Wir können das Thema extrahieren. Diese Daten sind alle vorhanden, und wir können alles, was noch veränderbar ist am Schnittplatz, auch mit Daten eruieren. Man kann die Hintergrundmusik bestimmen, zumindest im Großen und Ganzen. Vielleicht auch die Personen und das Thema zusammen matchen und analysieren, ob eine Person für ein Thema für die Zielgruppe glaubwürdig ist. Als dritte Datenquelle haben wir die Zielgruppe. Dazu haben wir ein Neuro-Labor aufgebaut, in dem wir die EEG-Daten von Probanden messen. Wenn wir an den Analysedaten sehen, dass die Zielgruppe in Sekunde 50 abschaltet dann ist nicht in dieser Sekunde ein Problem aufgetaucht, sondern das Problem ist die Summe aller Informationen, die wir vorher gegeben haben. Vielleicht hätten wir den Film dramaturgisch etwas anders aufbauen müssen. Vielleicht hätten wir einfach die Szenen umsortieren sollen, hätten ein anderes Storytelling gehabt und das Publikum nicht verloren. Um zu messen, was die ausschlaggebenden Punkte sind, warum das Publikum abschaltet, muss man in den Kopf schauen. Das kann man im Moment nur mit dem EEG-Gerät. Wir haben das auf einem ganz hohen Niveau gemacht in einem Labor mit einem 40.000-Euro-Gerät. Das ist kein Spielzeug, denn wir müssen sehr viele Informationen sammeln. Wir haben anhand der Daten sehen können, wie sich die Aufmerksamkeit entwickelt. Noch können wir nicht sagen, ob ein Moment spannend ist oder nicht. Hier gibt es noch viel zu lernen.

Online-Videos haben den Vorteil, dass ich sehr schnell viele Daten zur Verfügung habe. Ich habe schnell 10.000 Leute, die alle in derselben Sekunde abgeschaltet haben. Das heißt, es geht darum, wie die Geschichte erzählt wird, es geht es um das Storytelling. Und da wollen wir hin: Wir wollen mit Künstlicher Intelligenz helfen, guten Content zu produzieren.

Gunnar Brune/AI.Hamburg: Wohin geht die Reise?

Eugen L. Gross: Mein Wunsch für die Zukunft von Künstlicher Intelligenz ist, dass alle Menschen verstehen, dass es keine Science-Fiction ist, sondern ein Schweizer Taschenmesser, das jeder nutzen sollte.

Aktuell haben wir die Information aus der Sprache und was im Bild passiert. Wir wollen uns jetzt um das Storytelling kümmern. Auch bei einem 5-minütigen Kochvideo möchte ich verstehen, ob das ein Dreiakter ist, wo das Intro ist und wo der Hauptteil. Wo ist der Plot? Beim Kochvideo ist der Plot, wenn das Gericht fertig ist. Wenn ich verstehe, wie eine Geschichte funktioniert, dann kann ich auch dem Filmemacher anhand der Daten der letzten tausend Videos, die er gemacht hat, sagen, was besser funktioniert hat und was nicht. Was besser verstanden wurde und was nicht. Damit können wir Empfehlungen geben, wie man den Film besser machen oder dramaturgisch optimieren kann, damit er nicht das Publikum verliert. Und dem Werbetreibenden kann ich sagen: Lieber Werbetreibender, bitte buche nicht die Mid-Roll bei Sekunde 30, das ist mitten im Satz, das ist mitten in der Szene. Ich kann dir sagen, wo die Wahrscheinlichkeit viel geringer ist, dass du dein Publikum verlierst, das ist nämlich kurz bevor der Plot kommt. Kurz bevor das Gericht fertig ist. Wenn ich den Plot automatisiert bestimmen kann, dann kann ich den richtigen Zeitpunkt für die Werbeunterbrechung bestimmen. Wenn du als Zuschauer schon bis Sekunde 70 durchgehalten hast, weil dich wirklich interessiert wie der Kuchen aussieht, dann wird es jetzt viel einfacher sein, die Werbung auszuspielen, ohne dich zu verlieren gegenüber Sekunde 30, wenn du gerade erst in das Video eingestiegen bist. Das heißt, wir wollen in die Geschichte hineingehen. Wir wollen uns nicht das Produkt bzw. Video als Ganzes anschauen und sagen, dieses hat hunderttausend Klicks, und jenes nur fünfzigtausend Klicks. Sondern wir wollen mit Künstlicher Intelligenz in das Produkt hinein, in das Storytelling hinein und die Dramaturgie und den Spannungsbogen identifizieren. Damit unterscheiden wir uns bisher deutlich von allen anderen Startups und Firmen, die sich mit Video beschäftigen.

Gunnar Brune/AI.Hamburg: Sie wollen den Cliffhanger automatisiert identifizieren?

Ja. Das wäre noch viel besser, aber das ist noch ein sehr langer Weg. Doch wir sind auf dem Weg. Mit der Künstlichen Intelligenz haben wir die Tools jetzt alle in der Hand und es ist relativ einfach, die Technik zu nutzen. Man kann in der Cloud 100 Server hochfahren und binnen Stunden etwas berechnen, was früher Jahre gedauert hat. Dennoch haben wir noch einen langen Weg vor uns. In jedem Fall glaube ich, dass unser Ansatz, Filme zu optimieren ist richtig ist. So werden mit Künstlicher Intelligenz bessere Produkte entstehen und nicht nur Produkte besser verkauft werden.

Blick in die Werkstatt der Künstlichen Intelligenz: Der aiconix-Algorithmus gibt eine Text-Empfehlung für die Ergebnisse verschiedener parallel laufender Speech-to-Text-Dienste.

 


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie-und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!“ und dem Bildband „Roadside“. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

Andreas Wartenberg
Andreas Wartenberg

Seit gut zehn Jahren gestaltet Andreas Wartenberg als Mitglied der Geschäftsführung die Hager Unternehmensberatung maßgeblich mit. Komplexität motiviert ihn. Darum arbeitet der Experte für Technologiemanagement und Digitalisierung so gerne mit Menschen. Sein Schwerpunkt liegt in der Personalberatung. Gerade auf den Führungsebenen treffen unterschiedlichste Charaktere aufeinander. Das birgt enorme Chancen, aber auch nicht zu unterschätzende Konfliktpotenziale. Deshalb ist die Frage der Beurteilung der Passgenauigkeit und Fähigkeit eines Kandidaten ein zentrales Element für die Personalberatung.
Aktuell beschäftigen sich die Hager Unternehmensberatung und Andreas Wartenberg im Rahmen einer Studie intensiv mit der Zukunft von Executive Search und damit auch mit der Rolle von Künstlicher Intelligenz bei der Personalsuche und Personalentscheidungen.

 


 

Mit Andreas Wartenberg von der Hager Unternehmensberatung sprach Gunnar Brune vom Netzwerk AI.Hamburg.

Gunnar Brune/AI.Hamburg: Andreas Wartenberg, was machen Sie und was machen Sie mit Künstlicher Intelligenz:

Andreas Wartenberg: Die Hager Unternehmensberatung ist eine der größten Personalberatungen Deutschlands mit 100 festangestellten Mitarbeitern. Wir sind fokussiert auf das Top- und Middle-Management. Die Vermittlung erfolgt im Modus der Direktsuche. Für uns geht es darum, Kandidaten zu finden, zu evaluieren und zu beurteilen und dem Kunden die bestmöglichen und passendsten Kandidaten für die Vakanzen vorzustellen. Hierbei ist es wichtig, nicht nur eine fachliche, technische und handwerkliche Passung vornehmen zu können, sondern auch eine Persönlichkeitspassung: Wer passt zu wem auf einer interpersonellen Ebene und wer passt in welche Unternehmenssituation hinein – Stichwort Kultur. Oder auch: Wer passt in eine bestimmte Führungsaufgabe: Return on Investment, neue Wachstumsstrategien/Etablierung neuer Services, Herunterfahren/Konkurs verwalten. Das sind sehr unterschiedliche Szenarien, in die Unternehmenseinheiten oder Businessunits geraten können. Keine Person hat alle Fähigkeiten, um alle Aufgaben zu lösen. Deswegen ist die Anforderung an die von uns zu findenden Personen oftmals sehr individuell und mit dem Unternehmen, den Teams und den handelnden Personen verbunden.

Um diese Passfähigkeit herzustellen, wird in den nächsten Jahren natürlich verstärkt der Einsatz von Künstlicher Intelligenz erwartet. Es gibt schon einige bestehende Anwendungen und immer mehr neue Software-Tools und Lösungen, in die AI integriert wird und wo verschiedene Aufgaben mit AI gelöst werden. Deswegen ist es für uns entscheidend, uns mit diesen Themen und Technologien auseinanderzusetzen. Zum einen, um zu wissen, was es gibt, welche Technologien und Lösungen, Softwareprodukte und Services für uns adaptierbar sind oder sogar genau für unsere Branche erschaffen wurden. Zum anderen, um zu erfahren, welchen Mehrwert man mit ihnen tatsächlich generieren kann.

Gunnar Brune/AI.Hamburg: Können Sie uns ein Beispiel für Künstliche Intelligenz nennen, mit der Sie wirklich täglich arbeiten?

Andreas Wartenberg: Zu den Anwendungen, die heute schon Künstliche Intelligenz integriert haben, zählt das Personal-Suchmaschinen-Portal LinkedIn. Ganz besonders das Produkt „LinkedIn-Recruiter“. Das ist ein sehr vermenschlichter Service. Es ist ein Tool, das Personalberater und Headhunter auf der ganzen Welt nutzen. Über dieses spezielle Suchtool hat man mehr Suchmöglichkeiten als der normale LinkedIn-Lizenznehmer. Zum Beispiel sind die Fundstellen, also die Suchergebnisse, bereits von AI vorsortiert. Wenn ich ein Stichwort wie Wechselwahrscheinlichkeit angebe, dann wird diese mit Hilfe der AI prognostiziert und ich kann die Ergebnisse danach sortieren. So etwas geht heute mit Künstlicher Intelligenz schon sehr gut.

Gunnar Brune/AI.Hamburg: Was ist für Sie das aktuell spannendste AI-Projekt der Hager Unternehmensberatung?

Andreas Wartenberg: Bei uns gibt es verschiedenste Handlungsstränge. Es gibt nicht ein Projekt allein, mit dem wir uns beschäftigen, denn Künstliche Intelligenz wird bei uns große Innovationskraft entfalten. Es gibt und wird neue Werkzeuge und Services geben, die Dinge möglich machen, die bisher nicht möglich waren. Ich gebe Beispiele: Nehmen wir das Thema Gesichtserkennung. In der Personalberatung geht es nicht allein darum, eine Person zu identifizieren. Wir wollen wissen, wann sie lügt, wann sie die Wahrheit sagt, unsicher ist, flunkert, sich aufs Glatteis bewegt oder übertreibt. Das sind alles Dinge, die man am Gesicht, an der Gesichtssprache ablesen kann. Es gibt sehr wenige Menschen in der Welt, die das persönlich können, sie beobachten dafür Merkmale im Gesicht, die Regungen der Gesichtsmuskulatur: Wann die Augenbrauen hoch gezogen werden, wann die Mundwinkel herunter gehen, sie achten grundsätzlich auf den Gesichtsausdruck an bestimmten markanten Punkten eines Menschen als Reaktion auf bestimmte Fragen. Heute macht man das mit einem videogestützten Interview, das von AI analysiert wird.

Wir können uns also durchaus gegenübersitzen, aber die Kamera zeichnet das Gesicht meines Gegenübers auf und dort läuft eine Software, welche die Auswertung macht. Das geht nur über AI in Verbindung mit Big Data – wie fast alle AI-Lösungen mit Big Data im Zusammenhang stehen. Hast Du kein Big Data, dann ist AI nicht die Hälfte wert, denn Du brauchst dafür einen großen, großen Datenpool.

Künstliche Intelligenz wird möglich machen, was bisher nicht möglich war. Sie wird das Vergleichen von vielen tausend Bewerbungsunterlagen im Detail möglich machen. Nehmen wir das Anschreiben, die Wortwahl, die Satzstellung, die Formulierungen. Sie geben Aufschluss darüber, mit welcher Persönlichkeit ich es zu tun habe. Ist das jemand, der selbstsicher ist und frei schreiben kann, ist das jemand, der auf Formalien achtet, ist das jemand, der irgendwelche Texte aus anderen Anleitungen kopiert hat, sind 08/15-Standardsätze darin oder ist es individuell? Ist der Bewerber mutig, nimmt er gewagte, also herausfordernde Vokabeln, hat er Fragezeichen oder Ausrufesätze in seinem Anschreiben? Oder ist das eher das Lamm, das sich anbietet, das sagt: „Ich bin ein/e treuer/e Gefolgsmann/-frau, deswegen schreibe ich auch so, wie ich schreibe.“ Big Data in Verbindung mit AI macht es möglich, genau das auch bei großen Mengen von Bewerbungen herauszufiltern und zu fragen, was dabei herauskommt.

Das waren zwei Beispiele für das Thema AI in der Personalsuche, ein weiteres Thema sind Chatbots. Wir alle kennen das Google-Beispiel des Friseurtermins, der telefonisch mit einem sprechenden Chatbot vereinbart wird. Das funktioniert in gewissem Maße auch bei einem Pre-Screening, also in der anbahnenden Interviewphase. Oder beim Erstkontakt mit einem Kandidaten: Auch hier wäre es möglich, intelligente, sprechende Chatbots im Online-Service zu schalten und eine erste Auswahl der Kandidaten nach zuvor definierten Fragen durchführen zu lassen.

Wo macht das Sinn? Das wird heute schon getan. Und zwar dort, wo man eine Vielzahl von Bewerbern auf eine geringere Anzahl von Stellen hat. Zum Beispiel, wenn ein großes Telekommunikationsunternehmen ein neues Callcenter in einer Geographie dieser Welt eröffnen möchte. Dann kann es sein, dass für 100 Stellen 800 Kanditen interviewt werden müssen. Dies durch einen Chatbot machen zu lassen, erspart viele menschliche Ressourcen und natürlich Geld.

Gunnar Brune/AI.Hamburg: Aber das wird bei der Suche nach einem Vorstandsvorsitzenden doch nicht eingesetzt? Wo bringt Künstliche Intelligenz hier einen Mehrwert?

Andreas Wartenberg: Das wird bei Vorstandsvorsitzenden vermutlich nie eingesetzt werden, weil wir dort nicht die Situation haben, dass wir eine Vielzahl von Kandidaten haben, weil wir nicht in einem Massen- und Volumenbereich unterwegs sind und deswegen über diese Technologien abfiltern. Aber: Im Grenzbereich gibt es viele Technologien, bei denen man von unserer Seite schon überlegen muss, was damit zu leisten wäre. Wenn ich den AI-getriebenen Chatbot nicht in der Pre-Selection einer Auswahl nutzen kann, so kann ich ihn aber vielleicht trotzdem als global agierendes Unternehmen für Standardanfragen einsetzen. Unternehmen bekommen ja auch Initiativbewerbungen en masse. Und wenn wir über die aktuelle Situation sprechen wollen: Wenn eine Pandemie, zu einer Massenarbeitslosigkeit führt, dann werden auch viele Menschen aus der Arbeitslosigkeit heraus an allen möglichen Stellen suchen, um sich neu zu bewerben und zu positionieren.

Mit AI-unterstützten Tools können wir Personalberater einen unerwarteten Ansturm bewältigen, ohne die internen Ressourcen zu blockieren. Das gilt natürlich auch für Unternehmen. Wenn ein großer Automobilhersteller viele Menschen entlässt, dann werden sich die Menschen bei einem anderen Automobilhersteller bewerben, insbesondere, wenn eine örtliche Nähe gegeben ist. Zum Beispiel in Süddeutschland. Dann könnte man schon überlegen, ob ein derartiges Chatbot-Tool Sinn macht, um vorzuselektieren.

Gunnar Brune/AI.Hamburg: Das sind spannende Möglichkeiten für die ganze Welt der Personalsuche und Personalberatung. Sie beschäftigen sich mit der Personalberatung für die Führungskräfte von Unternehmen. Was dürfen wir hier in naher Zukunft von Künstlicher Intelligenz erwarten?

Andreas Wartenberg: Wie schon gesagt gibt es nicht „das eine“ Projekt, an dem wir gerade arbeiten. Wir sind vielmehr in einem Scouting- und Screening-Prozess, in dem wir uns verschiedene Tools anschauen. Übrigens auch Tools, die das Thema Matchmaking neu gestalten. Das ist ein sehr spannender Bereich, wo AI in Zukunft in verschiedener Form eingesetzt werden wird. Ich stelle eine Stellenbeschreibung in mein AI-Tool und das Tool sucht selbständig in verschiedenen Portalen über eigene AI-getriebene Verschlagwortung. Oder wir gehen noch eine Stufe weiter: Ich schalte dem AI-Tool mein aktuelles Team für meine Top-Management-Ebene frei, von den Kandidaten, von denen ich weiß dass das Führungskräfte sind, mit denen ich zufrieden bin. Das AI-Tool sucht in den Portalen, die es in dieser Welt gibt nach anderen Kandidaten, die gut zu meinen Performern passen und schlägt mir diese vor. Das ist ein Matchmaking, das natürlich notwendig ist und in dieser neuen Form Prozesse bei uns verkürzt.

In diesem Bereich arbeiten wir mit einem Startup eng zusammen, um diesen Weg gemeinsam zu gehen. Die Idee ist, die Stellenbeschreibung direkt in das Tool zu geben. In einem Bruchteil von Sekunden wird diese vom Tool erfasst und verschlagwortet. Dann werden unsere Datenbank und externe Datenbanken wie z.B. LinkedIn oder XING damit durchsucht. Das erspart erheblich manuelle Arbeit, denn es gibt oft verschiedene relevante Schlagwortkombinationen: Head of Creative, Creative Director, Chief Creative Officer etc. Diese müssen in der manuellen Arbeit in den verschiedenen Quellen recherchiert werden, was zu mehreren Listen führt, die dann wieder manuell abgeglichen werden müssen. Hier kommt die maschinelle Suche viel schneller auf eine relevante Auswahl von Kandidaten in einer einzigen Liste. Aktuell muss die Maschine dafür noch relativ eng geführt werden, aber schon jetzt ist der Prozess sehr viel schneller und versetzt den Berater in eine Position, den Kunden besser beraten zu können.

Das ist aber nur eins von verschiedenen Projekten. Die Themen mit zusätzlicher Analyse wie Gesichtserkennung oder Auswerten von Anschreiben haben einen ganz großen Stellenwert und Charme für uns, weil es zusätzliche Informationen sind, um den Kandidaten zu beurteilen. Neben Fragetechniken, neben Interviewtechniken, neben Lebenslaufanalysen, neben Referenzen, die wir einholen können sind dies ergänzende Informationen, die uns weiterhelfen bei der Beurteilung von Personen. Und das ist bei uns der zentrale Punkt: die Beurteilung von Personen und ihrer Passfähigkeit auf Unternehmen, auf Funktionen, Teams und Kulturen, die ja schon vorhanden sind.

Gunnar Brune/AI.Hamburg: Das heißt, Sie sind besser in der Identifikation von Kandidaten und in der Beurteilung ihrer spezifischen Eignung.

Andreas Wartenberg: Zumindest geht es damit schneller und es gibt zusätzliche Informationen über die Person.

Gunnar Brune/AI.Hamburg: Wie ausgereift sind diese Lösungen, von denen Sie gesprochen haben?

Andreas Wartenberg: Alle die Unternehmen und Beispiele, die ich zuletzt genannt habe, sind Unternehmen im Startup-Modus. Wir beschäftigen uns mit diesen Unternehmen, wir scouten das, wir versuchen diese Dinge einzusetzen. Ganz konkret muss man auch sagen, dass es noch eine Zeitlang dauern wird, bis das Video-basierte, AI-ausgewertete Gesichtsauslese-Interview Standard wird. Das AI-unterstützte Auswerten der Bewerbungsanschreiben geht vermutlich schneller, und noch schneller wird das Thema Matchmaking gehen.

Gunnar Brune/AI.Hamburg: Das heißt, die aktuelle AI-Anwendung findet vorrangig im Rahmen der großen Such-Portale statt. Und sie scouten aktiv, wann sie ganz neue Lösungen in ihre Arbeitsweisen einbetten können?

Andreas Wartenberg: Ja und nein. Es gibt die großen Portalbetreiber, z. B. LinkedIn. Die werden viele dieser Themen bald selbst anbieten und auf die Beine stellen. Und es gibt parallel dazu sehr, sehr viele HR-Tech-Startups, die auch ganz viele andere Ideen haben, wozu AI noch in der Lage ist. Natürlich ist die Frage, wer von denen eigenständig zu bleiben wird und wer sich von einem großen Portalbetreiber oder einem anderen großen Technologieanbieter integrieren lässt.

Gunnar Brune/AI.Hamburg: Wie weit sind Sie in die Technologien involviert, auf denen diese Innovationen aufbauen. Künstliche Intelligenz nutzt in hohem Maße Machine Learning. Sind Sie dabei, wenn die Algorithmen trainiert werden?

Andreas Wartenberg: Das ist unterschiedlich. Meistens nicht. Wenn man früh in die Entwicklung als Partner einsteigt, ist man oft auch ein Datenlieferant und damit ein „Mit-Trainierer“ von Algorithmen. So gibt es im Matchmaking ein deutsches Startup, mit dem wir exklusiv zusammenarbeiten, um die Lösung umfassend mit unserer eigenen Datenbank zu integrieren. Dann wird anhand der Stellenbeschreibungen in der eigenen Datenbank und den externen Portalen in Sekundenschnelle nach geeigneten Kandidaten gesucht. Das ist ein Thema, wo wir in einem sehr frühen Versuchsstadium mit einsteigen. Und diese Zusammenarbeit hilft natürlich auch dem Startup mit dieser Technologie – hier nochmal das Stichwort Big Data – Big Data sinnvoll auszuwerten. Bei anderen Themen wie der Videoanalyse sind wir eher zurückhaltend. Bei unseren Gesprächen ist das Problem, dass die Kandidaten oft sehr offen mit uns über ihre Karriere, ihr Leben, individuelle Wünsche, Erfolge und auch Misserfolge sprechen und dabei verständlicherweise wenig Interesse haben, an solchen Versuchen für neue Technologien teilzunehmen. So eine Auswertung von Big Data und Videodaten erfolgt ja auch oft entfernt bei Startups in Amerika. Wir sind deshalb darauf angewiesen, dass diese Startups mit Kandidaten aus ihren eigenen Kulturen und anderen Menschen oder Aufgabenstellungen ihre Tools weiterentwickeln.

Gunnar Brune/AI.Hamburg: Wieviel Einblick haben Sie in den mathematischen Teil der Künstlichen Intelligenz, die Auswahl der Algorithmen und mathematischen Modelle?

Andreas Wartenberg: Das läuft außerhalb von uns. Wir sprechen nicht über die einzelnen Algorithmen, wir sprechen mehr über die Aussagekraft der Ergebnisse und ob die wissenschaftlich validiert sind. Welcher Algorithmus hinter einer Gesichtserkennung steht ist für uns nicht relevant. Für uns ist relevant, ob es andere Universitäten oder Wissenschaftler gibt, die bestätigen, dass das validiert und verlässlich ist.

Ein Beispiel aus der Vergangenheit: Schon vor Jahrzehnten hat man begonnen, graphologische Gutachten für die Beurteilung von Persönlichkeiten heranzuziehen. Das hat sich aber nie richtig durchgesetzt. Dennoch gibt es Wettbewerber, die das regelmäßig durchführen. Man muss bei allen Methoden schon sehen: Nicht alles, was man zählen kann, zählt, aber vieles, was man nicht zählen kann, zählt. Nicht alles, was ich mit AI und Big Data erfassen kann, ist relevant, und vieles was ich damit nicht erfassen kann, ist relevant.

In diesem Zusammenhang wird oft die Frage gestellt „Wird uns die Technologie irgendwann ersetzen?“. Kommt es dazu, dass es eines Tages keine Personalberater mehr braucht, weil die AI-gestützten Systeme alles von alleine lösen? Nein. Das wird nicht passieren. Weil es eben auch eine Menge Dinge gibt, die man über KI überhaupt nicht evaluieren kann und die trotzdem wichtig sind. Zum Beispiel: Sympathie. Ich kann mit jemandem extrem gut zusammenarbeiten und Erfolge erzielen, obwohl er vielleicht nicht vom Lebenslauf und der statistischen Auswertung die besten Voraussetzungen für diese Position mitbringt. Vielleicht auch nur, weil ich es will, weil ich das Gefühl habe, dass wir beide das miteinander können. Das sind Dinge, die mir eine AI nicht abnehmen kann. Computer können ausführen, was wir ihnen beigebracht und trainiert haben, doch das ist immer begrenzt. Wir dagegen können weiter denken. Sämtliche Big Data- und AI-gestützten Verfahren werden daher in unserem Bereich immer ergänzend sein, aber nie ersetzend.

Gunnar Brune/AI.Hamburg: Wird es Bereiche der Personalberatung geben, die zu einem höheren Teil durch Künstliche Intelligenz geprägt sind und Bereiche, die weniger Anteile davon haben?

Andreas Wartenberg: Durch die Künstliche Intelligenz erhalten wir ein tieferes Bild einer Person, das uns erlaubt, eine bessere Beurteilung zu treffen. Damit ist klar, dass alles, was aus dem Computer kommt, noch einmal überarbeitet und beurteilt werden sollte. Wahrscheinlich ist es so, dass je höher der Verantwortungsbereich der Position angesiedelt ist, je komplexer der Verantwortungsbereich ist, desto stärker wird der Mensch mit einbezogen werden. Je niedriger die Position oder begrenzter das Verantwortungsspektrum ist, desto eher kann ich die Beurteilung über Technologie abbilden. Die Anforderungen an einfache Positionen, was die Individualität von Menschen und die Persönlichkeitsmerkmale von Menschen angeht, ist etwas geringer. Hier zählen fachliche und handwerkliche Merkmale etwas mehr. Je weiter oben die Positionen angesiedelt sind, desto wichtiger werden andere als die fachlich handwerklichen Qualifikationen. Der CEO eines internationalen Unternehmens muss nicht zwingend aus der gleichen Branche kommen. Das ist das, worüber ich gerade spreche.

Gunnar Brune/AI.Hamburg: Ihre Branche ist geprägt von Menschen, die Menschenkenntnis verkaufen. Müssen Sie in Zukunft Menschenkenntnis und ein Verständnis des Kollegen Computer zusammenbringen, um zu der besten Empfehlung zu gelangen?

Andreas Wartenberg: Ja, wir bringen das zusammen, wir werden in Zukunft das Thema Beurteilungsfähigkeit von Menschen durch weitere Informationen und Fakten des Kollegen Computer anreichern. Ich denke, wir sollten immer einen kritischen Blick haben, auch wenn Informationen von einer Künstlichen Intelligenz kommen.

Gunnar Brune/AI.Hamburg: Ihr Unternehmen setzt sich intensiv mit Künstlicher Intelligenz auseinander. Was empfehlen Sie denen, die dies noch nicht tun: z.B. einem Personalchef, der sich noch nicht traut oder einem Personalberater, der weiter nur auf die persönliche Arbeit setzt?

Andreas Wartenberg: Anfangen und loslegen. Technologischer Fortschritt ist nicht aufzuhalten. Man muss anfangen und Chancen sehen. Sich fragen: Was kann das bedeuten und was kann das für mich bringen? Was man nicht macht, machen andere. Das heißt nicht, alles adaptieren und alles einsetzen. Das heißt schauen, welche Chancen sich für mich bieten.

Es gibt viele in unserer Branche, die sagen, dass Künstliche Intelligenz eine große Gefahr ist, die viele in unserer Branche deklassiert oder vielen das Leben schwer macht, weil Unternehmen Personalsuche auf einmal ganz alleine können. Das glaube ich nicht. Ich glaube, AI bietet uns zusätzliche und ergänzende Hilfsmittel, die wir verpflichtet sind, gut und geschickt einzusetzen. Denn dann haben wir einen Vorteil und haben unsere Chancen genutzt. Aber wir müssen damit anfangen.

Gunnar Brune/AI.Hamburg: Was planen sie als Nächstes?

Andreas Wartenberg: Wir haben zwei bis drei Themen an denen wir arbeiten. Ich freue mich auch auf die ganz neuen Themen, die auf uns zukommen. Wie schon gesagt, arbeiten wir bereits mit verschiedenen AI-Lösungen. Wir haben eine sehr spannende Zusammenarbeit mit einem Startup im Bereich Matching mit AI.

Weiterhin haben wir ein Scouting-Team gebildet, das seit Anfang des Jahres die Welt nach weiteren innovativen Technologien screent: Was gibt es da draußen, was kann in unserer Branche Sinn machen, was ist schon direkt für unsere Branche vorgesehen? Wir sehen schon jetzt, dass da sehr spannende Themen herauskommen.

Nicht zuletzt setzen wir uns intensiv mit der Zukunft der Personalberatung/Executive Search auseinander und arbeiten zu dem Thema an einer Studie, zu der wir auch externe Experten hinzuziehen. Wir fragen dabei: Wie wird gesucht? Was wird gesucht? Über wen wird gesucht? Wie wird das in Zukunft aussehen? Dabei wird das Thema Künstliche Intelligenz auch eine ganz zentrale Rolle spielen, weil die Zukunft ohne dieses Thema nicht stattfinden wird. Auf die Ergebnisse dieser Studie bin ich deshalb ganz besonders gespannt.

 


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie-und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!“ und dem Bildband „Roadside“. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

Aktuelles Anwendungsbeispiel für AI-basierte Marketing Metrics von Prof. Roul Kübler, Münster: Adidas setzt Mietzahlungen aus

Im Rahmen der Interviewreihe von Hamburg.AI zu Perspektiven für AI haben wir mit Prof. Raoul Kübler vom Marketing Center der Westfälischen Wilhelms-Universität Münster gesprochen. Dabei stellte er uns eine sehr aktuelle Anwendung von AI-basierten Marketing Metric vor. Im Rahmen einer Studie, die Anfang April 2020 veröffentlicht wurde, hat Prof. Raoul Kübler die Reaktionen in den Sozialen Medien auf die Aussetzung der Mietzahlungen für Gewerbeimmobilien und Ladenlokale durch Adidas im Zuge der Corona-Krise analysiert. Für die Studie wurden über 10.000 Kommentare aus den sozialen Medien ausgewertet. Dabei kam u.a. eine auf Sentiments trainierte AI zum Einsatz. Nach der Vorstandsentscheidung, Mietzahlungen auszusetzen, explodierten die negativen Tweets. Allein am 26. März verdoppelte sich das absolute Volumen, das sich auf Adidas bezieht. Die Empörungswelle hat einen ähnlichen exponentiellen Verlauf, wie die COVID-19-Fallzahlen. Kurz danach lenkte Adidas ein und zahlte die Mieten für April.

Quelle: Prof. Dr. Raoul Kübler, Marketing Center Münster, 2020, https://www.wiwi.uni-muenster.de/fakultaet/sites/fakultaet/files/mpp_16_01042020_1.pdf

Gunnar Brune


Prof. Dr. Raoul Kübler

Prof. Dr. Raoul V. Kübler Kübler lehrt am renommierten Marketing Center der Westfälischen Wilhelms-Universität Münster. Er ist weiter Gastprofessor an der University of Amsterdam, der freien Universität Amsterdam und der Graduate School of Management and Economics an der University of Geneva, wo er im Executive Programm Marketing Entscheidern die neuesten AI- und Machine-Learning-Methoden näher bringt. Davor war er von 2012 bis 2018 Assistant Professor of Marketing an der türkischen Özyegin University in Istanbul, deren Marketing Department im UTD-Ranking zu den Top50 weltweit gehörte.

Seine Arbeiten wurden in international führenden Fachzeitschriften wie dem Journal of Marketing, dem Journal of Interactive Marketing und dem Journal of the Academy of Marketing Science publiziert. Verschiedene Forschungsprojekte von Professor Kübler waren für Preise von der Europäischen Marketing Akademie nominiert und wurden von der Deutschen Forschungs-Gemeinschaft unterstützt und ausgezeichnet.

 


 

Gunnar Brune/AI.Hamburg: Prof. Kübler, Sie forschen im Bereich Marketing Analytics und sind ein Pionier im Einsatz von Machine Learning in der Marketing Forschung, was ist Ihre zentrale Forschungsfrage:

Prof. Raoul Kübler: In unserer aktuellen Forschung versuchen wir unter anderem herauszufinden, wie man mit User Generated Content die klassischen survey-based oder mindset-based Brand-Metrics ersetzen kann. In anderen Worten: Wir machen Marktforschung zur Unterstützung von Marketingentscheidungen. Zum Beispiel: Wir können Markenbekanntheiten messen oder Meinungen über Marken darstellen. Wir können Kundenverhalten voraussagen, zum Beispiel ob ein Kunde vermutlich bald die Marke wechseln wird. Bisher wurden dafür vor allem Umfragen eingesetzt, wir nutzen dagegen tatsächliche Aussagen und Konversationen von Zielgruppen und Kunden aus dem Internet.

Gunnar Brune/AI.Hamburg: Welchen Vorteil versprechen Sie sich davon?

Prof. Raoul Kübler: Durch die Arbeit mit User Generated Content (UGC) haben wir drei Vorteile: Wir nutzen authentische Konsumentenaussagen und sind frei von Befragungs- oder Panel-Einflüssen. Wir sind sehr schnell, denn die Erfassung kann dann durch die Unterstützung von Künstlicher Intelligenz in Echtzeit erfolgen. Drittens können wir mit hohen Fallzahlen arbeiten und damit die Prognosequalität verbessern.

Gunnar Brune/AI.Hamburg: Wie gehen Sie dabei vor?

Prof. Raoul Kübler: Wir nutzen die neuesten Verfahren und Algorithmen im Machine Learning zusammen mit den aktuellen Tools und Algorithmen aus der Linguistik. Dabei entwickelt sich schnell ein Entscheidungsbaum, der relativ komplex wird: Welche Daten brauche ich, um meine AI zu trainieren? Welche Algorithmen passen zu welchen Mindset Metrics? Wie beeinflussen Kontextfaktoren die jeweilige Eignung? Dabei ist das Interessante, dass wir auf Fragestellungen stoßen, die vor 30-40 Jahren bei den survey based Methoden auch aufgetaucht sind: Wo bekomme ich die Daten her? Wie teile ich die Daten auf? Kommt es zu Verzerrungen durch strategisches Antwortverhalten? Wir sehen dazu, dass neben dem Einsatz von AI und UGC zur Messung und Vorhersage der klassischen KPIs und Mindset Metrics, AI im Marketing auch andere, konkretere Probleme adressieren kann, wie zum Beispiel die Identifikation ob ein Kunde wiederkommt, oder abwandert (Churn-Rate), Kundenprofitabilität und andere Dinge, die zum Beispiel im Vertrieb von hohem Interesse sind. Aber auch hier bleibt immer die Herausforderung, dass künstliche Intelligenz große Mengen an guten Trainingsdaten benötigt, mit denen man die künstliche Intelligenz so füttert, dass sie überhaupt „intelligent wird“.

Gunnar Brune/AI.Hamburg: Lassen Sie uns nochmal zu den ersten Fragen zurück. Wie lösen Sie diese?

Prof. Raoul Kübler: Gerne. Wenn ich eine Antwort suche, dann ist, wie eben schon gesagt, die erste Frage: Wen befrage ich?
Für uns heißt das, wo finde ich die Daten im Internet? Praktisch kann das die Frage sein, ob ich Amazon Reviews nehme oder Instagram Posts auswerte.

Die nächste Frage ist: Wie werte ich die Daten aus?
Wenn ich Texte oder Bilder vorliegen habe, weiß ich zunächst nicht, was diese bedeuten. Ich muss Tools identifizieren, um damit zu arbeiten. Zum Beispiel kann ich mit künstlicher Intelligenz eine Sentiment-Analyse durchführen oder Text-Mining betreiben, aber ich muss mir vorher überlegen, welches Verfahren relevante Antworten liefert.

Erst an diesem Punkt stellt sich die Frage, welchen Algorithmus man nutzt. Hier gibt es tausende Möglichkeiten. Es fängt mit naiven baysianischen Algorithmen an. Wir alle kennen diese aus unseren Spamfiltern. Sie vergleichen Merkmale und leiten daraus Wahrscheinlichkeiten ab: Wie wahrscheinlich ist es, dass eine Mail Spam ist, dass eine Aussage positiv oder negativ ist oder dass ein Kunde den Anbieter wechseln wird. Dann gibt es Support-Vector-Machines, die Muster erkennen können und viele andere Möglichkeiten. Bei jedem Algorithmus muss dann bestimmt werden, wie er spezifiziert wird, welche Faktoren und Variablen genutzt und analysiert werden sollen. Das ist sehr komplex und bedarf viel Erfahrung.

Gunnar Brune/AI.Hamburg: Neue Datenquellen, neue Tools, viele Algorithmen: So haben Ökonomen bisher nicht gearbeitet. Mit wem tauschen Sie sich aus, um neue Wege zu finden?

Prof. Raoul Kübler: Richtig, es gibt hier eine breite Auswahl von Methoden. In der richtige Auswahl steht das Marketing noch am Anfang, oft wissen Informatiker schon viel mehr als wir. Aktuell wird viel ausprobiert, wir erkunden eine Terra Incognita für das Marketing. In Informatik, Computer Science, Linguistik, Biologie und Chemie gibt es viele Forscher, die künstliche Intelligenz schon länger anwenden und viel mehr Erfahrung als wir im Marketing gesammelt haben. Interessanterweise entdecken diese jetzt wieder die Ökonometrie – also Modelle mit denen das Marketing schon länger arbeitet. Hier wachsen auch akademische Welten zusammen, die voneinander in der Anwendung der künstlichen Intelligenz lernen.

Gunnar Brune/AI.Hamburg: Bitte beschreiben Sie näher, was für eine künstliche Intelligenz Sie nutzen.

Prof. Raoul Kübler: Als Marketeers wollen wir am Ende Entscheidungen basierend auf Vorhersagen treffen. Die AI liefert uns diese Vorhersagen. In den meisten Fällen verlassen wir uns aktuell auf klassisches Supervised Learning. Das heißt wir nehmen besagte Trainingsdaten und sagen entweder der AI welche Faktoren in den Daten für die Vorhersagen genutzt werden sollen – bei z. B. Methoden wir Random Forrest oder Support-Vector-Machines – oder wir lassen sogar die AI selbst entscheiden, anhand welcher Faktoren sie die Vorhersage von Kundenverhalten trifft, wie z. B. im Falle von Deep Learning.

Gunnar Brune/AI.Hamburg: Trainingsdaten! Bitte erläutern Sie, welche Rolle diese für die künstliche Intelligenz spielen.

Prof. Raoul Kübler: Wenn wir einen Algorithmus trainieren wollen, dann stehen wir vor dem Problem, dass wir Trainingsdaten benötigen. Hier stellt sich wiederum die Frage, wie diese Daten gewonnen werden können und wie geeignet sie für die geplante Anwendung sind. Ich bringe hier der künstlichen Intelligenz Identifikationsmuster bei, indem ich ihr erkläre dass in einem Datensatz zum Beispiel zu Hälfte positive und negative Aussagen zu finden sind. Solche Trainingsdatensätze sind nicht einfach zu finden, weil viele nicht genug positive und negative Aussagen für das Training beinhalten. Einfacher ist es, wenn wie bei Amazon in der Bewertung eine Textaussage von einer Punkte- oder Sternebewertung begleitet ist. Darüber kann ich die künstliche Intelligenz trainieren und das ist auch ein beliebter Weg. Was man auch noch machen kann ist, dass man ein Sample von 100.000 Kommentaren durch 1000 MTurker klassifizieren lässt und dann mit dem Datensatz trainiert.

Gunnar Brune/AI.Hamburg: Trainieren klingt toll. Können Sie der künstlichen Intelligenz beliebige Kunststücke beibringen?

Prof. Raoul Kübler: Das wäre super, wie so oft ist es komplizierter. Nehmen wir an, es liegen die richtigen Trainingsdaten vor. Der richtige Algorithmus wurde ausgewählt und eingestellt. Wir können also z.B. im Datensatz positive und negative Aussagen unterscheiden. Das heißt aber immer noch nicht, dass daraus Mindset-Metrics für die Brand Performance ablesbar sind. In anderen Worten, es ist zu diesem Punkt noch nicht sicher, ob aus den Userdaten z. B. eine Brand Awareness abgelesen werden kann. Dazu muss überprüft werden, ob die Ergebnisse mit bisherigen Ergebnissen und KPIs und Performance Variablen (wie Sales, Rebuy oder Market Share) kompatibel sind und ob sie zu besseren oder schlechteren Vorhersageergebnissen kommen. Wenn bessere Ergebnisse gewährleistet werden können, dann sind in unseren Verfahren, die live im Netz erhoben werden, nicht nur besser, sondern auch signifikant schneller als klassische Survey Based Verfahren.

Gunnar Brune/AI.Hamburg: In welche Richtung forschen Sie außerdem?

Prof. Raoul Kübler: Der nächste Schritt ist die Risiko- und Krisenvorhersage. Durch das Identifizieren frühestmöglicher Änderungen beim User generated Content kann künstliche Intelligenz Empfehlungen zu geben, ob ein Unternehmen reagieren soll oder nicht. Diese Änderungen können zum Beispiel betreffen: das allgemeine Volumen an Social Media Aktivität, extra Social Media News oder Sentiment Änderungen wie neue Emotionen in Texten.

Weiterhin analysieren wir über AI-Algorithmen, wie sich Emotionen in Filmen entwickeln und versuchen vorherzusahen ob bestimmte Storytellingmuster zu mehr kommerziellem Erfolg führen oder nicht. Das kann man auch für Bücher anwenden.

Wir sind außerdem auf politischer Ebene aktiv und untersuchen das Thema Hate-Speach und Fake-News. Wir quantifizieren Effekte mit dem was wir messen und stellen fest, wie stark plitischen Meinungs- und Willensbildung beeinflusst wird.

Gunnar Brune/AI.Hamburg: Wie tief ist ihre Forschung mit der täglichen Praxis verbunden – wird damit schon Geld verdient?

Prof. Raoul Kübler: Aktuell machen wir vor allem Marketing-Grundlagen Forschung, die zeigt, welche Methoden funktionieren und welche nicht. Wenn jemand auf uns zukommt, weil er etwas von unseren AI-Ergebnissen nutzen möchte, dann sind wir die letzten, die sich dem verwehren. Ich bin als Wissenschaftler andererseits besonders daran interessiert, Forschungsergebnisse zu generieren, von denen alle etwas haben. Dazu gehört auch, dass wir die Ergebnisse mit der Wirtschaft teilen. Und natürlich arbeiten wir daran, dass die künstliche Intelligenz, die wir hier im Haus entwickeln, eines Tages kommerzialisiert werden kann. Mit dem jetzt gegründeten Exzellenz Start-up Center.NRW an der Universität Münster sind wir dafür auch gut aufgestellt und haben ein Interesse in den Markt zu gehen.

Das heißt, wir sind breit aufgestellt und nutzen AI meistens um etwas zu operationalisieren und das Ergebnis dann in einem ökonometrischen Modell in Verbindung mit interessanten Performance Variablen wie Unternehmenserfolg, Kaufverhalten, Wählerwillensbildung in Verbindung zu bringen.

Es ist ein wenig der Luxus des Elfenbeinturms, in dem wir in der Forschung leben, dass wir nicht gezwungen sind, alles gleich zu Markt zu tragen. Wenn wir etwas neues Spannendes finden, können wir auch daran weiterarbeiten.

Gunnar Brune/AI.Hamburg: Wohin geht die Reise? Was würden sie gerne als nächstes tun?

Prof. Raoul Kübler: Was mich im Augenblick besonders fasziniert ist Hate-Speach. Ich bin sehr daran interessiert an Hate-Speach Identifikation, was ein unheimlich schwieriges Thema in der Linguistik ist. Es ist easy, Schimpfwörter herauszufiltern, aber Sexistmus, Rassimus und ähnliche Themen sind deutlich schwieriger zu identifizieren.

Ein Beispiel: Wir hatten eine Künstliche Intelligenz der Cornell University ausprobiert, die in Zusammenarbeit mit Stanford entwickelt worden war. Sie sah superspannend aus. Wir haben sie zum Test auf 100.00 Instagram-Kommentare losgelassen. Der erste Kommentar, den wir hatten, war lustigerweise zu einem Fashion-Post mit einem weißen T-Shirt, der ungefähr so lautete: „Oh, it’s a white T-shirt – I love the white T-Shirt“. Worauf in der AI alle Alarmglocken angingen, weil „I love the white T-Shirt“ von der künstlichen Intelligenz als rassistisch eingestuft wurde. Da gibt es noch viel zu tun und zu entwickeln.

Das ist ein sehr interessantes Forschungsfeld. Es wird ja viel über die Rolle von Facebook und anderen sozialen Netzwerken diskutiert. Wir können es empirisch noch nicht fundieren, aber wir sind da dran, wir sammeln jetzt vor allem viel aus Youtube heraus: Ich glaube das größte Aufmarschgebiet der Neo-Rechten ist Youtube. Das ist auch deren absolutes Steuerinstrument. Man ist erschrocken wenn man sich durchliest, was in den Kommentaren steht. Der eigentliche Content sieht auf den ersten Blick unbedenklich aus, aber die Komposition und Zusammenstellung prägen das Bild. Und das sind dann natürlich auch interessante Fragestellungen, wie man mit so etwas umgeht. Das ist für uns als Marketingwissenschaftler ein spannendes Thema, das weit über das hinausgeht, was wir sonst machen: einfach nur mehr Sachen zu verkaufen. Aber ich finde, wir haben da auch eine gewisse Verantwortung der Gesellschaft gegenüber. Ich versuche hier in Münster zu erreichen, dass wir uns diesen neuen Themen widmen. Und hier in Münster habe ich auch das Glück, dass man mich machen lässt und das hier viel Infrastruktur steht, mit der man diese Arbeit machen kann.

Gunnar Brune/AI.Hamburg: Was empfehlen Sie den Kollegen, die noch nicht mit Künstlicher Intelligenz arbeiten? Wie öffnet man die Tür – insbesondere im Mittelstand?

Prof. Raoul Kübler: Ich glaube, ich würde mir als AI-fremder Mittelständler die jungen Talente in die Firma holen. Zum einen ist das Schöne, dass es ein großes Interesse in der coming Generation an dem Thema gibt. Viele haben auch für sich selbst verstanden, dass es für sie ein Wettbewerbsvorteil am Arbeitsmarkt ist. Schon bevor ich nach Münster kam, war es hier so, dass sich die Studierenden selbst organisiert und das Unternehmen „Tech Labs“ gegründet haben. Dies hat selbst Lernpläne für Machine-Learing und AI anhand von bereits im Internet vorhandenen Lehrfilmen und Materialien entwickelt. Die Gründer hatten sich auf den Weg gemacht und festgestellt, dass es eine Riesen-Nachfrage gibt und haben lokale Unternehmen als Sponsoren gefunden. Das finde ich einerseits toll, andererseits fordert es uns als Universität heraus. Wir müssen im Grunde etwas Äquivalentes anbieten. Das machen wir mittlerweile und es gibt eine große Nachfrage. Das ist auch für mich interessant, weil ich merke, was relevant ist. Ich glaube da kommen viele hungrige und talentierte Leute, die Bock haben, mit Daten zu arbeiten, die Bock haben, neue Sachen auszuprobieren. Und, das ist das Gute: Die von uns mittlerweile so ausgebildet werden, dass sie verstehen, was relevante Fragestellungen in Unternehmen sind. Bisher war es ganz oft der Fall, dass es supertalentierte AI-Leute gab, also Statistiker und Informatiker, die aber nicht die gleiche Sprache wie das Marketing gesprochen haben. Da gab es den Gap zwischen den Tech-Schmuddelkindern „unten im Keller“, und „oben“ sitzen die Yuppies. Eine ähnliche Erfahrung hatte ich auch schon in Istanbul gemacht und daran gearbeitet. Die beiden sprechen nicht die gleiche Sprache und das geht nicht zusammen. In Münster machen wir das jetzt gezielt in der Ausbildung: Das sind Fragenstellungen aus dem klassischen Marketing, das sind Methoden, mit denen man das angehen kann, jetzt versucht das mal zusammen zu machen!

Gunnar Brune/AI.Hamburg: Die Alten sollen also den Jungen das Feld überlassen? Oder hat man auch als gestandener Manager eine Chance?

Prof. Raoul Kübler: Wenn man das Gefühl hat, dass man den jungen Leuten nicht gleich alles anvertrauen kann, das kann ich im Mittelstand gut verstehen, dann muss man sich selbst im Alter weiterbilden. Da gibt es vom verschiedenen Universitäten und Institutionen supergute Veranstaltungen. Hier in Münster gibt es eine WWU-Weiterbildung, die einen kompletten MBA anbietet, der einen auf die modernen Herausforderungen vorbereitet oder auch Zertifikate im Themenbereich Marketing Analytics und Künstliche Intelligenz anbietet. Ich habe gerade eine Veranstaltung zu Marketing Analytics, wo ich mit erfahrenen Managern zusammensitze und denen ein Update zu neuen Datenquellen und Verfahren gebe und zeige welche Fragestellungen sich damit neu und besser beantworten lassen. Die lernen sogar die Sortware „R“, einer freien, Open Software Programmiersprache für Datenanalyse und statistische Auswertung, und die Software Python anzuwenden. Mit Daten und Tutorials lösen sie dann Datenprobleme. Ein Fallstudie, die sie lösen müssen ist, dass die Manager in die Rolle eines Airline Managers versetzt werden, der ein Problem lösen muss. Im konkreten Fall landet eine Transatlantikmaschine 100 Minuten verspätet in Boston und die Frage ist, ob ein ganz bestimmter Anschlussfluge warten soll. In der Maschine der Anschlussverbindung warten 180 Passagiere auf den Start von Boston nach Chicago und die 60 Passagiere aus dem verspäteten Flug. Soll die wartende Maschine schon starten, oder nicht? Anhand des Social Media Verhaltens der betroffenen Passagiere wird dann untersucht, in welchem Szenario es eine größere Gefahr für negatives Word-of-Mouth gibt. Diese Vorhersage wird in die Entscheidung integriert, ob die Maschine in Boston wartet und ob die 60 Passagiere ihren Anschluss verpassen. Es gibt Berichte, dass es in den USA Airlines gibt, die für solche Fragen schon automatisiert mit Sentiment- und Clusteranalysen, etc. Vorhersagen treffen.

In anderen Fällen überprüfen wir Fragen von Click-Fraud, oder Churn Prediction. Das sind daten- und AI-getriebene Entscheidungsprozesse. Hier wird viel automatisiert, es gibt viele Fragen zu den Algorithmen, und hier lernen die Manager, wie diese Anwendungen funktionieren.

Gunnar Brune/AI.Hamburg: Sie habe Ihre Arbeit mit Künstlicher Intelligenz im Marketing als das Betreten einer Terra Incognita beschrieben. Wir haben darüber gesprochen wie lernende Maschinen mehr und mehr Aufgaben im Marketing lösen. Künstliche Intelligenz und Machine Learning wecken immer mehr Erwartungen, Hoffnungen und auch Befürchtungen. Was sollte man sich dabei vor Augen halten und was erhoffen Sie sich für die Zukunft?

Prof. Raoul Kübler: Fangen wir mal mit einem Wunsch an: Ich wünsche mir weniger heiße Luft, weniger Buzz und mehr Realismus in Bezug auf Künstliche Intelligenz. Denn wir brauchen weniger wilde Fantasien über die Zukunft und mehr Experimentieren und Machen in der Gegenwart. Künstliche Intelligenz erlaubt dem Marketing Fragen neu und besser zu beantworten und Entscheidungen besser zu treffen als bisher. Es gibt große Chancen und manchmal noch größere Erwartungen. Vergessen wir nicht, dass wir es bleiben, die Verantwortung übernehmen und Entscheidungen am Ende treffen müssen. Wer heute lernt, versteht und anwendet, was Künstliche Intelligenz – oder besser Machine Learning – alles kann, der hat schnell Vorteile im Wettbewerb.

Das ist nicht schwer. Es wächst eine Generation junger Talente heran, die die Möglichkeiten jetzt schon beherrschen und weiterentwickeln. Es entsteht auch eine Infrastruktur für Fortbildung und einfache Anwendungen, z. B. bei Ihnen von AI for Hamburg und bei uns an der Universität in Münster. Das erlaubt es allen Unternehmen, Managern und Unternehmern, jetzt mit Künstlicher Intelligenz erfolgreicher Marketing zu betreiben.

 


Das Interview führt Gunnar Brune von AI.Hamburg


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie-und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Gesellschafter des NEPTUN Crossmedia-Awards, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!“ und dem Bildband „Roadside“. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777