INTERVIEWS

Mit Enthusiasmus für Daten kann jeder Mehrwert für Unternehmen und Mitarbeitende schaffen

Das Interview führt Gunnar Brune von AI.Hamburg | June 6, 2022

Dr. Robert Friedrich: „Eine moderne Fertigungsmaschine hat einen hohen Digitalisierungsgrad und es ist natürlich aussichtsreich, mit diesen Daten zu arbeiten.“

Dr. Robert Friedrich

Dr. Robert Friedrich, Deloitte | Foto: Dr. Robert Friedrich

Dr. Robert Friedrich: „Eine moderne Fertigungsmaschine hat einen hohen Digitalisierungsgrad und es ist natürlich aussichtsreich, mit diesen Daten zu arbeiten.“

Dr. Robert Friedrich leitet als Senior Manager seit 2019 Kundenprojekte auf den Gebieten der Datenanalyse und des maschinellen Lernens für die Unternehmensberatung Deloitte. Im Mittelpunkt dieser Projekte steht die Befähigung seiner Kunden zur Umwandlung von internen und externen Daten in substanzielle Beiträge zum Geschäftswert.

Dr. Friedrich ist promovierter Maschinenbauingenieur und begann seine Karriere als Logistikoffizier in der Bundeswehr. Den Themenkomplex der Künstlichen Intelligenz erschloss er sich erst später durch Weiterbildungen im Selbststudium. Seine Kenntnisse und Erfahrungen bei der Umsetzung von anspruchsvollen Projekten mit Hilfe von maschinellem Lernen wendet er im Schwerpunkt für Kunden in der Pharmaindustrie, der Medizintechnik und im Automobilbau/Maschinenbau an. Die Bandbreite der Anwendungen reicht von Bedarfsprognosen über Sprach- und Textverständnis bis hin zu Computer Vision.

Gunnar Brune/AI.Hamburg: Herr Dr. Friedrich, wie beginnt ein typisches Projekt, an dem Sie arbeiten:

Dr. Robert Friedrich: Im Prinzip beginnt alles mit der Frage, wie man im Unternehmen Künstliche Intelligenz anwenden kann. „Künstliche Intelligenz“, das klingt natürlich spannend für das Unternehmen und für uns, ist der Begriff aber leider maximal unpräzise. „Intelligenz“ hat als Begriff für jeden Kunden und jedes Individuum eine individuelle Bedeutung. Der Begriff ist zusätzlich auch wissenschaftlich unklar, und es wird nicht besser, wenn man noch „Künstliche“ davorsetzt. Natürlich gibt es auch spezifischere Anfragen, bei denen die Kunden bereits wissen und sehr genau fragen, ob wir eine Lösung haben, die das Problem schon lösen kann. Häufig besteht jedoch der erste Schritt darin, das Problem zu definieren, bevor Lösungsoptionen überhaupt betrachtet werden können.

Gunnar Brune/AI.Hamburg: Die fertige AI aus der Schublade, gibt es die überhaupt?

Dr. Robert Friedrich: Oft ist die Antwort, dass wir bereits Erfahrungen mit Architekturen und Algorithmen haben, die für die Lösung der Aufgabe in Frage kommen. Von Kundenseite müssen dafür jedoch bestimmte Voraussetzungen mitgebracht werden. Hier setzt unser Anforderungskatalog an. Dazu zählen funktionale und nichtfunktionale Anforderungen an die Architektur der Plattform und die Daten. Wenn wir wissen, wo der Kunde steht, können wir einschätzen, ob und welche Methoden der Künstlichen Intelligenz eingesetzt werden könnten. Dann können wir auch sagen, welche bekannten Verfahren wir in der Lösung kombinieren können, wie zum Beispiel Forecasting, Clustering, Klassifizierung oder Sentimentanalyse, Anomalieerkennung oder, oder, oder. Es gibt zu diesen Verfahren ein schönes Buch, es ist mein liebster Begleiter. Es heißt „Data Science for Business“ und wurde von Foster Provost und Tom Fawcett geschrieben. Das Buch ist nicht zu technisch und in ihm sind neun generelle Machine-Learning-Aufgabenfelder beschrieben. Die Kombination dieser Aufgabenfelder ergibt in Folge einen Use Case. Den definieren wir mit dem Kunden, um die Voraussetzungen nennen zu können, die erfüllt sein müssen, um den Use Case umzusetzen. Wobei „Voraussetzungen“ vielleicht zu „hart“ klingt, denn sie lassen sich auch abstufen: Wenn Du A, B und C mitbringst, kommst Du so weit, wenn Du noch D, E und F mitbringst, kommst Du weiter.

Gunnar Brune/AI.Hamburg: Und was ist eine harte Voraussetzung?

Dr. Robert Friedrich: Es gibt für die meisten Anwendungsfälle einen Schlüsseldatensatz, ohne den man nicht anzufangen braucht. Wenn man beispielsweise ein Demand-Forecasting für einen Kunden machen will, wie wir es jetzt für ein Medizintechnik-Unternehmen tun, dann braucht man eine sehr saubere Aufnahme der Bestellungen aus den vergangenen Jahren. Viele weitere Faktoren können einen Zusatzbeitrag leisten, nicht nur die Historie der Bestellungen. Dazu zählen u.a. Marktindikatoren, die Zahl der Vertriebs-Mitarbeitenden in einer Region, das Vertriebs-Budget oder das Werbevolumen im Marketingbudget. Oder: die Aufmerksamkeit für das Unternehmen und deren Produkte, die Zahl der Klicks auf der Website, die Click-through-rate für Video-Beiträge. Es gibt also ganz viele Daten, die neben dem Hauptdatensatz noch Informationen liefern, warum die Nachfrage eine bestimmte Entwicklung nimmt. Der Schlüsseldatensatz ist das Must-have, alles Weitere kann helfen, ein spezielles „Level-of-Ambition“ zu erreichen. Im Fall des Forecastings möchte ein Kunde seine Nachfrage mit einer Genauigkeit von 90% vorhersagen. Das kann möglich sein, ist dann aber oft an Bedingungen geknüpft.

Um möglichst genaue Vorhersagen machen zu können, braucht es nach einer Faustregel die 7-fache Menge an Daten. Für ein Jahr Vorhersage würden also 7 Jahre Daten benötigt. Natürlich ist diese Faustregel sehr grob. Wenn die Zeitreihe jeden Monat die gleiche Verkaufsmenge zeigt, dann reicht schon ein Monat Historie – dann braucht man aber auch keinen Algorithmus für die Vorhersage. Aber oftmals ist die Nachfrage deutlich volatiler. Saisonalität und Trends sind wichtige Faktoren für die Vorhersage. Diese Faktoren sollten stabil sein oder es sollte wenigstens Gesetzmäßigkeiten geben. Die müssen natürlich nicht offensichtlich sein, denn dann benötigt man auch keinen Algorithmus. Sie sollten sich zum einen in den Hauptdaten befinden und es sollte weitere Datensätze geben, die diese Trends unterstützen.

Ich nutze in meinen Projekten das bewährte „CRISP-DM“ Framework. Das ist eine Abkürzung für Cross Industry Standard Process for Data Mining. Dieses Framework finde ich sehr verständlich. Es ist ein Ablauf, wie Data Scientists arbeiten und wie Data Science-Projekte ablaufen.

Es beginnt mit den beiden Schritten „Business Understanding“ und „Data Understanding“. Das Business Understanding kommt zuerst. Was wird verkauft? Was will der Kunde? Was sind die Ziele des Unternehmens? Was gibt es für Rahmenbedingungen? Das Data Understanding beantwortet danach die Frage, was die Daten beinhalten. Dafür werden die verfügbaren Daten charakterisiert. Ganz praktisch kommen wir mit einer Art „Wunschliste“ und haken ab, was verfügbar ist und was nicht verfügbar ist. Es gibt ein paar Essentials, die müssen verfügbar sein, ohne die können wir wieder aufhören. Oder wir müssen einen ganz anderen Weg gehen. Dieses alternative Vorgehen hat andere Datensätze, die essentiell sind. Das Level-of-Ambition, von dem ich sprach, stammt meist aus dem Business, und in unserem Fall könnte es sein, dass wir zu 90 Prozent Sicherheit forecasten wollen.

Gunnar Brune/AI.Hamburg: In welchen Branchen oder Abteilungen sind Sie vorsichtig mit Ihren Erwartungen und wo finden Sie häufig gute Datensätze?

Dr. Robert Friedrich: In meiner persönlichen gibt es Bereiche im Unternehmen, in denen man nur selten mit einer guten Datenqualität rechnen kann. Das sind zum einen Daten des CRM-Systems (Customer-Relationship-Management). Jedes große Unternehmen hat ein CRM-Tool, um zum Beispiel Opportunities oder allgemein Deals zu tracken. Diese sind meist leicht veränderbar und es können vergleichsweise viele Mitarbeitende darauf schreibend zugreifen. Dazu gibt es viele Freitextfelder. Natürlich finden sich dort auch fixe Felder wie Datumsfelder oder Accountdaten. Diese können als Indikatoren sehr hilfreich sein, wenn sie beschreiben, ob es sich um ein privates oder ein öffentliches Unternehmen handelt, welche Gesellschaftsform oder wieviel Mitarbeitende es hat. Aber leider sind diese Daten oft nicht aktuell.

Gunnar Brune/AI.Hamburg: Und genau diese Daten eines CRM-Systems sind die Daten, von denen Ihre Kunden zunächst glauben, dass sie viel Informationen bieten können?

Dr. Robert Friedrich: Genau, ich rate meinen Kunden ab, zuerst auf die CRM-Daten zu gehen, weil die oftmals nicht gut gepflegt sind. Es gibt auch positive Ausnahmen, aber ich habe sehr viele CRM-Systeme gesehen, die selbst geschrieben wurden, historisch gewachsen sind und in denen es ganz wenig Standardisierung gab. Das ist also ein Bereich, bei dem man sich auf eine schlechte Datenqualität einstellen muss. Ebenfalls muss man bei klinischen Studien und Patientendaten vorsichtig sein. Es gibt gut kuratierte Datensätze, die man kaufen kann oder die kostenlos zur Verfügung gestellt werden, mit denen man arbeiten kann. Aber Daten aus Krankenhäusern über Patienten oder entlang der Krankenhistorie von Patienten sind meistens schlecht gepflegt und lückenhaft.

Es gibt andere Bereiche, wo die Digitalisierung schon weiter ist und die demzufolge eine bessere Datenqualität liefern, wie zum Beispiel die Produktion. Hier kommen sogenannte SCADA-Systeme in Anwendung. SCADA steht dabei für Supervisory Control and Data Acquisition. Mit diesen Systemen werden Anlagen standortunabhängig gesteuert und überwacht. Die Daten, die beim Betrieb anfallen, werden gesammelt und aufgezeichnet. Darüber ist meist ein Manufacturing Execution System (MES, auch Produktionsleitsystem genannt), welches dann wieder an das ERP-System angeschlossen ist. Es gibt evtl. noch weitere Layer. Meistens sind aber die Maschinendaten vorhanden. Die sind nicht perfekt, weil Sensoren auch ausfallen können. Oder die Sensoren sind nicht kalibriert. Oder es gibt Einstellungen an Maschinen, die nicht aufgezeichnet oder gespeichert werden. Oder, oder, oder. Wirklich wichtig ist: Eine moderne Fertigungsmaschine hat einen hohen Digitalisierungsgrad, und es ist natürlich aussichtsreich, mit diesen Daten zu arbeiten.

Jetzt ist die Frage, ob das Unternehmen überhaupt darauf eingestellt ist, diese Daten zu sammeln. Ich erlebe oft, dass es diese Daten gibt, aber dass die Datenbank alle 3 Monate neu überschrieben wird. Warum? Weil viele Daten gesammelt und auf einem eigenen Datenbankserver gespeichert werden, der dann leider bald voll ist.

Gunnar Brune/AI.Hamburg: Das Sortieren und Zusammenführen der Daten verlangt nach einem guten Plan?

Dr. Robert Friedrich: Das Thema Datenstrategie ist ein weites Feld mit vielen verschiedenen Ansätzen. Natürlich kann man sich vornehmen, beispielsweise Maschinenausfälle vorherzusagen. Die bessere Zielsetzung wäre es, Produktionsausfälle zu vermeiden, die durch Maschinenausfälle verursacht werden. Das wäre eine Vision, welche mit Geschäftszielen harmonisiert ist. Die Maschine kann dann ausfallen, aber wenn sie es in einem Zeitraum tut, in dem dies keinen Schaden auslöst, dann ist das unproblematisch für das Unternehmen.

Man muss deshalb das Ziel gut formulieren und man muss die wichtigsten Einflussfaktoren kennen. Um dies grob zu tun, fragt man erstmal den Produktionsleiter oder auch die Bediener an der Maschine, wann etwas kaputtgeht und wann nicht. Und so kann man beginnen, diese Daten aufzunehmen oder es wenigstens zu versuchen.

Gunnar Brune/AI.Hamburg: Das heißt, in diesem Fall nutzt man menschliches Erfahrungswissen, um eine Struktur zu formulieren, mit der Daten aufgenommen werden könnten? Man sammelt also überlegt?

Dr. Robert Friedrich: Professionell ist es, früh zu überlegen, wie die Daten am Ende verbunden werden sollen. Man betrachtet oft nicht nur eine Maschine, sondern vielleicht zehn, oder eine komplette Supply Chain inklusive der Einkaufsprozesse. Dafür muss man sich mehr Gedanken machen, denn diese Datensätze müssen einen gemeinsamen Schlüssel haben. Dabei geht es auch um Feinheiten. Einige Maschinen sind vielleicht in der Universal-Time-Zone (UTC), andere arbeiten in der lokalen Zeit. Um ein Werk, welches in Mexiko steht, einzubinden, muss erstmal ein gemeinsamer Nenner für die Zeit geschaffen werden. Die Arbeit mit Zeitformaten ist eine interessante und anspruchsvolle Aufgabe für jeden Data Scientist.

Es gibt noch andere Identifier, über die man sich wirklich Gedanken machen muss. Oftmals haben die Unternehmen unterschiedliche CRM-Systeme. Dann hat ein und der gleiche Kunde verschiedene Customer IDs. Oder es werden Daten von Mutter- und Tochterunternehmen, die eigentlich einer genauen Account-Hierarchie folgen müssten, im System nicht als solche dargestellt. Es gibt dann einfach zwei verschiedene unabhängige Kunden, welche ohne weitere Analyse nicht als zusammengehörig erkannt werden können. Wendet man dann beispielsweise Algorithmen auf diese Daten an, stehen wichtige Informationen nicht zur Verfügung.

Gunnar Brune/AI.Hamburg: Also möglicherweise übernimmt die Konzerntochter den Einkauf für die Tochter. Dies ist aber in den Daten nicht erkennbar und der Verkaufserfolg wird einem falschen Faktor zugeordnet?

Dr. Robert Friedrich: Genau, oder es gibt eine Einkaufsgesellschaft von dem Unternehmen, welche den Einkauf macht und die Muttergesellschaft kauft wenig ein. Über alle diese Zusammenhänge muss man sich Gedanken machen. Ich sage gerne: Du musst den Kern definieren und die Satelliten, die helfen könnten, die Daten besser zu verstehen oder das Ziel zu erreichen. Dann musst Du Dir überlegen, wie die Informationen zueinanderfinden können. Kann ich Daten direkt verbinden oder muss ich sie aggregiert verbinden? Es gibt auch hier, wie so oft, verschiedene Herangehensweisen.

Gunnar Brune/AI.Hamburg: Wie sieht der nächste Schritt aus? Sie haben ein Ziel. Sie wollen vielleicht wissen, wie viele Röntgengeräte in Zukunft gekauft werden oder wie man den Ausfall der Maschine verhindern kann. Und jetzt werden die geeigneten Algorithmen ausgesucht?

Dr. Robert Friedrich: In dem CRISP-DM-Modell sind wir vom Business-Understanding zum Data-Understanding gekommen. Wir haben die Daten aufbereitet, also die Data-Preparation abgeschlossen, und jetzt kommt das, von dem immer alle reden – die Modellierung. In ihr steckt die Künstliche Intelligenz. Hinter der Künstlichen Intelligenz versteckt sich ein Algorithmus oder eine Kombination von Algorithmen, die aus den vergangenen Daten lernt.

Das ganze CRISP-DM-Modell ist ein großer Kreislauf, in dem laufend angepasst und optimiert wird. In dem Modell gibt es viele kleine Zwischeniterationen, z.B. zwischen Business-Understanding und Data-Understanding. Und es gibt eine Iteration zwischen der Data-Preparation und der Modelling. Die Data-Preparation und Modellierung gehen Hand in Hand. Die Vorbereitung der Daten muss zielgerichtet auf den Algorithmus durchgeführt werden. Zum Beispiel können manche Algorithmen keine kategorischen Daten oder negativen Daten verarbeiten, andere setzen eine Normalverteilung in den Daten voraus.

Nachdem der Algorithmus ausgewählt und das Modell trainiert wurde, kann das Modell validiert werden. Dazu muss ein Satz an Indikatoren definiert werden, an denen die Güte des Modells gemessen wird. Auch (Business)-kritische Grenzwerte müssen festgelegt werden (meist kommen die aus der Phase des Business-Understandings).

Nach der Validierung muss man sich entscheiden, ob man deployed oder nicht. Wenn nicht deployed wird, geht es wieder zurück zum Business-Understanding, aber mit den Erkenntnissen aus dem ersten Cycle. Die Quintessenz ist, dass man es nur in den allerseltensten Fällen schafft, das erste Modell zu deployen, man muss in der Regel den Cycle zwei- bis dreimal durchlaufen.

Nehmen wir an, alle Anforderungen für das Modell sind erfüllt und das Business ist zufrieden mit dem Ergebnis. In anderen Worten: Es funktioniert alles, die Validierung ist abgeschlossen. Dann geht es in das Deployment. Das Modell an sich ist nicht produktiv. Im Deployment muss dafür gesorgt werden, dass das Modell auch mit produktiven Livedaten funktioniert, das ist übrigens ein ganz großes Feld. Es muss unter anderem nachgewiesen werden, dass das Modell auf Livedaten die gleichen Ergebnisse liefert. Man muss viel dafür tun, dass dies auch im Betrieb reibungslos funktioniert.

Ein überproportionaler Anteil der öffentlichen Debatte dreht sich um das Modell und den Algorithmus. Es gibt eine interessante Darstellung, die ich auf Linkedin gesehen habe und die sich mit meinen Erfahrungen deckt. Nur ungefähr 5 % des Codes einer Lösung sind dem Modell geschuldet. Die große Mehrheit des Codes fallen in der Datenintegration, der Datenvorbereitung und im Deployment an. Die Aufgabe, das Modell in der Realität zu verankern, ist der aufwändigere Teil. Das ist der Bereich MLOps, Machine Learning Operations, der zurzeit in aller Munde ist, ganz eng verbunden mit dem IT-Begriff DevOps, also Development und Operations. DevOps findet zum Beispiel bei der Entwicklung von Softwareprodukten (z. B. einer WebApp) Anwendung. Dabei gilt es, den Code und dessen Umgebung zu kontrollieren, um die Funktionsfähigkeit des Softwareproduktes zu gewährleisten. Bei MLOps kommt als Besonderheit hinzu, dass die Daten die Funktionsfähigkeit des Produktes maßgeblich beeinflussen. Demzufolge müssen auch diese kontrolliert werden. Umso mehr gilt es zu verhindern, dass ungenaue, unsinnige oder schlichtweg falsche Daten den Algorithmus erreichen. Dazu gibt es ein ganzes Tätigkeitsfeld, welches sich mit Ausreißer-Erkennung bzw. Out-of-Distribution-Detection beschäftigt.

Gunnar Brune/AI.Hamburg: Wie sind Ihre Erfahrungen bei der Einführung von Künstlicher Intelligenz? Welche Treiber und Widerstände gibt es?

Dr. Robert Friedrich: Ein großer Bereich, den wir auch in unserer Studie dargestellt haben („State of the AI in the Enterprise“, 3rd Edition, Deloitte, https://www2.deloitte.com/de/de/pages/technology-media-and-telecommunications/articles/ki-studie-2020.html), sind die diffusen Ängste, Befürchtungen und Dystopien, wie Killerroboter, die durch die Medien getragen werden. Es gibt aber auch realere Ängste wie die Rechtsunsicherheit gegenüber der Anwendung von geltendem Recht in der Datennutzung. Was wir auch hören ist, dass man hohe Implementierungsaufwände fürchtet. Aber das stimmt häufig nicht. Diese Wahrnehmung wird teilweise bestimmt von den Medien: Es ist kompliziert, es ist langwierig und deswegen wird ein hoher Aufwand befürchtet. Oftmals ist das unbegründet, denn erste kleinere Schritte kann man oft schnell gehen. Das ist dann noch nicht die Créme de la Créme des Machine Learnings, aber man kann, in dem man die eigenen Daten planvoll nutzt, in vielen Bereichen schon deutlich besser werden als im manuellen Prozess.

Gunnar Brune/AI.Hamburg: Wie kann ein Unternehmen herausfinden, wo es steht und wie bereit es ist für die Anwendung von AI?

Dr. Robert Friedrich: Unternehmen, welche vor dieser Frage stehen, sollten folgende fünf Dimensionen mit Blick auf Reifegrad für die Anwendung von maschinellem Lernen bewerten: Strategie, Mitarbeitende, Prozesse, Daten und Technologie. Wenn man zu dem Ergebnis kommt, dass man in allen Dimensionen nicht bei null ist, sollte man mit ersten Machbarkeitsstudien beginnen und die Lehren daraus gut dokumentieren. Das Motto „fail fast, learn fast“ sollte berücksichtigt werden. Ein Proof-of-Concept von 6 Wochen ist einem sechsmonatigen Laborieren vorzuziehen. Eine entsprechende Fehlerkultur im Unternehmen ist eine weitere Voraussetzung. Der beschriebene CRISP-DM Prozess hat mir in meinen Projekten oft geholfen zu erklären, wo wir stehen. Alle Kunden wollen natürlich schnell ein funktionierendes Modell. Dabei sind es gerade die ersten beiden Phasen des Business- und Data-Understandings, welche tiefe Einblicke in die Reifegraddimensionen bieten.

Man sollte lieber am Anfang etwas Zeit in den ersten Schritten verbringen, also Data- und Business-Understanding sowie Data-Preparation, denn wenn diese gut gemacht sind, hat man auch schnell ein Modell, mit dem man gut weiterarbeiten kann.

Gunnar Brune/AI.Hamburg: AI ist eine relativ junge Technologie, nur wenige Ihrer Kunden werden persönlich eine spezifische Ausbildung dafür mitbringen. Was bedeutet dies für die Arbeit mit Künstlicher Intelligenz?

Dr. Robert Friedrich: Ich halte das Ganze nicht für zu komplex. Ich bin auch selbst „angelernt“ und habe es nicht studiert. Ich fühle mich mittlerweile sehr sicher darin. Ich habe auch eine Neigung zur Verwendung von Daten und als Maschinenbauingenieur habe ich mich natürlich schon im Studium mit Programmierung beschäftigt. Diesen Enthusiasmus für die Arbeit mit Daten muss man mitbringen. Man muss den Willen haben, Mehrwert aus den Daten zu generieren und dafür auch Rückschritte auf dem Weg in Kauf zu nehmen. Wenn man dazu bereit ist, kann man mit den Daten sehr viel erreichen und auch selbst in der Karriere und in der persönlichen Entwicklung gut vorankommen. Ich glaube, in der Zukunft ist die Nutzung von Daten für Unternehmen so essenziell wie für die Mitarbeitende. Mitarbeitende, die besser und schneller mit Daten umgehen können, werden erfolgreicher sein. Investitionen in Weiterbildung im Bereich Daten und Datenanalyse, Datenverständnis und Visualisierung werden sich für Unternehmen auszahlen.

Gunnar Brune/AI.Hamburg: Ihre Aussage erinnert mich an ein Zitat aus einem anderen Interview dieser Reihe. Herr Prof. Dr. Ulf Brefeld von der Leuphana Universität sagte: „Wenn ich jetzt nicht in AI investiere, dann kann es sein, dass das mein letzter entscheidender Fehler war.“ Er beschäftigt sich übrigens unter anderem mit der Frage, wie Künstliche Intelligenz den Sieger im Fußball vorhersagen kann. Das Erfolgsmaß ist dabei das Eindringen mit dem Ball in den gegnerischen Strafraum. Das Tor selbst ist im Fußball zu zufällig.

Dr. Robert Friedrich: Und es gibt ja auch so wenig Tore in einem Spiel. Das ist ein schönes Beispiel für den ersten Teil des Entwicklungszyklus für Machine Learning in Unternehmen. Ein Fachidiot, der nur mit Zahlen arbeiten kann, aber nichts vom Fußball versteht, muss erstmal lernen, worauf es beim Fußball ankommt. Nun ist Fußball ein Sport, den irgendwie jeder kennt. Aber davon losgelöst zu betrachten, dass die Strafraumaktion das Ziel für das Modell ist und nicht die Zahl der Tore, das ist – übertragen auf den Fußball – genau die Form von Business Understanding, die für das Gelingen von Projekten mit Künstlicher Intelligenz notwendig sind.

Gunnar Brune/AI.Hamburg: Herr Dr. Friedrich, vielen Dank für das Gespräch.

Dieses ist die kompakte Fassung des Interviews mit Dr. Robert Friedrich, eine detaillierte Fassung wird in Kürze in einem Buch von Gunnar Brune zu aktuellen Anwendungen Künstlicher Intelligenz erscheinen.


Das Interview führte Gunnar Brune von AI.HAMBURG


Gunnar Brune

Gunnar Brune ist Marketing Evangelist, Strategie- und Storytellingexperte. Er ist Unternehmensberater mit Tricolore Marketing, Storyteller mit Narrative Impact, Autor und mehrfaches Jurymitglied für Awards in den Bereichen Marketing, Kommunikation und Storytelling. Weiterhin ist Gunnar Brune im Enable2Grow Netzwerk assoziiert und engagiert sich im Rahmen von AI.Hamburg für die Vermittlung der Möglichkeiten und die Förderung des Einsatzes von Künstlicher Intelligenz.

Gunnar Brune ist Autor von dem Marketing Fachbuch „Frischer! Fruchtiger! Natürlicher!” und dem Bildband „Roadside”. Er ist Co-Autor der Bücher: “DIE ZEIT erklärt die Wirtschaft” und “Virale Kommunikation” und er schreibt seit vielen Jahren regelmäßig für Fachmagazine. Seine Artikel finden sich u.a. in der Advertising Age (Fachmagazin Werbung USA), Horizont, Fischers Archiv und der RUNDSCHAU für den Lebensmittelhandel.

Kontaktinformation:

Gunnar Brune, gunnar@ai.hamburg, 0176 5756 7777

Ähnliche Beiträge

European AI: The time to invest is now
European AI: The time to invest is now
PHOTOPIA-Hype in den Messehallen: Imaging-Szene feiert in Hamburg die ganze Welt der Foto- und Videografie
PHOTOPIA hype throughout the exhibition halls: Imaging scene celebrates the world of photography and videography in Hamburg