Zukunft der industriellen Automatisierung mit Dr.-Ing. Andreas Herzog

0302andreasherzog (c)fraunhofer iff viktoria kühne quadrat

© fraunhofer iff viktoria kühne quadrat

Staffel 3 , Folge 2

Cloud-Technologien, kontinuierliche Modellanpassungen und Spektraltechnik – in dieser Folge von KI Insights begrüßen wir Dr.-Ing. Andreas Herzog zu Themen der industriellen Automatisierung und Zukunft der KI zu Gast. Er ist Experte für Datenanalyse und maschinelles Lernen und Gruppenleiter für kognitive Prozesse und Systeme am Fraunhofer IFF. Gemeinsam mit unseren Moderatoren David Döring und Prof. Dr.-Ing. Sebastian von Enzberg spricht er über Herausforderungen der Digitalisierung in der Industrie und die revolutionäre Methode der Hyperspektraltechnik, die es ermöglicht, verschiedenste Materialeigenschaften präzise zu erkennen – vom Röstgrad des Brotes bis zum Zuckergehalt von Lebensmitteln.

Foto: Viktoria Kühne (Fraunhofer IFF)
Moderation: Prof. Dr.-Ing. Sebastian von Enzberg, David Döring
Schnitt & Text: Julia Fritz

Transkript Staffel 3, Folge 02 Andreas Herzog

00:00:04 SPEAKER_01

Willkommen bei KI Insights, ein Podcast vom Projekt Zaki an der Hochschule Magdeburg -Stendal. Hier teilen Expertinnen verschiedenster Disziplinen ihre Einblicke in die facettenreiche Welt der künstlichen Intelligenz. In der dritten Staffel erwarten Sie spannende Data Science Use Cases aus Forschung und Industrie, datengetriebene Ansätze und Techniken des maschinellen Lernens sowie gesellschaftliche Fragen rund um das Thema KI.

00:00:30 SPEAKER_02

Hallo, ich bin David Döring vom Zaki -Team der Hochschule Magdeburg -Stendal. Bei mir ist Professor Sebastian von Enzberg.

00:00:37 SPEAKER_04

Herzlich willkommen.

00:00:38 SPEAKER_02

Auch vom Zaki -Team. Und als Gast eingeladen haben wir heute Andreas Herzog. Andreas, du bist Experte für Datenanalyse und maschinelles Lernen und Gruppenleiter für kognitive Prozesse und Systeme am Fraunhofer IFF. Herzlich willkommen.

00:00:54 SPEAKER_04

Hallo, danke, dass ich hier sein darf. Genau, Andreas, wir haben ja auch eine gemeinsame Geschichte, haben am selben Lehrstuhl promoviert. Und ich erinnere mich noch so ein bisschen zurück an die Themen, die damals ja auch schon mit neuronalen Netzen waren, auch verschiedene Modelle von neuronalen Netzen, spikende neuronalen Netze. Ich glaube, Bildoptimierung und Komprimierung waren da Anwendungen. Vielleicht kannst du auch nochmal so Revue passieren lassen, was seitdem eigentlich so passiert ist. Das ist ja enorm, was im Bereich KI da passiert ist. Ja,

00:01:19 SPEAKER_03

es ist Wahnsinn, was passiert ist. Wenn ich mich daran erinnere, wie es angefangen hat, wie es bei mir angefangen hat, wo ich als Student, das muss so 92 gewesen sein, bei Professor Michaelis in die Gruppe reingekommen bin als Hiwi und wir da im Prinzip

neuronale Netze schon gemacht haben. Da habe ich eine Hardware -Umsetzung von neuronalen Netzen gemacht. Das war meine Studien – und Diplomarbeit, wo wir mit Filterprozessoren Bilder wieder richtig hingerechnet haben, die Unschärfen korrigiert haben, auch Ortsvarianten schon und damit auf Messen waren. Das war eine interessante, spannende Zeit.

00:01:53 SPEAKER_04

Das Ganze schon vor Convolutional Networks und GPU -Hardware, die wir heute haben. Convolutional war es im Prinzip auch.

00:01:57 SPEAKER_03

die wir heute haben. Convolutional war es im Prinzip auch. Das waren ja Filterprozessoren. Also war der Anfang der Convolutional Network, kann man das eigentlich noch nicht, na doch, eigentlich schon. Also das waren Filterprozessoren, glaube 9×9. Was wir dann gemacht haben, wir haben die übers Bild geschoben, wie man mit Filterprozessoren so macht und haben zwischendurch aber die Wichtige gewechselt. Immer abschlussweise. Und die Elektronik dazu, die hatte ich dann gebaut.

00:02:02 SPEAKER_04

der Convolutional

00:02:22 SPEAKER_02

Vielleicht noch mal ganz kurz. Die Convolutional Neural Networks wurden jetzt erwähnt. Ich glaube, ein paar Zuhörer werden sich fragen, was ist das überhaupt?

00:02:30 SPEAKER_03

Das sind Sachen, die kamen dann sehr viel später erst wieder so richtig zum Tragen, wo man angefangen hat, Bilderkennung zu machen. Vielleicht muss man wirklich früher anfangen zu erzählen. Also was wir in den 90ern gemacht haben, das war eigentlich maschinelles Lernen, künstliche neuronalen Netze. Die Sachen, die es heute immer noch gibt, die wir immer noch anwenden, das hängt ja immer… eher davon ab, welches Problem man lösen will, als dass man immer das neueste Zeug haben muss. Das waren ganz normale Netze mit Gewichten und Neuronen, die man im Prinzip auf die Daten angewendet hat. Und wenn man Bilder haben, verarbeiten wollte, dann musste man Feature Engineering vorher machen. Also man musste irgendwelche Features raus

sammeln, also irgendwelche Kanten, irgendwelche Strukturen. Das Beispiel dafür ist die Gesichtserkennung. Da hat man das so gemacht und das ist immer noch in jedem Handy und überall drin. Das ist nur so aufwendig gewesen, weil man das von Hand machen musste. Und deshalb ist man irgendwann dazu übergegangen, das mit noch tieferen Schichten, also mit tiefen Netzen zu machen und dann convolutional Layer zu nehmen. Das heißt, man schiebt da die Filtermasten, die trainierten, über die Bilder rüber und hat dann die Features und kann die Features mit antrainieren.

00:03:44 SPEAKER_02

Das kann man sich, glaube ich, auch so ein bisschen vorstellen, wie jetzt bei Instagram, wenn man da einen Filter auf dem Bild anwendet. Die verändern sozusagen die Optik vom Bild und dann ist es einfacher, darin Informationen zu finden.

00:03:55 SPEAKER_03

Ja, man findet von jedem Bildabschnitt dann die Eigenschaften. Also ist da eine Mitte hell, draußen rum dunkel, sind da irgendwelche Strukturen drin, welche Farbigkeit ist dabei und so. Das ist so 2010 hat es angefangen damit. Aus meiner Sicht noch gar nicht so lange her. Da ging es dann los auch mit diesen vortrainierten Netzen. Also das, was wir da vorher gemacht haben, da haben wir immer die Netze von Grund auf trainiert. Also wir haben Daten gehabt, haben versucht, die Daten so richtig hinzuschieben. Das ist immer noch im Prinzip unsere Hauptaufgabe, dass wir die Daten ordentlich vorbereiten vor dem Trainieren. Wenn das nicht funktioniert, dann braucht man entweder riesige Datenmengen und riesige Netze oder es funktioniert halt gar nicht. Weil das immer ein großes Problem ist, hat man sich dann… überlegt, dass man ja vielleicht andere Daten nehmen kann, also als die, die man eigentlich sowieso hat, sondern mit einer ähnlichen Struktur und das hat sich bei Bildern und Tönen und Sprache hat sich das im Prinzip angeboten und deshalb hat man diese allgemeinen tiefen Netze für die Bildverarbeitung oder Sprachverarbeitung genommen und hat da tausende Millionen Bilder trainiert und immer noch mehr, um dann im Prinzip die ganzen Features oder die Eigenschaften rauszufiltern, die man für eine Erkennung von irgendwelchen Objekten auf Bildern braucht.

00:05:12 SPEAKER_04

Ja, das sind ja die sogenannten Foundation Models, die dann irgendwie vortrainiert sind und verwendet werden können. Aber du hast ja gesagt, viel Arbeit steckt trotzdem noch in der Datenvorverarbeitung und in vielen Anwendungen ja auch immer noch im Feature Engineering. Werden wir bestimmt gleich noch auch bei deinen Projekten darauf

kommen, dass ihr da wahrscheinlich an vielen Stellen trotzdem auch immer noch viel Feature -Engineering betreiben müsst.

00:05:32 SPEAKER_03

Ja, ja, ja, klar. Vor allen Dingen, weil wir bei den Industriedaten, die uns ja vor allen Dingen interessieren, nicht so viele verschiedene Daten haben und die ändern sich auch mit der Zeit. Also da muss man schon alles, was man hat an Erfahrungswissen, an a priori Wissen mit reinlegen, um einigermaßen gute Ergebnisse zu bekommen.

00:05:53 SPEAKER_02

Ich will einfach mal von dir so ein bisschen hören, was ist überhaupt dieses Thema KI? Was bedeutet KI sozusagen für dich? Um mal zu klären, über was reden wir jetzt hier gerade?

00:06:03 SPEAKER_03

Im Moment, wenn man KI sagt, dann meint man ChatGPT und diese großen Modelle. Vor 30 Jahren, 40 Jahren, da fanden alle Taschenrechner unheimlich intelligent, weil die ja Sachen gemacht haben, die man als Mensch nicht kann. Und das hat sich so ein Stückchenweise entwickelt. Also für mich ist KI eigentlich… alles was lernt und wo irgendein System aus Daten selbstständig was lernt. Wobei ich bin Ingenieur und ich bin dazu da, Probleme zu lösen. Also wir lösen die Probleme von den Kunden und von den Leuten, wo wir die Projekte haben. Ja, wir nutzen KI natürlich sehr viel, weil das meistens nur damit geht, aber wenn es mit einfachen… Methoden geht, also wieso nicht? Also wir wollen nicht auf Teufel raus KI machen, sondern wir wollen Probleme lösen.

00:06:52 SPEAKER_02

Du hattest jetzt schon, also es ging jetzt schon so langsam in die Richtung, du arbeitest überwiegend mit Daten aus der Produktion. Möchtest du vielleicht dazu kurz was sagen? Also was ist so ein Projekt, an dem du gerade dich beschäftigst?

00:07:06 SPEAKER_03

Ja, wir arbeiten mit Daten aus der Produktion und verwenden da natürlich verschiedene Sensorik. Wir haben uns ein bisschen spezialisiert auf Spektralsensorik, auf Hyperspektralkameras und Hyperspektralsysteme, weil das sind sehr, sehr viele Daten, die da zusammenkommen und sind auch hochdimensional, was dann schwierig ist,

damit umzugehen. Da steckt aber sehr viel Information drin. Aber um die Information rauszukitzeln, muss man auch viel Vorverarbeitung machen, viel Feature Engineering, viel Normierung, um überhaupt diese Information, die man haben möchte, rauszubekommen. Was bedeutet Hyperspektral?

00:07:38 SPEAKER_02

bedeutet Hyperspektral?

00:07:40 SPEAKER_03

dass wir sehr viele spektrale Kanäle haben. Also wir haben eine Schwarz -Weiß -Kamera, hat einen Kanal. Die normale Farbkamera, wie die im Handy oder dergleichen ist, hat drei Kanäle. Und wir verwenden entweder Multispektralsysteme, die haben so fünf bis acht, oder dann Hyperspektralsysteme, die haben mehrere hundert Kanäle.

00:07:59 SPEAKER_04

Vielleicht kannst du auch nochmal ein paar Beispiele dafür nennen. Was können die denn mehr erkennen, gerade in der Produktion? Was sind da die typischen Anwendungsfälle für?

00:08:07 SPEAKER_03

Im Prinzip hat man da hinter jedem Bildpunkt ein Spektrum, wo man Materialeigenschaften erkennen kann. Also wir können da zum Beispiel in der Bäckerei erkennen, welchen Röstgrad das Brot hat. Wir können erkennen Zucker, verschiedene Sorten. Wir haben jetzt ein großes Projekt angefangen, wo wir uns mit Spanplatten beschäftigen, also mit der Qualitätsanalyse im laufenden Prozess bei Spanplatten. Bei Plastik kann man Sortenreinheit erkennen, man kann erkennen, wie alt der ist. Da haben wir jetzt auch ein Projekt angefangen, ein großes, wo wir uns mit der Alterung von Plastik beschäftigen. Um dann beim Recyceln zu entscheiden, kann man das einfach wiederverwenden oder muss man das dann häckseln, verbrennen und dergleichen. Bei Lebensmitteln ist das ganz viel. Also wir können bei Kaffee erkennen, wie alt der ist, wann der aus der Büchse genommen wurde, den verschiedenen Röstgrade. Also das ist eine sehr, sehr breite Anwendung. Und man kann auch durch Farbe durchgucken zum Teil. Also weil viele Farbe, das ist auch eine interessante Sache, da haben wir auch einige Anwendungen, dass wir verschiedene Plastiksorten unterscheiden, weil die einfach optisch gleich aussehen müssen, aber dann doch unterschiedliche Eigenschaften haben. Und dann wäre es schlecht, wenn man die an der falschen Stelle

einbaut. Und mit seiner Spektraltechnik kann man das sich gut ansehen. Ein paar Prototypen haben wir da auch in der App -Fabrik bei uns. Kann man sich da beim Rundgang auch gerne mal anschauen. Das sind ja extrem viele,

00:09:31 SPEAKER_04

viele, also breite Anwendungen. Und du hast ja auch schon gesagt, dass oft das Expertenwissen entscheidend ist. Also wie viel Expertenwissen aus einer Bäckerei oder Kaffee -Rösterei steckt denn da drin? Und wie viel Wissen in der hyperspektralen Bildauswertung habt ihr da? Also wir arbeiten natürlich dann immer mit Experten aus den Fachbereichen zusammen.

00:09:33 SPEAKER_03

hast ja auch

00:09:45 SPEAKER_03

wir arbeiten natürlich dann immer mit Experten aus den Fachbereichen zusammen. Spektraltechnik für KI, wir kennen uns mit Daten aus, also wir haben so ein Gefühl dafür, wie man mit den Daten umgehen muss, bevor man die zum Trainingssatz zusammenstellt und bevor man damit wirklich maschinelles Lernen oder KI machen kann. Und die Kollegen, mit denen wir zusammenarbeiten oder Auftraggeber oder wir haben noch Kollegen aus dem Haus oder von woanders, die sind dann eben die Experten für die Anwendungsgebiete, für die Fachgebereiche. wo man sich sehr gut auch austauschen muss und austauschen kann. Aber das funktioniert im Allgemeinen.

00:10:24 SPEAKER_02

Also ihr sammelt ja jetzt sozusagen diese Daten und dann, schätze ich mal, werdet ihr zusammen mit dem Experten wissen, also von den Fachgebietsexperten dann jeweils. Würdet ihr wahrscheinlich irgendwelche Klassifizierungen trainieren? Gehe ich da so grob in die Richtung?

00:10:38 SPEAKER_03

Richtung? Entweder Klassen, wenn man so unterschiedliche Baumarten aus dem Flugzeug erkennen will. Aber auch Abstufungen, also wie krank der Baum ist, wie krank die Pflanzen sind. Solche Sachen kann man auch sehr gut machen, ja.

00:10:52 SPEAKER_02

Und die Daten, die ihr dafür sammelt, ich schätze mal, da braucht ihr relativ viele Daten dann jeweils. Sammelt ihr die komplett selber oder bekommt ihr die auch noch irgendwo anders her?

00:11:02 SPEAKER_03

Wir versuchen in den Projekten, also diese Daten wirklich aufzunehmen, zu sammeln. Das ist immer ein großer Part. Wenn die Sensoren schon vorher da sind oder vorher schon in Betrieben eingebaut sind, also es geht ja nicht bloß um Spektraldaten. Wir können auch alle anderen möglichen Daten sammeln. Wenn da schon historische Daten vorliegen, historisch ist jetzt nicht mit Jahrhunderten, sondern von letzter Woche oder über die letzten zwei Jahre, dann benutzen wir die natürlich und versuchen damit klarzukommen. Auch viel Zeit geht dabei verloren, um die Daten, die in irgendwelchen Excel -Tabellen, Datenbanken und so zur Verfügung stehen, die ordentlich aufzubereiten, sodass man damit wieder trainieren kann. Dazu haben wir aber auch Methoden entwickelt, das zu machen in verschiedenen, auch großen Projekten.

00:11:49 SPEAKER_04

Projekten. Vielleicht auch, um zu verstehen, was da so hinter steckt. Also würde mich interessieren, was eure Erfahrungen sind, wo es… gut funktioniert hat oder vielleicht ist es sogar spannender mal zu überlegen, wo es richtig schlecht gelaufen ist. Was sind so typische Fallstricke vielleicht, die man in solchen Projekten dann auch hat?

00:12:04 SPEAKER_03

Viele Firmen haben schon mal Erfahrung gesammelt mit KI. Ja, die sind da sozusagen einfach reingegangen. Die haben sich einen Studenten geholt und haben gesagt, probier doch mal. Und da fehlt natürlich dann oftmals die Erfahrung. Es gibt auch Sachen, wo es gut geht. Und da ist so ein bisschen verbrannte Erde manchmal, wenn man kommt und sagt, man macht Sachen mit KI. Um das ein bisschen besser zu machen, haben wir auch Vorgehensmodelle entwickelt. Wir haben vor einigen Jahren ein großes Fraunhofer -internes Projekt gehabt. Wir haben bei Fraunhofer immer Light -Projekte, nennen sich die, wo sich so fünf bis sechs Fraunhofer -Institute zusammentun und über drei, vier Jahre ein Thema bearbeiten. Und das war vor einigen Jahren, vor vier Jahren, glaube ich, Da hatten wir das Thema Machine Learning for Production. Da haben wir ein Vorgehensmodell entwickelt. Da waren vier Technologiemodule, drei Anwendungsmodule, also wo jetzt die Anwendungsexperten kamen und die

Technologiemodule, die sich damit beschäftigt haben, wie man Daten aufnimmt, wie man Daten vorverarbeitet, wie man Daten trainiert und wie man dann das Ganze wieder in die Anwendung bringt. Wir können natürlich alles eigentlich, wie die viele andere Vorarlhofer -Institute auch. Aber wir waren in dem Projekt zuständig dafür, für den Teil die Modelle, die von anderen trainiert wurden, wieder Anwendung zu bringen. Das war eine sehr spannende Sache, eine sehr herausfordernde Sache, aber wir haben es sehr gut umgesetzt, denke ich. Und die Kernprogramme für die Anwendung, die laufen jetzt auch in diversen Betrieben.

00:13:40 SPEAKER_04

Wir haben ja darüber gesprochen, wie alt Machine Learning eigentlich ist, aber dass die Vorgehensmodelle jetzt erst so langsam etablieren. Und auch, ich glaube, eine VDI -VDE -Norm gibt es auch zu Big Data, wo das auch mal normiert wurde oder ein Versuch ist, das zu machen. Und wir sind jetzt, glaube ich, an einem Zeitpunkt, wo das eben notwendig ist.

00:13:54 SPEAKER_03

Ja, also wir sind bei dem Projekt vor allen Dingen auch davon ausgegangen, dass wir da eine Arbeitsteilung brauchen. Also wir haben Rollen festgelegt von den Projektpartnern, aber auch von uns selbst. Und wir haben die Übergangspunkte definiert. wo denn und in welcher Form denn die Modelle zum Beispiel übergeben werden oder die Vorverarbeitungsprozeduren. Das war auch noch eine sehr spannende Sache, die uns dann auch viel Zeit gekostet hat, weil die ganze Vorverarbeitung, die Datenaufbereitung, die waren natürlich in sehr kompakten Python -Skripts zusammengefasst, die von Tabellen ausgingen. Aber wenn wir jetzt im Betrieb waren, dann kamen natürlich die ganzen einzelnen Signale von den einzelnen Sensoren. als Zeitsignale hintereinander weg. Und da mussten wir dann noch ein Verfahren entwickeln, was wir denn umgesetzt haben mit dem sogenannten Datenkollektor, der uns die Daten zusammensammelt, auch darauf achtet, dass die, wenn Daten nicht da sind, was denn passiert. Also diese ganzen Eventualitäten, diese ganzen Unsicherheiten, die muss man ja irgendwie abfangen und zumindest eine ordentliche Fehlermeldung rausgeben. Das haben wir alles da entwickelt. Da haben wir Vorgehensmodelle noch für entwickelt. Wir haben Vorgehensmodelle entwickelt, um die Modelle zu tauschen, um die Modelle ständig zu checken, ob die noch richtig laufen und zu tauschen, weil so stabil laufen auch industrielle Anlagen nicht. Also die sind ständig, sind da Veränderungen drin. Die Daten vom letzten Jahr kann man im Prinzip nicht mehr eins zu eins benutzen, weil es dann irgendwelche Veränderungen gegeben hat, weil sich Produkte weiterentwickelt haben, weil sich die Anlagen weiterentwickelt haben. Man muss ständig immer wieder die Daten neu verarbeiten. neu trainieren und das muss natürlich auch alles irgendwie

organisiert sein und ordentlich niedergeschrieben werden. Dass immer, wenn irgendwie im Nachhinein was schief geht, man ein ordentliches Protokoll hat, welches Modell da mit welchen Daten trainiert dafür zuständig war oder da im Prinzip versagt hat oder nicht mehr so richtig funktioniert.

00:13:55 SPEAKER_04

bei dem

00:15:51 SPEAKER_04

Das ist ja auch viel verdeckte Arbeit, die man eben nicht sieht, also Infrastrukturarbeit. Ja,

00:15:55 SPEAKER_03

Infrastrukturarbeit. Ja, die sieht man im Prinzip nicht, die Arbeit. Also die läuft im Hintergrund. Aber das ist das, wo im Prinzip das meiste drin steckt.

00:16:01 SPEAKER_04

Prinzip das meiste drin steckt. Auch das Thema Wartung, du hast es ja auch angesprochen, dass die Modelle auch nicht stabil bleiben, sondern dass die genauso wie auch Hardware gewartet werden muss, das vergessen ja auch viele, gerade Industrieunternehmen. Und da ist vielleicht auch so ein Punkt, wo dann diese Machine Learning Software Welt auch ein bisschen gegen die Produktionswelt trifft. Das fängt schon damit an,

00:16:19 SPEAKER_03

Das fängt schon damit an, dass natürlich die Updates der Programme sehr viel schneller kommen als bei SPS -Systemen. Das haben wir ein bisschen abgefangen damit, dass wir Serving -Module entwickelt haben, wo die Modelle in einer standardisierten Form reingespielt werden und die dann auch stabil sind, die getestet sind, die stabil sind über eine gewisse Zeit, wo wir nicht den vollen Stack von verschiedenen Python -Modulen brauchen, sondern das ist im Prinzip dann ein Modul. Das kann man natürlich auch updaten, aber das ist… auf lange Sicht rückwärtskompatibel. Ja,

00:16:51 SPEAKER_04

und gerade im Produktionsumfeld, da ist wahrscheinlich so schnelle Veränderungen eher nicht gewünscht oder nicht gewollt. Das muss man halt verdecken oder transparent gestalten.

00:16:58 SPEAKER_03

Veränderungen passieren da überall. Auch schnelle Veränderungen, aber man muss das alles unter Kontrolle halten.

00:16:58 SPEAKER_04

Veränderungen passieren da

00:17:03 SPEAKER_02

Und immer wieder, also wie das jetzt auch rausklang, immer wieder nachprüfen, ob denn alles noch so sitzt, wie es eigentlich ursprünglich mal angedacht war.

00:17:11 SPEAKER_03

angedacht war. Denn das Schlechteste sozusagen, was bei Machine Learning passieren kann, dass die Daten nicht mehr in den Bereichen sind wie die Trainingsdaten. Dann sind die Ergebnisse eigentlich unspezifisch. Also man kann damit eigentlich nichts mehr anfangen. Man kann einfach auch nicht sagen, ob die funktionieren oder ob die nicht funktionieren. Es gibt bestimmte Modellformen, die sind da ein bisschen stabiler, ein paar sind empfindlicher. Aber wir haben da zum Beispiel solche Guards entwickelt, die ständig die Eingangsdaten überprüfen, ob die noch in den Einzelnen in den Bereichen bleiben. aber auch mehrere, also eine höhere Dimension, denn ob die in den Arbeitspunkten bleiben. Und wenn nicht, dann hat man immer noch die Möglichkeit, dann zurückzuschalten auf ein einfacheres Modell oder auf irgendeinen physikalischen Zusammenhang, der vielleicht denn nicht die 100 % Performance bietet, aber die Anlage nicht explodieren lässt.

00:18:04 SPEAKER_04

Das ist ein Schlagwort, der bestimmt auch ML Ops, also wie man Machine Learning Operations bringt. Und da steckt ja auch sehr viel Software Management dahinter, wo sich bei mir auch oft die Frage stellt, Wo liegt denn das in der Zukunft? Also wird das ein Cloud -Anbieter sein, wie Azure, Microsoft oder Amazon, AWS sind ja auch groß, was das angeht, da Infrastrukturen aufzubauen. Produktionsfirmen wollen das

wahrscheinlich on -premise haben, vor Ort haben, aber ohne Machine Learning Engineer, hört sich das ja an, kann man das gar nicht on -premise halten. Wie siehst du denn da die Ausrichtung aktuell und vielleicht auch einen Ausblick in die Zukunft? Kannst du den vielleicht wagen?

00:18:38 SPEAKER_03

Das ist schwierig. Also bestimmte große Anlagen. Gerade so Vertrieb, Handel, die brauchen natürlich Cloud -Anwendungen, weil die ja auch verteilt sind. Und da kommen ja auch die großen Firmen her. Also Amazon ist ja nicht ein Vertriebshändler. Also die meisten Sachen macht er ja mit Umsatz, mit seinen Software -Sachen. Wenn man als Kunde dahin geht, hat man natürlich zum Teil ein Problem. Man legt sich auf den Anbieter fest. nicht so toll ist, der die Preise bestimmen kann, das auch nicht so toll ist. Wir haben da immer versucht, das nicht so zu machen. Wir mieten auch Rechenzeit an zum Teil. Jetzt haben wir im Fraunhofer eigene große Server, aber wir haben auch Rechenzeit angemietet, aber nur sozusagen, um die Modelle zu trainieren. Es ist zweitleidig, weil die Algorithmen und die Services, die da sind, die sind schon sehr gut, muss man sagen. Aber man zahlt eben für jeden Service. Und das summiert sich sehr schnell. muss man auch eine Kostenrechnung machen. Die machen wir natürlich auch gerne. Also für die Firmen, wenn die das haben wollen, können wir auch eine Kostenrechnung machen. Lohnt sich das sozusagen, zu einem großen Anbieter zu gehen, die Sachen in der Cloud zu machen? Oder lohnt sich das, einen eigenen Rechenserver hinzustellen? Oder einen Cloud -Service zu nutzen, wo man nur einen Docker -Container oder so drauf laufen lässt, den man auch einfach migrieren kann zu einer anderen Cloud? Das sind alles Fragen, die sind unternehmische Fragen. Die müssen einfach die Leute entscheiden. Man kann ihnen bloß sagen und beraten, was das alles für Eigenschaften hat.

00:20:07 SPEAKER_04

Also auch viel Aufklärungsarbeit und Bewusstmachen in Firmen, dass gerade jetzt, was im KI -Hype ja viel passiert, dass man das Gefühl hat, das ist eine Magie, die dann funktioniert. Das muss man ja auch ein bisschen aufdecken und auch sagen, was nachhaltig dann auch bleiben kann und funktionieren kann. Der KI -Hype,

00:20:22 SPEAKER_03

der im Moment passiert mit den Chat -GPT -Sachen, Hat ja eigentlich verhältnismäßig wenig mit den Sachen zu tun, was wir früher, aber jetzt immer noch mit maschinellen Lernen für die Produktion machen. Was wir jetzt haben, ist ja vor allen Dingen

Sprachverarbeitung, Bildverarbeitung. Unheimlich spannend, unheimlich interessant, wie schnell das alles geht, wie gut das alles funktioniert. Der Einsatz in der Industrie ist noch nicht so groß, möchte ich sagen. Natürlich wird da überall… wie überall benutzt, um Texte zu erstellen und Bilder zu erstellen, Grafiken zu erstellen. Aber wirklich sozusagen im Produktionsumfeld gibt es da noch gar nicht so viele Anwendungen. Wir sind dabei, Anwendungen zu schaffen. Letztes Jahr gab es einen großen Call für Generative AI, wo wir in zwei Programmen jetzt mit drin sind. Da geht es dann um die Erfassung von Erfahrungswissen. Das ist ein riesiges Problem in der Industrie, dass, sage ich mal, die alten Meister, Dass die langsam aus den Betrieben rausgehen. Und da, wo die Erfahrung drin steckt, wo die gehört haben an den Anlagen, dass da irgendwas schiefläuft und wussten, was man macht, das hat man jetzt leider nicht mehr so viel. Oder die gehen raus. Und dieses Erfahrungswissen zu erfassen, dazu bieten sich auch solche KI -Sachen an.

00:21:31 SPEAKER_00

und wussten, was

00:21:42 SPEAKER_03

Die kann man jetzt auch nicht in ein Büro setzen, am Computer und sagen, schreib mal deine Erfahrung runter. Das funktioniert nicht, sondern das muss an einer Maschine im Betrieb erfolgen. Und dazu braucht man bestimmte Interviewtechniken. Da haben wir unsere Parallelgruppe in unserer Abteilung, die macht diese Interviewtechniken. Und wir werten dann die Daten aus und versuchen dann da, die in Regeln zu fassen, sodass man die dann skalieren kann und anderen Leuten zur Verfügung stellen kann, mit Assistenzsystemen zum Beispiel.

00:22:11 SPEAKER_02

Oft gibt es auch einfach so einen Mangel, dass eben Prozesse versucht werden zu automatisieren mit KI, die vorher vielleicht auch kaum digitalisiert waren, wo noch kaum Daten existieren, beziehungsweise was eben auch oft zu beobachten ist, dass Daten einfach trotz ihrem heutzutage sehr hohen Wert oft einfach weggeworfen werden, unbewusst. Hast du damit vielleicht schon irgendwie Kontakt gemacht, Erfahrungen da?

00:22:36 SPEAKER_03

Bei manchen Betrieben, die sind sehr gut digitalisiert. Da ist im Prinzip an jedem Tür, an überall ein Sensor dran, der auch zuverlässig Daten liefert. Und bei manchen ist es noch

nicht so weit. Wir machen da immer erstmal einen Workshop meistens, um zu sehen, wo liegt überhaupt das Problem. Also da gibt es ja auch dieses klassische Vorgehensmodell, dass man zunächst mal ein Prozessverständnis herstellen muss. Also dass man erstmal hingeht und sich anguckt, was passiert da überhaupt. Dann muss man ein Datenverständnis herstellen. Das heißt, man muss gucken, gibt es Daten? Und bilden die Daten die Prozesse überhaupt ab? Sind da noch irgendwelche Sachen zu tun? Und dann mit den Daten gucken, sind die Daten in der ausreichenden Qualität? Die ersten Proof -of -Concept -Modelle lernen und sich dann rantasten so langsam. Und wenn die Proof -of -Concept -Modelle vernünftig funktionieren, dann in die Umsetzung gehen und dann wirklich sozusagen die Daten direkt aus dem Prozess nehmen, berechnen und die Ergebnisse zurückspielen. Da ist auch immer die Frage noch, was macht man mit den Ergebnissen? Am liebsten sind mir immer noch so eine Assistenzsysteme, wo dann sozusagen auf dem Bildschirm oder dergleichen ein Vorschlag ist und der Maschinenführer, der Experte kann sich denn noch aussuchen, welchen Vorschlag er denn benutzt. Dass man jetzt wirklich ein ruhig gekoppeltes System hat, funktioniert auch bei einigen Sachen, aber ist noch nicht so häufig.

00:23:49 SPEAKER_04

Da gibt es bestimmt in der Praxis einfach extrem viele Reife gerade. Also du hast ja gesagt, Unternehmen, die schon alles aufnehmen, sauber sind, viele, die es auch nicht sind. Wo würdest du denn sagen, was macht denn die Unternehmen aus, bei denen das alles sehr gut läuft? Das ist eine schwierige Frage, aber was haben die gemeinsam oder was sind so die Erfolgsfaktoren vielleicht auch für diese Unternehmen?

00:23:55 SPEAKER_00

sauber sind,

00:24:07 SPEAKER_04

Das hängt ein bisschen von den Prozessen ab,

00:24:08 SPEAKER_03

bisschen von den Prozessen ab, die da ablaufen. Also Automobilindustrie, die sind sehr weit vorne bei den Digitalisierungen. Andere Handwerksbetriebe vielleicht nicht so. Also das hängt ein bisschen auch von der Automatisierungsgrad ab und auch von der, wie soll man das nennen, also wie modern, wie schnell ändern sich die Sachen. Da gibt es viele Betriebe, da laufen eben Anlagen seit 30 Jahren mit denselben Steuerungen noch.

Aber da ist dann eben schwer ranzukommen. Da ist das Wissen vielleicht auch gar nicht da,

00:24:35 SPEAKER_04

Wissen vielleicht auch gar nicht da, wie man an die Schnittstellen reinkommt. Da ist auch immer die Frage,

00:24:37 SPEAKER_03

Da ist auch immer die Frage, wo ist der Hebel überhaupt? Also lohnt sich das für ein 2 % irgendwie viel Aufwand zu treiben? Kommt dann wirklich 20, 30 Prozent Produktivitätssteigerung oder dergleichen raus?

00:24:50 SPEAKER_04

Das ist ja sicher im Produktionsumfeld auch nochmal extremer,

00:24:50 SPEAKER_03

ist ja

00:24:50 SPEAKER_04

auch nochmal extremer, wo ja Produktion ohnehin schon sehr optimiert ist und da wenig zu machen ist. Auch ohne KI. Genau, auch ohne KI.

00:24:54 SPEAKER_03

da wenig zu machen ist. Auch ohne KI. Genau, auch ohne KI. Wir haben jetzt auch ein neues Leitprojekt, nennt sich Emotion, wo wir versuchen wollen, empathische Mechanismen in die Regulierung und Steuerung von Anlagen und Prozessen mit einfließen zu lassen. Das ist auch ein Leitprojekt, wo wir auch für zehn Jahre in die Zukunft denken eigentlich. Da haben wir darüber diskutiert, wie die unterschiedlichen Anlagen ihren Zustand, wie die ihren Zustand in möglichst guten, kompakten Weise darstellen und untereinander mitteilen, sodass jeder weiß, in welchem Zustand der andere ist. Wir selbst hier bei uns haben einen Use Case für Instandhaltung, wo es denn um solche Fragen geht. Kann ich diesen Auftrag noch sinnvoll abarbeiten oder falle ich vorher auseinander, jetzt mal umgangssprachlich? Reicht das alles noch? Ist die

Genauigkeit noch ausreichend genug für diesen Auftrag? Oder bin ich jetzt schon so kurz vor Instandhaltung, wo vielleicht die anderen auf mich Rücksicht nehmen sollten und mir ja einfache Aufgaben zuweisen? Man darf es nicht so ganz mit den menschlichen Emotionen gleichsetzen, eher so mit diesem Gruppengedanken, dass man in der Gruppe sich die Aufgaben auch so teilt, dass möglichst ein gemeinsames Ziel erreicht wird und nicht, dass jeder nur auf seine eigenen Ziele guckt. Vielleicht,

00:26:18 SPEAKER_02

um das nochmal ganz kurz klarzustellen, die empathische Sache da sind sozusagen die Maschinen, die empathisch miteinander sein sollen. Genau, also die sich zum Beispiel altruistisch gegenseitig helfen,

00:26:26 SPEAKER_03

Genau, also die sich zum Beispiel altruistisch gegenseitig helfen, Rücksicht nehmen. Vielleicht auch schon vorausschauend sehen, da kommt jetzt demnächst ein riesiger Auftrag. Also werden wir nochmal alle versuchen, uns zu regenerieren, um dann diesen Auftrag gemeinsam abzuarbeiten. Oder der Auftrag muss jetzt noch fertig werden, der Große, bevor dann eine Ruhephase ist, also gehe ich lieber an die Grenzen der Leistungsfähigkeit. Also das heißt jetzt nicht, dass wir da wirklich eine Empathie reinbringen, sondern wir verwenden Mechanismen.

00:27:01 SPEAKER_02

die sich aber grob nach dem richten, wie menschliche Gruppen auch untereinander interagieren sollten, wenn sie effektiv laufen. Das geht vielleicht schon ein bisschen zu weit.

00:27:08 SPEAKER_03

Das geht vielleicht schon ein bisschen zu weit. Aber die Biologie war immer schon ein gutes Vorbild. Alles, was maschinell lernen, neuronale Netze, auch die Deep Learning Sachen, die sind im visuellen Cortex sehr gut nachempfunden. Und jetzt diese ganzen Sprachmodelle. sind im Prinzip auch nachempfunden.

00:27:10 SPEAKER_02

Aber die

00:27:27 SPEAKER_04

Viele Fragen, die sich, glaube ich, bei Menschen auch stellen, die bei Menschen auch nicht erklärbar sind, sind ja auch teilweise bei tiefen Neuralnetzen auch nicht erklärbar.

00:27:34 SPEAKER_02

Du hast ja jetzt schon wirklich viel Erfahrung so mit, ja, wie man es jetzt nennen möchte, künstliche Intelligenz, Datenanalyse, datengetriebene Verfahren. Was würdest du sagen, sind deine wichtigsten Erkenntnisse so, wenn du einmal so alles in diesem Bereich betrachtest?

00:27:51 SPEAKER_03

Man muss eine ordentliche Datengrundlage haben. darüber Gedanken machen, welche Daten man da reinsteckt, wie man die normiert, wie man das dem Netz möglichst einfach machen kann, dann spielt es eigentlich gar nicht so eine große Rolle, welchen Typ von Netz man da drin hat. Die Daten sind der wichtigere Part. Und sich die Daten vielleicht auch mal anzugucken mit irgendeiner Transformation, Haupttransformation und TSNE und wie die ganzen Sachen heißen, um die zu visualisieren. Also ob in den Daten überhaupt irgendwelche Klassen drin sind. Und wenn man das gemacht hat und das einigermaßen funktioniert hat, dann kann man sich auch ziemlich sicher sein, dass das Netz das macht. Also was man oft sieht noch, leider, man hat ein paar Trainingsdaten, da funktioniert es ja gut, aber auch nur da. Wo es jetzt hingeht, dass man versucht und das auch schafft, mit Unsicherheiten umzugehen. Bei Planungsaufgaben zum Beispiel. Man kann Sachen einfach nicht mehr so genau planen. Da müsste man so viele Reserven einbauen. Aber man kann mit den Unsicherheiten, wie irgendeine Durchlaufzeit ist, Material da ist, ob noch Leute da sind, ob jemand krank ist und dergleichen. Also bei der Produktionsplanung, jetzt bei der Personaleinsatzplanung. Mit diesen Unsicherheiten muss man vernünftig umgehen und sehr schnell umplanen. Also es hilft auch gar nicht mehr, eine Feinplanung zu machen über mehrere Wochen. Lieber nur eine Grobplanung, eine gut angepasste und dann von Tag zu Tag. im Prinzip die Feinplanung zu machen. Dieser ganze Umgang mit diesen Unsicherheiten, die in jeder einzelnen Teil der Daten stecken, das ist eine Sache, die aus meiner Sicht jetzt mehr in den Vordergrund rückt.

00:29:22 SPEAKER_02

Okay, dann danke, Andreas. Das war sehr aufschlussreich. Ich habe auch einiges wieder mitnehmen können. Vielen Dank für das sehr interessante und spannende Gespräch. Danke,

00:29:31 SPEAKER_03

Danke, dass ich hier sein durfte. Das hat Spaß gemacht, mit euch zu diskutieren.

00:29:34 SPEAKER_02

Ja, dann vielen Dank an alle, die zugehört haben und schaltet wieder ein.

00:29:42 SPEAKER_01

Der KI Insights Podcast ist eine Initiative des Projekts SACI, der zentralen Anlaufstelle für innovatives Lehren und Lernen interdisziplinärer Kompetenzen der KI der Hochschule Magdeburg -Stendal, gefördert vom Bundesministerium für Bildung und Forschung.

Weitere Artikel zum Thema