Akzeptanz & Erklärbarkeit von KI Systemen in der Industrie

Sebastian von Enzberg

© h2

Staffel 1 , Folge 1

In der ersten Folge von KI Insights begrüßt Moderator Prof. Dr.-Ing. Fabian Behrendt Neuzugang an der Hochschule Magdeburg-Stendal: Prof. Dr.-Ing. Sebastian von Enzberg, Experte für Technische Informatik und Künstliche Intelligenz. Gemeinsam sprechen sie über biographische Parallelen auf dem Weg zur Promotion, Akzeptanz und Explainability von KI in der Industrie und Herausforderungen der prädiktiven Instandhaltung. Außerdem teilen sie Insight-Tipps zu neuen spannenden KI-Tools.


Moderation: Prof. Dr. Fabian Behrendt
Schnitt & Text: Julia Fritz

Transkript: Staffel 01, Folge 01, Sebastian von Enzberg
00:00:00
SPEAKER_00
Willkommen bei KI Insights, ein Podcast vom Projekt ZAKKI an der Hochschule
Magdeburg-Stendal. Hier teilen ExpertInnen verschiedenster Disziplinen ihre Einblicke
in die facettenreiche Welt der künstlichen Intelligenz. In der ersten Staffel erwarten Sie
Beiträge rund um das Thema KI Technologien und Anwendungen, moderiert von David
Weigert und Prof. Dr. Fabian Behrendt.
00:00:28
SPEAKER_01
Herzlich willkommen zu unserem Podcast KI Insights. Mein Name ist Fabian Behrendt
und ich begleite Sie heute durch diese Folge. Ich bin ja aber wieder nicht alleine heute
im Podcast-Studio, sondern habe eine wirklich spannende Persönlichkeit heute bei mir
zu Gast. Die Person hat sich schon sehr, sehr lange in seiner Lebensbahn mit dem
Thema KI auch beschäftigt und ich hoffe hier, dass wir heute sehr sehr viele coole
spannende Insights zum Thema KI auch von dir bekommen. Ja, die Rede ist von
Professor Sebastian von Enzberg, frisch berufen bei uns an der Hochschule Magdeburg
Stendal in dem Fachgebiet Technische Informatik und Künstliche Intelligenz und hier in
Magdeburg am Standort am Fachbereich Ingenieurswissenschaften und
Industriedesign. Herzlich willkommen vielen Dank für Sebastian. die Einladung Ja, und
guten Wir haben uns selber Und hier Tag. in Magdeburg am am Fachbereich
Ingenieurswissenschaften Standort, und Industriedesign. Herzlich Sebastian.
willkommen,
00:01:06
SPEAKER_02
Sebastian. willkommen, Vielen Dank für die Einladung und guten Tag.
00:01:07
SPEAKER_01
und guten Tag. Wir haben uns selber im Vorfeld vielleicht mal aber eigentlich nicht
kennengelernt. gesehen, Und ich habe dass unsere festgestellt, Wege sich schon relativ
oft gekreuzt haben. Du bist gebürtiger wenn ich es richtig gelesen habe. Stuttgarter, Du
bist aber zum Studium bei uns an die Otto-Von-Guericke-Universität nach Magdeburg
gekommen. Und ich habe auch festgestellt, du bist genauso wie ich Matrikel 2004.
00:01:20
SPEAKER_02
habe. Stuttgarter,
00:01:28
SPEAKER_01
ich Matrikel 2004. das war mir vorher Ja, auch nicht bewusst.
00:01:32
SPEAKER_02
Ich Wirtschaftsingenieur, du hast Elektrotechnik studiert. also ich 04 war lange die ob
Informatik oder E-Technik. Genau, E-Technik, Wahl, Am Ende habe ich doch das
Handfeste auch genommen, ein bisschen mit der Entscheidung damals noch mit den
Eltern natürlich. Aber dann ist es Elektrotechnik geworden, was ich auch bis heute nicht
bereut habe.
00:01:48
SPEAKER_01
Dann hast du natürlich auch in Magdeburg promoviert, also auch an der Aufruhr in
Magdeburg, am Lehrstuhl zunächst für Technische Informatik und dann später für
Neuroinformationstechnik. Und ja, bei mir war es fast der gleiche Zeitraum, nur am
Nachbarinstitut für Logistik und Material für Technik. Das heißt, auch hier haben wir
eigentlich parallel am gleichen Standort da unsere Wege auch eingeschlagen.
00:02:10
SPEAKER_02
Ja, genau. Sehr spannend. Erstaunlich, dass sich das nicht gekreuzt hat während der
00:02:12
SPEAKER_01
hat während der Zeit, aber umso schöner, dass es jetzt passiert. Genau, das holen wir
natürlich alles zukünftig noch nach. Ja, was mir auch noch aufgefallen ist, ich selber
habe ja relativ lange auch im Fraunhofer-Institut in Magdeburg auch gearbeitet und habe
damals im Studium schon meine ersten Anknüpfungspunkte auch bekommen. Das war
bei dir auch ähnlich. Du bist auch gestartet als wissenschaftliche Hilfskraft am Institut
im Magdeburg.
00:02:33
SPEAKER_02
Magdeburg. Genau, ja. Also da war ich in der Mess- und Prüftechnik unterwegs. Da ging
es viel um 3D-Datenverarbeitung, auch natürlich mit KI-Ansätzen. Sehr viel
bildverarbeitungslastig war das damals, als Studie natürlich dann auch mit dem
typischen Werdegang Studienarbeit dort geschrieben und tatsächlich auch im
Forschungsprojekt während der Promotion hatten
00:02:42
Sehr viel
00:02:50
SPEAKER_00
SPEAKER_02
und tatsächlich auch im Forschungsprojekt während der Promotion hatten wir dann
auch mit dem IFF kooperiert. Und was mich besonders daran fasziniert
00:02:54
SPEAKER_01
mich besonders daran fasziniert war, dass du damals auch schon mit dem Thema KI
dich auseinandergesetzt hast. Viele denken ja, wow, das ist ein Hype und das ist die
letzten zwei, drei Jahren und woke. Ja, aber wenn man sich mal schaut, wie lange es
eigentlich die künstliche Lenz schon gibt in dem Umfeld und du dich auch schon damit
in deinen Studienzeiten auseinandergesetzt hast, dann ist das sehr faszinierend. Da
vielleicht eine ganz kurze Frage. Was unterscheidet denn aus deiner Sicht so der Einsatz
von KI-Systemen vielleicht in der Zeit, wo du noch studiert hast und vielleicht in den
Anfangsjahren und vielleicht heute, wo alle von dem Thema reden. Sehr spannend. Also
ich habe in Schulzeiten
00:03:27
SPEAKER_02
ich habe in Schulzeiten schon angefangen, erste neuronale Netze zu programmieren.
Damals war der Trainingsaufwand noch viel höher als das, was am Ende rauskam. Und
wir konnten tatsächlich im Studium schon in der Vertiefungsrichtung künstliche
neuronale Netze als Wahlpflichtfach wählen. Ich habe da öfters auch nochmal
reingeschaut in die Unterlagen, weil die Grundlagen sich natürlich nicht geändert
haben. Aber extrem spannend ist, was heute möglich ist, was damals nicht möglich war.
Also das ganze Thema tiefe neuronale Netze und auch damit einhergehend natürlich die
Menge an Daten, die man jetzt trainieren kann und die man abstrahieren kann in einem
Modell. Ich glaube, das ist enorm gewachsen. Zum einen, weil die Datenmengen
verfügbar sind. Zum anderen, weil bei den Trainingsalgorithmen weitergekommen sind.
Also wie trainiert man überhaupt solche umfangreichen Netze? Und natürlich auch bei
der Rechentechnik, also die Rechenkapazitäten zu haben. Und wenn man das aus
Anwender-Entwickler-Perspektive sieht, auch das Tooling. Das ist Wahnsinn. Also das,
was ich früher in, darf man gar nicht sagen, Turbo Pascal selber von Hand programmiert
habe, da gibt es die entsprechenden Tools von. Das kann man automatisieren, das
ganze Thema Parameter zu verändern. Also das, was einem Entwickler hilft beim
Entwickeln, da gibt es einfach die Werkzeuge, was auch den Entwicklungsprozess stark
vereinfacht, wodurch wir insgesamt bei einer viel höheren Reife sind. Und um den Bogen
jetzt mal zu spannen bis zum Endanwender, ChatGPT kennt zwischen die meisten oder
fast jeder, das kann man auch ohne Programmierkenntnisse anwenden. Also wir haben
so eine Reife erreicht, die der Endanwender wirklich selbst anwenden kann.
00:04:49
SPEAKER_01
Vielleicht noch eine wichtige Station aktuell bei dir ist ja in Paderborn am Fraunhofer
Institut. Du bist ja da Gruppenleiter, was ich anfangs schon erwähnt habe. Vielleicht
kannst du da nochmal kurz was zu deiner Arbeit erzählen, was du da eigentlich so
machst. Weil gerade Fraunhofer-Institut ist ja immer sehr stark anwendungsgetrieben
und auch industrienah. Das heißt eigentlich nicht unbedingt die Grundlagenforschung
an der Universität, sondern eher schon anwendungsorientierte Forschung, gerade mit
Industriebezug.
00:05:15
SPEAKER_02
Ich habe das ja eben so ein bisschen erklärt von wirklich im Code selber programmieren
bis hin zu Werkzeugen verwenden, um es in die Anwendung zu bringen. Das war für mich
ein großer Wechsel, weil ich während der Promotion an der Uni schon sehr tief an den
Algorithmen gearbeitet habe, wirklich viel selber programmieren musste, wo man auch
noch die Verfahren im Detail verstehen musste. Anwendungsorientierte Arbeit heißt,
dass man nicht unbedingt immer im Detail verstehen muss, was passiert, sondern auf
einem höheren Level angreift, auf einem höheren Abstraktionslevel angreift, wo eher die
Anwendung im Fokus steht. angreift, auf einem höheren Abstraktionslevel angreift, wo
eher die Anwendung im Fokus steht. Für mich war das dann in Paderborn oder ist es in
Paderborn das Thema Produktionsmanagement, also das Produktionsumfeld. Da haben
wir natürlich sehr viele sei es jetzt sei es Prozessoptimierung, Anwendungen, Qualität,
Instandhaltung, wo man KI sehr gut anwenden kann und zwar in die Anwendung bringen
muss. Und das steht dann im Fokus. Wie sieht das im Shopfloor am Ende aus?
00:06:05
SPEAKER_01
Ende aus? Shopfloor ist, glaube ich, genau das richtige Stichwort. Weil wenn wir uns so
die deutsche Industrie natürlich auch anschauen, dann haben wir natürlich sehr viele
produzierende Unternehmen. Und bei den produzierenden Unternehmen ist es ja
wirklich so, dass eigentlich die Wertschöpfung oder die Wertschöpfung, die erzielt wird,
natürlich auf dem Shopflow irgendwo auch erzielt wird. Ja, auf jeden
00:06:23
SPEAKER_02
Fall. Also es gibt natürlich viele Anwendungen, die passieren im Hintergrund. Die
passieren vielleicht bei den Maschinenbauern, die Maschinen anbieten, die dann am
Ende in der Produktionslinie laufen. Da passieren Optimierungen schon alltäglich. Das
sind vielleicht Anwendungen, die in der Regelungstechnik liegen, wo Optimierungen aus
der Regelungstechnik heraus passieren, wo KI schon einfach hilft beim Entwickeln. Das
sind, wie gesagt, intelligente Maschinen, die vielleicht dem Bediener auch helfen, dass
eine Maschine jetzt nicht mehr im Detail eingestellt werden muss, sondern dass der
Maschinenführer viel einfacher Parameter vorgeschlagen bekommt, die deutlich
optimaler sind vielleicht sogar, als das, was er sich selbst erschließen kann,
beziehungsweise vor allem mit einem anderen Erfahrungsgrad. Also man kann natürlich
hier auch einen Erfahrungsgrad abbilden oder lernen eben in intelligenten Systemen.
Was wir jetzt in der Zeit auch gemacht haben im Produktionsumfeld, war zum Teil
wirklich sehr nah an der Maschine dran. Ich hätte jetzt eben das Beispiel genannt,
Regelungstechnik, was man vielleicht auch gar nicht mitbekommt, wo man vielleicht
einen Zustand in der Maschine erkennt oder auch vorhersagen kann, was
abgeschlossen in der Maschine passiert. Und viel spannender ist, glaube ich, jetzt, um
wirklich die Wertschöpfung zu verbessern, wenn man auch noch ein Level höher
eingreift, also sprich wirklich in die wertschöpfenden Prozesse eingreift, wo dann eben
auch die Interaktion zwischen Maschine und dem Maschinenbediener dann passiert.
Ich glaube, das ist so ein Punkt, der jetzt gerade sehr spannend ist und sehr viele
Herausforderungen mit sich bringt.
00:07:48
SPEAKER_01
Magst du an dieser Stelle vielleicht mal ein, zwei von diesen Herausforderungen auch
nochmal vielleicht auf den Punkt bringen? Gerade wenn du sagst zum Beispiel
Maschinenbediener, wir haben eine neue Schnittstelle, ein neues System, jetzt kommt
ein KI-System dazu.
00:07:59
SPEAKER_02
dazu. Also ein großer Punkt ist natürlich das Thema Akzeptanz. Also um es mal ganz
konkret zu machen, wir hatten ein Projekt, wo es um die Einführung von Predictive
Maintenance ging. Allerdings nicht nur in einem System, sondern wirklich systematisch
Predictive Maintenance an eine komplette Fertigungslinie zu bringen. Da sind wir so
vorgegangen, dass wir wirklich regelmäßig, also wöchentlich im Projekt natürlich auch
mit der Instandhaltung gesprochen haben und die direkt involviert haben, um eben
Akzeptanz zu schaffen. Ich glaube, da eine Lösung einzukaufen, hinzusetzen, mit der
man dann arbeiten muss, klappt dann, wenn diese KI versteckt ist oder wenn man das in
der Aktion nicht so mitbekommt. Sobald man selbst zum Beispiel jetzt bei dem
Vorschlag von Instandhaltungsarbeiten, wenn wir jetzt an die Pre-Diff Maintenance
denken, die nicht nur erkennt, dass eine Maschine ausfällt, sondern vielleicht schon
vorschlägt, was für Instandhaltungsarbeiten getätigt werden sollen, muss man natürlich
für Akzeptanz sorgen. Heißt, technisch kann man es durch Erklärbarkeit schaffen. Auf
der anderen Seite kann man durch ständige Sensibilisierung, durch Mitnehmen während
einer Einführung und
00:08:59
SPEAKER_01
während einer Einführung und Instandhaltung, also zum Beispiel auch von Maschinen.
Und jetzt ist ja natürlich auch gerade in dem Gebiet, wenn man sich so nebenan kommt,
natürlich auch so das Expertenwissen spielt eine große Rolle. Das Erfahrungswissen der
Produktionsleiter, auch der Instandhaltungsleiter oder Leiterinnen, die halt genau
wissen, wann die Maschine im Endeffekt, wann sie wirklich mal gedrosselt werden
muss, weil sie das Erfahrungswissen haben. Bekommt man das zusammen? Jetzt
nehmen wir mal die Sensorik, die Auswertung der Sensorik aus der Maschine auf der
einen Seite und vielleicht das Expertenwissen des Maschinenbedieners oder der
Bedienerin.
00:09:36
SPEAKER_02
Das ist natürlich ein großes, also ein großes grundsätzliches Problem, was wir bei diesen
Daten haben, die wir in der Produktion haben, ist, dass wir zwar Daten en masse haben,
also Big Data, klar, aber Produktionsprozesse ja im besten Fall immer sehr ähnlich
ablaufen. Also wir haben eine geringe Varianz eigentlich in den Daten. Sprich, dass wir
tatsächlich eigentlich für die Fälle, die wir beobachten wollen, bei einem Maintenance
Fall, also den Ausfall der Maschine, entsprechend sehr wenige Daten haben. Das ist
natürlich gut für die Fertigung, weil die Maschine selten ausfällt, so soll es ja auch sein.
Das heißt aber wiederum wenig Trainingsdaten für die Algorithmen. Umso wichtiger ist
es eben, bei solchen Fällen dann das Expertenwissen, wie du schon gesagt hast, mit
reinzubringen. Das ist vor allem eine technische Herausforderung, weil man jetzt nicht
mehr einfach nur Machine Learning machen kann, sondern zusätzlich zu den
datengetriebenen Lernen, also auf Basis der Big Data zu lernen, eben auch noch mit
Expertenwissen lernen muss. Wenn man jetzt wieder die Anwenderseite betrachtet, in
welcher Form kann der Experte überhaupt das Wissen jetzt in das System bringen? Also
wenn man bei Daten bleibt, klar durch Labeling, also dass man jetzt, um auch weiterhin
bei dem Beispiel in Standhaltung zu bleiben, dass man jetzt jeden Ausfall auch sauber
dokumentiert. Wer mal auf dem Shopfloor unterwegs war, weiß, das wird nicht immer
sauber dokumentiert. Und wenn, dann ist da immer noch ein großer Paper-Trail dahinter.
Also Konsequenzen verstehen, Zusammenhänge, also eine saubere Diagnose zu
machen, das wirklich auch formal so abzubilden, dass ein KI davon lernen kann, ist,
glaube ich, auch eine große Herausforderung. Wie startest du oder wie startet
00:10:57
SPEAKER_01
du oder wie startet ihr dann im Institut oder auch in der Hochschule? Wie startet ihr
denn grundsätzlich, wenn ihr mit KI-Projekten, also wie startet ihr mit KI-Projekten in
Unternehmen?
00:11:07
SPEAKER_02
Also der reine Kontakt kann natürlich von beiden Seiten passieren, dass wir auf die
Unternehmen zugehen. Wir machen ja sowohl Forschungsprojekte als auch wirklich
direkte Industriebeauftragungen und haben da auch verschiedene Kanäle, über das
passieren kann. Also beispielsweise bin ich KI-Trainer im Mittelstand Digitalzentrum, da
haben KI-Trainer im Mittelstand-Digitalzentrum. wir einen direkten Kanal zum
Mittelstand. Da haben wir einen direkten Kanal zum Mittelstand. Da kommen natürlich
Anfragen rein. Und ich muss tatsächlich so in den letzten Jahren, sagen, gerade im also
bei eher kleineren Unternehmen, Mittelstand, ist es dass so, wir eigentlich immer an der
KI-Readiness gearbeitet haben. Also eigentlich versucht haben, die Digitalisierung
überhaupt erst mal zu dem Punkt zu bringen, wo wir KI dann im Anschluss
implementieren können. Also ich glaube, ein sehr großer Teil der Projekte, die wir hatten,
waren wirklich dahin, diese ganzen Paper Trails beispielsweise aufzulösen, das
Expertenwissen zu formalisieren, IT-Systeme einzuführen, diese auch zu verknüpfen,
was eine riesen Aufgabenstellung ist, weil wir haben ja quasi Betriebsleitsysteme, wir
haben ERP-Systeme, die wirklich reine Software sind. Andererseits haben wir
Maschinen, wo wir an die Steuerung ran müssen, was mehr an der Hardware dran ist.
Also das zu verknüpfen, also Digitalisierungsgrundlagen zu schaffen, ist tatsächlich
nach wie vor, obwohl Industrie 4.0 ja auch lange, lange schon ein Schlagwort ist, nach
wie vor ein Thema, gerade bei den kleinen mittelständischen Unternehmen.
00:12:20
SPEAKER_01
Wenn wir uns diese kleinen mittelständischen Unternehmen mal anschauen, so im
Vergleich zu größeren Unternehmen in dem ganzen Bereich, gibt es da Unterschiede,
wie hier die Akzeptanz zum Thema KI aufgenommen wird oder sogar gefordert wird von
00:12:34
SPEAKER_02
wird von Unternehmen? ganze Center of Expertises oder Einrichtungen, die sich darum
kümmert und in der Organisation fest verankert, Digitalisierung und dann auch
aufbauend dann natürlich Data Analytics und künstliche Intelligenzverfahren einführen
können. Und das macht natürlich einen riesen Unterschied, das wirklich in der
Organisation zu schaffen, sodass man dann, und das ist, glaube ich, ein extrem
wichtiger Punkt, in der Organisation auch übergreifend arbeiten kann. Also über einzelne
Bereiche. Um wieder erneut auf das Thema Instandhaltung zurückzukommen, das
klappt natürlich nicht, ohne die Maschinen genau zu kennen, ohne mit der
Automatisierung zu sprechen in dem Fall. Das klappt nicht, ohne mit der IT zu sprechen.
Das sind also hochinterdisziplinäre Projekte, wo man einen Riesenvorteil hat, wenn man
das in der Organisation so aufhängen kann, dass man diese Kräfte wirklich bündeln
kann. Und klar, bei ganz kleinen Unternehmen, die sind natürlich am Tagesgeschäft dran
und denen fällt es natürlich schwer, so eine Stelle aufzubauen, die über das
Tagesgeschäft hinausgeht, was natürlich ein großer Invest auch in Arbeiten ist, die sich
vielleicht nicht morgen schon auszahlen, sondern erst in Jahren auszahlen.
00:13:42
SPEAKER_01
Ja Sebastian, jetzt haben wir uns ja schon sehr intensiv auch so mit den Gegebenheiten
auch der Unternehmen auch auseinandergesetzt, auch wieso Projekte implementiert
werden, aufgesetzt werden. Jetzt ist ja ein ganz großes Thema auch das Thema
Explainability of AI, also wie kann man die Erklärbarkeit von KI-Systemen auch anderen
Personen zeigen. Oftmals wird der Begriff Blackbox von KI-Systemen genommen, weil so
ein maschinelles Netz angelernt wird und keiner bis natürlich auf den letzten
Knotenpunkt im Detail nochmal alles nachvollziehen kann. Wieso deine Einschätzung?
Und hat sich da auch was entwickelt in den letzten Jahren in dem ganzen Themenfeld?
Wir hatten ja eben schon über Akzeptanz gesprochen.
00:14:17
SPEAKER_02
über Akzeptanz gesprochen. Natürlich ist das, da fiel das ja auch schon mal in
Explainability, ist das natürlich ein großer Punkt, wenn man nachvollziehen kann, wieso
ein System zu einer Entscheidung gekommen ist, dann akzeptiert man natürlich die
Entscheidung auch viel eher. Gleichzeitig muss man auch sehen, eine menschliche
Entscheidung wird gar nicht so sehr hinterfragt wie eine Entscheidung eines
technischen Systems oft. Also oft trifft der Mensch ja auch nicht die optimale
Entscheidung. Sprich, das ist natürlich ein Thema, was man über Sensibilisierung
hinbekommen kann, auf der einen Seite. Auf der anderen Seite natürlich auch, indem
man die Erklärbarkeit erhöht. Was ich damit sagen will, also die Erklärbarkeit zu
erhöhen, ist ein Punkt, mit dem man angreifen kann. Aber ich glaube, das Problem geht
eigentlich nur darüber hinaus, dass man eigentlich von einem technischen System
erwartet, dass es viel besser funktioniert als ein menschlicher Entscheidungsträger.
Aber um mal in dieses Thema Explainability vielleicht ein bisschen reinzugehen. Das
klang eben auch schon ein bisschen an, dass wir so viel aus Big Data gelernt haben in
der Vergangenheit und diese Fragestellung Expertenwissen mit reinzubringen, oft auch
dazu führt, dass wir besser erklärbare Systeme haben. sondern eben auch auf
analytischen Modellen beruhen. Das ist ein Forschungsbereich für sich und das ist
glaube ich auch spannend, was in den letzten Jahren passiert ist, dass das auch wirklich
als Forschungsthema für sich und zwar quer zu aller KI-Forschung anerkannt wurde und
da jetzt dann geforscht wird. Vielleicht kommen wir jetzt vielleicht zu dem Schlussteil,
jetzt gehen wir
00:15:34
SPEAKER_01
kommen wir jetzt vielleicht zu dem Schlussteil, jetzt gehen wir vielleicht von der
Industrie nochmal weg, so vielleicht zu dir und der Person. Ich würde so fragen, was ist
dein Umgang mit KI, was dir am meisten da so Spaß macht in dem ganzen Bereich?
00:15:46
SPEAKER_02
Ja, das ist spannend. Wir hatten nämlich im Vorfeld schon mal drüber gesprochen. Wir
hatten zuletzt bei uns am Institut ein Makathon, Make AI-Ton geschrieben, also mit
spezifischem Fokus auf KI. Und um auch noch auf die Frage zu kommen, was mir am
meisten Spaß macht, also tatsächlich das Umsetzen macht mir extrem viel Spaß. Nur
leider ist im Tagesgeschäft einfach zu wenig Zeit, um wirklich selber zu programmieren.
Das macht natürlich richtig Spaß. Und in solchen Formaten wie Makathon kann man das
mal wirklich ausprobieren. Das ist so ein bisschen bei uns aus dem
Innovationsmanagement heraus entstanden, was wir jetzt aber auch technisch eben
einfach so begleitet haben, dass da eben technische Prototypen passieren sollen. Und
da finde ich die aktuellen Entwicklungen auch extrem spannend. Auch nochmal den
Bogen, zu dem, was ich eingangs gesagt habe, dass wir eine gewisse Reife bei den Tools
erreicht haben. Das macht extrem viel Spaß, wenn man jetzt eben nicht mehr lange mit
Debuggen von Code sich auseinandersetzen also Large Language Models. Das ist so ein
bisschen die Technologie, die hinter ChatGPT steckt. GPT als so eigentlich der Vertreter,
aber man kann auch GPT-Modelle lokal laufen lassen oder LLMs lokal laufen lassen.
lassen, gibt es auch verschiedene Modelle von und das macht extrem viel Spaß, damit
zu arbeiten, also die in verkettete Abfragen zu bringen, also Langchain ist da so eine
Bibliothek, die gerade extrem viel Spaß macht, wo man sehr schnell auch vom
Konzeptionieren kommt in die Umsetzung. Das, was ich aktuell viel mache in den
Projekten, ist natürlich auf Konzeptarbeit und dann natürlich Anleiten mit den Kollegen,
das in die Umsetzung zu bringen und diese Tools ermöglichen uns eben, dass man viel
schneller auch, also im Sinne von Rapid Prototyping, viel schneller zu einer Lösung
kommt, die dann auch läuft. Zusammen bis hin zur Visualisierung. Also Streamlit ist da
noch eine andere Bibliothek, die wir gerade verwenden, um die Ergebnisse zu
visualisieren und einfach bedienbar zu machen, solche Systeme. Und so ein Makerton,
der typischerweise über vielleicht zwei Tage geht, mal ein Wochenende, wo man wirklich
sehr schnell zu solchen Ergebnissen kommen muss. Es ist ein cooles Setup, weil da hat
man extrem viel Druck natürlich. Man will am Ende etwas schaffen und es hat auch
einen Wettbewerbscharakter. Man tritt an gegen verschiedene Gruppen, muss nicht nur
eine coole Idee finden, sondern die auch eben zur Umsetzung bringen. Mir macht es
nach wie vor Spaß und das ist auch der Grund, weshalb ich angefangen habe mit dem
Studieren und auch, was mich eigentlich die ganze Zeit getrieben hat und auch den Weg
zur anwendungsorientierten Forschung zu kommen, wenn man am Ende etwas in der
Hand hält. Also insofern kann ich jedem nur auch empfehlen und jeden motivieren, sich
KI-Tools jetzt mal anzuschauen, weil es gibt einfach viele Tools, die jetzt ready to use
sind. Wahnsinn, man
00:18:20
SPEAKER_01
man merkt, du brennst für das ganze Thema und bringst sehr, sehr viel Input mit. Wir
werden auch gerne in den Shownotes nochmal die einzelnen Tools auch mit verlinken zu
der einzelnen Folge, dass sie alle davon auch nochmal das nachlesen können und auch
einige Tools vielleicht auch wirklich mal hands-on auch mal nutzen können. Vielleicht,
wenn wir noch zum Schluss kommen des Podcasts, was mich noch interessieren würde,
auch deine Einschätzung. Du hast jetzt natürlich, du hast ein Hochschulstudium
absolviert, du hast den Einblick in die Industrie bekommen, in die Forschung
bekommen, das heißt ein relativ breites was du Feld, auch mitbekommen Du hast hast.
jetzt natürlich ein Hochschulstudium absolviert, du hast den Einblick in die Industrie
bekommen, in die Forschung bekommen, das heißt ein relativ breites Feld, was du auch
mitbekommen hast. Du hast die Entwicklung der KI der letzten Jahrzehnte auch
mitbekommen in dem ganzen Bereich. Wie siehst du denn so die Entwicklung der KI in
den nächsten, sagen wir mal, fünf bis zehn Jahren? Man unterscheidet ja
00:18:58
SPEAKER_02
unterscheidet ja so ein bisschen zwischen starker und schwacher KI. Also schwache KI,
die für schwache einzelne also KI, schwache Anwendungen die KI, für einzelne
Anwendungen sinnvoll sinnvoll ist, ist, das wir halt die ganze Zeit machen, und eine
starke KI, die mehr dahin geht, dass man auch übergreifend, aufgabenübergreifend
intelligent ein System hat. Da habe ich lange nicht so dran geglaubt und ich glaube, der
Weg wird jetzt immer mehr hängen gehen, einfach weil wir es schaffen, viel komplexere
Systeme zu bauen, dass man auch Systeme bauen kann, die immer mehr Richtung
starke KI gehen. Large-Engage-Models sind so ein Beispiel davon, weil da allgemein
Wissen einfach drin steckt. Wo immer noch viel Arbeit ist, um das für
Spezialanwendungen natürlich anzupassen, aber ich glaube, dieser Trend, den ich auch
schon genannt hatte, dass die Reife der Tools immer steigen wird, immer weiter steigen
wird, der wird weiter anhalten. Das wird sich auch auf die Industrie ausweiten. Wenn wir
jetzt also diese ganzen Digitalisierungsprojekte geschafft haben, auch
digitalisierungsmäßig eine gewisse Reife-Eigenschaft haben, wird es wahrscheinlich
immer noch einige Jahre brauchen, bis man dann auch sich auf eine einheitliche
Plattform geeinigt hat. Da gibt es auch verschiedene Bestrebungen, die auch politisch
getrieben sind, also nur so mal Richtung GAIA-X das Stichwort, das von der EU gefördert
wird ja auch, Richtung einheitliche Plattform schaffen, wo KI dann auch drauf laufen
kann. Am Ende muss es halt einen Nutzen schaffen für die Unternehmen. Und ich hoffe
sehr, da will ich jetzt keine Einschätzung geben, dass wir zu diesem Punkt kommen, weil
technisch eben jetzt einfach schon viele Tools bereitstehen. Und da bin ich mir klar und
sicher, und da kann ich auch gut den Blick geben in den nächsten fünf Jahren, dass die
Tools einfach eine Reife erreicht haben werden, dass man sehr schnell in die
Umsetzung, in die Anwendung kommen wird. Auf der anderen Seite vielleicht das noch
als einen Aspekt. ich hatte ja gesagt, Richtung starke KI gehen wir, das wird natürlich
auch gesellschaftlich dann auch große Auswirkungen haben und auch große Punkte
sein, was man jetzt auch schon in den letzten Jahren gesehen hat, wo man einfach auch
nochmal gesamtgesellschaftlich nachdenken muss, wie wollen wir künftig mit solchen
Systemen umgehen. Man muss sich einfach darum Gedanken machen, wer trägt
Verantwortung, was heißt für rechtliche Konsequenzen am Ende, wenn ein technisches
System eine Entscheidung trifft. Und da ist mein Blick, diese Sensibilisierung hat gut
funktioniert in den letzten Jahren und ich glaube, dass auch die gesellschaftliche
Diskussion weiter vorangehen wird, sodass wir dann in zehn Jahren vielleicht auch in
einer höheren Reife auch gesellschaftlich sind, dass wir dann auch eine breite
Akzeptanz geschaffen haben, dass wir die Tools dazu haben und dass es viel mehr Alltag
ist. Ich glaube, das ist auch noch eine ganz wichtige Sache, dass der Umgang von jedem
gelernt wird. Das kann einmal natürlich technisch getrieben sein, also ein Smartphone
zum Beispiel, das hat jeder in der Tasche und plötzlich weiß man, wie ein Voice
Assistant funktioniert. Und ich glaube, das ist auch eine richtig wichtige Aufgabe, das
sehr frühzeitig in die Bildung auch schon zu integrieren. Dass man eben diese Systeme
nicht nur technisch in die Hand bekommt, anwendet, sondern dass man auch den
Umgang und vor allem den kritischen Umgang damit hinterfragt. Gerade wenn man jetzt
gegen starke KI kommt, gegen Generative AI kommt, wo eben auch komplette Inhalte,
komplette Texte erzeugt werden können, wird es umso wichtiger, sich kritisch damit
auseinanderzusetzen und ich glaube, das ist eine Diskussion, die muss man extrem
stark verankern, auch in die Hochschulbildung, aber das muss auch schon in der
Schulbildung passieren.
00:21:54
SPEAKER_01
Vielen Dank, das war ein super Abschlussstatement von dir, auch das nochmal wirklich
so auf den Punkt zusammenzubringen und das bringt uns eigentlich genau auf diesen
Nukleus, den wir eigentlich auch mit diesem Podcast auch erzeigen wollten, nämlich
aus unserem Forschungsprojekt ZAKI heraus, die Zentrale Anlaufstelle für Künstliche
Intelligenz, wo wir nämlich genau versuchen, in der Hochschule, in der Bildung, in die
Lehrveranstaltung genau diese Themenbreite der KI mit reinzubringen. Und deswegen
vielen, vielen Dank, dass du heute da warst. Das war super spannend, super
spannender Einblick, ein Insight sozusagen in Sebastian von Enzberg und deine
Einstellung und deine Erfahrung dazu. Ich würde mich sehr freuen, wenn wir uns
vielleicht auch nochmal wiedersehen. Das Thema KI ist ja ein Thema, was aktuell
wirklich exponentiell natürlich auch durch die Decke geht und innerhalb von einem
halben Jahr hätten wir wahrscheinlich schon zehn neue Gesprächsthemen zum
gleichen Anwendungsfall. Deswegen freue ich mich da, wenn wir uns vielleicht auch
nochmal wiedersehen im
00:22:37
zum gleichen
00:22:41
SPEAKER_02
SPEAKER_01
Bereich. Also vielen herzlichen Dank, dass du heute da warst.
00:22:41
SPEAKER_02
vielen herzlichen Dank, dass du heute da warst. danke Ja, für das Gespräch. Ich fand es
auch sehr spannend.
00:22:44
Ich fand
00:22:45
SPEAKER_01
SPEAKER_02
es auch sehr spannend.
00:22:46
SPEAKER_01
Vielen lieben Dank, dass ihr heute alle zugehört habt und mit uns hier die spannenden
KI-Insights heute mit Sebastian von Enzberg auch diskutiert habt. Abonniert uns gerne
bei Spotify und seid gespannt auf die nächsten Folgen. Bis bald.
00:23:01
SPEAKER_00
Der KI-Insights-Podcast ist eine Initiative des Projekts SAKI, der zentralen Anlaufstelle
für innovatives Lehren und Lernen interdisziplinärer Kompetenzen der KI der
Hochschule Magdeburg-Stendal, gefördert vom Bundesministerium für Bildung und
Forschung.

Weitere Artikel zum Thema