Einsatz generativer KI in Datenauswertung von Unternehmensprozessen

Rosenberg_Portrait

© Studioline Photography

Staffel 1 , Folge 2

Fehlt es Unternehmen an Ressourcen & Knowhow für die Integration von KI-Systemen? Diese Frage diskutieren Moderator David Weigert und Wirtschaftsingenieur, Data Analyst und KNIME-Experte Patrick Rosenberg in einer neuen Folge KI Insights. Darüber hinaus beleuchten sie Patricks Werdegang vom Wirtschaftsingenieurswesen hin zum Themenfeld der Künstlichen Intelligenz, sowie den Einsatz sprachbasierter Datenauswertung mittels Self-Service-BI und die damit verbundenen Herausforderungen. In dieser Folge können Sie außerdem wieder auf neue Empfehlungen für Tools, Umfragen und Modelle gespannt sein – darunter ein ausführlicher Exkurs zur Open-Source-Datenanalyseplattform KNIME und wie mithilfe von Chat-Sheets eine unkomplizierte ChatGPT-Anbindung möglich wird.


Moderation: David Weigert
Schnitt & Text: Julia Fritz

Transkript: Staffel 01, Folge 02
00:00:00
SPEAKER_02
Willkommen bei KI Insights, ein Podcast vom Projekt ZAKKI an der Hochschule
Magdeburg-Stendal. Hier teilen ExpertInnen verschiedenster Disziplinen ihre Einblicke
in die facettenreiche Welt der künstlichen Intelligenz. In der ersten Staffel erwarten Sie
Beiträge rund um das Thema KI-Technologien und Anwendungen, moderiert von David
Weigert und Prof. Dr. Fabian Behrendt.
00:00:28
SPEAKER_01
Ja, herzlich willkommen zu unserer Podcast-Folge KI Insights. Mein Name ist David
Weigert und ich begleite Sie heute durch diese Folge. Mein heutiger Gast ist Patrick
Rosenberg, studierter Wirtschaftsingenieur hier von der Hochschule Magdeburg
Stendal. Er ist Data-Analyst, NIME-Experte, das darf ich so sagen, und Consultant für
Business Analytics bei einem IT-Systemdienstleister für Banken und Versicherungen.
00:00:52
Hallo David.
00:00:52
SPEAKER_00
SPEAKER_01
Laut Bitkom-Befragung 2021 fehlt es deutschen Unternehmen an Geldpersonal und Zeit
für das Thema künstliche Intelligenz. Jetzt ist die Frage, du als Datenanalyst bist ja
mehrheitlich in Kontakt mit Unternehmen. Wie sieht deine Tätigkeit aus und kannst du
diese Aussage bestätigen oder sogar widerlegen?
00:01:16
SPEAKER_00
An sich besteht meine Tätigkeit halt, Thema Business Intelligence, halt
dementsprechend Kunden oder Firmen halt ein Reporting zur Verfügung zu stellen,
nachher womit sie einfach ihr Unternehmen besser steuern können. Über Visualisierung
halt direkt ergreifen können, was sie begreifen können. Okay, wie ist der Kontext aktuell?
Wo muss ich vielleicht nachsteuern, wo nicht? Das Thema KI ist natürlich immer so, das
fällt innen runter oder ist immer noch für viele auch ein Thema Rocket Science. Es hat
mehr Popularität natürlich in den letzten Jahren bekommen, besonders durch so
Themen wie Chat-GBT, was jeder kennt, und OpenAI. Generative KI betrifft natürlich
einen großen Kostenpunkt und natürlich einen großen Know-how-Punkt, dem sich
allerdings auch aktuell viele Firmen wie auch Google, OpenAI oder auch Microsoft mit
Azure annehmen. Als Wirtschaftsingenieur ist ja der Weg zum Thema KI sicherlich nicht
vorgegeben, oder? Ich habe ja, wie du es schon sagtest, in der Hochschule Magdeburg
Stendal studiert, in meinem Bachelor Wirtschaftsingenieurwesen Vertiefung
Elektrotechnik. Genau, dann steht ja am Ende des Studiums sozusagen, nach den
letzten Prüfungen, immer noch das Praxissemester an. Und bei dem Praxissemester ist
es ja so, wir können ja als Wirtschaftsingenieurwesen, wir können ja alles Mögliche
machen, was wir wollen. Zu meiner damaligen Zeit war es halt auch leider Corona
gegeben, dass es nicht so einfach war. Das heißt, ich habe einfach mal beworben,
gesucht, was möchtest du machen. Ich bin dann halt durch einfach eine Empfehlung
von einem Bekannten aus dem Sportverein, der meinte, bewirb dich doch mal bei der
Hasel-Mitgema, habe ich das gemacht und bin da unter die Viertelchen meines
damaligen Mentors gekommen, der dort das Thema Business Intelligence quasi
eingeführt hat und mir alles rund um das Thema beigebracht hat und mich dafür
nochmal angefixt hat, dafür zu lernen und man kann erstaunlich
00:02:53
SPEAKER_01
lernen und man kann erstaunlich viel lernen. hast das sozusagen über deinen
beruflichen Alltag verstetigt. Was machst du aktuell? Du hast gesagt, du machst eher
jetzt den Bereich Visualisierung, Datenauswertung, ist das
00:03:10
SPEAKER_00
das richtig? Das ist korrekt, genau. Das ist so das Butterbrotgeschäft. Natürlich kommt
es immer darauf was an, der Kunde nachher haben möchte. Also die Dienstleistung ist
ja nicht nur das Reporting, es ist rund ums Thema Daten, gibt es ja auch noch so
Themen wie Data Governance, die besonders wichtig sind, damit du nachher auch ein
gutes Freeporting machen kannst, brauchst du halt eine gute Data Governance. Aber
natürlich auch in provisorisch oder auch im privaten Umfeld, finde ich, wenn man die
Intention mitbringt, beschäftigt man sich natürlich auch mit dem Thema KI und wo kann
das hinführen, wo kann es mich erleichtern, vielleicht auch sogar im privaten Alltag. Du
kennst es selber, wir nutzen alle tatsächlich schon KI, auch wenn es damals noch nicht
solche bezeichnet wurde, auch im Alltag. Bestes Beispiel sind halt unsere
Sprachassistenten, die ja auch schon eine Form von KI darstellen. Die derzeitigen
Sprachassistenten zum Thema KI sind ja eher geprägt durch regelbasierte Lösungen,
00:03:57
SPEAKER_01
Thema KI sind ja eher geprägt durch regelbasierte Lösungen, eher im Bereich der
schwachen KI. Jetzt ist natürlich die Frage, spielt das in deiner Tätigkeit eine Rolle, starke
KI irgendwann zu ermitteln?
00:04:09
SPEAKER_00
zu ermitteln? Starke KI hat ja den Vorteil, dass sie halt außer, abseits der Norm arbeitet.
Das heißt, ich habe keine fest definierten Regeln und die kann halt kontextbasiert
arbeiten. Wie es halt Chativity zum Beispiel tut. Klassiker, wo man es halt jetzt auch
schon anwendet, ist halt so ein ganz klassisches Beispiel, falls man es noch nicht kennt.
Visual Studio Code hat ja die Erweiterung Blackbox, die quasi deinen Text in Code
umwandeln kann. Das ist ja auch schon ein bisschen mehr von schwacher Richtung
starker KI. Arbeitest du aktiv mit diesen Tools zusammen? tools zusammen blackbox ja
also ich nehme mich ja auch aktuell dem thema peisen stärker an weil es halt für
einfach die sprache ist aktuell also wenn man auch mal guckt openair und damit was
machen möchte findet man immer wieder peisen code die man verwenden soll auch
fürs fine tuning wenn man zum beispiel ob man ja auch selber mal so ein kleines
chatbot mit konfigurieren basteln für das fein tun wird der peisen empfohlen genau dann
nutze ich auch generell gerne mal chat blackbox einfach um das zu machen oder
natürlich auch den openair playground weil konfigurieren und Für das Feintuning
basteln. wird der Python empfohlen. da nutze ich Genau, auch generell gerne mal
ChatBlackbox einfach, um das zu machen. Oder natürlich auch den OpenAI Playground,
weil der hat halt auch die Möglichkeit, dass man einfach mal so ein bisschen Coding
erweitern kann. Habt ihr aber auch schon feststellen können, ein großes Problem, was
der Nachteil von generativer KI denn auch ist, ist die Vertrauenswürdigkeit, weil der
teilweise ergibt einen Code aus, der auch funktioniert, aber nicht unbedingt spezifisch
für dein Problem. Vielleicht ist das auch schon ein bisschen über dein T hinaus. Würdest
du dann
00:05:30
SPEAKER_01
du dann sagen, dass KI oftmals so als Allheilmittel gesehen wird und eher so, du sagtest
am Anfang Rocket Science, KI als Allheilmittel, als Allgemeinlösungsplatz, was er
eigentlich gar nicht ist?
00:05:41
SPEAKER_00
nicht ist? Das ist eine schwierige Frage. Also ja, KI kann allgemein, KI allgemein
gesprochen, wenn wir von der Definition betrachten, ist es ein fast neuer Heilmittel.
Weil, was ist KI? KI ist ja im Endeffekt nur ein Sammelbegriff. Wir haben ja neben KI auch
noch, oder was darunter fällt, einmal maschinelles Lernen, was schon sehr viel
angewendet wird, und Deep Learning. wenn So, wir jetzt im Bereich der schwachen KI
sind, da finden wir sehr viel maschinelles Lernen, was schon sehr viel angewendet wird,
und Deep Learning. wenn So, wir jetzt im Bereich der schwachen KI sind, da finden wir
sehr viel maschinelles Lernen, was halt super ist, um einfach Prozesse zu
automatisieren, um einfach Themen auch für Mitarbeiter einfach zu vereinfachen. Also,
Language Processing ist ein ganz gutes Beispiel, womit man einfach mal so
Wortgewichtung taggen kann, um einfach zu gucken, okay, wie viel Informationsgehalt
steckt hinter dem Wort oder so eine Word Cloud in Umfragen, findet man ja so
Freitagsfelder, was wurde denn oft als Schlagwort bewiesen, so eine Word Cloud, die
funktioniert quasi mit NLP, da wird halt geguckt, wie oft kommt ein Wort vor, das wird
getaggt und dann wird das, diese Gesamtmenge gebildet. Aber was generative AI
angeht, da ist halt das große Thema, wie sehr kann ich darauf vertrauen, also jeder hat
es mal ausgetestet mit ChatGPT bestimmt. Der kann auch ganz schön viel Mumpitz
zurückgeben. Und da muss man natürlich auch immer die Frage stellen, wenn ich dann
sowas nutze wie ChatGPT, was gebe ich denn alles einmal für die Firma preis? Also ist
das überhaupt noch datenschutzkonform? Kann ich das machen oder kann ich das
nicht machen?
00:07:05
SPEAKER_01
Das heißt, ich nehme jetzt so ein bisschen mit, dass du dich mehrheitlich mit
Sprachmodellen beschäftigst oder da dein Fokus im Moment drauf liegt?
00:07:15
SPEAKER_00
Genau, aktuell setze ich mich halt auch groß mit dem Thema LRM auseinander, also
Large Language Models, die halt für generative AI eingesetzt werden. Da gibt es ja auch
halt einmal von Unternehmen die Modelle und natürlich auch Open Source Modelle.
Damit setze ich mich aktuell auseinander. Was sind die Vor- und Nachteile? Was können
die? Könntest du uns ein Beispiel vielleicht geben, was diese Large Language Modelle,
diese LLM, machen können? LLM ist quasi darauf trainiert, ein Cluster ein Problem zu
lösen. Also es ist sehr allgemein gehalten. Funktioniert im Folge dessen, indem man halt
sagt, ich gebe ihm jetzt Fötterlin mit mehreren Texten, sehr großen Texten teilweise. Und
er soll quasi die entsprechenden oder die nächstnachfolgenden Wörter halt
voraussagen. Wenn er halt ganz viele Wörter hat und sagt, okay, das nächstfolgende
Wort, wenn ich jetzt zum Beispiel nach irgendeinem Namen suche oder wer irgendeine
Person ist, manchmal passt es, manchmal passt es nicht. Es kommt immer darauf an,
wie stark assoziiert er den vorherigen Text mit dem Wort jetzt war. Also er versucht quasi
immer zu gefallen und immer passend zu ergänzen. Und dadurch schwankt die
Vertrauenswürdigkeit. Das heißt, man muss das einfach ein bisschen mehr trainieren
nachher oder halt per Feintuning oder Prompting, also sprich, ich stelle eine sehr
spezifische Frage, kriege ich auch bessere Antworten.
00:08:31
SPEAKER_01
Wie spielt das in deiner Tätigkeit, die du ausführst, eine Rolle? Das würde mich auch
noch interessieren. Aktuell gibt es dann Data Analysten wie mich oder
00:08:38
SPEAKER_00
Data Analysten wie mich oder halt beim Kunden vor Ort, der halt diese ganzen
Dashboards baut. wo der Trend ja nicht mehr So, ist nachher Self-Service hingeht, BI,
das entsprechende heißt, Personen mit entsprechender Verantwortung können ihre
Dashboards selber bauen. Und wo es denn eingesetzt werden wäre zum würde, ich
Beispiel, habe ein Eingabefeld und sage,
00:09:07
SPEAKER_00
zeige mir mal bitte die Verkäufe der letzten zehn Jahre in einem Balkendiagramm von
Produkt C im Verhältnis zu A, dem B, und dem. Und er würde quasi von sich aus, Text
okay, lesen und damit halt dann eine Visualisierung kreieren oder ein Dashboard
kreieren, was mir dann weiterhilft.
00:09:17
SPEAKER_01
Das heißt, deine Kunden, wenn ich sie so nennen darf, möchten sprachbasiert
Datenauswertungen erhalten.
00:09:22
SPEAKER_00
erhalten. Genau. Also das ist wo der Trend dahin geht, also Self-Service BI nennt sich
das Ganze. Natürlich ist die Gefahr auch immer, wie vertrauenswürdig sind dann die
Sachen, die Aussagen, die da getätigt werden und wie sehr kann ich halt darauf
vertrauen, dass die Ergebnisse auch alles stimmen und er genau das gemacht hat, was
ich sage. Das sind halt auch nur die Herausforderungen, die nachher kommen. Diese
Themen, das ist natürlich auch mit sehr viel Kosten verbunden, weil sowas entwickeln
zu lassen oder sich auch implementieren zu lassen, kostet natürlich sehr viel Geld und
Manpower halt. Und da kommen halt Kunden vorwiegend auf Berater zu.
00:10:00
SPEAKER_01
Okay, das bedeutet also, zusammenfassend kann man sagen, du entwickelst Self-BI
Lösungen mit Large Language Models.
00:10:20
SPEAKER_00
und rollen es dann quasi beim Kunden wieder aus. Das ist so unser tägliches Butterbrot
Geschäft über natürlich die Themen Data Governance darüber hinaus, die es dann ja
auch noch gibt. Das ist jetzt auch noch nicht der Stand der Dinge, dass man wirklich
dieses starke Self-Service-Verlangen hat. Das hat auch tatsächlich noch nicht jeder
Kunde. Im Endeffekt wollen sie dann nachher auch vielleicht einfach etwas
implementiert haben oder Struktur implementiert haben, womit sie dann selber weiter
arbeiten können. Welche Tools benutzt du dabei? Wir haben jetzt Struktur implementiert
womit haben, sie dann selber weiter arbeiten Welche können. Tools benutzt du dabei?
Wir haben jetzt schon jede Menge Tools gehört, die du nutzt. Eins hast du zu Anfang
auch schon angesprochen und zwar KNIME. Damit habe ich auch gestartet. Finde ich
halt ein klasse Tool. Ist halt Open Source. Das heißt, ich kann es halt frei verwenden.
KNIME macht ja ihr Geld über Serverlizenzen, die dann halt nochmal ein bisschen
mächtiger sind. Und dort habe ich halt auch die Möglichkeit, einfach so, erstmal einfach
Machine Learning Modelle einfach durchzutesten. Also ich kann da sehr viel per API
Schnittstellen ansteuern. Damit habe ich tatsächlich auch meinen eigenen Chatbot
gebastelt, indem ich gesagt habe, ich mache eine API-Schnittstelle über NIME von
OpenAI zu Telegram. Hat natürlich auch den, zeigt auch so ein bisschen kann man auch
mal so ein bisschen nachvollziehen wie funktioniert dann nachher so ein chatbot und
sieht dann natürlich okay ihr muss ja irgendwie abgleichen welche fragen wurden schon
zu welchen user gestellt das heißt ich muss mir die irgendwie speichern was heißt das
dass nachher chatgbt man also chatgbt sieht man so öffentlich welche haltung habe ich
mit dem chatbot schon geführt das wird alles gespeichert also da muss man immer
gucken, was stelle ich denn auch für Fragen? KNIME hat halt die Möglichkeit, ich kann so
viel anbinden, ich kann sehr viel damit machen und ich habe halt die Möglichkeit, da es
ja rein visuell ist und wenig mit Programmieren zu tun hat, ich kann mir einfach schnell
mal so ein paar Übersichten zusammen klicken, einfach um auch Ergebnisse nachher
zu überprüfen. Wenn ich jetzt sage, ich möchte, wenn wir jetzt zum Beispiel beim Thema
bleiben, Self-Service BI und das mit KI, wenn ich mir damit was generiere, muss ich ja
irgendwie das Ergebnis auch irgendwann mal überprüfen, weil ich kann ja nicht einfach
das ausruhen und sagen, ja, das funktioniert jetzt so. Ich muss ja auch irgendwie das
nachvollziehen können. Das heißt, das Ganze validieren und da würde ich zum Beispiel
einfach mal KNIME nutzen, weil ich kann die Daten sehr schnell anbinden, ich kann sehr
schnell mir dort die Aggregation erstellen und natürlich auch meine kurze Überview mal
so ein paar Diagramme darstellen lassen. Genau was wir oder worauf der Konsens halt
auch viel läuft, ist halt besonders bei Business-Kunden, das Thema Power BI hat auch
seine Nachteile, muss man sagen, ist halt nicht so ganz so frei. Das ist natürlich bei
Visualisierung deutlich besser als Nein, muss ich dazu sagen. Aber was die
Datenaggregation, Anbindung betrifft, finde ich es halt schwächer. Ganz vorne dabei
zumindest bei Visualisierung ist Tableau. Das macht wunderschöne Dashboards. Man
hat auch Datenaggregation nicht ganz so viele Möglichkeiten, aber man hat zumindest,
was die Datenverknüpfung und Visualisierung darstellt, hat man sehr umfangreiche
Möglichkeiten. Oder was ich jedem empfehlen kann, wenn man wirklich
zeitreihenbasiert arbeitet, ist dann das Thema ELK-Stack, also Elasticsearchlogs
Kibana. Das ist auch ein Open-Source-Produkt, kann man frei erwerben, sich einfach
runterladen auf einem kleinen Server oder Virtual Machine installieren. Da ist dann halt
wichtig, dass man betrachtet, dass man quasi wie so einen kleinen Data Lake hat, wo
man entsprechende Dokumente drin hat, die am besten alle über eine Zeitreihe laufen,
damit er die auch darstellt. Du hast vorhin auch von Datensicherheit
00:13:28
SPEAKER_01
vorhin auch von Datensicherheit gesprochen, beziehungsweise nicht Datensicherheit,
sondern Vertrauen, Verlässlichkeit. Nun hast du ja viele Tools genannt und die bringen ja
auch sicherlich viele wertvolle Ergebnisse. Die Frage ist nach der Verlässlichkeit, nach
dem Vertrauen der Aussage. Um da sich Vertrauen zu
00:13:43
SPEAKER_00
Vertrauen der Aussage. Um da sich Vertrauen zu verschaffen, ist es halt immer aus
meiner Sicht wichtig. Klar, es können immer mal Fehler passieren, dass man irgendwas
nicht berücksichtigt hat. Das kann immer mal vorkommen. Wichtig ist, dass man
natürlich erstmal dazu steht und auch sagt, oh, das ist jetzt durchgeglitten, das kann
passieren, ist nicht so drastisch, aber das waren das halt einfach auch selber vorher
validiert, bevor ich es überhaupt rausgebe. Das heißt, wenn ich eine Visualisierung habe
mit dem Ergebnis, mich selber zu hinterfragen, stimmt das, kann das stimmen oder ist
da irgendwo mir ein Fehler unterlaufen, dass ich dann halt wirklich nochmal auf die
Rohdaten gehe und wirklich dort dann einfach wirklich, am besten Beispiel ist immer
eine Matrix oder eine Tabelle, einfach zu gucken, passen die Ergebnisse nachher
zusammen. Wenn ich da irgendwo Abweichungen finde, dann ist halt die Frage, warum?
Und meistens ist es einfach, weil ich die Daten nicht richtig verknüpft habe. Das heißt,
ich habe die nicht in eine richtige Relation gesetzt. Empfehle ich jedem, der mit Daten
arbeitet, wirklich nach dem CRISP-DM-Modell vorzugehen. Das heißt, dass quasi ich
mache mich erstmal mit dem Problem vertraut, was soll hier quasi gelöst werden, gucke
mir an, welche Daten könnte ich gebrauchen, mache die erste Erhebung, da können
schon die ersten Fehler zum Beispiel auftreten, dass ich irgendwas nicht erheben kann,
sei es, weil die Schnittstelle nicht optimiert ist dafür und natürlich dann halt, wenn ich
das Modell entwickelt habe und mich selber hinterfrage, bevor ich es dann ausspiele,
passt das denn einfach und nochmal nachkontrolliere und wenn das alles passt,
übergibt man den Kunden und der macht natürlich intern genau dasselbe. Der guckt
sich das an. Okay, passt das denn von den Zahlen, die ich hier habe? Die arbeiten ja
teilweise auch mit Excel-Modellen. So kenne ich es noch bei Hasometer. Man viel mit
Excel gearbeitet auch nochmal. Wo würdest du sagen, bei dem CrispDM-Modell, wo
investiert man am meisten Zeit?
00:15:18
SPEAKER_01
wo investiert man am meisten Zeit?
00:15:22
SPEAKER_00
Die meiste Zeit so sollte es sein, weil sonst verlagert sich das nach hinten raus und man
meint immer, besonders so bei dem Thema Modeling und Evaluation ist halt immer so
das große Thema. Eigentlich sollte man die größte Zeit darauf verwenden, auf das
Business-Verstände, also quasi Schritt 1. Was möchte ich nachher lösen? Also wichtig
ist dabei, nicht nur rauszubekommen, was möchte ich lösen, sondern was möchte ich
vielleicht nicht lösen? Hast du für uns vielleicht mal ein Beispiel, wo es gut geklappt hat
oder wo es vielleicht nicht gut geklappt hat? Klassiker, damit man es vielleicht versteht,
Medizintechnik-Dieselkleister verkauft vorwiegend oder vertreibt vorwiegend eine
Praktikverwaltungssoftware. Das heißt, man hat auch einen internen Support dafür und
was man natürlich wissen möchte, ist dann halt immer wie viele Kunden rufen denn an?
Und natürlich zu starken Zeiten hat man ja auch so klassisch sein Service-Level, was
man halten möchte. Und zu besonders starken Anrufzeiten hat man dann so das Thema,
ja, mein Service-Level soll bitte das und das bleiben. Also das ist ja so die eigene
Anforderung und man möchte das monitoren. Dann ist aber aufgefallen, weil wir
natürlich auch immer so Sicherungslösungen einbauen. Das heißt, wir lassen uns
natürlich alles, was zum Beispiel jetzt irgendwie komisch ist, lassen wir einfach
nochmal ausgeben oder fehlerhaft sein könnte, lassen wir nochmal ausgeben als Datei,
um das nochmal nachführen zu können, so ein eigenes Logging quasi. Und dann war
halt so das Thema, das kann gar nicht Zum sein. Beispiel Anrufer XY mit der und der
Nummer, den habe ich hier gar Warum nicht. nicht? Und dann war halt so das das
Thema, kann gar nicht Zum sein. Beispiel Anrufer XY mit der und der Nummer, den habe
ich hier gar nicht. Warum nicht? Und dann guckt man halt mal rein und findet dann
nachher im System einen Status, den man gar nicht kannte. Der natürlich mit
reinberechnet wurde, weil man einfach gesagt hat, ja, jeder Anruf zählt und dann
festgestellt hat, aber guck mal, den konnten wir ja gar nicht annehmen, weil der einfach
zum Beispiel alle Leitungen sind voll. Was machen wir denn mit dem? Der wurde dann
trotzdem mit einbezogen. Dadurch ist er als Service-Label runtergegangen, obwohl wir
gar nichts dafür konnten. Das ist halt auch das große Thema bei Business Analytics.
Weil ich das Dashboard irgendwie von einem Monat gebaut habe, kann das vielleicht
noch ein Jahr funktionieren, weil es genauso bleibt. Und dann ändert sich irgendwas,
was ich jetzt gar nicht bedenken konnte, weil es einfach neu ist, weil irgendwas
dazukam, was weggefallen ist und dann passt es nachher nicht mehr. Jetzt hört sich das
ja natürlich ganz schön nach menschlicher Fähigkeit an.
00:17:27
SPEAKER_01
hört sich das ja natürlich ganz schön nach menschlicher Fähigkeit an. Also das, was du
erzählst und machst, hat ja einen sehr großen Einfluss, wie am Ende deine KI-Lösung
oder deine KI-basierten Lösungen funktionieren. Würdest du die Tätigkeiten, die du jetzt
so zusätzlich machst, um zu prüfen, zu validieren, zu verifizieren, auch irgendwann einer
KI übergeben können?
00:17:48
SPEAKER_00
können? Wäre wunderbar, würde mir sehr viel Zeit sparen, natürlich, das wäre super,
aber ich bin da immer so ein bisschen skeptisch, weil im Endeffekt, es kann zwar viel,
kann aber auch doch nichts, weil im Endeffekt nur viel, kann aber das auch doch
Relevantes, nichts, weil im Endeffekt was nur das ich Relevantes, ihm was gebe. ich ihm
gebe. Irgendwo muss ja das Wissen herkommen. Das heißt, ich muss ihn ja irgendwo
antrainieren. Und wenn ich ihm dann halt Müll antrainiere, kommt natürlich nur Müll
raus. Viele haben die Befürchtung, KI, das nimmt mir meinen Job weg oder rationalisiert
mich weg. So ist es nicht. Es soll eher die Arbeit erleichtern und halt auch nochmal so
diesen menschlichen Fehlerfaktor, der meistens auch immer drin spielt, weil man kann
es selber, man hat auch mal einen schlechten Tag, arbeitet nicht so effizient, einfach zu
minimieren.
00:18:31
SPEAKER_01
Das heißt, KI wird uns sozusagen aus deiner Meinung heraus nicht rationalisieren,
wegrationalisieren, sondern uns befähigen, vielleicht sogar Arbeitsplätze schaffen?
00:18:43
SPEAKER_00
Meine Tätigkeit wird ja nicht wegfallen, die wird sich aber abändern, so wie es ja schon
immer war. Also man muss ja sagen, vor der KI kam ja, wenn man zu der industriellen
Revolution, die zum Beispiel Fließbandarbeit, dann hat man so gesagt, oh ja, fährt ja
meine Arbeit weg. Nee, ist es nicht. Deine Arbeit verändert sich einfach nur. Weil das ist
ja dann nachher die Kunst, zumindest auch bei OpenAI oder bei dem Chatbot-Bauer, gut
genug einen Prompt zu definieren, dass er genau weiß, was rauskommt, und die
Antworten auch dementsprechend, was ich mir vorstelle. Wenn ich noch mal ein paar
00:19:11
SPEAKER_01
ein paar Zahlen zitieren darf, nach dem Einsatz von KI in der deutschen Wirtschaft 2020,
im Rahmen einer Umfrage vom BMBI, ist es sogar so, dass 16 Prozent der KI
einsetzenden Unternehmen KI selbst entwickelt haben, 24 Prozent das zusammen mit
Dritten entwickelt haben und 60 Prozent der Unternehmen im Rahmen dieser Befragung
greifen oder griffen auf KI-Entwicklung von Dritten zurück. Das heißt also, wir sehen ja,
wo das Know-how, das KI-Know-how der Unternehmen sitzt und woher sie sich das
auch nehmen und besorgen. Und da spielt ja deine berufliche Tätigkeit und das, was du
tust, eine große Rolle, denn ich könnte dich ja fast zu den 60 Prozent zuzuzählen, also
beziehungsweise zu diesen, ich kann dich ja zu den Entwicklern hinzuzählen, wo
Unternehmen darauf zugreifen, weil du ja letzten Endes für die Unternehmen Lösungen
im Rahmen der KI ermöglichst.
00:20:08
SPEAKER_00
KI ermöglichst. Da noch ganz so weit, dass ich das halt komplett selber entwickle, ist
nicht. Man muss auch sagen, man muss ja das Rad nicht immer neu empfinden. Es gibt
ja auch da schon ganz viel vorgefertigte Sachen und man kann ganz viel nutzen. Ich habe
mich erst mal mit den Grundlagen auseinandergesetzt. Das heißt, was ist überhaupt KI?
So ein Thema generative KI, wo ich jetzt aktuell mich stärker einlese. So, was ist denn
LM? Was ist denn das? Wofür nutze ich denn da ein Prompting? Wofür nutze ich ein
Feintuning? Was ist ein Embedding? Das ist alles so Sachen, wo man sich erstmal mit
den Grundlagen auseinandersetzt und wo man dann erstmal sagt, okay, ja, verstehe ich.
00:20:42
SPEAKER_01
Aus dir höre ich jetzt heraus, du hast eine sehr große Eigenmotivation, dieses Thema
auch zu begreifen und bist auch interessiert und neugierig. Jetzt ist die Frage, was
könntest du jemandem mitgeben, der sich jetzt angesprochen fühlt, der sagt, Mensch,
Business, Analytics, Datenverständnis, KI, das reizt mich.
00:21:00
SPEAKER_00
mich. Was ich immer sagen kann, das hat mich auch dazu gebracht, einfach David
Krise,
00:21:17
SPEAKER_00
zwei Vorträge, Spiegel Mining, Bahn Mining und Servox Drucker, sehr an. Also fang
wirklich bei den Basics an, weil wenn ich das nicht begriffen habe und nicht verstanden
habe, wie funktioniert das, dann begreife ich den Rest auch nicht.
00:21:32
SPEAKER_01
Abschließend zu unserem Gespräch wäre noch die Frage, wo du Trends und
Technologien siehst in den nächsten vielleicht 5 bis 10 Jahren. Der
00:21:43
SPEAKER_00
Klassiker, wie wie es schon sagt es hat wirklich dieses selbst service der sport einfach
selber einfach ich gibt was ein und das macht das und wo vielleicht in cna wo man
vielleicht mal hinkommt sind auch so sachen wie da gibt es glaube ich auch schon
punkte die bearbeitet werden einfach so eine webseite also klassisch ist ja noch mit
wordpress hat ja vieles Fall vereinfacht, dass man einfach einer KI hingeht, hier bastelt
mir meine Webseite, da soll das und das drin sein, das soll der Fondtyp sein, dass ich
quasi einfach nur eine Eingabemasse habe, ich möchte eine Webseite, mit dem will ich
punkten, das soll drin stehen und der baut mir das Ding. In zehn Jahren kann ja auch so
viel sein, da kann ja auch das Autonomosan schon verbessert sein, aber ob das denn
massentauglich ist, ist dann immer die Frage, weil aktuell ist halt KI mit sehr viel
Rechenleistung verbunden und dementsprechend auch mit sehr viel Kosten. Das kann
sich natürlich stark nach unten korrigieren, kann natürlich auch nach oben gehen.
00:22:30
SPEAKER_01
Dankeschön, Patrick, für das intensive Gespräch, den spannenden Einblick, den du uns
gegeben hast zum Thema Business Analytics, Data Analytics, was man mitbringen kann,
auch als Wirtschaftsingenieur, um sich dahingehend zu erweitern.
00:22:49
SPEAKER_01
Vielen Dank für die Einblicke, die du uns gegeben hast. Ich wünsche dir viel Erfolg
weiterhin in deiner Tätigkeit und hoffe bald, dass wir deine Entwicklung auch mal testen
können. Ebenfalls.
00:22:59
SPEAKER_00
Vielen Dank, David. War ein tolles Gespräch. War es mir immer eine Freude, auch als
Alumni noch tätig zu sein für die Hochschule. Das heißt, immer wenn was ist, kommt
gerne. Also ich kann auch jedem noch sagen, geht gerne auf eure Lesenden zu. Die
haben auch die Kontakte natürlich zu Leuten und da kann man sich auch mal für ein
kurzes Gespräch oder einen Kaffee, Kakao, wie auch immer mal zusammensitzen und
einfach mal sprechen. Ich bedanke mich
00:23:20
SPEAKER_01
bei allen Zuhörerinnen und Zuhörern und wünsche eine schöne, angenehme Zeit. Bis
bald.
00:23:30
SPEAKER_02
Der KI-Insights-Podcast ist eine Initiative des Projekts SAKI, der zentralen Anlaufstelle
für innovatives Lehren und Lernen interdisziplinärer Kompetenzen der KI der
Hochschule Magdeburg-Stendal, gefördert vom Bundesministerium für Bildung und
Forschung.

Weitere Artikel zum Thema