Science Slam, KI im Wandel der Zeit & effektives Lernen

Staffel 1 , Folge 12

In unserer finalen Folge begrüßen wir Prof. Dr. Jaromir Konecny zu Gast – Slam-Poet und Professor für Künstliche Intelligenz an der SRH Fernhochschule mit einer Passion für Eisbaden & Jonglieren. Er teilt seinen persönlichen Lebensweg, von seiner Flucht aus der Tschechoslowakei, bis hin zur Molekularbiologie in München, neuronalen Netzen der KI und Herausforderungen als Buchautor in der Pandemie. Zudem teilt er interessante Erkenntnisse aus der Gehirnforschung und verrät, wie Bewegung, Pausen und Lernen miteinander verbunden sind. Freuen Sie sich abschließend auf einen pointierten und einfallsreichen Science Slam zur Super Intelligenz.

Foto: Katarina Lepic
Moderation: Prof. Dr.-Ing. Fabian Behrendt
Schnitt & Text: Julia Fritz

Transkript Staffel 1, Folge 12 Konecny
00:00:00
SPEAKER_00
Willkommen bei KI Insights, ein Podcast vom Projekt ZAKKI an der Hochschule
Magdeburg-Stendal. Hier teilen ExpertInnen verschiedenster Disziplinen ihre Einblicke
in die facettenreiche Welt der künstlichen Intelligenz. In der ersten Staffel erwarten Sie
Beiträge rund um das Thema KI-Technologien und Anwendungen, moderiert von David
Weigert und Prof. Dr. Fabian Behrendt.
00:00:27
SPEAKER_01
Herzlich willkommen zum Staffelfinale unseres Podcasts KI Insights. Mein Name ist
Fabio Behrendt und ich begleite Sie heute nochmal durch diese Folge. Heute steht diese
Folge unter dem Motto, ist das intelligent oder kann das eigentlich weg? Und dazu habe
ich eine ganz besondere Person eingeladen, kann das eigentlich weg? Und dazu habe
ich eine ganz besondere Person eingeladen, die in dem Bereich KI schon in den letzten
Jahren oder auch Jahrzehnten auch schon aktiv ist. Einen wertgeschätzten Kollegen und
Wegbegleiter auf dem Themenfeld der KI, sozusagen auch an meinen Kinderschuhen
hat er mich schon mitbegleitet, nämlich den Prof. Dr. Jaromir Konechny von der SAR
Fernhochschule zur Mobile University. Lieber Jaromir, vielen Dank, dass du heute die
Zeit auch einrichten konntest und dass wir heute hier den KI-Talk auch miteinander
führen konnten.
00:01:11
SPEAKER_02
Ja, hallo, danke schön, Fabian. Also ich verdanke dir selbstverständlich sehr viel, weil du
mich an die Mobile University damals geholt hast. Und nur dank dir bin ich jetzt
Professor. Also das musste gesagt werden, noch einmal.
00:01:25
SPEAKER_01
Genau, also ich glaube, der Dank gilt nicht unbedingt dir. Ich glaube, der Dank gilt vor
allen Dingen dir, weil du das Themenfeld Künstliche Intelligenz an der SRH, damit du es
mit Aufwack aufgebaut hast. Ja, also herzlichen Glückwunsch auch von mir zu diesem
neuen Titel. Damit die Zuhörerinnen und Zuhörer dich auch noch ein bisschen besser
kennenlernen, habe ich einfach mal ein paar kurze Facts zusammengetragen. Also
Jaromir, er ist ein deutsch-tschechischer Schriftsteller, er ist ein Slam-Poet, Performer,
Moderator, promovierter Naturwissenschaftler, er ist Buchautor, KI-Speaker und
Experte, er ist Wissenschaftskommunikator und nimmt regelmäßige Folgen in seinem
YouTube-Channel der SH auf KI-Krimis und Hochschulprozent und Honorarprofessor für
Künstliche Intelligenz an der SRH Mobile University. Und was kann man noch dazu
sagen? Darüber hinaus leidenschaftlicher Jongleur und Eisbader. Genau, jeden Tag
Eisbaden und Kung-Fu mache ich auch seit 40 Jahren. Wie diese Themen auch alle
zusammenstoßen und zusammenhängen und ich
00:02:21
SPEAKER_02
seit 40 Jahren.
00:02:22
SPEAKER_01
Wie diese Themen auch alle zusammenstoßen und zusammenhängen und ich glaube,
diese Themen hängen alle nämlich auch sehr intensiv zusammen, wenn ich dich so
kenne, gerade was das Thema Jonglieren angeht, Kampfsport, Eisbaden, deine
Professur, dann auch deine Promotion mit den Themen, mit denen du dich beschäftigst,
das sind das alles Themen, die glaube ich essentiell ineinander greifen.
00:02:41
SPEAKER_02
Das hat noch keiner erkannt, so wie du, aber ich glaube, das Essentielle dahinter ist das
Denken und das Gehirn, wie man mit seinem Gehirn arbeitet und wie man noch mit 67,
was ich eigentlich jetzt bin, mit seinem Gehirn gescheit arbeiten kann. Und es geht dann
ohne komplexe Bewegungen, wie das Jumbieren oder Kung Fu, ohne Kaltbaden
eigentlich nicht. Sonst baut man schnell ab, aber das Denken über das Denken und über
das Gehirn und über die künstliche Intelligenz macht wahnsinnig viel Spaß und das
würde ich dann gerne noch 20, 30 Jahre machen. Und ich hoffe drauf,
00:03:17
SPEAKER_01
hoffe drauf, dass wir die nächsten Jahre auch noch so viel in dem Bereich auch noch da
erleben, weil ich bin mir ganz sicher, gerade im Themenfeld der künstlichen Intelligenz
ist ja vieles gerade auch erstmal noch in den Kindern schon. Lieber Jaromir, jetzt habe
ich einige Punkte ja schon aufgezählt über dich und was dich so ausmacht. Aber
vielleicht kannst du dich selber nochmal in einem kurzen 1-2 Minuten Pitch den
Zuhörern und Zuhörer vorstellen. Wer ist eigentlich Jaromir Konechny?
00:03:38
SPEAKER_02
Ja, ich bin ein Tscheche. Das ist, glaube ich, die größte Qualifikation. Deswegen spreche
ich so komisch Deutsch, also mit einem tschechischen Akzent und kann keine
deutschen Umlaute richtig aussprechen. Und das hat mir früher Probleme bereitet, bis
ich gemerkt habe, dass man damit in Deutschland Geld verdienen kann. Und seitdem
mache ich das. Ich komme aber aus Bayern. Ich wohne in Bayern. Und wenn ich
irgendwo im Osten von Deutschland oder im Norden von Deutschland auftrete, dann
sage ich immer, das, was ich spreche, ist bayerischer Dialekt. Und dann freuen sich die
Leute. Na gut, also ich bin dann 1982 aus der sozialistischen Tschechoslowakei, damals
geflüchtet nach Westdeutschland und seitdem lebe ich in Bayern. Westdeutschland
und seitdem lebe ich in Bayern. Und in München habe ich dann irgendwie das
hingekriegt, dass ich einen Studienplatz und ein Stipendium bekommen habe an der TU
München und habe dort dann studiert. Aber ich habe Chemie studiert und das hat mich
immer von dem Praktischen in die Theorie getrieben und dann habe ich schon in
meinem Wahlpflichtkurs damals nach dem Vordiplom Quantenmechanik gemacht und
dann spät habe ich mich immer mehr mit bioinformatischen Themen, so in
Diplomarbeit, theoretische Molekularbiologie und wie man Kodierung in den DNA
Strängen macht, wie man da die Schenonsche Informationstheorie einsetzt und wie der
genetische Code letzten Endes entstanden ist. Und es waren schon gute theoretische
Voraussetzungen für die spätere Arbeit mit der künstlichen Intelligenz, zuerst die
Informationstheorie, dann Mathematik, lineare Algebra, Funktionsanalyse, aber auch
Statistik, Wahrscheinlichkeit, selbstverständlich. Also statistische Wahrscheinlichkeit,
selbstverständlich. Erst aber nach 2012, als ich irgendwie diese Revolution in KI, haben
ein paar Leute, KI-Experten damals mit dem Sieg des AlexNet bei der ImageNet
Challenge, weil dieses Bilderkennungsmodell dann extrem die Bilderkennung von, also
die klassischen Modelle, die regelbasierten Programme in den Schatten gestellt hat und
15 Prozent die Quote verbessert in der Bilderkennung. Da hat, glaube ich, die SEDOL
geschlagen hat. 2016 wurde Google Neural Machine Translation, der Google-Übersetzer
auf neuronaler Basis, eingeführt. Und nun, jetzt haben wir seit dem letzten Jahr wirklich
den Vollstress, da explodiert es nahezu. Zuerst kam das mit dem Text-zu-Bild-Modell an
DALI 2. Aber auf jeden Fall kam im November 2023, Ende November, ChachyPT und es
hat sich nochmal alles beschleunigt mit Sprachmodellen. Jetzt haben wir auch
ChachyPT, die ChachyPT-User-Interface, haben wir ein multimodales Sprachmodell, das
nicht nur Texte generieren und analysieren kann, sondern auch Bilder generieren,
analysieren kann. Die ChachyPT-Vision haben wir. Wir haben Gemini jetzt oder Gemini
kann man vielleicht bezeichnen, das Google-Multimodale, Google-Sprachmodell, den
Chatbot Bart und alles Mögliche. Und diese Sachen sind extrem schnell weiter in der
Entwicklung und werden weiterentwickelt. Die Sachen ändern sich, zum Beispiel Chat
GPT wird feiner angepasst ständig und dann ändern sich auch die Regeln, wie wir mit
diesen Chatbots kommunizieren.
00:07:13
SPEAKER_01
Ja, wunderbar. Jetzt hast du ja schon einmal den kompletten Rundumschlag gemacht
von den Grundlagen oder von den Erkenntnissen bis hin zu den aktuellen
Anwendungsdisziplinen. Zum Thema Chat-GPT und Bildung haben wir auch schon ganz,
ganz interessante Gespräche geführt, gerade weil natürlich auch in der
Hochschuleinschaft sich das Thema Chat-GPT auch ein ganz, ganz wichtiger Punkt ist
und da natürlich auch viel auch mit dem Tool oder mit den hinterliegenden Modellen
auch gearbeitet wird und was ja auch aus meiner Sicht vernünftig ist, dass man sich mit
Themen auseinandersetzt und die auch integriert. Wenn ich dich so höre über das, was
du auch gemacht hast, wie dein Studium abgeschlossen ist, dann kann man ja
eigentlich sagen, dass du dich selber eigentlich schon, dass ich bei dir eigentlich schon
ab der Zeit an der TU München eigentlich bei dir so in den 90ern alles um das Thema
Neuronen dreht. Das stimmt irgendwie schon. Also ich habe schon sehr früh,
00:07:55
SPEAKER_02
ich habe schon sehr früh, ich habe schon mit vier Jahren eigentlich lesen gelernt. Und
dann habe ich wahnsinnig viel gelesen. Meine Mutter sagte immer, du weißt von allem
ein bisschen, aber zusammen nichts. Weil ich wirklich von jedem Gebiet was gelesen
habe. Und so war das auch an der TU München, dass ich wahnsinnig viele Paper und
wahnsinnig viele Artikel immer gelesen habe und versuchte da irgendwie einen Weg zu
f
inden, den ich dann nehmen könnte, wo ich etwas theoretisch arbeiten könnte. Also
das ist wesentlich, glaube ich, auch für einen Theoretiker, sich wahnsinnig viel Stoff
anzulesen oder die ganzen experimentellen Befunde zu erfahren, zu lesen, sich dazu zu
informieren und dann selber Theorien zu entwickeln. So ist es mir auch am Anfang der
90er, als ich dann meine Diplomarbeit machen wollte am Lehrstuhl für Theoretische
Chemie. Ich musste im Bereich der Chemie ein bisschen bleiben. Und dann dachte ich
mir, also Molekularbiologie und die großen Moleküle und so weiter, also wahnsinnig viel
Theorie. Dabei, man kann da auch die Informationstheorie einsetzen. Und dann habe
ich irgendwie so eine Idee gehabt, dass bei dem gekoppelten DNA-Strang, ich versuche
das jetzt irgendwie möglichst einfach zu sagen, wir haben da 64 von diesen Triplets mit
diesen Basen, die in 20 Aminosäuren übersetzt werden. Und da dachte ich mir, da geht
wahnsinnig viel Informationen verloren, weil ich aus 64 Buchstaben oder Wörtern
plötzlich 20 Buchstaben oder Wörter habe. Und wo ist der Rest? Und dann dachte ich
mir, das könnte für die Kodierung von Proteinen von etwas auf dem anderen Strang
genutzt werden. Und daran habe ich die ganzen neun Jahre gearbeitet und Paper
geschrieben usw. Es war sehr ergiebig. Und es war interessant, also der Vergleich
zwischen der praktischen und der theoretischen Arbeit. Ich habe da einen Kollegen, der
mitgearbeitet hat, war theoretischer Physiker, eigentlich recht guter Programmierer. Ich
war immer ein schlechter Programmierer, muss ich sagen. Und dann hat er mich aber
gefragt, Jaro, was machen wir eigentlich? Und ich habe immer tausend Ideen, was man
machen könnte, aber bei mir hat es dann monatelang gedauert, bis ich das in einem
Computerprogramm umgesetzt habe. Und der hat dann meine Idee aufgegriffen und
innerhalb von zwei, drei Tagen ein super Computerprogramm geschrieben, das wirklich
sofort funktioniert. Also ich habe von ihm wahnsinnig profitiert und er hat von mir dann
profitiert, weil ich die Ideen lieferf. Und dann jetzt noch dazu etwas gesagt, alsoetische
Bäume in der Chemie schon etwas, also wie sich die Evolution entwickelt hat, die
Tierklassen, die Tierarten entwickelt haben und so weiter. Ein anderer Kollege, Marc
Denis Weitzer, der ist jetzt bei der Deutschen Akademie der Technikwissenschaften, hat
damals bei uns tatsächlich in den 90ern über neuronale Netze promoviert. Das war
damals esoterisch, wirklich. Da hat Jan Le Cun, glaube ich, in einem Interview erzählt,
berühmt Erfinder und Entdecker, Entwickler von konvolutionalen neuronalen Netzen,
hat berichtet, dass Geoffrey Hinton, ein anderer Deep Learning Pionier in den 90er
Jahren, ein anderer Deep Learning Pionier in den 90er Jahren einen Artikel
veröffentlichten Worte und musste aus dem Titel das Wort Neuron löschen, wegbringen,
weil das die Menschen nicht akzeptieren wollten, dass man mit Neuronen arbeitet. Und
da waren wirklich in den 90er Jahren ein paar Gerechte da auf der deutschsprachigen
Seite, der Herr Schmidhuber, also Daniel Lecun, Joshua Bengio und John Schofre
Hinton, aber ansonsten nicht viele Menschen da unterwegs. Das hat sich wirklich nach
2012 rapid geändert, als diese ganzen Plattformen angefangen, wie Google angefangen
haben, die Leute zu sich zu ziehen. Aber zurück jetzt zu dieser Sache mit Mark, habe ich
seit wahrscheinlich einem Jahr schon diskutiert und deswegen habe ich ein bisschen
schon was gewusst über künstliche Neuronen. Mit 30 Neuronen, glaube ich, gearbeitet
und hat ein paar Wochen gebraucht, bis er am Leibniz-Rechenzentrum ein Programm
jetzt irgendwie laufen zu Ende hat laufen lassen. Es waren damals skurrile Zeiten, aber
mich hat tatsächlich das Ding, das ich damals machte und die Mathematik dahinter
extrem interessiert, Informationstheorie in der theoretischen Molekularbiologie
einzusetzen. Damals schon Ende 90er oder Anfang 2000er, als Spektrum der
Wissenschaft dann diese Zeitschrift Gehirn und Geist rausbracht, habe ich das
abonniert und immer begeistert gelesen über die Gehirnforschung, obwohl ich jetzt
konnte ich mich da schon auch ein bisschen mehr interessieren, weil ich dann seit 2000
freiberuflich war. Also ich war wirklich als Schriftsteller dann eher am Anfang und
Bühnenperformer unterwegs und mit der Zeit habe ich dann nach 2012 künstliche
Intelligenz dazugenommen, aber in dieser ganzen Zeit noch über Gehirnforschung und
Neuärgen, das hat er gelesen. gut Propheten kommen halt und sagen, oder diese AI
Douman kommen und uns erzählen, wie wir jetzt von der Künstlichen Intelligenz
verdichtet werden, dann frage ich mich immer, was kann unser Gehirn, was kann unser
Gehirn nicht und wie unterscheidet sich Künstliche Intelligenz?
00:13:37
SPEAKER_01
Sehr, sehr spannend. Also da hast du schon sehr, sehr viel Erfahrung im ganzen Bereich
gemacht. Vielleicht kannst du noch einen Punkt an der Stelle nochmal ganz kurz
vielleicht für uns einmal definieren oder kurz dein Wort zusammenzufassen, weil du es
vorher nochmal erwähnt hattest, was du unter konvolutionalen neuronalen Netzen
verstehst.
00:13:52
SPEAKER_02
Ja, wir haben schon seit den theoretischen Anfängen der künstlichen
Intelligenzforschung in den 50er Jahren, das war damals 1956 mit dieser berühmten
Dartmouth College Conference oder mit diesem Sommercamp angefangen von John
McCarthy, der damals den Begriff künstliche Intelligenz auchorschung. Das erste
Flaggschiff war Sprachverarbeitung, die maschinelle Verarbeitung der natürlichen
Sprache hat schon mit Alan Turing 1950 mit seinem berühmten KI-Paper angefangen
damals. Und das zweite Flaggschiff war eigentlich Bilderkennung, also Computervision.
Und erstaunlicherweise, obwohl dieser lange Weg dann mit der Sprachverarbeitung
angefangen hat, hat man die ersten Erfolge eigentlich in derustererkennung in unserem
visuellen System, die konvolutionalen neuronalen Netze entwickelt, die dann wirklich
diese alten Feed-Forward-Netze oder vollvernetzten Modelle weiterbrachten, weil sie
dann zum großen Teil verschiebungsinvariant waren. Das heißt also, bei den alten
Modellen, bei den Feed-Forward-Netzen, bei den vollvernetzten Modellen, war eine
Birne in der Ecke des Bildes ein anderes Objekt als eine Birne in der Mitte des Bildes.
Und das versuchte man zu beheben. Und deswegen hat Jan Le Cunha auch künstliche,
konvolutionale neuronale Netze entwickelt, wo wirklich dann einzelne kleine Bildstücke
gescannt wurden. Und deswegen konnte man die Merkmale, die Bildmerkmale, einzelne
Bildmerkmale sich erschließen und dann klassifizieren, wie Objekte bestimmen. Und
das war ein großer Erfolg. Und ein noch größerer Erfolg kam dann tatsächlich 2012 bei
diesem Image, bei dieser ImageNet Challenge. Da haben die Leute schon zehn Jahre
zuvor angefangen, in der künstlichen Intelligenz GPUs, also Grafikkarten zu verwenden,
haben die den Gamern quasi genommen, haben damit angefangen, parallel künstliche
neuronale Netze zu rechnen, weil es für parallele zu rechnen, Matrizenrechnungen weil
es für parallele Matrizenrechnungen extrem extrem geeignet geeignet ist ist. und dann
konnten die zum ersten Mal wirklich in der Geschichte der Computer auch so riesen
Modelle, die an sehr großen Trainingsdaten trainiert wurden, rechnen und es hat sich
dann gelohnt. Es hat einen enormen Sprung gegeben, nur durch die Möglichkeit, dass
wir jetzt mit den GPUs künstliche neuronale Netze rechnen konnten. Also nochmal
gesagt, zusammenfassend, konvolutionale neuronale Netze sind die Modelle der
Bilderkennung schlechthin. Und in der neuen Zeit, seit 2017, gibt es die Revolution der
Sprachverarbeitung, die kam erst nach dieser Revolution in der Bilderkennung 2012,
weil die Transformer-Modelle mit dem Attention-Mechanismus von Google-Forschern
2017 entwickelt wurden. Und jetzt haben wir die ganze Bescherung mit diesen
Sprachmodellen. Also das Interessante daran ist, dass die künstliche Intelligenz, die
Entwicklung, Forschung eigentlich mit der Bilderkennung, mit der Sprachverarbeitung
anfing, dann aber viel schneller Bilderkennung entwickelt wurde und diese Verv alle
Unternehmen jetzt natürlich auch aufrüsten und
00:17:39
SPEAKER_01
natürlich auch aufrüsten und im Hintergrund natürlich auch die Technik jetzt
bereitstellen und die Infrastruktur bereitstellen, dass die ganzen Modelle auch
entsprechend arbeiten können. Wir sehen ja, was allein so ein Sprachbefehl, eine
Eingabeverarbeitung, was das allein jetzt schon für Kosten natürlich auch verursacht,
wenn man das mal auf die Rechnerinfrastruktur auch mal hochrechnet dahinter. Das ist
schon Wahnsinn. Lieber bist du ja auch nicht Jaromir, nur zum Beispiel als Dozent
sondern darüber aktiv, du bist ja selber hinaus, auch Das du betreibst Autor. selber
heißt, einen Gehirn und Du Blog, hast KI, ein Buch geschrieben KI. in 2020 und du
betreibst mit der SRH zusammen einen YouTube-Channel und veröffentlichst da unter
der Rubrik KI-Krimis immer ganz spannende ganz, Da würde mich nochmal Themen.
interessieren, was sind das einerseits, für spannende die wir da oder die Themen,
unsere Zuhörer und Zuhörer sich da anhören können oder auch lesen können und B, wie
schaffst du das eigentlich noch alles? Du bist Dozent, du bist Autor, du bist Blogger, du
gehst auf Tourneen, du bist Poetry Slammer, also wie schaffst du das, das alles da mal
umzusetzen? Ich habe da auch
00:19:01
SPEAKER_02
habe da auch etwa, ich will jetzt nicht jammern, aber etwas Pech mit den ganzen
Büchern hatte ich schon, weil, also ist das intelligent oder kann das weg? Ist kurz vor der
Pandemie erschienen, also die ganzen Buchhandlungen geschlossen waren und ich, die
Bücher, normalerweise verkaufen sich meine Bücher, indem ich auf Lesetour gehe und
Auftritte mache und sie promoten, da ging gar nichts. Und das Schlimmste war, ich habe
tatsächlich noch so eine Kinderkrimi-Reihe mit künstlicher Intelligenz und Robotern,
Datendetektive geschrieben. Bei Tesla erscheint immer noch die ersten fünf Bände, sind
aber alle während der Pandemie erschienen. Und wir dachten uns damals, das ist eine
riesen Marktlücke, weil es gibt lauter Fantasy- Bücher und Vampir-Romane und Vampir
Liebesgeschichten. Und jetzt komme ich mit Handfest. Kinderkrimis halt, wo es wirklich
viel um künstliche Intelligenz geht. Und ich habe schon vor drei, vier Jahren Deepfakes
mit Videofälschung und so weiter, was damals überhaupt keiner kannte. Aber leider kam
die Pandemie und hat unsere Träume kaputt gemacht. Also damals habe ich das Gefühl
dass ich zwei Jahre lang fünf Bücher fast gehabt, umsonst geschrieben habe. Das ganze
Buchleben ist extrem schnelllebig. Also ein das älter als drei Monate Buch, wenn es
nicht einen besseren ist, Status irgendwie bekommen dann ist es weg. hat, Zu deiner
Frage, wie ich das schaffe, ich schaffe das auch nicht. Ich versuche Sachen manchmal
verzweifelt zu Ende zu bringen, die ich zu Ende bringen muss, um die Termine
einzuhalten. Aber es geht einigermaßen. Ich muss sagen, ich mache wirklich zweimal
bis manchmal dreimal am Tag Sport. Und dazu gehört auch das Jonglieren, aber auch
Joggen zum See und Baden dort kalt und Kung-Fu und alles Mögliche. Und ich glaube,
das ist das Einzige, was mir erlaubt, jetzt richtig weiterzulernen, weiter etwas zu
machen. Also ich weiß, ich vergesse nie die Geschichte, als wir für unsere
Diplomprüfung damals gelernt haben. Ich hatte einen Freund, der hat wirklich zehn
Stunden am Tag gelernt. Und ich habe ihm immer gesagt, du, Ralf, vergiss das. Du
kannst nicht mehr aufnehmen. Und ich beobachte dich, wie du lernst. Du schaust aus
dem Fenster dann stundenlang und dann gehst du wieder zum Buch. Man kann, glaube
ich, nur vier Stunden reiner Zeit etwas aufnehmen und dann kannst du dich aufs Kino
freuen oder auf ein bisschen Sport, Fußball oder was auch immer. Auf Leute. Deswegen
habe ich mir immer den Wecker oder Stoppuhr dargestellt. Und wenn ich zum Beispiel
auf die Toilette oder zum Kaffee kochen gelaufen bin, immer, habe ich das gestoppt und
dann habe ich mir reiner Zeit des Lernens vier Stunden gemessen. Und wenn vier
Stunden vorbei waren, habe ich Schluss gemacht. Und ich habe dann also sehr gute
Worte nach dem Diplom der Rat. Der Kollege hat lauter Vierer vorbei waren und gehabt.
haben Schluss Und ich habe dann gemacht. also sehr gute Worte nach Diplom der Rat
der Kollege Herr Lauda Fira gehabt. Also ich denke mir schon, dass man wirklich den
Ausgleich braucht, wenn man studiert. Wenn man geistig arbeitet, braucht man diesen
körperlichen Ausgleich, sonst geht es nicht. Oder man kriegt Depressionen und alles
Mögliche. Man muss wirklich fit da sein und gut denken können. Und da hilft die
Bewegung. Weil das Interessante, wenn man sich mit der Gehirnforschung beschäftigt,
dann weiß man, dass alle Gehirnzentren wurden zuerst in Hinsicht auf die Motorik
entwickelt. Wenn wir zum Beispiel schauen, dann haben wir tausende verschiedene
Augenbewegungen halt ständig. Wenn wir hören, drehen wir den Kopf und alles
Mögliche. Und das ist alles zusammengekoppelt. Und dann hat sich zum Beispiel
herausgestellt, bei den Jongleuren, bei Tänzerinnen zum Beispiel, dass wenn man sehr
komplizierte Bewegungen ständig ausführt, kann man sogar die Gehirnmasse weiter
wachsen lassen, was früher im Erwachsenenalter als unmöglich galt. Also nicht nur
vernetzen, die Synapsen und so weiter ausbauen, Neuronen vernetzen, sondern so im
Hippocampus vor allem auch neue Neuronen wachsen lassen. Nun, Hippocampus ist
wieder der Teil, der durch Alzheimer usw. zuerst geschädigt wird. Das hängt irgendwie
alles zusammen. Bewegung ist extrem wichtig. Man würde sagen, mein Gott, als ich
trainiere, mein Gehirn, indem ich Sudokus oder mathematische Aufgaben löse, aber so
ist es nicht. Man trainiert wahrscheinlich mit dem Jondieren oder Tanzen das Gehirn viel
besser.
00:23:23
SPEAKER_01
Sehr, sehr interessant. Jetzt haben wir alle auch etwas gleich über Langlebigkeit gehört
und wie man auch fit bleibt oder wie das Gehirn auch fit bleibt. Du sprachst gerade noch
davon, von Studierenden und auch der Zeit, wie man in seinem Studium die Zeit zum
Lernen effektiv auch nutzen kann. Jetzt sind ja natürlich das letzte Jahr, letzten halben
Jahre, die GPT-Modelle auch alle über uns gerollt und viele Studierende setzen natürlich
auch Chat-GPT und Google-Bad und so weiter ja auch ein. Wie siehst du da die
Entwicklung? Sind diese Systeme gut zur Unterstützung oder führen sie auf der anderen
Seite vielleicht dazu, dass man selber gar nicht mehr den Anspruch hat, selber zu
denken? Wie sollten Studierende zum Beispiel etwas wie Chachapiti einsetzen?
00:24:07
SPEAKER_02
Ohne Wenn und Aber einsetzen, aber selbstverständlich. Wenn ich dann will, meine
Fallstudie von Chachapiti schreiben zu lassen, dann kriege ich einen Fünfer. Das
Problem ist, dass die Studierenden, die früher gute Arbeiten ohne Chachapiti abgegeben
haben, geben auch mit Chachapiti weiterhin gute Arbeiten ohne Chachipiti abgegeben
haben, geben auch mit Chachipiti weiterhin gute Arbeiten ab. Und die Studierenden, die
früher schlechte Arbeiten abgegeben haben, geben auch mit Hilfe von Chachipiti
schlechte Arbeiten ab. Also ich denke mir, dass diese Arbeit mit den Sprachmodellen,
mit Chachipiti konkret zum Beispiel, eine extreme Chance ist, unser Denken über die
Sprache weiterzuentwickeln. Also ich kenne wahnsinnig viele Leute, die dann sagen, ja,
Romer, ich habe da einen halben Tag damit gespielt und das redet nur Blödsinn, weißt
du, das kann ich gar nicht verwenden. Also das Problem ist, dass bei diesen
Sprachmodellen nie die Modelle schuld sind. Meistens nie die Modelle schuld sind, sie
haben selbstverständlich ihre Grenzen. Aber wir müssen lernen, unsere Sprache, unsere
Kommunikation den Modellen anzupassen. Und dabei ist wahnsinnig viel Denken. Ich
entwickle jetzt das CGPD-Zertifikat für unsere SRH Fernhochschule und ich merke, wie
ich ständig wirklich rackern muss und arbeiten muss, um irgendwie gute Prompt zu
erstellen. Und dabei überlege ich mir dann, warum ist das gut? Warum diese Art der
Kommunikation jetzt funktioniert? Warum ist das besser als das andere? Ich arbeite so
intensiv mit meiner Sprache, wie ich noch nie mit der Sprache gearbeitet habe. Und ich
mache mir auch viele Gedanken dadurch über die menschliche Kommunikation. Was
wir alles erreichen, weil wir Körpersprache haben, weil wir einen Menschen uns
gegenüber haben, mit dem gesunden Menschenverstand, der abduktiv denken kann,
aufgrund seiner eigenen Erfahrung. Und ich würde den Studierenden selbstverständlich
sagen, schaut euch die Paper an, aber arbeitet. Lernt die Regeln von den Leuten, die
damit schon ein bisschen gearbeitet haben, damit ihr nicht so viel Zeit verlieren müsst.
Aber am besten lernt ihr durch Doing. Also wenn ihr damit arbeitet, wenn ihr probiert,
wenn ihr eure Prompts versucht zu verbessern, zu optimieren, wenn ihr dann Chat-GPT
fragt, ja, wie hätte ich das sonst schreiben sollen und so weiter und so fort. Also die
direkte Arbeit ist auch beim Programmieren so oder bei dem Verstehen von künstlichen
neuronalen Netzen. Ich habe wahnsinnig viel Paper gelesen früher, aber erst wenn ich
dann anfing, wirklich mir selber Modelle zu entwickeln, KI-Modelle zu entwickeln,
neuronale Modelle zu entwickeln, handgeschriebene Ziffern zu erschließen oder Hunde
von Katzen zu erkennen, kennenzulernen und so weiter. Erst dann habe ich die Modelle
wirklich richtig verstanden, wie sie arbeiten, was dahinter ist, weil bis dahin ist das alles
abstrakt. Also Theorie ist sehr gut, selbstverständlich, man braucht es, aber wenn man
Theorie und Praxis verbindet, erreicht man am meisten.
00:25:34
nie mit
00:27:02
SPEAKER_00
SPEAKER_01
Du bist ja auch zusammen mit der SPIEGEL Akademie aktiv und lehrst ja auch für Fach-
und Führungskräfte. Was ist denn so der wesentlichste Unterschied zwischen dem
Lehren, dem Vermitteln von KI-Themen für Studierende und auf der anderen Seite für
Fach- und Führungskräfte? Gibt es da einen unterschiedlichen Output? Oder sagst du,
es ist eigentlich der gleiche Content, den du da auch lernen musst?
00:27:24
SPEAKER_02
Ich denke, es ist eher das Zweite, weil wir sind eine Fernhochschule und wir haben
schon auch, eigentlich die meisten Studierenden bei uns sind, haben schon einen
Berufsprozess teilweise hinter sich und das ist an der Spiegelakademie eigentlich
ähnlich. Also es sind wahrscheinlich die an der Spiegelakademie sind die Leute
nochmal viel interessierierter, weil es ihnen wirklich nur um die Sache geht. Sie sind
nicht dadurch beschränkt, dass sie ein Zeugnis brauchen oder eine Bachelor-Thesis
oder eine Master-Thesis abgeben müssen. Das ist alles in Ordnung, richtig, aber die
Studierenden sind dafür wirklich durch ihre Abgaben auch eingegrenzt. Und bei der
Spiegelakademie sind die Menschen, die kriegen das Zertifikats, als Verständnis und so
weiter. Aber in diesem Sinne sind die nicht durch andere Termine begrenzt oder
beschränkt und können sich nur auf diese Sache konzentrieren.
00:28:18
SPEAKER_01
Jetzt haben wir eine ganz gute Reise auch gemacht von deinen fast Kindheitsschuhen,
würde ich schon versprechen, ein bisschen zu den aktuellen Entwicklungen, was sich
gerade so in den GPT-Modellen auch widerspiegelt. Und ja, zum Abschluss hatten wir
heute für das Staffelfinale überlegt, dass wir das ein wenig anders machen. Lieber
Jaromir, du bist nämlich ja auch Poetry Slammer und AI-Speaker und da haben wir uns
überlegt, als kleine Surprise am Ende, dass du hier für unser Publikum, für unsere
Zuhörer, einen kurzen Ausschnitt, einen deiner Poetry Slams am Live nochmal kundtun.
00:28:50
SPEAKER_02
Also es ist kein Poetry Slam, sondern weil wir jetzt über künstliche Intelligenz sprechen,
ist das eher so ein Stück, den ich, dass ich auf Science Slams vortrage, also oder ich
benenne das Kai Stent AbUp und es geht jetzt um Superintelligenz. Was
Superintelligente, Gespenst. Ein Gespenst geht um in der Welt, das Gespenst der
Superintelligenz. Von Superintelligenz-Katastrophisten wie dem Philosophen Nick
Bostrom. Nach Nick Bostrom baut der Mensch bald eine Superintelligenz, die schlauer
ist als Einstein, sogar schlauer als Donald Trump. Und plötzlich schwupp, die
Superintelligenz fängt an, sich selbst zu verbessern und exponentiell immer schlauer zu
werden. Die technologische Singularität wird erreicht und bumm, der Big Bang der
Superintelligenz. Könnt ihr euch das vorstellen? In einer Stunde exponentielles
Intelligenzwachstum. In einer Stunde seid ihr zweimal schlauer als jetzt. In zwei Stunden
viermal. In drei Stunden achtmal. In vier Stunden 16 mal. Mittags planst du etwas für
den Abend ein und am Abend denkst du, was habe ich mir bei der Planung gedacht? Ich
Vollidiot. Du gehst aufs Klo und bis du dort ankommst, hast du dich so weit entwickelt,
dass du nicht mehr musst. Wäre eine solche Superintelligenz zu entwickeln, deren
einziges Ziel es ist, etwas völlig Beliebiges wie Büroklammer zu erzeugen und die sich
jedem Versuch widersetzen würde, dieses Ziel zu ändern. Eine solche Superintelligenz
würde bald die ganze Erde mit Büroklammerfabriken überschwemmen und dann große
Teile des Weltalls. Die ganze Erde aber mit Büroklammerfabriken zu überschwemmen,
dann große Teile des Weltalls. Die ganze Erde aber mit Büroklammerfabrik zu
überschwemmen, ist nicht superintelligent. Das ist superblöd. Solche Sachen macht
nur ein Programm, das auf diese einzige Aufgabe, Büroklammern herzustellen, optimiert
wurde. Ein solches Programm schaltet man einfach aus, wenn es Blödsinn tut, als über
Superintelligenz zu schwadronieren. Schon vor über 30 Jahren wurden die
grundlegenden Algorithmen für künstliche Neuronalen entwickelt, die den heutigen
Hype in der künstlichen Intelligenz ausmachen. Warum haben aber noch vor zehn
Jahren unsere Bilderkennungsprogramme nicht ein Nilpferd von einem Affen
unterscheiden können, weil unsere Rechner mit diesen großen Programmen und mit
den vielen Daten, die sie zum Training brauchen, nicht rechnen konnten. Dafür mussten
erst leistungsstärkere Rechner entwickelt werden. Wenn aber unsere Rechner in ihrer
Leistung unseren Programmen, unseren Algorithmen immer nah hinken, wie soll sich
auf ihnen plötzlich eine krasse Superintelligenz entwickeln? Das wäre, wie wenn du die
nicht-linearen Gravitationsgleichungen der allgemeinen Relativitätstheorie mit einem
Rechenschieber rechnen möchtest oder einen Elefanten mit einem Kesha
Verschmetterling gefangen. Trotzdem machen uns die Medien ständig Angst vor
künstlicher Intelligenz, als ob es nicht viel schlimmere Gefahren für die Menschheit
geben würde. Terror, Krieg, Krankheiten, den Klimawandel, Mario Barth, beherrschen
Roboter bald die Weltschlagzeile des Weekend Magazin in Wien. Dar schon, dass bald
Staubsauger in Österreich die Macht übernehmen würden. Danach könnte man ein paar
Staubsauger über die Grenze nach Ungarn schmeißen. Leider fabulierte der Autor
weiter. Ging der Mensch zu weit? Hat er recht? Sind wir bei den Staubsaugern zu weit
gegangen? Egal. Mir wäre ein Staubsauger als Präsident sowieso viel lieber als Donald
Trump. Eine Maschine sagt nicht in New York Schneids wie verrückt, wir brauchen eine
globale Erwärmung. Eine Maschine behauptet nicht, man müsste Frauen wie Scheiße
behandeln. Solche Sachen tut eine Maschine nur dann, wenn der Mensch ihr diese
Sachen beigebracht hat. Wenn der Mensch die Maschine mit einem nicht neutralen
Datensatz trainiert hat. Als zum Beispiel der Chatbot Ty von Microsoft an Kommentaren
von jungen Menschen trainiert werden sollte, wie junge Menschen heutzutage sprechen.
Und dass bei Twitter dem Chatbot der Stecker gezogen werden musste, als er
Kommentare der Twitter-Trolle abließ, wie Hitler würde einen besseren Job machen als
die Affen, die wir jetzt haben. Die Medien verfielen in Panik. Künstliche Intelligenz sei
rassistisch. Was sollte der arme Chatbot aber machen? Man wollte ihm beibringen, wie
Idioten bei Twitter zu sprechen. Dann wunderte man sich, dass er wie Idioten bei Twitter
sprach. Bei der Studie in Israel stellte sich heraus, dass Richter vor dem Essen viel
härtere Urteile fielen als nach dem Essen. Ein hungriger Richter und der Kopf ab beim
Angeklagten. Würde da eine Maschine nicht viel neutraler entscheiden? Eine Maschine
hat keinen Blutzuckerspiegel. Eine Maschine ist nicht depressiv oder sexuell
unbefriedigt. Ob jemand schwarz oder weiss ist, quadratisch oder langgezogen, ein
Mann, eine Frau oder etwas dazwischen, das ist einer Maschine Wurscht. Unsere
revolutionären künstlichen Intelligenzprogramme sind künstliche, normale Netze.
Statistische Optimierungsverfahren, Programme, Computerprogramme mit zusammen
verbundenen Punkten, die Verbindungen zwischen den Punkten werden während des
Trainings des Modells mit Hilfe von Mathematik schrittweise gestärkt bzw. geschwächt,
bis das Modell endlich eine optimale Antwort auf seine Aufgabe liefert. Die einzige
Antwort, die es geben kann. Ein solches Programm kann an Millionen
Wohnzimmerbildern trainiert, besser als jeder Mensch jeden Gegenstand auf einem
Wohnzimmerfoto erkennen. Wenn man aber in das Wohnzimmerfoto etwas
Ungewöhnliches kopiert, was in einem Wohnzimmer nichts zu tun hat, etwas, ist das
Programm davon so verwirrt, dass es nicht einmal die Oma auf dem Sofa von dem
Fernsehgerät unterscheiden kann. Wie soll uns ein solches Programm beherrschen?
Das Problem ist doch dass nicht, uns bald künstliche uns ein solches Programm
beherrschen? Das Problem ist doch nicht, dass uns bald künstliche
Intelligenzprogramme beherrschen. Das Problem ist, dass uns schon jetzt Firmen und
Regierungen mit künstlichen Intelligenzprogrammen kontrollieren, manipulieren und
beherrschen können. Die KI-Bilderkennung, Bildererkennung mit künstlichen
neuronalen Netzen ist mittlerweile besser als Menschgesichter erkennen kann. Überall
in China werden Kameras aufgestellt. Eine berühmte chinesische Managerin wurde auf
einem öffentlichen Bildschirm angeprangert, weil sie verbotenerweise über eine Straße
gegangen ist. Dabei war sie gar nicht in der Stadt. Die Kamera hat sie auf einem Poster
gefüllt, das an einem vorbeifahrenden Bus angebracht war. Ja, ist das super intelligent?
Dabei fällt mir ein, weil manche Affenarten sich auf allen Vieren hintereinander
bewegen, erkennen sie sich an ihren Hintern genauso gut wie wir uns Menschen an
unserem Gesicht. Was müsste die chinesische Regierung alles machen lassen, wenn
die Menschheit nicht den aufrechten Gang entwickelt hätte? Wer in künstlicher
Intelligenz in Führung gehe, werde die Welt beherrschen, sagte mal Wladimir Putin. So
krank sind diese Typen. Sie denken nur, wer, wen und wie beherrschen sollte. Wir
müssen aber keinen beherrschen. Wir müssen nur überlegen, wie wir die Erde und uns
vor uns selbst retten. Dankeschön.
00:37:10
SPEAKER_01
Lieber Jaromir, herzlichen Dank auch hier nochmal für den kleinen Science-Slam, auch
für uns, für unsere Hörerinnen. Es hat sehr viel Spaß gemacht und damit verabschiede
ich mich. Bis bald, hören Sie rein, vielleicht bis zur nächsten Staffel. Auf Wiederhören.
Vielleicht bis zur nächsten Staffel. Auf Wiederhören.
00:37:24
SPEAKER_00
Sie hörten die erste Staffel des Podcast-Formats KI Insights.
00:37:33
SPEAKER_00
Moderation Fabian Prof. Behrendt Dr. und David Weigert aus dem AI Tech Labor,
angegliedert an das Projekt Zaki der Hochschule Magdeburg-Stendal. Postproduktion
und technische Betreuung Julia Fritz. Sie sind interessiert am Themenfeld Künstliche
Intelligenz und möchten mehr erfahren? Im Sommersemester 2024 wird KI Insights vom
Team des AIR Social Labors fortgesetzt. Dieses Mal aus Perspektive der Sozial-, Human-
und Geisteswissenschaften. Wir bedanken uns ganz herzlich bei allen HörerInnen und
Beteiligten, die diese Staffel begleitet und ermöglicht haben und freuen uns auf ein
Wiederhören im kommenden Semester.

Weitere Artikel zum Thema