Philosophie des Geistes, Verstehen und Verkörperung

© Jana Dünnhaupt (Uni Magdeburg)

Staffel 2 , Folge 8

Systeme, wie Large Language Models, werfen zunehmend die Frage auf, ob Maschinen menschlichem Denken und Bedeutungsverstehen künftig immer näher kommen werden. Welcher Unterschied jedoch zwischen syntaktischen Regelanwendung und semantischen Verstehen besteht, erläutert in dieser Folge unser Gast Prof. Dr. Eva Schürmann. Sie ist Inhaberin des Lehrstuhls für Philosophische Anthropologie, Kultur- und Technikphilosophie an der Otto-von-Guericke-Universität und befasst sich dort mit den Einflüssen kultureller Praktiken, Techniken und Medien auf unser menschliches Selbstverständnis. Mit unserem Moderator Peter Kann spricht sie über die Natur des Geistes, die Rolle von Intentionalität, Verkörperung und Urteilskraft im Kontext der Frage nach menschlicher und künstlicher Intelligenz.

Moderation: Peter Kann
Schnitt & Text: Julia Fritz
 

Staffel 2, Folge 08 Eva Schürrmann
00:00:00
SPEAKER_01
Willkommen bei KI Insights, ein Podcast vom Projekt ZAKKI an der Hochschule
Magdeburg-Stendal. Hier teilen Expertinnen verschiedenster Disziplinen ihre Einblicke in
die facettenreiche Welt der künstlichen Intelligenz. In der zweiten Staffel erwarten Sie
Beiträge rund um das Thema Mensch und Gesellschaft im Kontext von KI. Moderiert von
Peter Kann, Lena Büscher und Prof. Dr. Sebastian von Enzberg.
00:00:28
SPEAKER_00
Liebe Hörerinnen und Hörer, herzlich willkommen zu einer neuen Folge des KI-Insights
Podcasts, wie immer präsentiert und produziert vom Projekt ZAKKI der Hochschule
Magdeburg-Stendal. Ich bin Peter Kann vom AI Social Lab des ZAKKI-Projekts und freue
mich sehr, heute Frau Prof. Eva Schürrmann von der Otto von Guericke Universität
Magdeburg begrüßen zu dürfen. Hallo Frau Schürrmann. Hallo Herr Kann.
00:00:49
Herr Kahn.
00:00:50
SPEAKER_02
SPEAKER_00
Eva Schürrmann ist seit 2011 Inhaberin des Lehrstuhls für Philosophische
Anthropologie, Kultur und Technikphilosophie am Institut für Philosophie der Otto von
Guericke Universität und befasst sich dort mit Fragen nach dem Menschsein unter den
Bedingungen kultureller Praktiken, Techniken und Medien. Frau Schürrmann, die
Entwicklungen der jüngsten Vergangenheit im Bereich der KI haben die Debatte darum,
inwieweit eine künstliche Intelligenz so etwas wie einen Geist besitzen könnte oder
vielleicht den Ansätzen bereits besitzt, neu entfacht. Vielleicht können wir zu Beginn
kurz die Frage fokussieren, was beschreibt eigentlich der Begriff Geist prinzipiell? Die
Frage ist wirklich
00:01:28
SPEAKER_02
ist wirklich sehr, sehr vordringlich und ist ja ein langer Gegenstand der Philosophie des
Geistes oder der Bewusstseinsphilosophie. Das heißt, Philosophie hat sich immer
schon seit Aristoteles Zeiten, ja De Anima und so weiter, mit der Frage befasst, was
Geist eigentlich ist. Und dabei war, weniger allerdings bei Aristoteles als vielmehr in der
Neuzeit, ein Gegensatz sehr entscheidend, nämlich der Gegensatz von Geist und
Materie. Descartes schreiben wir diesen Dualismus immer zu. Descartes‘ Spezialisten
f
inden dann auch, dass ihm manchmal Unrecht getan wird oder dass er
runtergebrochen wird auf einen allzu zugespitzten Gegensatz. Aber er spricht nun mal
von diesen zwei Substanzen, res extensa, res coitans. Kapazität zurückführen und das
andere ist die Materie und die erforschen wir seit Descartes Zeiten ja sozusagen immer
gründlicher, immer naturwissenschaftlicher, immer kleinteiliger, indem wir das Gehirn
erforschen. Und insofern stellt sich die Frage nach dem Verhältnis von Geist und Materie
heute eher als Frage nach dem Verhältnis von Geist und Gehirn. Wie verhalten sich
physiologische und neurologische Vorgänge zu
00:02:53
SPEAKER_02
Vorgänge zu dem, was wir Ge spielte, aber vielleicht heutzutage noch
erklärungsbedürftiger geworden ist. Jedenfalls sagen einige Leute das, einige
Theoretikerinnen und Theoretiker sprechen da von einer Erklärungslücke zwischen dem,
was Geist aus einer drittpersonalen und eben auch wiederum hirnphysiologischen
Perspektive ist. Also man kann uns ja in den Scanner schieben und dann meinetwegen
feststellen, welche Zonen feuern und aktiv sind und was passiert, wenn wir denken.
Sehr interessant finde ich in dem Zusammenhang auch immer die medizinischen
Forschungen und Erkenntnisse zu hirntypischen Problemen. Ja, was fehlt bei
Demenzkranken? Woran fehlt es? Was kann eventuell sogar medikamentös eingestellt
und kompensiert werden und so? Das beschreibt aber Bewusstsein eben aus dieser
drittpersonalen Perspektive. Und daneben gibt es auch noch die Erstpersonale, die
nennen wir in der Philosophie Qualia, also weil das eine qualitative Perspektive ist
sozusagen. Und qualitativ fühlt es sich eben auch irgendwie an, ein Bewusstsein zu sein
und nicht nur zu haben oder nicht nur ein Gehirn zu haben. Das fühlt sich ja
wahrscheinlich gar nicht so unbedingt an, sondern was wir konkret erleben aus
erstpersonaler Perspektive sind ja nicht feuernde Neuronen oder die Aktivität im
Frontallappen oder so, sondern wir nehmen mentale Prozesse wahr. Und dazwischen
herrscht nach Meinung tatsächlich vieler Leute eine Erklärungslücke, beziehungsweise
um diese Korrelation, diese offensichtliche Zusammenhang und Gleichzeitigkeit von
diesen beiden Aspekten zu erklären, brauchen wir irgendwie immer noch so eine Art
kathesischen Dualismus, auch wenn wir den auf der anderen Seite problematisch
f
inden, weil wir denken, es kann nicht zwei Substanzen geben, sondern das Ganze
müssen Aspekte einer einzigen, natürlich zu erklärenden materiellen Beschaffenheit
sein. natürlich einzigen, zu erklärenden, materiellen Beschaffenheit sein.
00:05:08
SPEAKER_00
Wenn man jetzt darüber dass es diese erstpersonale Erfahrung nachdenkt, gibt, dann
kann man ja vielleicht auch davon dass die nicht nur Menschen zukommt, ausgehen,
sondern möglicherweise besitzen ja auch Tiere zum Beispiel, sowas wie Qualia
Erfahrungen oder ähnliches. Kann man da vielleicht davon
00:05:29
SPEAKER_02
vielleicht davon sprechen, dass auch ein Geist zu einem graduellen Konzept macht,
dass es sozusagen graduelle Abstuf gerade weil Geist nicht irgendwie
übernatürlicherweise vom Himmel fallen kann, sondern aus unserer Natur heraus
erklär- und verstehbar sein muss, es so etwas gibt wie Vorformen des Geistes. In
anderen Zusammenhängen nennt man das auch Proto-Rationalität. Es nimmt eine
gewisse Verschiebung vor, weil Rationalität und Geist ist nicht das Gleiche, aber
sicherlich ist Rationalität sich davon unterscheidet, wir müssen zwar auch laufende
Nahrungsquellen aufsuchen, aber wir können dabei der Unterscheidung folgen, gut oder
besser. in einem menschlichen Sinne, also im menschlichen Sinne und im kulturellen
Sinne nach Gründen fragen, heißt nach normativer Orientierung fragen und nach guten
oder besseren Gründen. Und da ist die Frage, ob andere Lebewesen normativ,
normativitätsfähig sind und normativ orientiert sind. Aber unsere Rationalität ist das
definitiv. Und warum soll es davon nicht graduelle Abstufungen geben? Das wäre ja
vielleicht auch
00:07:08
SPEAKER_00
auch von Interesse sozusagen bei der Frage, inwiefern künstliche Intelligenz zum
Beispiel sowas wie Geist entwickeln könnte oder nicht. Aber man
00:07:16
SPEAKER_02
sieht, wie weit der Weg dahin sein könnte, wenn wir uns eben schon fragen, ob tierische
Lebewesen, denen wir jetzt ohne weiteres ja Gefühle, Schmerzempfindungen, sowas
wie Freude oder Spielen können oder solche Qualitäten zuschreiben würden, wenn wir
an eine Katze denken oder an einen Hund, der sich freut oder der dem Ball hinterher
rennt und so weiter, dann sind das ja alles Qualitäten des Lebendigen oder so, wo es
einem intuitiv jedenfalls nicht schwerfallen würde, eine Graduation zu uns selber zu
erkennen. Während wenn jetzt also Large Language Models uns irgendwelche Fragen
beantworten, gemäß den Informationen, die man ihnen vorher eingespeist hat, scheinen
solche Qualitäten des Lebendigen ja vorderhand erstmal ganz zu fehlen.
00:08:06
SPEAKER_00
Das ist wahr, weil Sie gerade schon auf die Large Language Models eingegangen sind,
die ja auch gerade Anlass sind für verschiedene Überlegungen hinsichtlich der Frage,
inwiefern KI Geist entwickeln könnte. Wenn wir vielleicht nochmal kurz ein bisschen auf
die sozusagen klassische Diskussion dazu schauen und nochmal vielleicht überlegen
inwiefern sozusagen die das Gedankenexperiment wollen, von Alan Turing vielleicht
Überlegungen, auch zu dem Chinese Room Experiment von John Searle verhält. um da
nochmal Vielleicht, rauszukristallisieren, wo ist da eigentlich der Unterschied? Wie sind
da die Positionen?
00:08:46
SPEAKER_02
Das sind wichtige Stichworte. Beide hängen, auch der Turing-Test und das Chinese
Room, hängen vielleicht auch tatsächlich eng zusammen. Ich glaube, es gibt schon
wirklich gute Gründe zu sagen, das sind so Benchmarks, also Meilensteine in der
Argumentation, im Klärungsbemühen der Frage, was passiert mit diesen Large Language
Models, verstehen die uns ein Stück weit? Wie kann man Maschine und Mensch
voneinander unterscheiden? Und Turing, Alan Turing, der Mathematiker, lange vor
Chinese Room, das ist ein Experiment, das auf John Searle zurückgeht, hat den nach
ihm dann später als Turing-Test bezeichnete Idee der Unterscheidung von Mensch und
Maschine formuliert, in den 50er Jahren, glaube ich, wo es eben um die Frage geht,
woran merken wir, ob wir es mit einem Computer zu tun haben oder mit einer Maschine.
Und John Searle ist ein analytischer Philosoph, der in eine ähnliche Richtung gegangen
ist, als er dann darüber nachgedacht hat, also dieses Gedankenexperiment gemacht
hat. Wenn ich als jemand, der nicht chinesisch spricht, in einem Zimmer bin und mit
chinesischen Schriftzeichen gemäß bestimmten Regelverhaltens konfrontiert bin und
weil ich die Regeln, die syntaktischen Regeln beherrsche, kann ich einer Person, die
außerhalb des Zimmers ist, Antworten auf Fragen stellen, die es so aussehen lassen, als
würde ich Chinesisch verstehen. Und dann mit dieser Unterscheidung hat er zunächst
mal klargemacht, dass Verstehen eine Frage von Syntax und Semantik ist. Also dass es
regelbasiertes Verstehen gibt und semantisches Verstehen. Das ist aber inzwischen
auch schon das Experiment. alt, Und man kann sich eben ob diese neueren Large
Language Models fragen, diesen Test sozusagen bestehen. Auf jeden was wir dem
Chinese Room Experiment ist eine Klärung dieser Unterscheidung zwischen Syntax und
wenn es ums Verstehen geht. Fall, verdanken, Semantik, Die Unterscheidung ist sehr
viel älter und Linguisten haben sie ausbuchstabiert. Aber syntaktisches Verstehen ist im
Unterschied zu semantischem Verstehen ein reines, rein regelbasiertes Hantieren
sozusagen mit Zeichen, bedeutungsindifferent. Während Semantik eben das wirklich
bedeutungsgebundene Verstehen ist. Semantisches Verstehen ist sozusagen Verstehen
in einem geisteswissenschaftlichen Sinne, in einem hermeneutischen Sinne, im Sinne
dessen auch, was Gadamer und Heidegger, Hermeneutiker wie diese, die Einbettung in
einen Verstehenshorizont genannt haben. Verstehenshorizont genannt Was wir auch
wenn wir in anderen Kulturen sind, haben. feststellen, wo wir die Gepflogenheiten nicht
so ganz verstehen, dann fehlt es uns auf semantischer Ebene des Amtverstehen
00:11:34
SPEAKER_00
Ebene des Amtverstehen und nicht auf syntaktischer. Jetzt ist ja in letzter Zeit oder
gerade im Kontext von Large Language Models das Argument der Stochastic Parrots
aufgekommen und vielleicht könnte man da auch sagen, dass sich sozusagen die
Regeln auch hinsichtlich des Experiments von SIR oder des Gedankenexperiments von
SIR nur insofern geändert haben, als dass sie eben nicht mehr logische Regelvorgaben
sind, sondern vielleicht statistische Regeln, die dann sozusagen auch wieder die
Sprachverarbeitung anleiten, ohne eine tatsächliche semantische Fundierung zu
erlauben.
00:12:08
SPEAKER_02
Absolut, absolut. Also ich denke, dafür spricht sehr vieles für so eine Lesart, dass wir
uns bei der KI mit einer Art stochastischen Parrots, also Papageien, die gewissermaßen
gemäß bestimmter mathematischer, algorithmischer Wahrscheinlichkeitsoperationen
im Prinzip wie Papageien plappernd, nachplappernd reagieren können. Aber man muss
natürlich zugeben, dass auch da wieder aus qualitativer Erfahrungsperspektive sich
manchmal anders anfühlt. Wenn man eben den Chatbot alle möglichen interessanten
Dinge fragen kann und dann kommen durchaus bemerkenswerte und interessante
Antworten dabei raus, dann hat man mindestens mal subjektiv und in der
Erfahrungsperspektive den Eindruck, man hätte es mit jemandem zu tun, der sehr viel
weiß. Aber ich glaube in der Tat auf technischer Ebene und auf der Ebene dessen, wie,
man muss ja auch sagen, wir Menschen bislang, die künstliche Intelligenzen
programmiert haben, sind das Papageien, die gemäß ihrer algorithmischen Inputs etwas
reproduzieren, wie Papageien, vielleicht eben ohne diesen Verstehenshorizont zu
haben, ohne wirkliche semantische Perspektiven einzunehmen, übrigens auch ohne
intentionale Perspektiven einzunehmen. Innerhalb der Philosophie des Geistes ist diese
übrigens auch ohne intentionale Perspektiven einzunehmen. Qualia-Debatte, Innerhalb
der Philosophie des Geistes ist diese Qualia-Debatte, also die Frage nach der
Unterscheidung von erstpersonaler und drittpersonaler Selbstbeschreibung
gewissermaßen, genauso grundlegend wie die Eigenschaft der Intentionalität. Die
Intentionalität meint in der philosophischen Tradition, anders als im
umgangssprachlichen, nicht in erster Linie Absichtlichkeit, sondern eine Gerichtetheit
des Bewusstseins. Das heißt, Bewusstsein ist dadurch gekennzeichnet, dass es über
etwas ist und auf etwas ist, auf das es sich richtet. Es ist niemals leer. Das erfahren wir
immer, wenn wir bei einer Meditation versuchen, gar nichts mehr zu denken. Das ist
schwer bis unmöglich oder das schaffen nur die wenigsten. Weil normalerweise enthält
Bewusstsein sozusagen ein Bewusstseinsgegenstand, auf den es sich intentional
ausrichtet. weil diese intentionale Ausrichtung nicht mitbringt, sondern eben auf der
Basis von Symboloperationen nach einem bestimmten Algorithmus eben nur operiert
und nicht aufgrund von Intentionalität, die uns alle Bewusstseinsinhaberinnen und
Bewusstseinsinhaber voneinander unterscheidet. Also unsere Intentionalität ist je
spezifisch, ja kulturell spezifisch, auch tagtäglich variabel sozusagen. Das bemerken wir
daran, dass wir uns in unterschiedlicher Weise Tag für Tag neu auf die Welt ausrichten
sozusagen. war und was anderes wahrgenommen hat und es anders erlebt hat, das
hängt mit Intentionalität zusammen. Und das ist eine Qualität, die diesen künstlichen
Systemen bislang abzugehen scheint. Vielleicht kann man auch die Frage noch
00:15:11
SPEAKER_00
man auch die Frage noch anschließen, inwiefern sozusagen mit Intentionalität auch
diese Fähigkeit zur Repräsentation eigentlich verbunden ist, also auch
bedeutungstragend sozusagen. Ja, genau. Repräsentation ist
00:15:23
SPEAKER_02
ist sowieso, finde ich, ein sehr problematischer Begriff, weil er sehr ambivalent ist, sehr
mehrfach konnotiert. Ja, man kann, wir sprechen auch von einer repräsentativen
Demokratie etwa und meinen damit, dass da Stellvertreter für uns agieren. Ja, dass wir
stellvertretend für uns Leute ins Parlament geschickt haben und gewählt haben, die dort
unsere Interessen vertreten und sowas. Und so ein Gedanke schwingt gewissermaßen
mit, wenn wir vom Geist als einem repräsentationalisierenden System oder
Mechanismus oder Operationen denken.
00:16:26
SPEAKER_02
Wenn der Geist repräsentiert, im Unterschied etwa zu präsentiert, also sich etwas
vergegenwärtigt, sich intentional auf etwas ausrichtet, was er sich dadurch ins
Bewusstsein holt, dann ist das etwas, das im Repräsentationsbegriff irgendwie
missverständlich ausgedrückt wird und transportiert Und ist. deswegen ist überhaupt
die Frage, ob man vom Geist als einem symbolverarbeitenden und
repräsentationalistischen System denken sollte. Man ist dann eigentlich schon drin in
einem Vorverständnis von Geist, das schon den Geist ein bisschen analog zum
Computer, nämlich als Rechenmaschine denkt. Ja, wenn man das sozusagen von
vornherein eingeholt hat in die Definition und das Verständnis des Geistes, dass er
computationalistisch agierte, dann ist es nicht mehr weit zu zeigen, dass wirkliche
Computer wiederum geistanalog sind oder dass es da eben so eine Entsprechung gäbe.
Während wenn man Geist nicht auf Symbolverarbeitung und Repräsentation reduziert,
sondern diesen, was ich Verstehenshorizont genannt habe, einen kulturellen
Verstehenshorizont, eine Auslegungsqualität, also ein Interpretieren können, diese
semantische Einbettung in ein, was Heidegger bewandt ist, Ganzheit nennt, ja in ein
Verständnis, dann was Kant Urteilskraft genannt hat, ja eine ganz wichtige geistige
Fähigkeit, urteilen zu können, nämlich Regeln auf Einzelfälle anwenden und zu
Einzelfällen Regeln finden, wenn man das alles unter Geist versteht, dann wird die
Analogie schon sehr, sehr viel dünner. Dann ist da, glaube ich, auch gar nicht mehr viel
mit. Dann sind diese Computer nicht geistanalog.
00:17:59
SPEAKER_00
Würden Sie dann auch dass sozusagen vor dem Hintergrund des Begriffs sagen, der
Urteilskraft man eigentlich nicht davon ausgehen dass eine KI in irgendeiner Form eine
Urteilskraft könnte, entwickeln die dem Menschen zum Beispiel ähnlich wäre? könnte,
00:18:13
SPEAKER_02
Insofern eine schwierige Frage, als ich jetzt nicht in die Zukunft sehen kann und einfach
ja nicht spekulieren kann und möchte darüber, was alles technisch noch entwickelbar
ist. Was ja richtig ist, ist, dass wenn man es etwa zu Turings Zeiten gesagt hätte, ein
halbes Jahrhundert später, können wir mit diesen eben wirklich tollen, interessanten
Chatbots auf eine ganz interessante Weise kommunizieren. In dem Sinne, dass die
unsere natürlich gesprochene Sprache verstehen. Also man muss noch nicht mal mehr
tippen. Man muss auch nicht irgendwas ganz runterbrechen, sondern man kann da mit
einem vermeintlichen oder jedenfalls technischen Gegenüber in eine Kommunikation
treten und kriegt auch noch Antworten. Das ist ja eine erstaunliche Entwicklung und das
ist hochinteressant. Und wer weiß, wohin die sich noch entwickelt. wohin die sich noch
entwickelt. Gleichwohl würde ich in der Tat dazu neigen zu sagen, Gleichwohl würde ich
in der Tat dazu neigen zu sagen, Urteilskraft ist so ein spezifisch interessantes geistiges
Vermögen. Deswegen hat Kant ihm eine ganze Kritik gewidmet. Deswegen macht er
diese wirklich auch sehr folgenreiche Unterscheidung, sehr, auf die wir uns heute noch
in zahllosen Kontexten beziehen. Vor allen Dingen übrigens im juristischen Kontext.
Macht er diese Unterscheidung zwischen bestimmender und reflektierender
Urteilskraft. Bestimmend ist die Urteilskraft dann, wenn es eine Regelschonung gibt und
man einen Fall nur darunter subsumiert sozusagen.
00:19:55
SPEAKER_02
Wenn man als Juristin und Jurist es mit einem Fall zu tun hat und jetzt gucken vor
welches Gericht gehört ist es Strafrecht oder Zivilrecht oder welches Gesetzbuch ist
muss, hier überhaupt in Anschlag zu er, das wäre bestimmende Aber wenn man so
kreativer oder anspruchsvoller bringen, sind die Leistungen der Urteilskraft.
reflektierenden noch, weil will, die findet überhaupt erst ein Gesetz dazu und dahinter.
Urteilskraft, Auch das ist was wir oft wenn wir geistig Verfahren sozusagen operieren,
etwas, machen, zum Beispiel auch in der Kunst. Wenn wir ein besonderes Kunstwerk
haben und gucken, was daran das allgemein Relevante und Interessante ist und in
Auslegungsprozesse, hier kommt die Interpretativität wieder ins Spiel, die ich eben
schon erwähnt hatte, in Auslegungsprozesse eintreten, nicht wahr? Und das sind, also
würde ich schon sagen, kategorial andere Prozesse als Rechenoperationen, als
Repräsentationen, als digitale Ja-Nein-Vorgänge, als stochastische
Wahrscheinlichkeitsaussagen und so weiter. Und in der Tat, für mich ist schwer bis gar
nicht vorstellbar, dass Maschinen diese Komplexität einer reflektierenden Urteilskraft so
bald entwickeln können sollten.
00:20:59
SPEAKER_00
Jetzt hatten wir viel, glaube ich, thematisiert, dass sozusagen das
Bedeutungsverständnis bei Maschinen in dem Sinne vielleicht nicht vorliegt. Nun kann
man sich die Frage stellen, wie könnte das eigentlich hergestellt werden sozusagen
künstlich? Vielleicht kann man überlegen, dass sozusagen eine stärkere physische
Präsenz, eine stärkere lebensweltliche, soziale Fundierung der Maschine dazu beitragen
könnte, sowas wie einen Geist in der Maschine vielleicht doch herzustellen. Häufig wird
in diesem Kontext ja über den Embodiment-Ansatz diskutiert. Vielleicht können Sie ganz
kurz mal beschreiben, was das eigentlich prinzipiell bedeutet, bevor wir da zu
übergehen, zu diskutieren, inwiefern das vielleicht auch für den Geist und KI relevant
sein könnte.
00:21:46
SPEAKER_02
Ja, das ist auch wieder ein sehr interessantes Stichwort. Also Embodiment heißt
Verkörperung, ist eine Idee, die letztlich viel älter ist als die zeitgenössischen
Embodiment-Theorien, die das Sean Gallagher meinetwegen oder Evan Thompson oder
so Leute, die das sehr stark machen, sehr stark betonen. Das, was Geist ist, als Qualität
ausmacht, von vornherein verfehlen, wenn wir es aufs Gehirn reduzieren und dass das
Gehirn ja vielmehr als Teil eines komplexen Körpers bzw. Organismus agiert, wo
sensorische Inputs kommen, wo motorische Aufforderungen und aktivitäten stattfinden
und wo also das was man selbst körperlich und leiblich und zwar als ganzer mensch als
ganze person ist einfluss darauf hat wie wir uns die welt geistig erschließen sozusagen
der gedanke ist deswegen sehr viel älter als die zeitgenössischen embodiment theorien
weil auch wiederum phänomenologen wie Merleau-Ponty oder Husserl schon 100 Jahre
zuvor sozusagen darauf aufmerksam gemacht haben, dass es eine ungeheure
Abstraktion ist, vom Geist zu denken, indem man eben über Gehirn nachdenkt oder
überhaupt, oder auch das wiederum, auch dafür steht wieder, sitzt Descartes wiederum
ein bisschen auf der Anklagebank, ja. Mit diesem schroffen Gegensatz, den er
aufgemacht hat zwischen Geist und Materie, erscheint Denken bei ihm so etwas wie
Welt und Körperlos. Als gäbe es sozusagen diese Tätigkeit des Denkens und eine
Substanz namens Geist und dann gibt es irgendwie auch noch einen Körper. Und das ist
aber natürlich total irreführend und eine Weise, den Zusammenhang aus dem Blick zu
verlieren, von v den Zusammenhang aus dem Blick zu verlieren, von vornherein aus dem
Blick zu verlieren, dass viele das als wirklichen Irrtum betrachtet haben und man
Prüfversuche hat dagegen, im Falle der Phänomenologie, nennen wir das
Leibphänomenologie, also diese Verkörpertheit, die Verleiblichung, die Leibhaftigkeit,
das ist vielleicht eine ganz schöne Metapher dafür, die Leibhaftigkeit des Denkens und
der Vernunft. Dagegenzusetzen, dass man in dem Maße, in dem man einen Körper hat,
der man selbst ist, und das nannte Plessner etwa Leibsein, das Denken überformt wird
dadurch und dass man davon in keiner Weise absehen kann, sondern dass es eine
wirklich irreführende Abstraktion ist, von einem körperlosen Cogito, ich denke,
auszugehen. Das ist nun genauso kruzial, scheint mir, wie die Frage nach den Qualia,
wie der Aspekt der Urteilskraft oder der Intentionalität, ob das für Maschinen
simulierbar ist. Was jetzt hier nahe liegt, ist auf die Robotik zu gucken und zu gucken,
weil bei Large Language Models haben wir es mit einem mehr oder weniger
Unkörperlichen, das ja nur materialisiert in der Materie, sozusagen in den Chiction
Filme, die Roboter wirklich in dieser Menschengestalt vors Auge geführt haben. Oder
natürlich überhaupt die zeitgenössische Robotik gucken. Da gibt es schon Geräte, die
zum Beispiel jetzt viel besser Treppen hochsteigen können, als das vielleicht vor 20
Jahren noch denkbar war, weil diese Koordination, Treppen hochzusteigen, eine enorme
Herausforderung ist und ältere Roboter daran gescheitert sind. Heute können die das,
glaube ich, ganz gut. Wenn wir jetzt also an solche Maschinen denken, nicht an Large
Language Models, sondern an solche Maschinen, die vielleicht den Körper an der Stelle
nachahmen, dass sie sich eben zum Beispiel körperlich durch den Raum bewegen
können, dass sie aber auch natürlich Kameraschnittstellen haben, die den Gesichtssinn
simulieren oder nachahmen, dass sie mithilfe von Mikrofonen und Lautsprechern hören
und sprechen nachahmen. Schmecken und Riechen ist da, glaube ich, noch nicht sehr
weit gediehen, ja, aber wir schenken es den Leuten mal und denken, das kriegen wir
technisch auch noch hin, den Ingenieuren und Ingenieurinnen das zu produzieren. Dann
könnte man jetzt denken, ja, sind das nicht Analogien zum Körper haben? Die haben
Außenweltschnittstellen jedenfalls. Und wenn diese Roboter mit denen eine Kamera
meinetwegen haben. Und insofern gedacht, mittels dessen können sie auf etwas vor,
sichtbar sich vor ihnen Bewegendes reagieren. Aber aus sowohl
leibphänomenologischer als auch Embodiment-theoretischer Sicht wären solche
sogenannten Schnittstellen, Interfaces und wie die dann heißen, wirklich weit entfernt
davon, mit dieser Verkörperungsqualität vergleichbar zu sein. Denn allein diese
Kameratechnik macht es, glaube ich, ganz klar. Wenn wir uns vorstellen, was alles in
unserem Kopf passiert, wenn wir sehen, dann ist das ja alles andere als das, was
passiert, meinetwegen, wenn eine Überwachungskamera registriert, dass Sie vor einem
Bankautomaten stehen oder zu schnell gefahren sind. Selbstverständlich kann die
Kamera das registrieren. Nur wenn Sie da sind, kann sie sie auch aufnehmen. Oder
wenn jemand in in ihrem Auto saß, der die Geschwindigkeit übertreten hat, dann kann
das da registriert werden und sie können zur Verantwortung gezogen werden. Aber jetzt
mal abgesehen von der Fälschbarkeit solcher Bilder ist es ja nicht das, was passiert,
wenn Leute sich zum Beispiel ansehen, auffordernde Blicke zuwerfen, die man
verstehen kann, indem man eben deswegen auch auf einen Aufforderungscharakter
reagiert. Die Schönheit einer Landschaft kontempliert, wenn ein Arzt da auch wieder mit
Urteilskraft und Erfahrung eine Diagnose stellt auf den ersten Blick hin und so weiter,
dann ist das ja alles weit mehr als das, was eine Kamera macht, wenn die irgendwie
registriert, dass P, dass, dass mit Doppless irgendwas der Fall ist. Und insofern würde
ich sagen, gibt es solch eine große Menge von Embodiment-Qualitäten und diesen
Computerschnittstellen, dass man auch da denken könnte, der Unterschied zwischen
uns und den künstlichen Systemen ist noch sehr groß.
00:27:40
SPEAKER_00
Genau, vielleicht steckt ja auch ein Stück weit noch die Frage da drin, inwiefern
Lebendigkeit vielleicht auch eine Rolle spielt damit.
00:27:47
SPEAKER_02
weil die kann man nicht alleine lassen. Was soll das anders sein als traurig? Also als
eine wirklich starke Gefühlsäußerung.
00:28:12
SPEAKER_02
Und sowas schreiben wir der Lebendigkeit solcher Lebewesen zu und haben wir eben
bei KIs noch nicht entdeckt. Ja, noch nicht mal. Doch, es gibt natürlich den einen oder
anderen ganz interessanten Science-Fiction-Film, der so etwas thematisiert. Aber
sowohl Robots, zeitgenössische Roboter als auch Language Models sind davon noch
weit entfernt. Prinzipiell geht natürlich der Embodiment-Ansatz auch ein bisschen davon
00:28:29
SPEAKER_00
geht natürlich der Embodiment-Ansatz auch ein bisschen davon aus, diese
Unterscheidung zwischen virtuellen und realen Welten zu machen. Vielleicht können Sie
dazu mal ganz kurz was sagen. Da gibt es ja auch eine Diskussion darum, inwiefern
sozusagen das Virtuelle in seiner Form sozusagen auch real ist.
00:28:46
SPEAKER_02
Das ist es ganz bestimmt. Allein schon etymologisch und auch in der philosophischen
Tradition. Im Moment hat David Chalmers mit so einem Buch, der Reality Plus, viel
Aufsehen erregt mit dieser These, dass es fast ununterscheidbar ist, dass das Virtuelle
real ist. Aber das ist so neu gar nicht. Das steckt, wenn Sie so wollen, schon in dem
deutschen Wort Wirklichkeit. Wir können ja Wirklichkeit von Realität sprachlich
unterscheiden. Das Wort Realität kommt von res, das heißt Sache. Das heißt, damit
meinen wir irgendetwas, dem ein Sachverhalt entspricht. Während in Wirklichkeit steckt
etymologisch Wirkung. Und damit kann man jedenfalls, wenn man die Sprache so genau
und differenzierend gebraucht, kann man damit meinen, dass etwas auf uns einwirkt.
Und diese Unterscheidung findet sich wieder, wenn wir so allerdings problematische
Unterscheidungen zwischen objektiver Real nur ununterschieden im Übergang
vorkommt. Aber lassen wir das jetzt im Moment mal beiseite. Jedenfalls ist es ja
analytisch eine Trennung, die man vornehmen kann zwischen dem, was meinetwegen
jetzt an Raumtemperatur objektiv messbar ist und was an gefühlter Temperatur bei mir
hier ankommt und so weiter. Das hat aber mit der Wirksamkeit der Realität zu tun, nicht
wahr? Und dieser Wirksamkeitscharakter, der ist im Terminus Virtuos, bei Virtualität
ausgedrückt. Das ist eben diese Kraft, mit der irgendeine Sache auf etwas anderes
einwirkt. einwirkt. Und insofern sind die Sachen tatsächlich nicht zu trennen, sondern
Realität ist virtuell und Virtualität ist eine wirkliche Erfahrungsgegebenheit. Auch hier
würde Embodiment-Align-Addings natürlich wieder einen Unterschied machen. Wenn
ich in einem Flugsimulator als Pilotin irgendwas falsch mache, dann wird irgendwann,
die machen ja regelmäßig Tests, um ihre Flugtauglichkeit unter Beweis zu stellen und so.
Und wenn man da im Simulator irgendwas vergeigt, dann ist das in der Wirklichkeit, in
der sozialen Realität Grund genug, sie zu entlassen oder sie zum Arzt zu Netzes und so
weiter stattfindet und Vorgängen, die in der dreidimensionalen Wirklichkeit der
verkörperten Geister und der wirklichen Personen stattfindet. Körperten, Geister und der
wirklichen Personen stattfindet.
00:31:24
SPEAKER_00
Vielleicht noch eine abschließende ein bisschen vielleicht die Perspektive Frage,
gewendet. Wir haben jetzt über sehr viele Konzepte gesprochen und inwieweit die auf
künstliche Intelligenz anwendbar sind oder auch nicht. Vielleicht kann man auch
nochmal die Frage stellen oder darauf reflektieren, inwieweit sozusagen künstliche
Intelligenz uns eigentlich auch dazu auffordert, unsere Konzepte selbst zu überarbeiten,
zu reflektieren oder weiterzudenken.
00:31:48
SPEAKER_02
Also das ist ja auf jeden Fall eine Grundfrage der philosophischen Anthropologie, für die
ich ja auch meinen Lehrstuhl habe. Früher hat man diese Grundfrage so formuliert, dass
man gesagt hat, sie lautet, was ist der Mensch? Ich würde sagen, differenziertere
Umformulierungen heute würden lauten, wie sollen wir uns selbst verstehen? Ernst
Tugendhat hat diese Formulierung zum Beispiel vorgeschlagen. Also erstmal preisen wir
da nämlich ein, dass wir ja selbst Menschen sind und dass wir nach dem, was
Menschsein spezifisch von anderen Lebewesen unterscheidet, danach fragen, was uns
von anderen Lebewesen unterscheidet und wie wir uns selbst verstehen können und
nicht irgendein Wesen, das sich von uns unterscheidet, sozusagen auf den Seziertisch
legen. Zweitens, wie sollen wir uns selbst verstehen, heißt auch immer vor dem
Hintergrund dieser Natur-Kultur-Differenz. Denn einerseits würden wir alle heutzutage
dazu, oder die meisten von uns, wir alle sind sehr problematisch, aber die meisten von
uns hätten doch den Anspruch, dass Geist natürlich erklärbar sein soll, dass unsere
Kultur sich nicht unerklärlicherweise im Gegensatz zu unserer Natur entwickelt hat,
sondern aus ihr heraus.
00:33:24
SPEAKER_02
das hat man zum Beispiel versucht mit der Formulierung zweite Natur Trotzdem, besser
zu dass man wir sollten von unserer Kultur nicht als einem Gegensatz fassen, zur Natur
sagt, so weiter gemeinsam können wir eben auch unsere Kulturgeschichte denken,
beschreiben. haben, Und da waren wir meinetwegen im China und im Mittelalter
durchaus, haben wir etwas anderes darunter verstanden als heute. Als was wir uns
heute verstehen, ist in der Tat natürlich irgendwo beeinflusst von und steht im Dialog mit
dem, was an nichtmenschliche Intelligenzen auch noch sein können.
00:33:44
SPEAKER_02
auch noch sein können. Und insofern sind das Wechselbestimmungen und hat das
Verständnis des einen Rückwirkungen auf das Verständnis des anderen.
00:33:54
SPEAKER_00
Okay, ich finde, das war ein sehr schöner Satz. Zum Abschluss noch, liebe Frau
Schürmann, vielen Dank für das anregende Gespräch, das, glaube ich, ein bisschen
hoffentlich zur begrifflichen Klärung in der KI-um-Geist-Debatte beitragen konnte und
zum anderen, denke ich, auch spannende Ansätze zum Weiterdenken geliefert hat.
00:34:12
SPEAKER_01
Danke Ihnen, hat Spaß gemacht.
00:34:15
SPEAKER_01
Der KI-Insights-Podcast ist eine Initiative des Projekts SAKI, der zentralen Anlaufstelle
für innovatives Lehren und Lernen interdisziplinärer Kompetenzen der KI der
Hochschule Magdeburg-Stendal, gefördert vom Bundesministerium für Bildung und
Forschung.

Weitere Artikel zum Thema