Ob bei der Transkription, der Datenanalyse, oder der Literaturrecherche – Künstliche Intelligenz bietet vielseitige Einsatzmöglichkeiten in der Forschung. Doch ab wann ist ein Einsatz sinnvoll, sowie forschungsethisch und im Sinne hermeneutischer Prinzipien vertretbar? In dieser Folge sprechen wir mit Kai Dröge, Dozent und Projektleiter an der Hochschule Luzern sowie Permanent Fellow am Institut für Sozialforschung an der Goethe-Universität Frankfurt, über Künstliche Intelligenz in der qualitativen Forschung. Gemeinsam mit unserem Moderator Peter Kann diskutiert er die Kontroversen, die das Thema KI in der qualitativen Forschungscommunity ausgelöst hat, welche sinnvollen Einsatzszenarien es gibt und wo menschliches Deuten und Schlussfolgern weiterhin unverzichtbar sein werden. Auch Herausforderungen in der Lehre kommen zur Sprache.
Transkript Staffel 2, Folge 09 Kai Dröge
00:00:00
SPEAKER_02
Willkommen bei KI Insights, ein Podcast vom Projekt ZAKKI an der Hochschule
Magdeburg-Stendal. Hier teilen Expertinnen verschiedenster Disziplinen ihre Einblicke in
die facettenreiche Welt der künstlichen Intelligenz. In der zweiten Staffel erwarten Sie
Beiträge rund um das Thema Mensch und Gesellschaft im Kontext von KI. Moderiert von
Peter Kann, Lena Büscher und Prof. Dr. Sebastian von Enzberg.
00:00:28
SPEAKER_00
Liebe Hörerinnen und Hörer, willkommen zurück zum KI-Insights-Podcast des Projekts
ZAKKI der Hochschule Magdeburg-Stendal. Ich bin Peter Kann vom AI Social Lab und ich
freue mich sehr, diesmal Dr. Kai Dröge begrüßen zu dürfen. Herzlich willkommen. Ja,
herzlich
00:00:42
SPEAKER_01
willkommen. Danke für die Kai Einladung. Dröge ist Dozent und Projektleiter an
willkommen. herzlich Ja, willkommen. Danke für die Einladung.
00:00:45
SPEAKER_00
Kai Dröge ist Dozent und Projektleiter an der Hochschule Luzern und Permanent Fellow
am Institut für Sozialforschung an der Goethe-Universität Frankfurt am Main.
Schwerpunkte seiner Arbeit sind die Wirtschafts- und Arbeitssoziologie, Internet und
digitale Medien sowie die Methoden der qualitativen Sozialforschung. In dieser Folge
wollen wir einen Blick darauf werfen, welche Anwendung künstliche Intelligenz im
Kontext qualitativer Forschung finden kann und welche Implikationen damit
einhergehen. Vielleicht kurz zum Einstieg, da sicherlich nicht alle Hörerinnen und Hörer
damit vertraut sind. Was bedeutet es eigentlich qualitativ zu forschen, auch im Vergleich
zum häufig bekannteren Ansatz der quantitativen Forschung. Ja, vielleicht
00:01:24
SPEAKER_01
muss man da mal ein mögliches Missverständnis erst mal vorbauen. Also qualitative
Forschung meint nicht unbedingt besonders gute Forschung. Dieses Alltagsverständnis
von Qualität ist hier nicht gemeint, sondern leider gibt es auch schlechte qualitative
Forschung, muss ich sagen, ab und an. Worum es bei der qualitativen Forschung geht,
ist erst mal wertneutral in einem erkenntnistheoretischen Sinne, dass wir besonders an
den Qualitäten, an den besonderen Eigenschaften, Merkmalen von sozialen Phänung,
weil das sind eben Methoden, die da in der Lage sind, besonders in die Tiefe zu gehen,
während quantitative Methoden eben eher an der Zählung und an der Messung und an
dem Vergleich interessiert sind. Ich habe zum Beispiel vor einiger Zeit viel Forschung
zum Thema Online-Dating gemacht, wo da gibt es natürlich auch viel quantitative
Forschung dazu, die sich dann eher dafür interessiert, wie viele Leute nutzen das denn,
wie sind deren Erfolgswahrscheinlichkeiten und so weiter, was auch, was finden sie gut
und schlecht daran, während eben qualitative Forschung, wie wir sie auch betrieben
haben, eben viel mehr in die Tiefe geht und versucht zu verstehen, wie unterscheidet
sich zum Beispiel das Kennenlernen über so ein digitales Medium von einer Face-to
Face-Situation? Was macht das mit den Leuten? Welche Hoffnungen, welche Wünsche,
welche auch frustrierenden Erfahrungen, welche Ängste spielen dort eine Rolle? Also
viel mehr dort ins Detail geht natürlich auch mit viel weniger Fällen dann. Man könnte
noch sehr viel mehr Unterschiede nennen, aber das vielleicht so die grundlegende
Perspektive, die sich doch recht stark unterscheidet von so statistischen quantitativen
Verfahren. Okay, wenn
00:03:11
SPEAKER_00
wir jetzt darüber sprechen, dass da auch künstliche Intelligenz im Forschungsprozess
eingesetzt werden kann, ja in welchen Bereichen kann denn eigentlich KI da eingesetzt
werden oder wird es vielleicht schon?
00:03:32
SPEAKER_01
Ich meine, vielleicht muss man erst mal sagen, also KI gibt es ja schon länger und auch
KI-Einsatz in der Forschung gibt es schon länger. Aber es ist natürlich schon etwas
nochmal Spezielles passiert jetzt auch mit eben Chat-GPT und der Entwicklung dieser
großen Sprachmodelle. dieser großen Sprachmodelle, da gibt es eigentlich zum ersten
Mal so aus der qualitativen Forschung auch wirklich ein Interesse an KI und an den
Möglichkeiten von KI. Und das hat mit vielen Gründen zu tun. Zunächst mal auch
schlicht damit, dass wir es zum Beispiel auch in der qualitativen Forschung häufig mit
natürlicher Sprache zu tun haben. Also ja nicht wie bei einem Fragebogen, wo man dann
fünf Antwortvorgaben hat und dann kann man das nachher statistisch auswerten,
sondern eben mit offenen Fragen operieren zum Beispiel. Und jetzt hat man hier eine KI,
die eben auch ein Verständnis entwickeln kann oder zumindest scheint es so, darüber
werden wir sicherlich noch diskutieren, aber ein Verständnis auch von solcher
natürlichen Sprache und offenen Antworten und so weiter entwickeln noch aber ein
Verständnis kann. auch von diskutieren, solcher natürlichen ja, Sprache und offenen
Antworten und so weiter entwickeln kann. Und das macht natürlich erstmal neugierig
auch zu schauen, inwiefern man diese Art von KI, diese Sprachmodelle, dann vor allem
in der Auswertung qualitativer Daten, also zum Beispiel Interviewtranskripte oder
empirische Dokumente oder so so dann einsetzen könnte.
00:04:49
SPEAKER_01
Das ist auch im würde ich so der Haupteinsatzbereich, Moment, sagen, in dem damit
experimentiert wird. Es gibt auch auch durchaus interessante einzelne, Experimente, ob
man diese Chatbots nicht auch zur Erhebung einsetzen könnte, also ob die nicht auch
Interviews führen könnten sozusagen,
00:05:05
SPEAKER_01
Material generiert erheben könnten, das man dann analysiert, finde ich auch sehr
spannend, ist aber noch sehr in den Anfängen und auch relativ experimentell. Vielleicht
die
00:05:14
SPEAKER_00
die Frage, die sich da lorisch dran anschließt, in welchen Bereichen oder was hast du
denn bisher genutzt für deine Forschung? Ich meine,
00:05:21
SPEAKER_01
vielleicht mal generell über qualitative Forschung ist jetzt nicht unbedingt ein Bereich
oder eine Community, die so unglaublich technikaffin ist. Das hat auch eine habituelle
Seite, glaube ich, und so. Aber es gibt auch etwas Methodisches da drin, was sehr
wichtig ist, weil es ein ganz grundlegendes Prinzip ist, in der qualitativen Forschung eben
sehr nah an den untersuchten Phänomenen und an den Menschen zu sein, mit denen
man spricht und so weiter. Da ist immer auch eine Frage, wenn man sozusagen Technik
als eine Art Medium quasi dazwischen schaltet, ist es nicht auch eine Form, sich ein
Stück zu entfernen von den Phänomenen, die man untersucht, von den Daten, die man
analysiert und so weiter. Das ist zum Beispiel auch eine große Debatte, oder eine große,
aber eine Debatte durchaus innerhalb der Forschungskommunikation, der Qualitativen
jetzt, ob man etwa solche Videocalls wie Zoom und andere einsetzen könnte, um
Interviews so zu führen oder ob man sich nicht face-to-face eigentlich begegnen muss
bei einem Interview. Und da gibt es durchaus viele, die auch gesagt haben, nein, man
muss wirklich vor Ort sein, man muss den Menschen begegnen, man muss sie auch mit
ihrer ganzen Körpersprache wahrnehmen und so weiter. Die Technik stellt sich da
eigentlich in den Weg. Trotzdem muss man sagen, wird auch inzwischen viel
Videointerviews auch gemacht und das ist durchaus je nach Fragestellung auch
sinnvoll. Aber eben, es gibt da nicht so eine große Technik-Affinität eigentlich in dieser
Community. Allerdings muss man sagen, es gibt jetzt auch schon seit vielen, vielen
Jahren durchaus Analyse-Software, qualitative Analyse-Software, die auch breit genutzt
wird, die allerdings eher als so eine Art Annotierungstool oder so im Wesentlichen
genutzt wird. Und das ändert sich natürlich jetzt mit KI schon tendenziell ein bisschen,
dass wir eben nicht nur die Software dazu nutzen, um bestimmte Stellen zum Beispiel
im Material zu markieren und da Kategorien oder Codes zu vergeben, dass wir das dann
wiederfinden und später vergleichen können und so, sondern dass jetzt tatsächlich
auch KI mit teilweise auch Analyseaufgaben, also auch die eigentliche Interpretation
dieser Daten dann ein Stück weit zu übernehmen, auch betraut wird. Das ist wirklich
etwas Neues und ich finde durchaus Spannendes. Man muss es auch, glaube ich, wie
alle solche Entwicklungen auch immer methodisch gut reflektieren. Ja, aber ich finde,
das sind eigentlich erstmal sehr interessante Entwicklungen auch. Und ich bin selber
jemand, der auch eigentlich schon seit vielen, vielen Jahren immer auch Software
einsetzt in meiner eigenen Forschung. Aber eben bisher eher so, um auch meine Daten
zu strukturieren, meine Gedanken zu strukturieren. Also ich habe auch mal Informatik
studiert im Nebenfach, so nahe her, aber also ein bisschen technischen Hintergrund
und bin ja selber auch Autor einer Open Source Software, die ich nicht selber entwickelt
habe, aber wo ich einige KI-Funktionen eben auch ergänzt habe. Qualcoder, eine schon
lange bestehende qualitative Analyse-Software, die ich so ein bisschen als
Experimentierplattform da auch für meine eigenen Experimente nutze.
00:08:34
SPEAKER_00
Ja, bevor wir vielleicht nochmal auf die Rolle der forschenden Person im Verhältnis zur KI
eingehen, würde ich doch ganz gerne nochmal ein bisschen darauf schauen wollen, wie
eigentlich in der qualitativ forschenden Community das Thema KI eigentlich besprochen
wird. Wir wissen oder ja, ich glaube, wir wissen das beide, dass das durchaus hitzig
diskutiert worden ist. Und mich würde das schon interessieren, an welchen Punkten
entzündet sich eigentlich diese Debatte darum, wie und wo KI eingesetzt werden kann
oder sollte. Und vielleicht gibt es da auch Argumentationsmuster, die da deutlich
geworden sind.
00:09:19
SPEAKER_01
relativ auch der Nähe und wirklich nah und tief im Material zu sein und an den
Menschen, die man untersucht und so, Technik, die da auch manchmal im Wege stehen
kann. Das sind solche Hintergründe, also inwiefern denn solche Sprachmodelle wirklich
ein vertieftes Verständnis entwickeln können, solcher Texte und solcher
Interpretationen, wirklich auch so subtile Details, weil das muss man halt sehen. Ich
meine, wenn man so genau auch solche Phänomene analysiert, dann geht es nicht nur
darum, einfach Informationen zu sammeln, sondern es geht ja immer auch darum,
durchaus auch zu sehen, also zum Beispiel, wie spricht jemand darüber, wo zögert
jemand, wo gibt es Pausen, wo gibt es vielleicht sowas wie Scham, man versucht
irgendwie ein Thema auszuweichen oder irgendwas. Also durchaus auch sehr, sehr
subtile Interpretationen und Analysen des Materials, das muss man wirklich auch, muss
ich aber aus eigener Erfahrung sagen, also heutige KI-Modelle tatsächlich an ihre
Grenzen. Trotzdem wissen wir alle, KI produziert erstmal sehr, sehr plausibel klingende
Texte. Aber eben die große Frage, hat das eigentlich Hand und Fuß, ist das wirklich auch
in einer fundierten Interpretation dann auch gegründet? Nochmal grundsätzlich, ich
meine, dass es solche Einwände gibt, erscheint mir erst mal sehr naheliegend. Ich finde,
die haben auch gute Argumente. Ich finde fast das Umgekehrte eigentlich das
Erstaunlichere, nämlich wie groß das Interesse und auch die durchaus positive Neugier
innerhalb der qualitativen Forschungs-Community ist für dieses Thema.
00:11:02
SPEAKER_01
Hype hinterherläuft und irgendwie qualitative Forschung im Metaverse und qualitative
Forschung und die Blockchain oder so. Nein, aber KI hat wirklich da eine große Neugier
und ein Interesse ausgelöst. Das finde ich erstmal sehr positiv und spannend.
00:11:15
SPEAKER_00
Vielleicht, wenn man jetzt so ein bisschen auch auf das Vorgehen in der Auswertung
zum Beispiel eingeht und darüber nachdenkt, dass ja die qualitative Forschung vor
allem auch mit einem induktiven Vorgehen verbunden wird. Inwiefern kann man
vielleicht davon sprechen, dass ja auch sowas wie das maschinelle Lernen zum Beispiel
ja auch eine Form von induktiver Datenanalyse eigentlich hat und inwieweit ist das
vielleicht eigentlich vergleichbar auch mit dem qualitativ forschenden Menschen an
sich?
00:11:44
SPEAKER_01
Ja, ganz genau, da würde ich sehr zustimmen. Also ich denke, das ist jetzt neben dem
schon genannten, dass wir es hier auch so mit natürlicher Sprache zu tun haben und so,
aber ich glaube, die Ähnlichkeiten eigentlich zwischen der Art und Weise, wie wir als
qualitativ Forschende uns sozusagen soziale Phänomene und Lebenswelten versuchen
verständlich zu machen und der Art, wie diese Sprachmodelle dabei vorgehen, da gibt
es durchaus eine ganze Reihe Ähnlichkeiten. Und eine ist tatsächlich, dass diese KI
Modelle eben in einem radikalen Sinne wirklich induktiv aus den Daten heraus, aus der
Lektüre von endlossigen Texten heraus sozusagen Muster erkennen, typische
Konstellationen generieren und so weiter. Und das ist eigentlich sehr nah bei dem, was
wir auch als qualitativ Forschende machen, wenn wir versuchen, eben typische
Konstellationen zu identifizieren, Musterzusammenhänge zu identifizieren, induktiv aus
den Daten heraus zu gewinnen. Vielleicht muss man trotzdem vielleicht die Frage
stellen,
00:12:44
SPEAKER_00
muss man trotzdem vielleicht die Frage stellen, inwieweit sozusagen die auf eher
syntaktischen Regeln oder stochastischen Berechnungen beruhende Vorgehensweise
der KI letztlich eigentlich vergleichbar ist mit dem eher semantisch basierten und
vielleicht auch lebensweltlich fundierten Interpretieren des Menschen, der dann an den
Daten sitzt und damit arbeitet.
00:13:10
SPEAKER_01
Ich meine, das ist eine große Debatte. Jetzt auch zum Beispiel die Frage Syntax versus
Stochastik oder sowas. Da gibt es ja auch innerhalb der Sprachwissenschaft große
Diskussionen. Also welche Konsequenzen eigentlich diese Sprachmodelle und was wir
daraus lernen können, wie so ein System sich sozusagen Sprache aneignen kann,
welche Auswirkungen das hat auch etwa für so Theorien des Spracherwerbs und
überhaupt einfach. Ich meine, das muss man, glaube ich, immer noch mal sehen, wenn
wir hier über Sprache reden. Und so, es geht natürlich letzten Endes auch um wirklich
Grundstrukturen unseres Denkens eigentlich. Also nicht nur um Muster der Sprache
oder so, sondern wirklich um sehr, sehr grundlegende Fragen. Und ich würde zumindest
sagen, Semantik spielt durchaus auch bei diesen Sprachmodellen eine große Rolle.
Vielleicht nicht ganz im selben Sinne verstanden, wie wir das innerhalb der
Sozialwissenschaften verstehen, aber ich meine, das ist ja erstmal ein wesentlicher
Schritt auch der Generation von Texten und so weiter, dass eben diese KI in der Lage ist,
ein Stück weit die Semantik auch, zum Beispiel einer Frage, die man in ChatGBT
versteht, eine Semantik sozusagen, eine interne Metasprache zu übersetzen, erstmal
sogenannte Embeddings daraus zu erstellen, die die Semantik übrigens auch
sprachunabhängig erstmal, also von der Landessprache unabhängig erstmal,
sozusagen eine interne Repräsentation der Bedeutung ein Stück weit zu bilden und das
dann zu verknüpfen mit entsprechenden Bedeutungsgehalten, sozusagen damit dann
eine Antwort zu generieren und so weiter. Semantik spielt tatsächlich, die semantische
Erschließung von Inhalten spielt tatsächlich eine große Rolle. Interessant ist natürlich
dieser Punkt der lebensweltlichen Fundierung und Erfahrung. Auch eine große
Diskussion übrigens innerhalb der ganzen KI-Forschung. Bräuchten wir nicht eigentlich,
damit auch diese KI-Modelle besser werden, damit sie weiterlernen, eine irgendwie
Möglichkeit, dass diese KI auch Erfahrungen machen kann in der physischen Welt, dass
sie irgendwie auch nicht nur Sprache hat. Das sind sehr interessante Diskussionen und
Entwicklungen, zu denen es auch durchaus unterschiedliche Positionen gibt. Gewisse
Entwicklungen in die Richtung sieht man vielleicht bei den neueren Modellen, die ja
auch nicht nur Texte als Eingabe verarbeiten können, sondern eben auch audiovisuelle
00:15:34
SPEAKER_01
eben auch audiovisuelle Daten, also die multimodal werden und damit sozusagen auch
mal durch die Welt laufen und stolpern können, um zu verstehen, was eine
Bordsteinkante ist? Kann man das alleine aus Texten wirklich sozusagen, wie man sagt,
ein Weltmodell wirklich entwickeln? Das sind sehr interessante Fragen. jetzt mal wieder
von den ganz großen Themen auf, die konkreten methodischen Fragen auch unserer
Forschung zurückzukommen, die auch für uns in hohem Maße relevant sind. Weil
innerhalb der qualitativen Forschung ist es ja so, dass wir durchaus auch sehr, sehr viel
mit Texten arbeiten. Also wir machen Interviews, wir untersuchen empirische
Dokumente oder sowas. Und das sind am Ende dann alles wiederum Texte, über die wir
versuchen, uns soziale Phänomene zu erschließen und andere Lebenswelten zu
erschließen. Letztlich auch sehr, sehr viel Sprache vermittelt. Da ist natürlich auch,
f
inde ich, aus unserer Sicht sehr interessant zu sehen, wie weit kommt man denn, wenn
man jetzt so ein Modell wirklich mal nur mit Sprache füttert und es gibt gar keine
anderen irgendwie leiblichen Erfahrungen oder sowas. Ich muss ehrlich sagen, ich finde
erstmal bei aller Kritik, man kommt erstaunlich weit. Das ist erstmal sehr spannend
auch zu sehen. Aber es wirft auch interessante Fragen auf für uns, methodisch, wo man
auch sieht, ja, also sich auf sprachlichen Wegen andere, sehr uns eigentlich sehr
fremde, sehr ferne soziale Welten auch zu erschließen, dem sind halt auch Grenzen
gesetzt. Und da müssten wir vielleicht unsere Methoden auch ein bisschen erweitern.
Das finde ich auch noch sehr spannend.
00:17:19
SPEAKER_00
Anschließend wäre ja die inwieweit KI dann Frage, letztlich auch so eine Form von
hermeneutischer Fähigkeit tatsächlich auch hat.
00:17:35
SPEAKER_01
Vielleicht ist es auch eine andere Form von hermeneutischer Fähigkeit, aber das wäre
vielleicht noch so eine Frage, die sich da anschließt. Ich habe dazu ja mal ein bisschen
eine provokante These auch formuliert, dass wir es hier mit einer Art von
hermeneutischer Maschine zu tun haben. Das war tatsächlich auch ein bisschen als
Provokation gedacht, im Sinne von, lass uns nicht vorschnell unsere Vorstellung
darüber, wie klassische Algorithmen funktionieren und wo wir sehr klar definierte
Datenstrukturen haben und Funktionen und so weiter, die dann angewendet werden auf
Daten etc. und so. Lass uns mal irgendwie auch erstmal von der Vorstellung ausgehen,
wir haben es hier mit einer sehr anderen Herangehensweise zu tun, die zwar auch
computerbasiert ist und algorithmabasiert ist letzten Endes, aber doch sehr, sehr
anders funktioniert als klassische algorithmische Verfahren der Datenanalyse. Und
tatsächlich, es war dann mehr so eine bisschen phänomenologische Annäherung.
menschliches Verhalten auch von uns eigentlich fremden Personen oder sowas, aber
irgendwie zu verstehen, nachzuvollziehen, ja, wirklich in seinen Strukturen, in seinen
Mustern und Hintergründen auch deuten und verstehen zu können. Und tatsächlich
würde ich sagen, ist das zumindest der Versuch mit diesem Sprachmodell, ja, ich habe
ja gesagt, eigentlich der Versuch, Menschen maschinenlesbar zu machen. Also darum
geht es ein bisschen. Insofern, finde ich, kann man sie als hermeneutische Maschinen
bezeichnen. Ob das im engeren erkenntnistheoretischen Sinne, wie es hier wirklich mit
einer hermeneutischen Vorgehensweise zu tun haben, das ist sehr komplizierte Frage.
Da müsste man auch noch mal sagen jetzt welcher theorie von hermeneutik hängt man
an und dann müsste man das sehr sehr genau auseinandernehmen ja vielleicht
trotzdem noch mal ein bisschen daran anschließend
00:19:32
SPEAKER_00
noch mal ein bisschen daran anschließend auch sozusagen des schlussprinzip der
abduktion also sozusagen dass das entdecken des neuen im material darauf basiert ja
die qualitative Forschung im Prinzip auch. Inwiefern wäre das eigentlich mit KI leistbar
oder ist das vielleicht auch eine Sache, die einfach dem Menschen vorbehalten bleibt?
00:19:56
SPEAKER_01
Also dazu gibt es durchaus auch unterschiedliche Positionen, Einschätzungen, welche
Rolle KI vielleicht in diesem Prozess der Abduktionssprache spielen könnte. Ich habe da
eine relativ dezidierte Position und würde sagen, also das ist eigentlich genau, das ist
genau der Punkt, wo KI, zumindest diese Sprachmodelle, wie sie heute trainiert sind, wo
sie einfach an ihre Grenzen kommen und wo es uns als Forschende weiterhin braucht.
Also das ist wirklich genau, markiert genau diese Grenze. Man muss sich einfach
nochmal kurz vor Augen führen, wie werden diese KI-Modelle oder diese Sprachmodelle
trainiert. Im Grunde ist es jetzt mal sehr simpel gesprochen. Man nimmt einfach einen
großen Textkorpus und man setzt der KI sozusagen kurze Ausschnitte vor. Und wenn sie
halt rät, wie der Text weitergeht, kriegt sie quasi positive Verstärkung und wenn sie falsch
liegt, kriegt sie negative Verstärkung. Und das erzeugt natürlich, also das konditioniert
dieses Modell natürlich letzten Endes darauf, immer die möglichst naheliegendste
Antwort zu geben oder die möglichst naheliegende Fortsetzung eines Textes. Das
erzeugt eben einen wie eingebauten Konventionalismus sozusagen. Nicht, dass KI nicht
grundsätzlich auch in der Lage wäre, neue Ideen zu produzieren, das wäre grundsätzlich
möglich, aber das haben wir diesen Sprachmodellen einfach systematisch abtrainiert.
Und das, würde ich sagen, erzeugt so ein bisschen sowas wie Common Sense
Maschinen, also Maschinen, die darauf konditioniert sind, sich wirklich im Bereich des
Erwartbaren immer zu bewegen. Und das ist eine sehr, sehr schlechte Voraussetzung,
um Wissen zu erweitern und voranzubringen, weil wir müssen das Neue denken, damit
wir unser Wissen voranbringen. Und das ist genau das, was Abduktion ja auch sagt. Also
neue Ideen zu entwickeln und die dann natürlich auch empirisch zu überprüfen, also
nicht als Verschwörungstheorie zu entwickeln, sondern die dann schon zu überprüfen.
geklaut, die auf diesen Punkt, finde ich, sehr, sehr richtig hingewiesen haben, auch
nochmal auf Karl Popper verwiesen haben, seien es sich, dass eben gerade die
unwahrscheinlichen Antworten sind, die doch unseren Fortschritt des Wissens letzten
Endes vorantreiben und eben nicht die naheliegenden, die wir uns eh schon gedacht
haben und sozusagen das Problem des Proving the Obvious, das haben wir ja auch
genug in der Wissenschaft, dass eigentlich oft sehr banale Forschung produziert wird,
dank KI. Aber eben wirklich die neuen Ideen, sowohl was die Fragestellung betrifft, aber
auch was die Interpretation der Ergebnisse betrifft, die neuen Ideen, die müssen weiter
von uns kommen. Da bin ich fest überzeugt.
00:22:56
SPEAKER_00
Vielleicht ein bisschen daran anknüpfend. Nun haben wir es ja in der qualitativen
Forschung durchaus mit so einer Art von Methodenpluralismus zu tun. Und man kann
sich natürlich schon die Frage stellen, für welche methodischen Ansätze eignet sich
eigentlich KI zum Beispiel in der Datenauswertung eher und für welche vielleicht auch
weniger?
00:23:16
SPEAKER_01
Ich glaube, das ist noch gar nicht ausgemacht. Also man sieht im Moment eigentlich
Experimente aus ganz unterschiedlichen methodischen Kontexten. Es ist natürlich so,
dass so Verfahren wie zum Beispiel die Inhaltsanalyse oder die Themenanalyse oder
sowas, das sind Verfahren, die so lange es fiel mit Auswertungssoftware auch arbeiten
und so, wo das ja im Genal liegt, dass man jetzt auch diese KI-Funktion da integriert und
so. Aber wir sehen auch sehr interessante Experimente aus ganz anderen Bereichen, wie
zum Beispiel von Fabio Lieder und Burkhard Schäfer aus der dokumentarischen
Methode, also wo wirklich sehr um die Analyse von Einzelfällen geht oder sogar
Transkript-Ausschnitten, Fragmenten und sehr detaillierte Analyse und so. die haben da
spannende Sachen ausprobiert, auch mit dem eigenen Software- Tool und so. So ein
Bereich, muss ich sagen, wo mich ein bisschen wundert, aber vielleicht habe ich das
einfach auch nicht im Blick, aber wo ich bisher eigentlich noch wenig gesehen habe, ist
zum Beispiel aus dem Bereich der Diskursforschung, Diskursanalyse. Für mich würde
das eigentlich sehr naheliegend, weil auch da wieder, also wenn man so ein bisschen an
ein fokosches Diskursverständnis denkt und wirklich diese Idee, dass halt der Diskurs so
eine gewisse Eigenlogik hat und eine eigene Dynamik, die sich auch über individuelle
Autorschaft hinwegsetzt und quasi durchsetzt, ja, das ist doch eigentlich genau das,
was wir hier haben. Wir haben ein System, das eben diese Regeln, diese Diskursive und
so weiter eigentlich umfassend gelernt und verinnerlicht hat und jetzt ohne eine
Subjektivität als Autor, Autorin oder so Texte produziert. Eigentlich ein super
spannendes Experiment, finde ich, für so eine Diskursanalyse.
00:25:03
SPEAKER_00
Ja, vielleicht nimmt sich ja auch im Nachgang des Podcasts jemand dieser
Forschungsfrage noch an. Vielleicht, weil wir es vorhin schon mal so ein bisschen
angerissen hatten. Aber man kann sich natürlich schon die Frage stellen, inwieweit KI im
Kontext der Forschung eigentlich auch zur Veränderung der Rolle der forschenden
Person führt. Also inwieweit vielleicht diese Person auch nochmal andere Kompetenzen
benötigt, ob KI da vielleicht auch mehr tatsächlich als ein Werkzeug ist, wie wir es bisher
gesehen haben im Bereich der Forschung. Auch das
00:25:37
SPEAKER_01
ist, glaube ich, eine Frage, die noch sehr offen ist. Wie wird eigentlich diese Kooperation
sozusagen zwischen menschlichen Akteuren und der KI, wie wird das in Zukunft
funktionieren, wie sind da die Rollenverteilungen? Ich sehe im Moment so, wenn ich so
überlege, verschiedene Konzeptionalisierungen sozusagen dieser Rolle. Das erste wäre
mal so, dass man sagt, ja gut, also wir können KI zwar durchaus zur Analyse einsetzen
und das ist auch ganz interessant, aber wir müssen diese Analysen immer noch
überprüfen, weil es könnte ja auch Halluzination sein. Fände jetzt erstmal eine sehr
uninteressante Rolle für mich, ehrlich gesagt. Also, dass ich so ein bisschen darauf
reduziert werde, einfach zu prüfen, was die KI sozusagen da in meinem Namen macht,
so eine Art Peer Review der eigenen Forschung zu machen ständig oder sowas. Also das
fände ich ein bisschen enttäuschend. Der andere Ansatz kommt eher so aus dem
Hintergrund der Akteur-Netzwerk-Theorie, Latour und so weiter. Sehr, sehr spannende
Forschung über Mensch-Maschine-Interaktion und wie hier sich so hybride Akteure
sozusagen herausbilden und Menschen und Maschinen sehr, sehr eng
zusammenarbeiten in dem Ganzen. mit KI darin zu übertragen. Ich bin da ein bisschen
skeptisch, ehrlich gesagt, dass man damit so weit kommt, weil eine Grundidee ist ja hier
immer, und das macht diese Forschung eigentlich so spannend, dass eben diese
Maschinen in diesen Netzwerken wie so ein eigenes Handlungsprogramm auch
einbringen und deswegen auch so eine quasi Akteursstatus ihnen eigentlich zuerkannt
werden will, Aktanten nennt man es dann, aber auch handelnd sind. Ich frage mich ein
bisschen, wie weit kommt man mit so einer Sicht, wenn man solche Modelle hat, die
doch so stark darauf trainiert sind, uns möglichst eng zu imitieren, also unsere Art zu
denken, zu reden usw. möglichst eng zu imitieren. Also wo ist da das andere
Handlungsprogramm? Wo ist da das, was es denn eigentlich spannend macht, hier von
einer hybriden Mensch-Maschine-Konstellation zu sprechen? Also ich sehe KI,
zumindest diese Sprachmodelle, wie sie heute trainiert sind, mehr so als so eine Art
Spiegel, die quasi imitiert, aber nicht so sehr als einen ganz anderen Akteur in so einer
hybriden Konstellation. Meine eigene Position wäre mehr sozusagen, eher zu sagen, lass
uns doch KI mehr, diese Sprachmodelle mehr als so eine Art Übersetzer,
Übersetzungstool quasi sehen. Also lass uns eigentlich diese Möglichkeiten des
Spiegels, der Imitation oder auch der Mimesis, wie man erkenntnistheoretisch sagen
könnte, die uns sehr fremd
00:28:37
SPEAKER_01
fremd sind. Und es ist der Anspruch, diese erstmal Milieus aus sich heraus zu
verstehen, aus ihrer eigenen inneren Logik heraus zu verstehen. Hier, denke ich, könnten
diese Sprachmodelle, die ja einfach allen möglichen kommunikativen Milieus schon in
ihren Trainingsdaten begegnet sind, viel mehr, als ich jemals lesen könnte in meinem
ganzen Leben. Also lass uns die doch so ein bisschen als Ersetzungstools hier nutzen,
die uns da sozusagen Brücken bauen können in kommunikative Kulturen, die uns
eigentlich als so Intellektuelle aus den akademischen Milieus und so ein bisschen fremd
sind. Im Übrigen passt das auch ganz gut eigentlich zu den Ursprüngen der heutigen
dominanten Architektur von KI-Modellen, dieser Transformer-Architektur. Also GPT steht
ja für General Purpose Transformer. Das ist eine bestimmte Architektur dieser Modelle
sozusagen, die eigentlich ihre Ursprünge eher in Übersetzungsprogrammen tatsächlich
haben. Übersetzung also zwischen verschiedenen Landessprachen zu übersetzen.
00:29:47
SPEAKER_00
Okay, ja, spannende Richtung auf jeden Fall. Vielleicht, was sich da so ein bisschen dran
anschließt, wäre vielleicht die Frage, was heißt das eigentlich auch für die Lehre von
qualitativen Methoden, wenn man jetzt stärker mit künstlicher Intelligenz auch arbeitet
und das vielleicht auch bis zu einem gewissen Grad Normalität wird.
00:30:07
SPEAKER_01
Das ist eine schwierige und finde ich auch wiederum noch ziemlich offene Frage. Ich
meine, im Grunde denke ich, stellen sich für uns so ähnliche Fragen. Erstmal muss man
ja sagen, wenn wir über Methoden reden, dann reden wir eigentlich so ein bisschen über
das Handwerkszeug der Wissenschaft. Also es geht ja auch um was sehr Praktisches,
ein Können eigentlich. Viel mehr noch als eine Theorie oder ein theoretisches Wissen.
Es ist halt einfach so, also so ein Können erwirbt man einfach am besten dadurch, dass
man das mal selber macht. Da ist natürlich die große, große Verlockung der
Sprachmodelle und der KI und dieser KI-Funktion in auch qualitativen Analysen. Ich
meine, letzten Endes sind das Probleme, wie wir sie in vielen anderen Bereichen schon
lange haben. die damit konfrontiert sind, dass wahrscheinlich die allermeisten Sachen,
die sie in ihrem Berufsleben einbauen, irgendwelche vorgefertigten Küchen oder
Treppen aus der Industrie sind. Und trotzdem sagt man, ja, aber in der Ausbildung
müssen sie trotzdem bestimmte Sachen mal selber machen, damit sie eben, wenn
dieser blöde Schrank ihnen nicht passt, damit sie den auch dann anpassen können
später, damit sie auch diese grundlegenden Fähigkeiten erwerben. Ja, dazu muss man
eben auch manchmal sagen, na, können wir jetzt nicht alles automatisieren, sondern
müssen wir einfach auch mal händisch machen. Und das sind, glaube ich, Fragen, die
wir uns in Zukunft auch in der Methodenausbildung stellen müssen. Ist da nicht auch
ein Stück, wo wir wirklich mit unseren Daten quasi an die Werkbank müssen und mit
Handwerkszeug daran, oder können wir gleich KI da drauf hauen? Weil es ist natürlich
schon eine Gefahr auch, dass, wir kennen das ja auch aus anderen Kontexten. Ich
meine, die Texte, die KI, diese Sprachmodelle produzieren, die sind so auf eine Weise
auch erstmal stilistisch und so weiter perfekt, dass es natürlich für Studierende auch
was sehr Entmutigendes haben kann und sie eigentlich davon abhält, dann ihre eigenen,
vielleicht auch noch ein bisschen nicht ganz so eleganten Interpretationsversuche oder
Analyseversuche da vorzulegen und abzugeben, auch in einer Prüfungssituation. Das
muss man sich ja auch immer vor Augen halten, statt wenn man dann eben die KI das
machen lässt und so. Was ich tatsächlich eine gute Idee finde und da gibt es viele
Überlegungen in die Richtung und viele auch praktische Experimente zu sagen, lass uns
doch KI so ein bisschen als Diskussionspartner in sozusagen nutzen, so ähnlich wie wir
ja sehr, sehr viel eben auch in der Analyse qualitativer Daten, so in Forschungsgruppen
arbeiten, Interpretationsgruppen arbeiten und eben wechselseitig immer wieder uns
quasi herausfordern in unserer Analyse und so. Nur eben, wir müssen auch, glaube ich,
aufpassen, dass nicht eher das dann dazu führt, dass die Studierenden eigentlich eher
entmutigt werden, wirklich auch mit eigenen Analysen und Interpretationen und auch
Widerspruch gegen die KI sich auch vorzuwagen. Da denke ich, bei sehr erfahrenen
ForscherInnen ist das kein Problem, aber AnfängerInnen kann das durchaus auch
demotivieren, denke ich.
00:33:20
SPEAKER_00
Ja, du hattest jetzt eben schon so ein bisschen damit angefangen. Ich würde da
vielleicht nochmal nachfragen wollen,
00:33:48
SPEAKER_01
du hattest Ja, jetzt eben schon so ein bisschen damit angefangen. Ich würde da
vielleicht nochmal nachfragen wollen, welche prinzipiellen Potenziale siehst du denn
eigentlich in KI im Kontext von qualitativen Forschungsprozessen? Also wo kann KI de
ehesten angewandt Aber wird. man kann auch die anderen Stationen noch mal
anschauen. Also ich hatte schon gesagt, weshalb ich glaube, es ist keine besonders
gute Idee der KI, die Entwicklung einer Forschungsfrage zu überlassen, weil einfach
wirklich die interessanten neuen Fragen, so wie noch niemand gefragt hat, so wie noch
niemand sich einem Phänomen genähert hat, das sind genau diese Ideen, die wir
einfach einbringen müssen. Das ist KI klassisch abtrainiert worden sozusagen, so das
Neue zu denken und auch nur zu fragen. Aber wo sicherlich dann KI sehr hilfreich sein
kann, eben diese frühe Findungsphase ist auch, einfach eben verschiedene
Forschungsfragen, verschiedene Ideen zu diskutieren, dazu Einschätzungen zu
bekommen, wie so eine Art Kritik zu bekommen oder sowas. Ja, also das könnte ich mir
sehr gut vorstellen. Ein bisschen ähnlich gilt es auch für die Entwicklung des
Erhebungsinstrumentes. Also ich glaube, man sollte durchaus auch selber wirklich sich
gute Fragen auch überlegen für seine Interviews und so weiter. Nicht einfach das
Generieren eines Leitfadens jetzt an Chetchikiti abgeben. Aber auch da, ich glaube,
wenn es so um Feedback geht und Diskussionen, vielleicht auch mal wie so eine Art
Probeinterview und zu gucken, was kommt da jetzt und so, dann hat man wie so eine
Außensicht nochmal auf das, was man sich selber so gedacht hat. Ein großes Thema ist
natürlich, weil das führt dann ein bisschen weg von qualitativen Methoden, die Frage der
Literaturanalyse und sozusagen den Forschungsstand zu analysieren. Da gibt es
natürlich jetzt sehr weitreichende Versprechen von verschiedenen Tools, die sagen, also
wir können euch sozusagen den Stand der Forschung einfach so schreiben. Ja, wir
recherchieren da in verschiedensten Datenbanken, ziehen alle möglichen Artikel daraus
und so und fassen die irgendwie zusammen und dann habt ihr da einen
Forschungsstand. Ich muss sagen, da bin ich sehr skeptisch, dass das besonders
sinnvoll ist und auch alles, was ich da so gesehen habe. Den Forschungsstand
zusammenzufassen, ist ja nicht nur so eine Art Pflichtübung, damit man das einfach wie
abgehakt hat, sondern es geht ja darum, dass man wirklich auch die Lücken entdeckt,
die interessanten, offenen Fragen, eben die Dinge entdeckt, an die da noch niemand
gedacht hat, in diesen ganzen, ganzen Texten.
00:36:04
SPEAKER_00
Genau, wenn wir jetzt vielleicht schon gerade den Bogen so ein bisschen schlagen, kann
man natürlich auch die Frage stellen, welche Probleme oder Risiken verbinden sich
vielleicht auch mit dem Einsatz von KI? Wenn man vielleicht auch auf so Begriffe oder
Konzepte blickt wie Intransparenz oder Blackbox-Effekte, die Frage von Bias in KI,
welche Rolle spielt das vielleicht auch im Kontext der Forschung mit KI?
00:36:26
SPEAKER_01
Ich finde eigentlich, das sind beides Themen, die uns qualitativ Forschenden eigentlich
sehr vertraut sind und auch kein so großes Problem sind. Ja, dieses Blackbox-Thema,
dass man eben nicht genau weiß, also nicht genau auch technisch nachvollziehen kann,
wie im Einzelnen, genau weiß, also mich genau auch technisch nachvollziehen kann,
wie im Einzelnen, kommt denn jetzt eine KI zu bestimmten Aussagen oder
Schlussfolgerungen oder sowas, dass das einfach sehr schwer ist, das genau zu sagen.
Damit, dass Interpretationsprozesse auch nie so 100% transparent und durchschaubar
sind, sondern dass wir hier sowas brauchen wie intersubjektive Überprüfbarkeit, indem
wir uns wechselseitig kritisch hinterfragen und diskutieren über Interpretationen und
uns darüber verbessern. Also dass solche Interpretationsprozesse immer auch ein
gewisses Moment von Subjektivität oder von nicht hundertprozentiger
Formalisierbarkeit, sage ich mal so, beinhalten. Das ist eigentlich etwas, das wir gut
kennen aus der qualitativen Analyse, mit dem wir auch durchaus gelernt haben,
methodisch umzugehen. Dass wir auch gelernt haben, methodisch zu kontrollieren. Von
daher, finde ich, ist das für uns wahrscheinlich weniger ein Problem, als für jemanden,
der gewohnt ist, mit Statistiken zu arbeiten, wo es ganz klare deterministische Formeln
gibt und so und jetzt mit diesen Sprachmodellen plötzlich so ins Schwimmen kommt. Ja,
also eben, eigentlich liegt uns das gar nicht so fern. Die andere Sache ist, dass mit den
Bios etwas, das ein ganz wichtiges Thema ist in der qualitativen Forschung, der Analyse,
dass es natürlich immer auch die Position des Forschenden oder des Interpretierenden
auch in die Interpretation mit hineinspielt, dass es immer auch eine Form von Bias gibt,
eine Position, von der aus wirhält, einfach sozusagen aus den Daten mitgelernt hat,
verschiedenste auch Biases, aber eben nicht über irgendwie eine Art von
Selbstbewusstsein oder so verfügt, dass sie das reflektieren könnte. eigentlich der
Anspruch innerhalb der qualitativen Forschung oder der Umgang mit dieser
Produktionsgebundenheit und mit den Biases, die damit einhergehen, dass die
Forderung ist, wir müssen das sozusagen reflexiv mit einbeziehen in unsere Analyse,
auch die Grenzen des eigenen Fremdverstehens mit in die Analyse einbeziehen. Dazu ist
eben KI nicht in der Lage, weil KI sich nicht wie als Subjekt sehen kann. Natürlich, wenn
man schätzt, wie die danach fragt, kriegt man eine Antwort, aber das ist auch eine
generierte Antwort, das ist jetzt ich. Also zumindest gehöre ich nicht zu den Leuten, die
es ja auch gibt, die finden, diese KI-Modelle sind so weit, dass sie irgendeine Form von
Subjekthaftigkeit und Selbstbewusstsein entwickelt haben. Also da würde ich mit dem
Großteil, glaube ich, der einigermaßen seriösen KI-Forschung zusammengehen und
sagen, nein, das ist nicht der Fall. Es gibt keine Reflexivität über die eigene
Positionierung, über den eigenen Bias, die eigene Rolle. Das ist schwierig. Das müssen
wir irgendwie leist sozusagen mit übernehmen für die KI. Nicht ganz einfach, weil wir
natürlich auch letzten Endes bei vielen der großen Modelle auch nicht wirklich wissen,
was sind denn eigentlich die Trainingsmodelle. Gut, man kann irgendwie unterstellen, so
quasi das Internet mehr oder weniger. Und da kann man sich ein bisschen überlegen,
welche Beispiele da drin sind. Ziemlich westlich orientiert, ziemlich englischsprachig
orientiert.
00:40:05
SPEAKER_00
Okay, vielleicht auch daran nochmal ein bisschen anschließen, die Frage, inwiefern es
vielleicht auch so forschungsethische Aspekte gibt bei dem Einsatz von KI. Also wenn
man jetzt zum Beispiel an sowas wie Datenschutz oder ähnliches denkt, was ja gerade
mit erhobenen Daten immer ein großes Thema ist, welche Probleme bringt da vielleicht
eine KI auch mit sich?
00:40:23
SPEAKER_01
Das ist ein sehr, sehr wichtiges Thema in der qualitativen Forschung. Wir haben es hier
oft mit sehr, sehr sensiblen Daten zu tun. Menschen, die uns sehr tiefe Einblicke
gewähren in ihre Leben, in ihre Gefühlswelt, in ihre Ängste, Sorgen, Krisen, ihr Scheitern
und so weiter. Sehr, sehr sensible Daten, die einem ganz besonderen Schutz bedürfen.
Das ist auch einfach forschungsethisch ein zentraler Grundsatz, damit sehr vorsichtig
umzugehen. Also wir sind noch relativ weit entfernt, würde ich auch aus eigenen
Experimenten sagen, dass wir wirklich KI-Modelle, Sprachmodelle lokal auf dem
eigenen Computer ohne Internetzugang laufen lassen können, die in der Lage sind,
diese Art von Analysen, die wir in der qualitativen Forschung brauchen, auch nur
annähernd zu leisten. Das ist wirklich noch weit entfernt und man muss mal gucken, wie
die technische Entwicklung da ist. Im Moment sind wir eigentlich darauf angewiesen,
dass wir hier dann Server-Zugriffe haben und das bedeutet natürlich immer, dass Daten
abschließen, dass sie sozusagen irgendwo hin übermittelt werden und so weiter. Und da
ist die große Frage, okay, können wir denn zumindest schauen, dass wir diese Orte, wo
das hin übermittelt wird, dass wir die dann irgendwie unter der Kontrolle auch der
Forschungscommunity haben. Oder muss das eben ein privates Unternehmen sein, wie
OpenAI, das ja nun weitlich dafür bekannt ist, ein, sagen wir mal, sehr lockeres
Verständnis von Datenschutz zu haben. Also, dass eigentlich erstmal alles quasi, was
man so an Daten finden kann, als irgendwie re-worker steht, ja, das ist natürlich schon
ein bisschen heikel. Ich würde sehr dafür plädieren, dass wir eine eigene Infrastruktur
schaffen, in Deutschland auch und es gibt dadurch ja so Ansätze, dass wir auch große
Sprachmodelle laufen lassen können auf dieser Infrastruktur. Es gibt dadurch ja so
Ansätze, dass wir auch große Sprachmodelle laufen lassen können auf dieser
Infrastruktur. Es gibt ja auch durchaus inzwischen oder jetzt das kommende LAMA3
Modell zum Beispiel von Meta wird ein ziemlich großes frei verfügbares Sprachmodell
sein, wo ich sehr gespannt wäre, das mal auszuprobieren, was damit vielleicht möglich
ist. Sicherlich noch nicht so auf dem Niveau von GPT-4 oder so, aber ja, mal sehen. Das
Problem ist einfach, dass da auch im Moment in Deutschland und auch Europa ein
bisschen die Infrastruktur fehlt. Ich nutze selber in Qualcode auch Open Source
Modelle, die zum Beispiel auf einem Server laufen der Helmholtz-Gesellschaft in Jülich,
ja, also das ist schon potente Hardware, ja, aber auch darauf muss ich sagen, sind dann
doch nicht die wirklich großen Modelle lauffähig, da fehlen dann auch da die
Ressourcen. Also da müssten wir irgendwas gucken, da wäre ich sehr froh, wir könnten
da eine gewisse Unabhängigkeit erzielen. Vielleicht auch im Hinblick irgendwann, dass
wir auch mal Modelle hätten, die wir nicht von Grund auf selbst trainieren. Aber man
kann ja diese Modelle auch, man nennt das Fine-Tuning, auf bestimmte Zwecke hin
eben auch noch weiter spezialisieren sozusagen. Und das wäre natürlich auch wirklich
toll, wenn das irgendwann mal möglich wäre. Aber dann brauchen wir eben auch die
möglich Ressourcen, wäre. Aber dann brauchen damit wir eben diese auch die
Ressourcen, Modelle damit diese Modelle auch auch lauffähig lauffähig sind. sind. Wir
müssen uns ein bisschen verlassen auf das Versprechen von OpenAI, dass diese Daten,
die dort übermittelt werden, eben nicht zu Trainingszwecken verwandt werden. Also
wenn man die kostlose Version von ChatGPT benutzt, ist das anders. Ja, aber wenn man
sozusagen über die Programmierschnittstelle zugreift, dann gibt es die explizite Zusage,
dass das nicht verbrennen wird. Ich tendiere auch tatsächlich dazu, dem ein Stück weit
auch zu vertrauen, weil das wirklich ein ganz Kernbereich des Geschäftsmodells von
OpenAI ist. Die wollen natürlich gerne, dass Unternehmen, vor allem Forscher sind
denen egal, aber Unternehmen, dass die sozusagen ihre internen Daten auch da nutzen
mit solchen Chatbots und so weiter. Und ich glaube, wenn da irgendwie auch noch der
Verdacht aufkäme, dass OpenAI diese Daten abzapft oder so und vielleicht
Firmengeheimnisse dann Chat-GPT beibringt, also ich glaube, das wäre für das
Geschäftsmodell von OpenAI eine ziemliche Katastrophe. Deswegen tendiere ich ein
bisschen dazu, an der Stelle tatsächlich auch dieser Firma ein Stück zu vertrauen. Was
wir natürlich versuchen können, ist, Daten möglichst gut zu anonymisieren. Aber wir
wissen auch, dass wenn wir lange Transkripte haben, dass das sehr, sehr schwierig ist
und nicht damit getan ist, dass man einfach ein paar Namen weglässt oder sowas. Weil
da ist so viel Information, auch lebensgeschichtlich, über einen Menschen dann oft in
einem solchen Interview also sehr, sehr schwer, das wirklich total zu anonymisieren.
00:45:18
SPEAKER_00
Vielleicht zum Abschluss des Podcasts, ich weiß, dass es manchmal nicht ganz einfach
ist, aber trotzdem vielleicht ein bisschen der Blick in die Glaskugel. Was werden wir für
Entwicklungen noch in näherer oder weiterer Zukunft vielleicht erleben hinsichtlich des
Einsatzes von KI in der qualitativen Forschung oder auch der Verbreitung dessen? Also
erstmal würde ich ganz grundsätzlich damit
00:45:38
SPEAKER_01
erstmal würde ich ganz grundsätzlich damit rechnen, dass wir so ein bisschen so den
typischen Hype-Cycle auch erleben und irgendwann dann in eine Phase kommen, wo es
auch ein wenig mehr auch Desillusionierung gibt. Ich glaube, es wird auch da gewisse
Enttäuschung geben, was nicht immer das Schlechteste ist, weil es eigentlich den
Boden bereitet oft für einen wirklich sachlich und sinnvollen Einsatz dann so einer
neuen Technologie. Gesamtgesellschaftlich, aber auch innerhalb unserer speziellen
Community, damit würde ich schon etwas rechnen. Aber ich denke schon, dass sich KI
und vor allem diese Sprachmodelle auch schon etablieren werden in unseren
Methoden. Im Moment ist es noch so, dass sehr viel eigentlich von unseren klassischen
Methoden und Vorgehensweisen her gedacht wird und die Frage, wie kann man KI jetzt
da irgendwie integrieren oder wie könnte KI vielleicht Teile übernehmen von dem
Vorgehen, das wir aber eigentlich unabhängig jetzt mal von KI entwickelt haben. Ich bin
sehr, sehr gespannt zu sehen, was wir vielleicht auch an neuen methodischen
Entwicklungen bekommen werden, die sozusagen von Anfang an mit KI gedacht sind.
00:47:02
SPEAKER_01
ausprobieren könnte mal oder welche Richtung es vielleicht gehen könnte. Aber ich
hoffe, dass diese neuen tollen Ideen dann nicht in dem Moment halt kommen, wo dieser
Hype-Cycle quasi gerade in sein Tal eintaucht und dann niemand das mehr richtig
wahrnimmt bzw. auch alle Fördermittel oder sowas diesen Projekten abgeschnitten
werden, weil man denkt, ach Gott, Kai-Ini, das ist doch jetzt wirklich durch das Thema.
Das ist oft in diesem Halbzeiten ja der Moment, wo sich dann die wirklich spannenden
und auch dauerhaft erfolgreichen Anwendungen dann herauskristallisieren. Und ich
hoffe, dass das eigentlich passiert.
00:47:33
SPEAKER_00
Ja, ich finde, das ist eigentlich ein schöner Abschluss gewesen. Ja, da bleibt mir
eigentlich nur noch zu sagen, vielen Dank, Kai Drüge, für diesen spannenden und ja,
kenntnisreichen Einblick in das Thema qualitative Forschung und künstliche Intelligenz.
Ja, wunderbar. Hat mich sehr
00:47:45
SPEAKER_01
Ja, wunderbar. Hat mich sehr gefreut. Auch danke für die sehr interessanten und
spannenden Fragen und Themen, die wir diskutiert haben. Wunderbar. Und danken
möchte ich
00:47:53
SPEAKER_00
möchte ich natürlich auch allen Hörerinnen und Hörern für ihre Aufmerksamkeit. Hören
Sie bei Interesse auch gerne in eine vorherige oder zukünftige Folge unseres Podcasts
hinein und vor allem bleiben Sie kritisch und bleiben Sie gespannt auf die Zukunft der KI
in der qualitativen Forschung.
00:48:12
SPEAKER_02
Der KI-Insights-Podcast ist eine Initiative des Projekts ZAKI, der zentralen Anlaufstelle für
innovatives Lehren und Lernen interdisziplinärer Kompetenzen der KI der Hochschule
Magdeburg-Stendal, gefördert vom Bundesministerium für Bildung und Forschung.