Qualitative Forschung im Zeitalter von KI – ein Gespräch mit Fabio Lieder

folge06fabiolieder(c)fabiolieder

© Fabio Lieder

Staffel 3 , Folge 6

KI-gestützte Forschungssoftware, hybride Forschungswerkstätten und Mensch-KI-Kollaboration – wie sinnvoll und hilfreich ist der Einsatz von Künstlicher Intelligenz in der qualitativen Sozialforschung? In dieser Folge sprechen wir mit Fabio Lieder von der Universität der Bundeswehr München über KI als Kollaborationspartner und Unterstützungswerkzeug in der rekonstruktiven Sozialforschung. Konkret geht es um Herausforderungen bei der Anwendung im Rahmen der dokumentarischen Methode, die Bedeutung eines fundierten Trainings, medienethische Aspekte sowie um qualitative Veränderungen, die durch den Einsatz von KI in der Forschung entstehen.

Moderation: Peter Kann
Schnitt & Text: Julia Fritz

Transkript Stafel 03, Folge 06 Fabio Lieder
00:00:04 SPEAKER_00
Willkommen bei KI Insights, ein Podcast vom Projekt ZAKKI an der Hochschule
Magdeburg -Stendal. Hier teilen Expertinnen verschiedenster Disziplinen ihre Einblicke
in die facettenreiche Welt der künstlichen Intelligenz. In der dritten Stafel erwarten Sie
spannende Data Science Use Cases aus Forschung und Industrie, datengetriebene
Ansätze und Techniken des maschinellen Lernens sowie gesellschaftliche Fragen rund
um das Thema KI.

00:00:30 SPEAKER_01
So, liebe Hörerinnen und Hörer, willkommen zurück zum KI -Insights -Podcast des
Projekts ZAKKI der Hochschule Magdeburg -Stendal. Mein Name ist Peter Kann vom AI
Social Lab und ich freue mich, heute Fabio Lieder von der Universität der Bundeswehr
München begrüßen zu dürfen. Hallo Fabio. Hallo, freut mich, dass ich hier da sein darf.
Fabio Lieder ist dort wissenschaftlicher Mitarbeiter und beschäftigt sich unter anderem
intensiv mit der dokumentarischen Methode und dem Einsatz generativer
Sprachmodelle in der rekonstruktiven Sozialforschung. Und genau darauf wollen wir
auch heute in der heutigen Folge unseren Blick richten. Fabio, vielleicht kannst du uns
zum Einstieg mal ein bisschen, wenn auch kurz, schildern, was ist eigentlich
rekonstruktive Sozialforschung? Was macht das eigentlich aus?

00:01:14 SPEAKER_02
Also rekonstruktive Sozialforschung ist meistens sehr aufwendige Forschung. Sie geht
hypothesengenerierend vor. Das heißt, wir versuchen gar nicht so sehr Hypothesen zu
prüfen, sondern erstmal überhaupt Hypothesen aufzustellen. Und wir versuchen dabei
den Grundsatz einzuhalten, dass weniger Eingrif mehr Kontrollmöglichkeiten bietet.
Das heißt, wir gehen nach Möglichkeit Narrativ vor in unseren Erhebungen, also sofern
wir Gruppendiskussionen oder Interviews durchführen. Es gibt aber auch rekonstruktive
Bildinterpretationen. Aber bleiben wir mal bei Interviews und Gruppendiskussionen, die
sind zumeist Narrativ angelegt. Wir versuchen dabei… Wenig zu strukturieren, wenig
einzugreifen. Wir operationalisieren nichts, wir standardisieren nichts. Und warum
machen wir das? In der rekonstruktiven Sozialforschung geht es darum, dem
Beforschten die Möglichkeit zu geben, die Fragestellung in ihrem eigenen
Relevanzsystem zu verordnen. Also wir schauen erstmal, interessiert sie die
Fragestellung überhaupt? Der Frageimpuls. Spielt das überhaupt eine Rolle für sie? Wie
verstehen sie die Fragestellung für sich? Dann geht es darum, dass sie das Thema in
ihrer eigenen Sprache entfalten. Also wenn ich mit einem Leitfaden da ständig
dazwischen funken würde, dann könnten sie das nicht tun. Es geht also darum, dass die
Beforschten ihre Lebensweltkonstruktion möglichst ungestört entfalten können. Sie
sollen erzählen, beschreiben, diskutieren, ein Thema diskursiv, diskutierend, vielleicht
auch streitend bearbeiten. Und besonders interessant ist es dann, wenn da eine hohe
Interaktionsdichte stattfndet in einer Gruppe oder wenn eine starke Metaphorik
verwendet wird. Das sind besonders interessante Stellen, die für die… Rekonstruktion
besonders interessant sind, denn dort wird die Lebensorientierung der Befragten, der
Beforschten besonders zugänglich für eine Interpretation. Das heißt, wichtig dabei ist,
dass die Ausarbeitung der Beforschen immer in ihrem Entstehungskontext betrachtet
werden. Die rekonstruktive Sozialforschung geht daher sequenziell vor. Das ist auch ein
interessanter Punkt bei der Forschung mit KI. Diese Sequenzialität stellt uns nämlich vor
Herausforderungen, das umzusetzen. Also kurz gesagt, wir versuchen in der
rekonstruktiven Sozialforschung implizites explizit zu machen. Also das, was sozusagen
zwischen den Zeilen nicht explizit gesagt wird, versuchen wir durch Interpretation zu
verdeutlichen.

00:03:28 SPEAKER_01
Interpretation zu verdeutlichen. Das ist ja jetzt sozusagen der allgemeine Rahmen der
rekonstruktiven Sozialforschung. Jetzt bist du ja insbesondere damit befasst, sozusagen
die dokumentarische Methode anzuwenden, eben auch im Kontext von KI, da
Entwicklungen anzustoßen. Vielleicht kannst du doch mal ganz kurz sagen, wie sich die
dokumentarische Methode da als spezifsche Methodologie, Methode aufstellt in
diesem Kontext.

00:03:52 SPEAKER_02
Ja, wie gesagt, es gibt mehrere Methodologien und Methoden, die in der rekonstruktiven
Sozialforschung eingesetzt werden. Die dokumentarische Methode ist eine davon. Es
gäbe aber auch noch die objektive Hermeneutik, narrationsstrukturelle Verfahren und
die Grounded Theory gehört im Grunde auch dazu. Im Fall von der dokumentarischen
Methode. Es ist so, dass die auf den Wissenssoziologen Karl Mannheim zurückzuführen
ist und in den 80er Jahren von Ralf Bohnsack im Rahmen eines Forschungsprojektes
weiterentwickelt wurde, beziehungsweise etwas systematisiert wurde. Das heißt, die
dokumentarische Methode ist erstmal eine Methodologie. Das ist immer so ein
bisschen irreführend. Also die Methode selbst heißt dokumentarische Methode, aber
dahinter steckt auch eine ganze Methodologie, die immer mitgedacht wird. Dem
methodischen Vorgehen liegen immer methodologische Annahmen zugrunde, aus
denen es sich begründet. Und bei der dokumentarischen Methode ist es so, dass sie auf
der Annahme basiert, dass Menschen nicht nur auf expliziter Ebene etwas sagen,
sondern eben auch implizit, wie wir es gerade eben schon haben, und nach bestimmten
Regeln oder Mustern handeln. Und die Methode versucht, diese impliziten
Handlungslogiken zu rekonstruieren. Damals wurde es am
Gruppendiskussionsverfahren hauptsächlich erprobt. Mittlerweile machen auch sehr,
sehr viele forschende Interviewerhebungen oder Bildinterpretationen. Und vielleicht
anhand eines Beispiels stellen wir uns eine Gruppe von Forschenden in
Qualifkationsphasen vor, also Promovierende oder Personen, die gerade ihre Habil
schreiben und dazu befragt werden, wie sie ihren Forschungsalltag gestalten. Diese
Gruppe verfügt nun über eine strukturidentische Erfahrung. Sie wissen, wie es ist zu
promovieren, obwohl sie sich eventuell gar nicht kennen, an unterschiedlichen
Universitäten arbeiten und trotzdem haben sie eine strukturidentische Erfahrung,
nämlich die Promotion. Das heißt, diese Promovierenden können sich auf einer
Verstehensebene austauschen. Das heißt, sie verstehen sich unmittelbar und müssen
kaum Interpretationsakte vollziehen, um einen Zugang zur Lebenswelt in diesem
spezifschen Kontext der anderen zu fnden. Und das funktioniert eben meistens
selbstläufg und fußt auf einer… impliziten Handlungslogik und nun erzählt und
beschreibt die Gruppe alles, was für sie zu der Frage als relevant erscheint, ohne dass
ich als Forscher sie dabei störe nach Möglichkeit. Das Ganze wird dann aufgezeichnet,
transkribiert und jetzt komme ich zum Verfahren der dokumentarischen Methode. Aus
dem Transkript wird eine Passagenauswahl vorgenommen. Ich wähle thematisch
relevante Interaktiv -Dichte, wo es hoch hergeht. oder metaphorisch aufgeladene
Passagen aus und unterziehe dieser einer schritthaften Interpretation. Der erste Schritt
ist dann eine formulierende Interpretation. Das heißt, ich bewege mich da auf dem
wörtlichen Sinngehalt, den immanenten Sinngehalt, wie wir das nennen. Und wir
schauen uns in diesem Schritt zunächst an, was denn da eigentlich gesagt wird in dieser
Gruppendiskussion oder in diesem Interview. Und das ist gar nicht so einfach.
Deswegen ist es auch eine formulierende Interpretation. Weil wenn man sich das
unterschiedliche Forscher anschaut, dann… und darüber sprechen, was denn da
eigentlich gesagt wird, dann stellen wir fest, wir sind uns da gar nicht so einig darüber,
was da gesagt wird. Und darüber müssen wir uns dann erstmal einig werden, wir
müssen das interpretativ erschließen, was denn da eigentlich gesagt wird. Wie wenig wir
von unserer Umgebung außerhalb unserer Lebenswelt tatsächlich verstehen, wird da
sehr deutlich. Und anschließend geht es dann in eine refektierende Interpretation über
und dort fragen wir dann, wie wird das denn da eigentlich gesagt? Also wie konstruiert
sich dieser Diskurs, der dort stattfndet in dem Transkript? Und da bewegen wir uns
dann auf der Ebene des dokumentarischen Sinngehalts, also auf der Ebene des
impliziten Wissens. Wir zielen darauf ab durch eine Prozess – oder sequenzanalytische
Rekonstruktion von Handlungs-, Interaktions – und Diskurspraktiken sowie auf die
Rekonstruktion der erlebnismäßigen Darstellung, der Erzählung und Beschreibung
dieser Praktiken. Also wir schauen uns an, wie konstruiert sich das überhaupt? Wie baut
diese Gruppe ihren Relevanzrahmen auf? Wie bearbeitet sie das Thema? In dieser Art
und Weise, in dieser Handlungslogik, die wir da rekonstruieren, können wir sehen,
welche Orientierungen dieser Gruppe zugrunde liegen, welche Orientierungen
Promovierende, meinetwegen in den Sozialwissenschaften, haben und wie sie, welche
Handlungslogiken sie dort verfolgen. Ich arbeite mich da wirklich sequenziell von oben
nach unten durch. Also ich springe nicht in der Passage, ich reiße keine Äußerungen aus
dem Kontext, also ich mache keine… sprünge, ich betrachte jede Äußerung im Lichte
des Gesamtdiskurses und frage danach, wie diese Verkettung von Äußerungen zustande
kommt und welche implizite Handlungslogik, die für die Gruppe selbstverständlich ist,
aber für mich nur interpretativ zu erschließen ist, diesen Äußerungen dieser Praxis
zugrunde liegt. Und das Ziel ist ja letzten Endes die Bildung einer Typologie. Da stützen
wir uns meistens auf den Idealtypus von Max Weber. Das heißt, Am Ende werden, wenn
wir mehrere Fälle haben, mehrere Gruppendiskussionen, Interviews, werden diese Fälle
zu Idealtypen verdichtet. Das heißt, der Typus oder die Typen, die am Ende
herauskommen aus diesem Forschungsprozess, das sind dann gar nicht mehr einzelne
Gruppen oder einzelne Personen, sondern das sind Idealtypen, die bestimmte
Eigenschaften tragen, die typisch sind für bestimmte Gruppenzugehörigkeiten. Und das
dauert alles sehr lange, das ist sehr aufwendig und das ist vor allem sehr
voraussetzungsvoll. Es dauert lange, um sich diese Methode überhaupt erstmal
anzueignen. Und das ist eben auch eine weitere Herausforderung, sich zu überlegen,
wie schafen wir es denn, eine so voraussetzungsvolle Methode, die so lange braucht.
um überhaupt erst verstanden zu werden. Da gibt es wenig Eindeutigkeit. Diese
Eindeutigkeit muss erst hergestellt werden. Und auch die ist immer wackelig. Also wir
versuchen, unsere Ergebnisse intersubjektiv abzusichern. Und jetzt fragen wir halt
danach, wie können wir das denn überhaupt einer KI beibringen? Also einem
generativen Sprachmodell.

00:09:39 SPEAKER_01
Anhand deiner Schilderung merkt man ja schon, wie du auch gesagt hast, das ist eben
eine sehr voraussetzungsvolle Methode. Bevor wir jetzt dazu kommen, darüber
sprechen zu wollen, wie ihr das konkret versucht habt, teilautomatisiert sozusagen
umzusetzen. Würde mich schon mal interessieren, sozusagen auf einer Meta -Ebene,
welche Rolle zum Beispiel generative Sprachmodelle eigentlich sozusagen aus deiner
Perspektive einnehmen in diesem Prozess der dokumentarischen Methode und ihrer
Interpretationstechniken. Was ist eigentlich die Rolle sozusagen von KI in
rekonstruktiver Sozialforschung, gerade im Bezug, wie du es ja geschildert hast, auch
mit Blick auf die Datenauswertung?

00:10:21 SPEAKER_02
Wir fragen halt danach, kann eine KI interpretieren? Also kann die KI tatsächlich die
Rolle eines Forschungspartners, der am Forschungsprozess mitinterpretiert,
einnehmen? Das ist unsere Frage. Man könnte auch überlegen, ob die KI irgendwie eine
Assistentenrolle einnimmt oder eine etwas passivere Rolle, die sozusagen die Daten
besser ordnet und die Möglichkeit bietet, besser im Material etwas zu fnden, also eher
eine Werkzeugrolle einnimmt. Und wir sind eigentlich von Anfang an davon oder haben
von Anfang an gefragt, inwieweit die KI da mehr als das einnehmen kann, also mehr als
eine reine Assistenz und auch mehr als ein reines Werkzeug, sondern inwieweit die KI
tatsächlich an der Interpretation, also an der Deutung des Transkripts, des Materials
beteiligt sein kann und welche Wertigkeit wir der KI da auch zugestehen. Sagen wir dann,
dass das wirklich eine Interpretation ist? Ist das eine Quasi -Interpretation oder eine
Interpretation, bei der wir so tun, als ob sie eben eine wäre, aber in Wirklichkeit keine
ist? Also wie ernst nehmen wir das, was die KI da produziert? In der rekonstruktiven
Sozialforschung werden eben diese Forschungswerkstätten sehr, sehr rege praktiziert.
Also wir diskutieren unser Material und unsere Interpretation eigentlich immer mit
anderen Forschenden und sichern das damit intersubjektiv ab. Darauf sind wir so ein
bisschen angewiesen und jetzt haben Burkhard Schäfer und ich, seitdem wir unser
Projekt 2021 gestartet haben, eigentlich von Anfang an überlegt, wie wir mit einem
generativen Sprachmodell diesen Prozess auch durchführen können. Und damit meinen
wir dann nicht die Kopie einer Forschungswerkstatt, sondern eher eine neuartige,
andersartige. Forschungswerkstatt, die hybride Forschungswerkstatt oder hybrides
Interpretations -Tandem, wenn man nur zu zweitens, also Person und Sprachmodell. Bei
uns tritt die KI in die Rolle eines Baring Partners, mit dem wir gemeinsam die
Interpretation vollziehen. Und wir haben das dann als verteilte Interpretation gelabelt,
also als Interpretation, die verteilt ist zwischen mir als forschenden Menschen und dem
generativen Sprachmodell, das ebenfalls mitforscht. Also es ist ein gemeinsames
Forschen. Es lassen sich da auch nicht mehr so sehr einzelne Individuen ausmachen
aus unserer Sicht, sondern wir verstehen die Interpretation, den Forschungsprozess
stattfndend in einem soziotechnischen Gefecht. Und dieses soziotechnische Gefecht
besteht aus forschender Person, generativen Sprachmodellen und dem Schreibtisch,
dem Computer, der Software, die verwendet wird, Tastatur, Maus, meinetwegen
Webcam und was sonst noch so alles dazu steht. Tasse Kafee.

00:13:03 SPEAKER_01
Also vielleicht, um das nochmal ein bisschen zu fokussieren, könnte man sagen, dass
ihr schon weggeht sozusagen von dieser Werkzeugidee, das vielleicht mehr auf
Augenhöhe als ein Akteur vielleicht innerhalb dessen seht oder vielleicht auch eher von
der Frage überhaupt wegkommt. Zu fragen, was ist das eigentlich, denn wir agieren mit
ganz vielen unterschiedlichen Aktanten in diesem soziotechnischen Gefecht und man
kann das nicht so auseinander dividieren sozusagen.

00:13:33 SPEAKER_02
Nein, genau. Also aus unserer Sicht nicht, konnte man übrigens auch aus unserer Sicht
noch nie wirklich trennen. Robert Schäfer hat das in seiner Technikgeschichte der
Sozialforschung oder irgendwie so hieß es, ganz gut deutlich gemacht, dass wir in der
Forschung immer von unserer Umwelt abhängig sind, von den Medien, die wir nutzen.
Und jetzt durch die Implementierung von KI in den Forschungsprozess wird es einfach
nur umso deutlicher, wie sehr genutzte Technologie sich auf den Forschungsprozess
auswirkt. mit der Perspektive, dass das alles neutral und passiv ist, diese Technologien,
die da verwendet werden, dass man damit einfach jetzt, spätestens jetzt, aber eigentlich
noch nie so wirklich weiterkommt. Diese Medien, diese Technologien wirken auf unser
Tun, auf unseren Forschungsprozess, verändern die Art und Weise, wie wir auf Ideen
kommen. Sie verändern den Entdeckungszusammenhang, was nicht heißen soll, dass
sich da alles… auf einmal um 180 Grad wendet. Die Ergebnisse können sehr, sehr
ähnlich sein, aber es verändert sich einfach im Prozess durch die Beteiligung von
Aktanten, wie du sie gerade genannt hast, also von Technologien. Das macht die Sache
auch wesentlich spannender, als ständig nur zu fragen, wie können wir rekonstruktive
Sozialforschung oder qualitative Forschung durch Technologie noch efektiver machen,
noch mehr Ergebnisse produzieren, noch mehr Daten bearbeiten und so. Das sind so
feuchte Träume, die irgendwie darauf auf so eine absolute Leistungssteigerung abzielen.
Das ist eine Perspektive, gegen die wehre ich mich auch so ein bisschen, weil ich nicht
der Meinung bin, dass das wirklich eine Arbeitserleichterung ist, wenn wir generative
Sprachmodelle KI in ihrer Andersartigkeit akzeptieren und ihr sozusagen auf Augenhöhe
begegnen, dann erfordert das nämlich auch ein tieferes Verständnis. von der
Beschafenheit von KI. Also wir müssen uns damit auseinandersetzen, wie funktioniert
denn das eigentlich? Warum handelt die KI so, wie sie eben handelt? Genauso wie ich
das dann auch bei Menschen frage. Also ich möchte ja auch die Menschen in meiner
Umgebung kennenlernen. Und es gibt dieses Prinzip der Standortgebundenheit in der
dokumentarischen Methode. Also die Standortgebundenheit, die jedes Subjekt, und in
dem Fall wäre die KI eben auch ein Subjekt, in den Forschungsprozess einbringt. Und
diese Standortgebundenheit muss ebenfalls refektiert werden. Das heißt, die KI hat
auch eine Standortgebundenheit, besteht aus Algorithmen, aber auch aus
Inskriptionen. Da spielen Intentionen der EntwicklerInnen mit rein, also irgendwelche
Milliardäre im Silicon Valley, die diese Technologien gebaut haben. Was die sich dabei
gedacht haben, spielt da mit rein und muss betrachtet werden, muss beachtet werden.
Also da weitet sich das sozio -technische Gefecht auf einmal bis ins Silicon Valley aus.
Und das macht die Sache nicht einfacher.

00:13:57 SPEAKER_00
wie sehr

00:16:09 SPEAKER_01
macht die Sache nicht einfacher. Du würdest aber dann schon sagen, dass der
Mehrwert sozusagen vom Einsatz von KI im Bereich der Sozialforschung, der
rekonstruktiven Sozialforschung eben nicht darin liegt, dass man eine quantitative
Steigerung erreicht, aber wahrscheinlich schon einen qualitativen Mehrwert in
irgendeiner Form generiert.

00:16:31 SPEAKER_02
Also es ist sicherlich auch eine quantitative Steigerung drin. Allerdings muss man
fragen, welchen Preis man dafür bezahlt, wenn man das macht. Die produziert
dermaßen viel Material und Interpretation, wenn man das mal ausprobiert. Es ist
unglaublich überfordernd. Für mich ist es eher eine qualitative Änderung. Ich will gar
nicht so sehr sagen, eine qualitative Änderung, die irgendetwas Hochwertigeres erzeugt.
Sie erzeugt etwas anderes. Und das andere ist interessant. Also jede Technologie, die
am Forschungsprozess beteiligt ist, wirkt auf diesen Forschungsprozess. Sorgt dafür,
dass sich irgendetwas verändert. Und wir fragen danach, was verändert sich dann? Und
bei KI verändert sich eine ganze Menge. Es gibt allerdings noch einen weiteren Punkt, der
in meinen Gruppendiskussionen deutlich geworden ist. Forschung ist eine ziemlich
einsame Geschichte. Und die voraussetzungsvolle dokumentarische Methode ist
schwer anzueignen. Ralf Brunsack ist schwer zu lesen. Und es ist gar nicht so leicht, da
Anschluss zu fnden in der Forschungscommunity, um Personen zu fnden, die einem da
so ein bisschen an die Hand nehmen. Insbesondere, wenn man gerade erst anfängt. früh
dabei ist. Die Hofnung, die in den Gruppendiskussionen häufg geäußert wurde, ist,
dass künstliche Intelligenz generative Sprachmodelle so etwas wie ein Sparringspartner,
eine Rolle des Sparringspartners einnehmen können und damit nicht nur einen
fachlichen Austausch bieten, sondern auch so etwas wie ein emotionales
Aufangbecken. Ja, also es ist einfach so, man kriegt die Krise vorm Computer und dann
ist da so eine KI, mit der man kurz in den Austausch treten kann und eine Interpretation
besprechen kann. Und es gleichzeitig natürlich mit vielen Risiken verbunden. Also die
Verlockung der Interpretation der KI, blind zu vertrauen, ist groß, insbesondere bei
Personen, die sich wenig mit generativen Sprachmodellen auskennen und sich damit
wenig beschäftigt haben, die noch ein, ich sag mal, naives Technologieverständnis
haben, nämlich solches, dass Technologie immer neutral ist, immer korrekte Ergebnisse
liefert, was in der Sozialforschung abstrus ist. Das wäre wie ein Taschenrechner, der die
soziale Wirklichkeit errechnen kann und den gibt es nun mal nicht und die KI ist es auch
nicht.

00:16:45 SPEAKER_00
mich ist es

00:18:28 SPEAKER_01
Also im Prinzip auch da nochmal wieder ein Punkt, wo sich zeigt, dass es eben
voraussetzungsvoll ist, mit KI im Forschungsprozess der rekonstruktiven Sozialforschung
umzugehen und dass es eben nicht unbedingt eine Erleichterung oder eine
Efizienzsteigerung ist, weil man eben solche Refexionsschleifen durchaus mit
einbauen muss, wenn das Ergebnis am Ende irgendwie auch stimmen soll und
sozusagen eine gewisse Informiertheit auch dahinter steckt, was man da eigentlich tut.
Da du es eben schon so ein bisschen angeschnitten hast, würde ich natürlich darauf
auch noch eingehen, eure Software, die Ducumet QDA AI, also KI unterstützt. Vielleicht
kannst du ein bisschen was zu der Entwicklung sagen und vielleicht auch ein bisschen,
was ihr für ein Ziel verfolgt habt oder vielleicht wie sich das auch im Prozess der
Entwicklung eigentlich verändert hat. Sehr, sehr gerne. Wir haben eine spannende
Veränderung hinter uns.

00:19:14 SPEAKER_02
Veränderung hinter uns. Dokumet QDA wurde 2016 oder 2017 hat Burkhard Schäfer mit
der Entwicklung angefangen. Und das Ziel damals war, mit Franz Krämer zusammen und
Denise Klinge war auch zwischenzeitlich dabei. Und die haben eine QDA -Software
entwickelt oder wollten eine QDA -Software entwickeln, nach Vorbild oder angelehnt an
MaxQDA, an die bekannten QDA -Software -Pakete. Wir wollten eben eine Software für
die dokumentarische Methode konzipieren, das haben sie auch gemacht. Da gab es
dann nach einigen Jahren auch eine fertige Softwarelösung, die dann Dokumet -QDA
war und dort konnte man von vorne bis hinten so einen Forschungsprozess mit der
dokumentarischen Methode durchmachen. Es war ein klassisches QDA -Programm und
jetzt seit einigen Jahren mit dem Aufkommen von ChatGPT haben wir das Projekt Keysoft
gestartet. Es ist jetzt gerade in die Verlängerung gegangen, ist schon dreieinhalb Jahre
alt, also wir sind schon seit einiger Zeit dabei. Dort kam dann die Idee auf, in diese
Software eine KI -Applikation einzubauen. Und wir sind mit der Zeit zu dem Entschluss
gekommen, dass die alte Software, also DocuMate QDA als herkömmliche QDA –
Software, dass unsere Überlegungen zur verteilten Interpretation und zu hybriden
Forschungswerkstätten gar nicht mehr so richtig abbilden kann. Und dann haben wir
eine Neuaufage der Software gemacht, die jetzt Docomet QDA AI heißt und eine
komplett andere Logik verfolgt. Aber auch da versuchen wir, den Forschungsprozess
möglichst von vorne bis hinten abzudecken. Wir sind noch nicht ganz am Ende. Wir
stecken da gerade in der Neukonzeption. Aber es geht damit los, dass man sein
Transkript hochlädt und dann mittels von uns sogenanntem sozialwissenschaftlichen
Prompting oder Wir hatten es auch schon mal reconstructive social research prompting
genannt. Mittlerweile sind wir bei dem Begrif modularem prompting. Wir sind dann
begriflich noch nicht so scharf, weil das unklar ist, aber meint alles im Grunde
dasselbe. Eine Strukturierung des Forschungsprozesses gemeinsam mit einem
generativen Sprachmodell durch die Modularisierung der dokumentarischen Methode in
Form von einzelnen Prompts. also Anfragen in natürlicher Sprache, die wir an die KI
schicken, an das generative Sprachmodell schicken und in die jeweils einzelne
Interpretationsschritte vollziehen. Und diese Prompts kann man individuell aneinander
miteinander verbinden. Das heißt, es wird nicht nur ein Prompt an die KI gesendet,
sondern mehrere unterschiedliche, die unterschiedliche Zielsetzungen haben. dann
eben ein Output produzieren. Und mit diesem Output kann man dann in einem extra
Fenster, das wir dafür konzipiert haben, in den Austausch gehen. Also im Grunde die
hybride Forschungswerkstatt auf dem Bildschirm durchführen oder in dem Fall dann das
hybride Forschungstandem und den Output, die erzeugte Interpretation, kann dann
verhandelt werden zwischen Mensch und Maschine. Entweder generiert das
Fachmodell eine Interpretation, die verhandelt wird, oder der Mensch, also ich gebe
eine Interpretation ein und verhandle die gemeinsam mit der Maschine.

00:22:09 SPEAKER_01
Ihr nutzt ja sowas wie das Train of Thought Prompting in euren Interpretationen.
Vielleicht kannst du kurz ein bisschen erklären, weil es glaube ich ja doch relativ zentral
ist in eurem Vorgehen, worum es da geht, wofür das eigentlich eingesetzt wird
sozusagen.

00:22:23 SPEAKER_02
Genau, das Train of Thought Prompting ist im Grunde das, was in diesem Dialog
gemacht wird. Wie der Name schon sagt, es versucht, den Gedankenstrang abzubilden.
Das heißt, wir fangen mit einer Interpretation an und dann formulieren wir unsere
gesamten Gedanken, die wir in Bezug auf diese Interpretation haben, nach und nach in
diesem Dialog. Das heißt, wir können eigentlich nachverfolgen, welche Gedanken wir
uns gemacht haben bei der Aushandlung oder bei dem Diskurs über diese
Interpretation. Und das ist dann der Train of Thought. Also wir versuchen, das generative
Sprachmodell auf eine Art und Weise zu prompten, die dazu führt, dass sie ihre
Interpretation begründet und nachvollziehbar macht. Also dass wir als Menschen, die
vor dem Bildschirm sitzen, auch verstehen, warum interpretiert die KI das jetzt so und
ob es eine Interpretation ist. Also unserer Ansicht nach ja, aber kann man diskutieren,
ob das eine ist. Anyway. meinetwegen können wir es quasi Interpretation nennen, aber
wichtig ist, die KI muss irgendwie deutlich machen, wie sie darauf gekommen ist, damit
wir das nachvollziehen können. Und dann müssen wir wiederum deutlich machen,
welche Gedankenstränge wir in Bezug darauf haben und diese wieder schreiben und als
Prompt verfassen, an die KI schicken und dann kommt wiederum ein Output, der
erzeugt wird. Also es sind zwei Stränge, zwei Gedankengänge, die da, Gedankengänge in
Anführungszeichen, wieder stattfnden. Und das ist der Train of Thought. Und das Tolle
ist, den können wir abspeichern. Das können wir in eine Word -Datei klatschen, in einer
Veröfentlichung. Wenn wir das nächste Paper veröfentlichen mit den Ergebnissen,
können wir das in einer Fußnote als Supplement irgendwie mit einem Link auf eine
Datenbank oder so packen. Ich weiß, dass das viele kritisch sehen. Aus meiner Sicht ist
das einfach ein Schritt zu mehr Transparenz. Das kann sich dann jeder durchlesen, der
möchte, der die Interpretation nachvollziehen möchte. Das heißt, der Gedankenstrang
wird da in Form dieses… Interpretationsdialogs sichtbar. Ich fnde, in
Forschungswerkstätten, so wie sie bisher immer praktiziert werden, da wird nichts
ofengelegt. Da trefen sich zwei Stunden lang Forschende und reden über Material und
am Ende kommt eine Interpretation heraus und die wissen möglicherweise selber gar
nicht mehr so genau, wie sie darauf gekommen sind. Und das wird auch gar nicht so
sehr diskutiert in Veröfentlichungen. Das kann ja sein, dass ich Material eingebe in die
Forschungswerkstatt. Und jemand anderes interpretiert es dann. Ich schreibe feißig mit
und veröfentliche das dann unter meinem Namen. Das ist so gängige Praxis meines
Erachtens nach. Also das kann zumindest passieren. Ob das jetzt gängige Praxis ist, will
ich jetzt niemandem so sehr unterstellen. Aber das ist so eine Gefahr. Und warum nicht
mehr veröfentlichen und mehr Transparenz herstellen?

00:24:55 SPEAKER_01
Zum einen, fnde ich, war das jetzt sozusagen auch nochmal ein gutes Beispiel dafür,
was du zum Train of Thought Prompting genannt hast, wo man sieht, wie die
Verwobenheit von KI und Forschung der Person eigentlich vorliegen und wo man merkt,
dass die Trennung sozusagen ja keinen Sinn macht, also in Subjekt, Optik sozusagen, in
Forschung und Werkzeug, sondern es ist ja so eine Art Rückkopplung eigentlich in beide
Richtungen. Und du hattest es eben schon so ein bisschen angesprochen, dass es zum
Beispiel auch um Transparenzfragen geht. Da stelle ich mir natürlich auch immer die
Frage sozusagen, welche Einschränkungen oder Herausforderungen gibt es eigentlich,
wenn man jetzt KI in der rekonstruktiven Forschung einsetzt, also vielleicht auch mit
Blick auf so forschungsethische Aspekte wie Fragen von Datenschutz oder Transparenz
zum Beispiel? Also die KI ist kein Mensch und das bringt einige Probleme mit sich.

00:25:40 SPEAKER_02
kein Mensch und das bringt einige Probleme mit sich. Das sind Technologien, die von
mächtigen Unternehmen, mächtigen Menschen in die Welt gesetzt wurden, deren
Interesse nicht in der Förderung der rekonstruktiven Sozialforschung liegt. Das dürfte
denen herzlich egal sein. Das heißt, wir missbrauchen die KI so ein bisschen für unsere
Forschung, aber die eigentliche Intention mit der KI ist eine andere und wir müssen
natürlich aufpassen, dass wir uns da nichts in unsere Community holen, was wir
möglicherweise zu wenig verstehen, zu wenig kontrollieren können. Und
Datenschutzproblem ist ein riesiges Problem. Also ich würde niemals jemandem
empfehlen, sensible Daten mit KI wirklich intensiv auszuwerten. Momentan ist die
Gefahr einfach zu groß, dass die Daten abfießen können und irgendwo landen, wo sie
nicht hingehören. Meine große Hofnung ist da auf lokale Sprachmodelle, die auf dem
Heimrechner ohne Internetzugang laufen. Aber das dauert noch ein bisschen. Wir
müssen uns der Funktionsweise von KI, von generativen Sprachmodellen klar werden.
Das, was da an Text produziert wird, also die Art und Weise, wie dort Sprache, Text
produziert wird, ist nicht die gleiche Art und Weise, wie das Menschen tun. sondern
basiert eben auf probabilistischen Vorhersagen. Da gibt es diese Tokens bei der KI und KI
rechnet eben die Wahrscheinlichkeit aus, welches Token, welcher Wortbaustein als
nächstes jetzt kommt. Weiß nicht, machen wir vielleicht auch ein bisschen, aber ich
glaube, dass bei der menschlichen Sprachproduktion noch ein bisschen mehr
drinsteckt als reine Statistik. Und auch das müssen wir uns klar machen, dass die
Interpretation, die da generiert wurde, auf eine andere Art und Weise generiert wurde.
Und diese Andersartigkeit müssen wir immer mitdenken, aus meiner Sicht. Also es gibt
diesen Halo -Efekt von Technologie und das ist ganz gefährlich, gerade bei
Sprachmodellen, die auch gerade so konzipiert sind, dass das, was sie an Sprache
produzieren, besonders toll klingt. Ich habe Studierende schon gehabt, die ganz
ofensichtlich in Hausarbeiten ChatGPT verwendet haben und dann habe ich sie damit
konfrontiert. An sich habe ich da jetzt kein grundsätzliches Problem damit, dass sie es
machen, aber da war eine komplett generierte Einleitung von ChatGPT. Das habe ich
sofort gesehen, weil ich damit jeden Tag arbeite. Dann habe ich sie gefragt, warum
machen sie denn das? Und dann hat die Person gesagt, ja. Ich habe das bei ChatGPT
eingegeben und das klang so toll, da dachte ich mir, das kriege ich niemals so gut hin
und da habe ich es einfach genommen. Und das ist die große Gefahr bei Personen, die
noch nicht viel Erfahrung haben. Und insbesondere bei der dokumentarischen Methode
dauert es einfach lange, bis man die Erfahrung hat. Man muss eigentlich selber mal so
einen Forschungsprozess alleine durchgemacht haben, um überhaupt einschätzen zu
können, wie das funktioniert und sich auch gegen die KI wehren zu können. Das ist eine
Herausforderung.

00:28:19 SPEAKER_01
Es stellt sich natürlich auch die Frage, was bedeutet eigentlich der Einsatz von KI, wie du
es auch gerade beschrieben hast, für die Methodenlehre von rekonstruktiver
Forschung? Also was heißt das eigentlich dafür, wie Forschungsmethoden gelehrt
werden? Vielleicht auch, welche Rolle sozusagen die lehrende Person jetzt einnimmt in
diesem Kontext?

00:28:39 SPEAKER_02
Gar nicht so einfach. Also ich sehe, dass ganz viele Lehrende KI in der Lehre gerade
einsetzen, da viel ausprobieren, explorieren. Ich frage mich, und das muss sich aber mit
der Zeit herauskristallisieren, welche Praxis, welche Lehrpraxis da denn wirklich dazu
führt, dass eben auch Lernen auf Seiten der Studierenden in dem Fall oder der
Lernenden stattfndet. Da hilft es sicherlich, sich ein bisschen einfach damit
auseinanderzusetzen und diese Sprachmodelle ein bisschen auszuprobieren, zu
schauen, was ist überhaupt möglich. Das gehört dazu, das eben kennenzulernen und
ein Gefühl dafür zu kriegen, wie das funktioniert. Dabei darf es aber aus meiner Sicht
nicht bleiben. Also es muss dann irgendwann mal darüber hinausgehen und müssen
auch Lehrende sich über die Beschafenheit von KI im Klaren sein. Ach, schwierig. Also
ich denke da auch gerade sehr viel drüber nach, bin da aber gar nicht so klar darüber,
was ein guter Weg wäre. Also wenn ich eine Methode lernen möchte und möchte mit der
KI als Bearingspartner diese Methode irgendwie gemeinsam erschließen, dann bin ich
gezwungen, Zum Beispiel durch Train -of -Thought -Prompting, dieses modulare
Prompting, das wir in unseren Zeitschriftenbeiträgen formuliert haben. Man ist
gezwungen, die komplette Methodologie, die komplette Methode eigentlich erst mal zu
verstehen. Denn nur dann kann man es auch wirklich aufschreiben, und zwar in einer Art
und Weise, die es der KI ermöglicht, überhaupt einen sinnvollen Output zu generieren.
Das könnte ich mir vorstellen, ist ein möglicher Weg. Die Anerkennung der
Andersartigkeit der KI. Also wir müssen uns überlegen, wie formuliere ich einen Prompt
an ein generatives Sprachmodell, sodass es einen Output generiert, der im Einklang mit
der Methodologie der dokumentarischen Methode steht. Und dazu muss ich das
erstmal verstehen, sonst kann ich das nicht formulieren.

00:29:23 SPEAKER_00
schwierig.

00:30:20 SPEAKER_02
Und wenn ich das verstanden habe, dann mögen einige Fragen, ja, warum sollte ich
denn da jetzt noch groß die KI dazu verwenden? Und damit haben sie recht. Warum
sollte man das machen? Also wenn man es total durchgelegt hat, warum sollte man
denn jetzt noch eine KI dazu verwenden? Also zumindest, wenn man diese
Automatisierungsfantasien hat, von denen ich mich ja abgrenze, ich sage dann halt,
naja, es ist ja trotzdem interessant, mit der KI in einen Austausch zu treten und sich zu
fragen, was passiert denn da, wenn jetzt so eine Technologie dermaßen tief an der
Interpretation beteiligt ist. Aber wie gesagt, es ist mehr Arbeit.

00:30:49 SPEAKER_01
Also würdest du schon sagen, dass sozusagen diese Methoden, Grundkenntnisse, die
vermittelt werden, die bleiben nach wie vor sozusagen als Basis bestehen? Also würde
sozusagen vielleicht auch so eine KI -Kompetenzvermittlung noch zusätzlich
dazukommen? Also es wird sozusagen erstmal im Prinzip auch umfangreicher, was auch
natürlich die Lehren der Person berücksichtigen und selbst irgendwie sich auch
erarbeitet haben muss. Genau das.

00:31:13 SPEAKER_02
das. Gerade Sozialforscher sind… Nicht gerade bekannt dafür, besonders technikafin
zu sein. Das heißt, das ist ein Mehraufwand. Oder wir müssen eben darüber
nachdenken, entsteht da eine komplett neue Methodologie, wenn eine KI am
Forschungsprozess beteiligt ist. Ist das denn überhaupt noch dokumentarische
Methode, wenn wir das so machen? Ist das noch objektive Hermeneutik? Ist das noch
Inhaltsanalyse oder sonst irgendetwas? Oder müssen wir uns neue Methodologien
überlegen? Eine Methodologie mit generativen Sprachmodellen, die eine ganz neue
Praxis hervorbringen, also eine ganz neue Abfolge von methodischen Schritten. Weil es
ist schon irgendwie problematisch, dass man versucht, die bekannten Methodologien
und die bekannten Methoden einfach so in diesen Prozess reinzukopieren. Das ist,
glaube ich, das mag der Spirit irgendwie diese Anfangsphase sein, aber ich glaube, es ist
auf lange Sicht eher ein Fehler. Also wir müssen uns mehr mit Technik, Philosophie
beschäftigen. Wir müssen Autoren wie Don Eid wieder auspacken. Grüne Natur, es gibt
einiges und es gibt auch viel, was da gerade geschrieben wird. Also wir müssen da
wieder ein bisschen tiefer reinschauen.

00:32:13 SPEAKER_01
Also müsste man sozusagen schon sehr viel früher ansetzen und sagen, schon bei der
Entwicklung der Methoden und Methodologien müsste KI von Anfang an sozusagen
berücksichtigt sein, um dem eigentlich gerecht zu werden, was das im
Forschungsprozess eigentlich bedeutet, es einzusetzen. Das geht natürlich deutlich
über das, was die Lehre sozusagen macht, ja hinaus, aber hat natürlich dann auch seine
Rückkopplung sozusagen in diesem Bereich.

00:32:39 SPEAKER_02
Ja, es hat einfach noch niemand wirklich, also wir arbeiten jetzt dran, die machen jetzt
die Vorarbeit, damit das in der Lehre eingesetzt werden kann, aber wir sind halt alle noch
so ein bisschen lost. Ein bisschen weniger als vor drei Jahren noch und wir haben alle so
eine etwas bessere Idee davon bekommen, was wichtig ist, aber es gibt noch keine
Patentrezepte.

00:32:55 SPEAKER_01
Vielleicht können wir da sozusagen fast nahtlos anschließen. Wie wird sich die
rekonstruktive Sozialforschung, die dokumentarische Methode in den nächsten Jahren
durch KI -Einsatz verändern? Was haben wir da für Entwicklungen zu gewärtigen?

00:33:09 SPEAKER_02
Ich denke, dass KI und generative Sprachmodelle wesentlich mehr Relevanz haben
werden. Ich glaube, dass der Großteil der Forschungsprojekte KI in irgendeiner Form
nutzen wird. Ich glaube, dass das die meisten in einer Art und Weise tun, die eher in
Richtung Automatisierung und Leistungssteigerung geht, mehr Daten auswerten und
dass das möglicherweise auch der Weg sein wird, um Drittmittelprojekte
heranzuschafen, weil Geldgeber interessiert daran sind, dass alles irgendwie efektiver
wird. Ich könnte mir vorstellen, dass es da eine Phase gibt, die so laufen wird, dass da so
ein Automatisierungshype stattfndet mit KI. Ich glaube auch, dass es wieder eine
Ernüchterungsphase geben wird. wo sie merken, dass die negativen Folgen zu groß sind.
Wir sind massiv überfordert von dieser Datenfut. Ich kann mir aber auch vorstellen,
dass es weiterhin eine Sparte gibt aus Personen, möglicherweise eine kleinere Sparte,
die das Ganze etwas ernster nehmen und weniger auf Leistungssteuerung abzielen und
mehr auf die Integration von KI. Das ist so, wie wir darüber gesprochen haben, eben mit
KI forschen. Und da könnte ich mir vorstellen, dass KI eine wesentlich relevantere Rolle
in der Forschung einnehmen wird und dass wir viel selbstverständlicher auch damit
umgehen werden und dass da diese Grenzen zwischen dem Menschlichen und dem
Maschinellen immer mehr verschwinden, auch wenn sie noch da sind, aber den
Unterschied werden wir einfach nicht mehr so deutlich sehen. An dem Punkt sind wir ja
jetzt schon, dass es einfach nicht mehr so klar ist und was jetzt Mensch und was
Maschine ist. Deswegen sprechen wir auch von hybrider Interpretation, weil sie weder
das eine noch das andere ist, sondern halt eben was Eigenes. entstanden ist aus
diesem Gefecht. Und ich glaube, in diesen Gefechten werden einige in Zukunft
rekonstruktive Forschung betreiben. Und ich kann mir vorstellen, dass das sich vielleicht
auch so ein bisschen als eigener methodischer Forschungszweig etablieren wird, weil
es, glaube ich, nicht ganz mehrheitsfähig ist. Also weil die Einwände und die Einwände
sind auch vollkommen zu Recht da, doch noch zu groß sind von der gesamten
Forschungscommunity. Genau, interessant fnde ich den Gedanken, dass KI, also
Technologie im Grunde, wenn wir den Anschluss, also wenn wir die Kontrolle darüber
verlieren oder wenn wir es versäumen, uns damit auseinanderzusetzen, was es
bedeutet, wenn KI an der Forschung beteiligt wird, dann gäbe es auch einen
dystopischen Blick in die Glaskugel, nämlich ein Szenario, wo der Mensch eigentlich gar
nicht mehr die forschende Instanz ist, sondern das generative Sprachmodell uns
Interpretationen liefert. die nehmen wir blind an, veröfentlichen unsere Paper, die wir
gar nicht richtig selbst geschrieben haben, sondern von ChatGPT geschrieben wurden
und die Interpretationen sind auch von ChatGPT. Dann wird das Paper veröfentlicht,
irgendjemand schnappt sich das Paper und anstatt es zu lesen, haut er es bei ChatGPT
rein, lässt sich eine Zusammenfassung generieren oder… gibt sogar einen Prompt ein
und sagt, hier, fügt mir mal irgendwie sinnvoll dieses Paper in mein aktuelles Paper ein
und zitiere das ordentlich nach APA und haben wir am Ende überhaupt keine
selbstgeschriebenen Texte mehr, keine selbst verfassten Interpretationen mehr, wir
lesen nicht mehr. Also dann werden wir auf einmal zum Werkzeug. Und die KI ist
diejenige, die soziale Wirklichkeit des Menschen interpretiert. Das ist doch abstrus. Ja,
also das würde passieren, wenn wir solche Gedanken nicht machen würden. Und ich
glaube, das ist auch die Gefahr, wenn wir so naiv mit diesen Automatisierungs – und
Leistungssteigerungsfantasien daran gehen und Technologie als passives Werkzeug
sehen, genau das passiert dann. Dann geben wir damit etwas aus der Hand, was man,
denke ich, nicht aus der Hand geben sollte, sondern da muss es eine
Kompromisslösung geben. Und die Kompromisslösung ist die Anerkennung der
Andersartigkeit der KI und damit zu arbeiten. das zu refektieren, darüber
nachzudenken, da in den Austausch zu gehen, die Interpretation gemeinsam mit der KI
zu generieren. Es ist dann eine gemeinsame Autorenschaft. Die Gefahr ist, die
Autorenschaft abzugeben, wenn man zu blind die Ergebnisse annimmt. Und
witzigerweise passiert das genau dann, wenn man sich gegen die gewisse
Eigenständigkeit, gegen die Handlungsträgerschaft von KI verbissen wird.

00:37:10 SPEAKER_01
verbissen wird. Ja, das war, fnde ich, ein tolles Resümee für unser Gespräch nochmal.
Insofern würde ich sagen, Ja, vielen Dank, Fabio, dass du uns einmal natürlich den
Einblick gegeben hast in euer spannendes Projekt und natürlich auch um die
Erkenntnisse, die ihr ringsherum natürlich gemacht habt und wo du ja jetzt eine große
Expertise ofensichtlich auch entwickelt hast. Ja, also vielen Dank für den Einblick und
vielen Dank möchte ich natürlich auch an unsere Hörerinnen und Hörer senden, die
natürlich auch herzlich eingeladen sind, sich weitere Folgen des KI Insights Podcasts
anzuhören. Vielen Dank, Fabio. Ja, vielen Dank. Es hat total Spaß gemacht.

00:37:49 SPEAKER_00
Der KI Insights Podcast ist eine Initiative des Projekts ZAKKI, der zentralen Anlaufstelle
für innovatives Lehren und Lernen interdisziplinärer Kompetenzen der KI der
Hochschule Magdeburg -Stendal, gefördert vom Bundesministerium für Bildung und
Forschung.

Weitere Artikel zum Thema