Die unbequemen Fragen – Methodik, Ethik und Datenschutz bei KI-Einsatz
Wenn ich in Workshops über KI in der qualitativen Forschung spreche, kommen immer drei Fragenblöcke: Wie dokumentiere ich das methodisch sauber? Was ist mit Datenschutz? Und wie gehe ich mit algorithmischen Verzerrungen um?
In meinem neuen ZEFQ-Artikel adressiere ich genau diese Herausforderungen, die viele lieber ausblenden würden.
Das Transparenzproblem
Qualitative Forschung lebt von Nachvollziehbarkeit. Doch wie dokumentieren wir den Einsatz von Black-Box-Systemen? Welche Prompts haben wir verwendet? Welche KI-Vorschläge haben wir übernommen, welche verworfen und warum? Genau für diese Fragen haben wir die COREQ-LLM-Guideline entwickelt, ein Reporting-Standard für transparenten LLM-Einsatz. (COREQ+LLM - Protokoll)
Ohne solche Standards droht eine methodische Grauzone: Forschung, bei der unklar bleibt, welche Rolle die KI tatsächlich gespielt hat.
Datenschutz ist nicht verhandelbar
Die wenigsten kommerziellen KI-Anbieter garantieren EU-konformen Datenschutz. Wer Interviewtranskripte mit sensiblen Gesundheitsdaten an zum Beispiel ChatGPT übermittelt, macht sich nicht nur rechtlich angreifbar, sondern verletzt möglicherweise das Vertrauen der Teilnehmenden.
Meine Empfehlung: Arbeiten Sie mit lokal installierbaren Open-Source-Modellen oder nutzen Sie spezialisierte Forschungsinfrastrukturen mit DSGVO-konformen Vereinbarungen. Die vermeintliche Bequemlichkeit kommerzieller Tools ist den Preis nicht wert.
Algorithmische Verzerrungen reproduzieren
Sprachmodelle sind auf Basis riesiger Textkorpora trainiert, die gesellschaftliche Machtverhältnisse und dominante Narrative widerspiegeln. Wenn wir KI unreflektiert einsetzen, riskieren wir, genau die Perspektiven zu verstärken, die in der qualitativen Forschung kritisch hinterfragt werden sollten.
Ein Beispiel: Ein LLM, das hauptsächlich auf englischsprachigen, westlich geprägten Texten trainiert wurde, wird postkoloniale oder marginalisierte Perspektiven systematisch schlechter erfassen.
Was wir jetzt brauchen
Einen forschungsgeleiteten, kritisch-reflexiven Umgang mit KI. Das bedeutet:
Transparente Dokumentation jeden KI-Einsatzes
Datenschutzkonforme Infrastrukturen
Kontinuierliche Reflexion über Bias und Machtdynamiken
Methodischen Diskurs statt reiner Technologiebegeisterung
Im nächsten Post schreibe ich darüber, warum die Kernprinzipien qualitativer Forschung niemals automatisierbar sein werden.
Zum Paper: Potenziale und Risiken beim Einsatz von KI in der qualitativen Forschung