FAQ: KI-Einsatz in der qualitativen Forschung

  • Was sind Large Language Models (LLMs) und wie funktionieren sie?

    Large Language Models sind KI-Systeme, die auf maschinellem Lernen basieren und auf großen Textmengen trainiert wurden. Sie können menschliche Sprache verarbeiten und generieren, indem sie statistische Muster und Wahrscheinlichkeitsverteilungen in Texten erkennen. Wichtig zu verstehen: LLMs reproduzieren Muster, ohne diese im menschlichen Sinne zu "verstehen". Sie operieren auf Basis von Korrelationen, nicht auf Basis von Sinnverstehen.

  • Welche Rolle können LLMs in der qualitativen Forschung spielen?

    LLMs können verschiedene Phasen des Forschungsprozesses unterstützen: Transkription von Interviews, Vorstrukturierung von Textmaterial, Generierung von Kodiervorschlägen, thematische Analyse größerer Datenmengen und das Identifizieren von Textpassagen zu bestimmten Themen. Sie funktionieren am besten als Reflexionswerkzeug und unterstützende Instanz, nicht als Ersatz für menschliche Interpretation.

  • Was ist der Unterschied zwischen manifesten und latenten Bedeutungen?

    Manifeste Bedeutungen sind oberflächliche, direkt im Text erkennbare Inhalte. Latente Bedeutungen sind hingegen Sinngehalte, die aus Kontext, kulturellem Wissen oder dem Zusammenspiel verschiedener Aussagen erschlossen werden müssen. LLMs können manifeste Inhalte gut identifizieren, haben aber erhebliche Schwierigkeiten bei der Erfassung latenter Bedeutungsebenen, die interpretative Tiefe erfordern.

  • Welche Qualitätskriterien gelten für KI-gestützte qualitative Forschung?

    eben klassischen Gütekriterien (Glaubwürdigkeit, Übertragbarkeit, Zuverlässigkeit) kommen KI-spezifische Aspekte hinzu: algorithmische Nachvollziehbarkeit, Systemtransparenz-Dokumentation, Prompt-Dokumentation, reflexive Auseinandersetzung mit KI-Vorschlägen und kontinuierliche Validierung der KI-Outputs am Originalmaterial. Die COREQ+LLM-Erweiterung bietet hier einen Transparenzstandard.

  • Wie kann ich sicherstellen, dass meine Interpretation nicht durch KI-Vorschläge determiniert wird?

    Durch systematische Reflexion: Führen Sie ein Forschungsjournal, in dem Sie dokumentieren, welche KI-Vorschläge Sie übernommen oder verworfen haben und warum. Validieren Sie KI-Outputs immer am Originalmaterial. Nutzen Sie KI als Reflexionswerkzeug, nicht als Autorität. Entwickeln Sie eigene Interpretationen, bevor Sie KI-Vorschläge konsultieren.

  • Was ist das "Black-Box-Problem" bei LLMs?

    Viele kommerzielle LLMs sind proprietäre Systeme, deren genaue Funktionsweise nicht vollständig transparent ist. Es ist oft unklar, wie genau ein bestimmter Output zustande kam, welche Trainingsdaten verwendet wurden und welche Verzerrungen eingebaut sind. Dies erschwert die methodische Nachvollziehbarkeit, die für qualitative Forschung zentral ist.

  • Was sind "Halluzinationen" bei LLMs und wie gehe ich damit um?

    Halluzinationen sind erfundene oder falsche Inhalte, die LLMs generieren, obwohl sie plausibel klingen. LLMs können nicht zwischen faktisch korrekten und erfundenen Informationen unterscheiden. Gegenstrategie: Validieren Sie alle LLM-Outputs am Originalmaterial, fordern Sie Belege für Aussagen ein, seien Sie besonders vorsichtig bei spezifischen Zahlen oder Zitaten.

  • Welche Bias-Probleme gibt es bei LLMs?

    LLMs reproduzieren Verzerrungen aus ihren Trainingsdaten, die gesellschaftliche Machtverhältnisse und dominante Narrative widerspiegeln. Dazu gehören: kulturelle Verzerrungen (westliche Perspektiven überrepräsentiert), sprachliche Verzerrungen (je nach Modell z.B. Englisch dominiert), soziale Verzerrungen (marginalisierte Stimmen unterrepräsentiert) und inhaltliche Verzerrungen (häufige Muster werden bevorzugt).

  • Wie kann ich LLMs datenschutzkonform einsetzen?

    Nutzen Sie DSGVO-konforme Systeme mit Datenverarbeitungsverträgen. Vermeiden Sie kommerzielle Cloud-Dienste, die keine Datenschutzgarantien bieten. Erwägen Sie lokale Open-Source-Modelle für sensible Daten. Anonymisieren Sie Daten vor der Verarbeitung. Informieren Sie Teilnehmende über geplanten KI-Einsatz und holen Sie explizite Einwilligung ein.