Ich schreibe diesen Theorieteil als Hinführung, um meinen methodischen und erkenntnistheoretischen Rahmen offenzulegen. Wissensproduktion ist niemals neutral. Sie bewegt sich zwischen Normen der Wissenschaft (z. B. Kommunalität, Universalismus), kritischem Zweifel und Phasen wissenschaftlicher Umbrüche. Diese Spannungen bilden den Hintergrund, vor dem ich offen und bewusst mit KI arbeite (Merton, 1973/1942; Popper, 2002/1959; Kuhn, 2012/1962).
Wissenschaftliche Grundhaltung: Normen, Kritik, Paradigmen
Ich verstehe Forschung als gemeinschaftlichen, prinzipiell überprüfbaren Prozess. Normen wie Kommunalität und organisierter Skeptizismus erinnern mich daran, Zwischenergebnisse zu teilen und Kritik aktiv zu suchen (Merton, 1973/1942). Gleichzeitig halte ich mich an die Idee, Hypothesen der Möglichkeit der Falsifikation auszusetzen – also Behauptungen so zu formulieren, dass sie scheitern können (Popper, 2002/1959). Dennoch weiß ich: Wissenschaft verläuft nicht nur linear-progressiv in eine Richtung; sie kennt – mit Kuhn – Phasen, in denen Paradigmen verschoben werden und vermutete scharfe Begriffe, Definitionen, Idealtypen ihre Erklärungskraft verlieren (Kuhn, 2012/1962). Dieses Zusammenspiel aus Normen, Kritik und Paradigmenwechseln bildet meinen erkenntnistheoretischen Kompass.
Offenes Arbeiten und Open Science
Weil dieses Projekt mit dem Einsatz von KI Neuland betritt, mache ich Denk- und Arbeitsprozesse öffentlich – als Blog, als Laborjournal und mittels dokumentierter Versionen. Offenes Arbeiten ist für mich kein Selbstzweck, sondern didaktisches und wissenschaftliches Mittel: Es fördert Nachvollziehbarkeit, lädt zur Korrektur ein und beschleunigt Lernen in der Community (Nielsen, 2011). In der Open‑Science‑Debatte folge ich dem pragmatischen Verständnis: „Offen“ heißt je nach Schule etwas anderes – von technischer Infrastruktur bis zur partizipativen Wissenschaft –, ich kombiniere diese Perspektiven situativ (Fecher & Friesike, 2014).
Methodische Verortung: Grounded Theory als iteratives Erkenntnisprogramm
Im Kern arbeite ich entlang iterativer Prinzipien der Grounded Theory: gegenstandsnahe Codierung, konstantes Vergleichen, Memos und theoretisches Sampling. Entscheidend ist das zirkuläre, abduktive Vorgehen – Daten und Konzepte treiben sich wechselseitig voran. So entstehen mittlere Theorien mit Praxisnähe, statt vorschneller Universalismen (Glaser & Strauss, 1967; Strauss & Corbin, 1998; Charmaz, 2014). Das passt zu meinem offenen Arbeiten: Memos und Versionen werden sichtbar; Annahmen und Kategorien sind überprüfbar und korrigierbar (Charmaz, 2014).
KI als epistemisches Werkzeug – Chancen und Grenzen
Ich setze KI als Denk- und Schreibpartner ein, als Co-Autor. Heuristisch nutze ich Agent:innen- und Projekt-Modelle für Strukturierung, Ideensuche, Gegenlesen und – vorsichtig – für Kodier‑Vorschläge. Erkenntnistheoretisch ist mir wichtig, zwischen Vorhersage- und Erklärungszielen zu unterscheiden: Ein guter Prädiktor erklärt nicht automatisch, warum etwas so ist; KI‑gestützte Mustererkennung darf deshalb nicht mit Kausalwissen verwechselt werden (Shmueli, 2010). Gleichzeitig eröffnet die Digitalisierung neue Erkenntnisgewinne, die mit größeren Datenräumen und anderen Repräsentationsformen arbeiten – eine Chance, aber auch ein Risiko methodischer Verkürzung (Kitchin, 2014; boyd & Crawford, 2012).
Datenpraktiken, Reproduzierbarkeit und FAIRness
Offenes, iteratives Arbeiten braucht robuste Datenpraktiken. Ich orientiere mich an den FAIR‑Prinzipien (auffindbar, zugänglich, interoperabel, wiederverwendbar) und an Standards der Reproduzierbarkeit: Code, Prompts, Versionen und Transformationsschritte werden abschließend so dokumentiert, dass Dritte die Schritte nachvollziehen können (Wilkinson et al., 2016; Peng, 2011; National Academies of Sciences, Engineering, and Medicine, 2019). Damit balanciere ich Transparenz mit Datenschutz und Anonymisierung.
Ethik, Bias und Governance
KI‑gestützte Forschung bringt ethische Fragen mit sich: algorithmische Verzerrungen, Erklärbarkeit, menschliche Verantwortung. Ich prüfe Modelle und Daten auf plausible Bias‑Quellen und markiere unsichere Passagen explizit – inklusive Gegenüberprüfungen mit Primärquellen und alternativen Prompts (Mittelstadt et al., 2016). Ethik verstehe ich hier nicht als nachgelagerte Checkliste, sondern als gestaltendes Prinzip: Entscheidungen über Daten, Modelle und Veröffentlichungspraxis werden reflektiert begründet (Floridi, 2019).
Expertise, Teilhabe und die Rolle der Community
Offenes Arbeiten verschiebt auch die Grenzen zwischen Experten‑ und Laienwissen. Ich gehe davon aus, dass Expertise graduell ist und in Praxen entsteht – inklusive tacitem Wissen, das nicht vollständig verschriftlicht werden kann (Collins & Evans, 2002). Deshalb lade ich gezielt zu Peer‑Feedback ein und dokumentiere substanzielle Rückmeldungen transparent (mit Zustimmung). So entsteht eine überprüfbare, kollektive Lernkurve.
Was folgt in den Unterkapiteln dieses Abschnitts
- Offenes Forschen in der Praxis (Dokumentations‑, Versions‑ und Review‑Prozesse; Bezug zu Open‑Science‑Schulen).
- KI als Erkenntnisinstrument (Rollen, Grenzen, Validierungsroutinen; Unterscheidung Erklären/Prognostizieren).
- Grounded‑Theory‑Workflows (Codierung, Memos, theoretisches Sampling; didaktische Beispiele).
- Daten & Reproduzierbarkeit (FAIR‑Prinzipien, Replikationsdesigns, Changelogs, Prompt‑Protokolle).
- Qualität & Validität (Triangulation, Gegenbeispiele, Negativfälle, Transparenzmarker).
- Ethik & Datenschutz (Anonymisierung, Einwilligungen, verantwortliches Offenlegen, Umgang mit sensiblen Daten).
Literatur
- Boyd, d., & Crawford, K. (2012). Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon. Information, Communication & Society, 15(5), 662–679.
- Charmaz, K. (2014). Constructing grounded theory (2nd ed.). Sage.
- Collins, H., & Evans, R. (2002). The third wave of science studies: Studies of expertise and experience. Social Studies of Science, 32(2), 235–296.
- Fecher, B., & Friesike, S. (2014). Open science: One term, five schools of thought. In S. Bartling & S. Friesike (Eds.), Opening science (pp. 17–47). Springer.
- Floridi, L. (2019). Establishing the rules for building trustworthy AI. Nature Machine Intelligence, 1, 261–262.
- Glaser, B. G., & Strauss, A. L. (1967). The discovery of grounded theory. Aldine.
- Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Dialogues in Human Geography, 4(3), 262–267.
- Knorr‑Cetina, K. (1999). Epistemic cultures: How the sciences make knowledge. Harvard University Press.
- Kuhn, T. S. (2012/1962). The structure of scientific revolutions (4th ed.). University of Chicago Press.
- Merton, R. K. (1973/1942). The normative structure of science. In R. K. Merton, The sociology of science: Theoretical and empirical investigations (pp. 267–278). University of Chicago Press.
- Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1–21.
- National Academies of Sciences, Engineering, and Medicine. (2019). Reproducibility and replicability in science. National Academies Press.
- Nielsen, M. (2011). Reinventing discovery: The new era of networked science. Princeton University Press.
- Peng, R. D. (2011). Reproducible research in computational science. Science, 334(6060), 1226–1227
- Popper, K. (2002/1959). The logic of scientific discovery. Routledge.
- Shmueli, G. (2010). To explain or to predict? Statistical Science, 25(3), 289–310.
- Wilkinson, M. D., Dumontier, M., Aalbersberg, I. J., Appleton, G., & Mons, B., et al. (2016). The FAIR Guiding Principles for scientific data management and stewardship. Scientific Data, 3, 160018.

Schreibe einen Kommentar