Wie Künstliche Intelligenz die Psychologie umkrempelt

Der Psychologe Dirk Wulff ist überzeugt: Künstliche Intelligenz (KI) wird nicht nur psychologische Forschung effizienter machen, sondern auch grundlegende Konzepte hinterfragen und neu definieren. Was bedeutet der Einsatz von großen Sprachmodellen (LLMs) für die Psychologie als Wissenschaft? Und kann KI uns vielleicht sogar mehr über unser eigenes Denken verraten, als wir bisher dachten? Ein Gespräch über Chancen, Herausforderungen und die Zukunft einer Psychologie, die schon jetzt ohne KI nicht mehr denkbar ist.

Sie beschäftigen sich intensiv mit dem Einsatz von Künstlicher Intelligenz in der Psychologie. Was macht KI als Tool für die psychologische Forschung so revolutionär?

Dirk Wulff: KI bringt die Psychologie auf ein neues Level. Einer der größten Vorteile ist, dass wir damit riesige Datenmengen analysieren können, die für uns Menschen kaum noch zu bewältigen wären. Gerade weil unser Fach immer datengetriebener wird, brauchen wir Werkzeuge, die uns helfen, Muster und Zusammenhänge in diesen gewaltigen Informationsmengen zu erkennen.

Nehmen wir zum Beispiel wissenschaftliche Publikationen. Wir nutzen große Sprachmodelle (Large Language Models, LLMs), um den Publikationsdatensatz der Psychologie zu durchsuchen und systematische Muster zu identifizieren. Ein spannendes Beispiel ist die Diversität der Studienteilnehmenden in psychologischen Studien. Viele Jahrzehnte lang waren Frauen oder Minderheiten unterrepräsentiert, was die Schlussfolgerungen unserer Studien einschränkt. KI kann durch die automatisierte Auswertung von tausenden Studien zeigen, wie sich das im Laufe der Zeit verändert hat und wo es immer noch Schieflagen gibt. Mit klassischen Methoden wäre das schlicht nicht machbar.

Aber es geht noch weiter. KI hilft uns auch, Forschungstrends zu analysieren und zu sehen, wie sich wissenschaftliche Diskussionen verändern. Sie kann etwa herausfinden, welche psychologischen Konzepte an Bedeutung gewinnen oder welche langsam aus der Forschung verschwinden. Damit bekommen wir ein umfassenderes Bild davon, wie sich das Fach entwickelt und in welche Richtung es sich bewegt.

Diese Art der Analyse geht weit über das hinaus, was traditionelle Analysen leisten können. KI ermöglicht eine Untersuchung des gesamten wissenschaftlichen Korpus – und das automatisiert und in einem Bruchteil der Zeit. Das bedeutet nicht nur mehr Effizienz, sondern auch eine bessere Qualität der Forschung, weil wir so Entwicklungen oder systematische Verzerrungen schneller erkennen. Beispielsweise können wir so nachverfolgen wie sich die aktuellen Einschränkungen diversitätsbezogener Forschung in den USA auf die Diversität zukünftiger Studien in der Psychologie auswirken.

Sie haben in einem kürzlich veröffentlichten Paper gezeigt, wie KI helfen kann, bestehende psychologische Konstrukte zu hinterfragen und zu vereinheitlichen. Können Sie das näher erläutern?

Dirk Wulff: Die Psychologie steht vor einer Herausforderung: Viele Forschungsergebnisse lassen sich nicht ohne Weiteres auf andere Studien oder Situationen übertragen. Ein Grund dafür ist die uneinheitliche Zuordnung psychologischer Konstrukte zu den verwendeten Messinstrumenten. In der Persönlichkeitspsychologie gibt es zahlreiche Begriffe, die sich stark überschneiden – etwa „Geselligkeit“, „Freundlichkeit“ und „Extraversion“. Während einige Studien sie gleichsetzen, unterscheiden andere sie, ohne dass eine klare Abgrenzung besteht. 

Wir haben große Sprachmodelle (LLMs) genutzt, um die die Messinstrumente und Konstrukte der Persönlichkeitspsychologie systematisch zu analysieren und die sprachliche sowie inhaltliche Nähe dieser zu bestimmen. Dabei zeigte sich, dass einige Konstrukte nahezu identisch verwendet werden, obwohl sie in der Forschung oft künstlich getrennt werden. KI hilft also, die Taxonomie von Persönlichkeitseigenschaften zu optimieren, indem sie aufzeigt, welche Begriffe tatsächlich sinnvoll unterschieden werden sollten und welche redundant sind. 

Und wie sieht es mit der Validität psychologischer Messinstrumente aus? 

Bei der Validität psychologischer Messinstrumente gibt es ebenfalls Mängel. Oft gibt es mehrere Fragebögen für dasselbe Konstrukt, beispielsweise zahlreiche Skalen für „Neurotizismus“. Doch unsere KI-gestützte Analyse von Tausenden Fragebogenitems ergab, dass diese Skalen teils sehr unterschiedliche Inhalte messen. Das bedeutet, dass Forschende – je nach verwendeter Skala – zu verschiedenen Ergebnissen kommen können. KI kann hier helfen, einheitlichere Messinstrumente zu entwickeln und dadurch die Vergleichbarkeit von Studien zu verbessern. 

Welche Ziele verfolgen Sie damit? 

Dirk Wulff: Unser Ziel ist es, mit Hilfe von KI eine klarere und konsistentere wissenschaftliche Grundlage für psychologische Forschung zu schaffen. Indem wir psychologische Konstrukte systematischer ordnen und redundante Begriffe identifizieren, können wir dazu beitragen, Erkenntnisse und Theorien in der Psychologie robuster und über verschiedene Studien hinweg besser vergleichbar zu machen. 

Langfristig könnte das auch praktische Auswirkungen haben – etwa auf die Diagnostik in der Klinischen Psychologie oder auf die Entwicklung von Persönlichkeitstests, die auf valideren und präziseren Grundlagen basieren. KI ist hier ein mächtiges Werkzeug, um wissenschaftliche Erkenntnisse zu schärfen und die Psychologie als Disziplin weiterzuentwickeln. 

Welche weiteren Anwendungsmöglichkeiten von KI in der Psychologie halten Sie für besonders vielversprechend?

Dirk Wulff: Auch in der klinischen Psychologie eröffnet KI neue Perspektiven. So wird sie beispielsweise genutzt, um Patientenberichte zu analysieren und daraus Frühindikatoren für psychische Erkrankungen abzuleiten. In der personalisierten Therapie können KI-gestützte Systeme individuelle Empfehlungen für Behandlungsstrategien geben, indem sie große Mengen an vergleichbaren Patientendaten auswerten und Muster in der Therapiehistorie identifizieren. Sie können auch als Kommunikationspartner zwischen Therapiesitzungen effektiv sein.

Ein weiteres sehr aktuelles Anwendungsfeld ist die KI-gestützte Persuasion bzw. Überzeugungsarbeit, etwa im Bereich Wahlen oder Klimaschutz. Wir arbeiten an Projekten, in denen KI genutzt wird, um Menschen von evidenzbasierten Positionen zu überzeugen – etwa, sich demokratisch zu engagieren oder wissenschaftlich fundierte Klimamaßnahmen zu unterstützen. Hierbei nutzen wir KI-basierte Gesprächsstrategien, um wissenschaftlich unfundierte Überzeugungen zu adressieren und eine informierte Entscheidungsfindung zu fördern.

KI wird auch eingesetzt, um Desinformation entgegenzuwirken, indem sie Argumentationsmuster analysiert und gezielte Gegenargumente liefert. Dies könnte beispielsweise in sozialen Netzwerken genutzt werden, um Falschinformationen frühzeitig zu identifizieren und sachliche Informationen bereitzustellen.

Das klingt ein bisschen nach Manipulation und wirft ethische Fragen auf. Ist KI in der Psychologie eine Chance oder eine Gefahr? 

Ja, das ist ein sehr wichtiger Punkt. KI kann ein unglaublich wertvolles Werkzeug sein, aber sie muss verantwortungsvoll eingesetzt werden. Transparenz ist entscheidend: Menschen sollten immer wissen, wenn sie mit einer KI interagieren. Auch die Frage, welche Daten diese Modelle nutzen und wie sie trainiert wurden, spielt eine große Rolle.

KI kann helfen, wissenschaftliche und gesellschaftliche Probleme zu lösen – aber nur, wenn wir sie mit den richtigen ethischen Leitlinien einsetzen.

In der akademischen Welt bestehen unterschiedliche Ansichten darüber, welche Auswirkungen Künstliche Intelligenz auf die Wissenschaft haben. Welche Position vertreten Sie in dieser Debatte? 

Dirk Wulff: Kürzlich haben wir ein Diskussionspapier veröffentlicht, das die verschiedenen Perspektiven auf dieses Thema beleuchtet. Die Positionen reichen von der Ansicht, dass die Zusammenarbeit mit KI grundsätzlich nicht anders ist als die mit menschlichen Kollaborateuren, bis zur Forderung, dass ausschließlich Menschen die wissenschaftliche Entwicklung steuern sollten. Als Co-Autor vertrete ich eine moderate Position: KI ist ein äußerst leistungsstarkes Werkzeug, das die psychologische Forschung transformieren kann. Doch es braucht klare Prinzipien für ihren Einsatz. Fragen der Verantwortung, Fairness und Verzerrung in den KI-Modellen sind wichtig. Beispielsweise nutzen diese Modelle hauptsächlich Daten aus westlich geprägten Gesellschaften und können nicht leicht so angepasst werden, dass sie auch andere Gemeinschaften repräsentieren. Dadurch entstehen Verzerrungen in Texten und Zitierungen, die bereits benachteiligte Forschende weiter ins Abseits drängen können. Wir plädieren dafür, dass der Einsatz von KI in wissenschaftlichen Arbeiten transparent offengelegt und sorgfältig dokumentiert wird. 

Ein viel diskutierter Punkt ist die Zukunft von KI als Co-Autor wissenschaftlicher Arbeiten. Halten Sie das für realistisch? 

Dirk Wulff: Das ist eine spannende Frage. Einige Wissenschaftler prognostizieren, dass KI zukünftig als Co-Autor fungieren könnte. Ich denke, das hängt von der weiteren Entwicklung ab. Aktuell neigen KI-Modelle dazu, überzeugend falsche Inhalte zu generieren. Solange dies ein Problem ist, bleibt menschliche Überprüfung unerlässlich. Zudem stellt sich die philosophische Frage: Wollen wir KI als Autor anerkennen? Schließlich übernehmen Menschen Verantwortung für ihre Forschung, während eine KI das nicht kann. 

Welche KI-Modelle braucht es in der Wissenschaft?  

Dirk Wulff: Für die Wissenschaft brauchen wir offene KI-Modelle, die transparent, nachvollziehbar und frei zugänglich sind. Modelle wie GPT-4 sind zwar leistungsfähig, aber ihre Intransparenz erschwert die Reproduzierbarkeit von Studien. Da sie auf nicht offengelegten Trainingsdaten und sich ändernden Algorithmen basieren, ist es nicht nachvollziehbar, wie sie zu bestimmten Ergebnissen gelangen. Dadurch wird es schwieriger, wissenschaftliche Arbeiten zu überprüfen, die KI einsetzen. In einem Paper argumentieren wir, dass wir auf offene Alternativen setzen sollten. Dies erlaubt uns unter Anderem Modelle gezielt für wissenschaftliche Zwecke zu trainieren. 

Wie wird sich die Rolle von KI in der Psychologie weiterentwickeln und was bedeutet das für die Ausbildung des wissenschaftlichen Nachwuchses?

Dirk Wulff: Ich bin überzeugt, dass KI ein fester Bestandteil der Psychologieausbildung werden muss. Ihre Anwendungen reichen von der Grundlagenforschung bis hin zur klinischen Psychologie, wo KI bereits für Therapieansätze getestet wird. Wer Psychologie studiert, muss künftig ein Grundverständnis für KI mitbringen, ähnlich wie es heute mit Statistik der Fall ist.

Wir haben aus diesem Grund auch ein Tutorial im Bereich der Verhaltenswissenschaften entwickelt. Diese richtet sich an Forschende, die KI-Modelle für ihre Arbeit nutzen möchten. Wir stellen verschiedene Anwendungen vor, von der Persönlichkeitsforschung bis hin zur Vorhersage von Entscheidungsverhalten. Dabei liefern wir auch den Code, sodass Interessierte selbst mit KI arbeiten können.

In der psychologischen Forschung geht es ja nicht nur um den Einsatz von KI als Werkzeug, sondern auch darum, was wir über uns selbst von diesen Modellen lernen können. Ist KI ein Modell für menschliche Kognition?

Dirk Wulff: Eine faszinierende Frage! Genau das untersuchen wir derzeit intensiv. Es wird kontrovers diskutiert, ob Sprachmodelle „nur“ Wahrscheinlichkeitsmodelle für Text sind oder ob sie tatsächlich eine Form von Denken und Schlussfolgern nachbilden. KI-Modelle helfen uns nicht nur, menschliche Denkprozesse zu simulieren, sondern sie ermöglichen uns auch, grundlegende Mechanismen der menschlichen Kognition zu hinterfragen. Ein Beispiel ist die Fähigkeit dieser Modelle, kohärente Argumente zu formulieren oder komplexe Probleme zu lösen, obwohl sie keine bewusste Erfahrung oder ein tiefes Verständnis im menschlichen Sinne besitzen. Das zeigt, dass einige kognitive Fähigkeiten, die wir für einzigartig menschlich hielten, durch einfache Mechanismen wie Mustererkennung und Wahrscheinlichkeitsberechnungen erklärbar sind.

Das wirft auch Fragen über die Natur des Bewusstseins auf. Wir Menschen nehmen an, dass unser Denken und Fühlen untrennbar mit unserer subjektiven Erfahrung verbunden sind. KI-Modelle zeigen jedoch, dass intelligentes Verhalten auch ohne Bewusstsein oder Emotionen auftreten kann. Das führt zur neuen Hypothese, was Bewusstsein wirklich ausmacht und wie es sich von rein kognitiven Prozessen unterscheidet. Also: Wenn KI sich wie ein bewusster Mensch verhält, auf welcher Grundlage schließen wir, dass wir selbst Bewusstsein haben?

Über Dirk Wulff: 

Dirk Wulff ist Senior Research Scientist am Forschungsbereich Adaptive Rationalität des Max-Planck-Instituts für Bildungsforschung und leitet dort die Arbeitsgruppe „Suchen und Lernen“, die sich mit menschlichen Entscheidungen unter Unsicherheit beschäftigt: https://www.mpib-berlin.mpg.de/staff/dirk-wulff  

Originalpublikationen

Einsatz von LLMs in der Persönlichkeitspsychologie, um Konstrukte und Messinstrumente zu vereinheitlichen:  

Wulff, D. U., & Mata, R. (2025). Semantic embeddings reveal and address taxonomic incommensurability in psychological measurement. Nature Human Behaviour, 1-11. https://doi.org/10.1038/s41562-024-02089-y  

Wulff, D. U., & Mata, R. (2025). Escaping the jingle–jangle jungle: Increasing conceptual clarity in psychology using large language models. PsyArXiv. https://osf.io/preprints/psyarxiv/ksuh8_v1  

Bentz, D., & Wulff, D. U. (2025). Mapping OCD Symptom Triggers with Large Language Models. medRxiv, 2025-05. https://www.medrxiv.org/content/10.1101/2025.05.15.25327706v1  

Diskussionspapier zum Einfluss von LLMs auf die Wissenschaft: 

Binz, M., Alaniz, S., Roskies, A., Aczel, B., Bergstrom, C. T., Allen, C., Schad, D., Wulff, D. U., West, J. D., Zhang, Q., Shiffrin, R. M., Gershman, S. J., Popov, V., Bender, E. M., Marelli, M., Botvinick, M. M., Akata, Z., & Schulz, E. (2025). How should the advancement of large language models affect the practice of science? Proceedings of the National Academy of Sciences of the United States of America, 122(5), Article e2401227121. https://doi.org/10.1073/pnas.2401227121  

Tutorial zum Einsatz von LLMs in den Verhaltenswissenschaften: 

Hussain, Z., Binz, M., Mata, R., & Wulff, D. U. (2024). A tutorial on open-source large language models for behavioral science. Behavior Research Methods, 56, 8214–8237. https://doi.org/10.3758/s13428-024-02455-8 

Plädoyer für die Nutzung offener LLMs in der Wissenschaft:  

Wulff, D. U., Hussain, Z., & Mata, R. (2024). The behavioral and social sciences need open LLMs. OSF Preprints, September 04, 2024. https://doi.org/10.31219/osf.io/ybvzs  

LLMs als Modell für menschliche Kognition: 

Hussain, Z., Mata, R., & Wulff, D. U. (2025, February 19). A rebuttal of two common deflationary stances against LLM cognition. https://doi.org/10.31219/osf.io/y34ur_v2  

Centaur, ein Computermodell, das menschliches Verhalten in jedem Experiment, das in natürlicher Sprache ausgedrückt werden kann, vorhersagen und simulieren kann:

Binz, M., Akata, E., & Bethge, M., Brändle, F., Callaway, F., Coda-Forno, J., Dayan, P., Demircan, C., Eckstein, M., Éltető, N. & Griffiths, T., Haridi, S., Jagadish, A., Ji-An, L., Kipnis, A., Kumar, S. & Ludwig, T. & Mathony, M. & Mattar, M.& Schulz, E.. (2024). Centaur: a foundation model of human cognition. https://doi.org/10.48550/arXiv.2410.20268

Zur Redakteursansicht