Das sind wir: Fabio Bauer
Wie funktioniert unser Arbeitsgedächtnis? Mit dieser Fragestellung beschäftigt sich Fabio Bauer, Doktorand in der ERC-geförderten Forschungsgruppe Adaptive Gedächtnis- und Entscheidungsprozesse. Im Interview erklärt er, wie mit dem von ihm verwendeten Machine-Learning-Modell, Prozesse des Arbeitsgedächtnisses nachgebildet und getestet werden können. In unserem Format "Das sind wir" teilen Kolleg*innen Einblicke in ihre Arbeit und Motivation.
Du beschäftigst Dich in der ERC-geförderten Forschungsgruppe Adaptive Gedächtnis- und Entscheidungsprozesse unter anderem mit Machine-Learning-Modellen des Arbeitsgedächtnisses. Was fasziniert Dich an dem Thema?
Das Arbeitsgedächtnis fasziniert mich, da es als temporärer Speicher eine zentrale Rolle bei Gedächtnisprozessen spielt. Es ermöglicht uns, Informationen über kurze Zeiträume zu speichern und zu manipulieren. Das ist wichtig für komplexe Aufgaben wie Problemlösen, Sprachverstehen und Entscheidungsfindung. Seine Kapazität und Effizienz beeinflussen maßgeblich unsere Fähigkeit, sich an neue Situationen anzupassen und flexibel zu handeln. Wenn wir verstehen, wie das Arbeitsgedächtnis arbeitet und wo seine Grenzen liegen, können wir besser begreifen, wie das Gehirn funktioniert und mit Informationen umgeht. Ein Ansatz, um dies besser zu verstehen, sind Machine-Learning-Modelle, die uns helfen, die Prozesse des Arbeitsgedächtnisses nachzubilden und zu testen.
Wie ahmt Dein Machine-Learning-Modell die Eigenschaften des menschlichen Arbeitsgedächtnisses nach?
Das von uns verwendete Modell kann sich – ähnlich wie unsere menschlichen Teilnehmenden in unseren Experimenten – gedrehte Bilder von 2D-Objekten merken und sie bei Bedarf wieder richtig drehen. Das Modell besteht aus zwei Hauptteilen: einen „Sehapparat“ und ein „Gedächtnis“. Der „Sehapparat“ verkleinert das Bild stark und baut es dann wieder zusammen (Variational Autoencoder, kurz VAE), ähnlich wie das menschliche Gehirn visuelle Informationen verarbeitet. Das „Gedächtnis“ (Binding Pool Modell) speichert mehrere verkleinerte Versionen des Bildes als sogenannte „Tokens“, hat aber nur begrenzten Speicher. Wenn es zu viele Tokens speichert, überlappen sie sich, was zu Fehlern führt. Das Gedächtnis des Modells verhält sich also ähnlich wie das Arbeitsgedächtnis beim Menschen, das auch begrenzte Kapazitäten hat und Überlappungsfehler unter Last zeigt.
Kannst Du Deine Vorgehensweise und Ergebnisse etwas genauer erklären?
Ich verwende 2D-Bilder von Kleidung in verschiedenen Rotationswinkeln als Eingabedaten für mein Modell. Mein VAE-Modell hat zwei separate Bereiche: einen für die Form/Kategorie der Kleidung und einen für deren Orientierung. Beim Training lernt das Modell abwechselnd entweder die Form oder die Orientierung, während der andere Bereich des Modells pausiert. Getrenntes Lernen soll sicherstellen, dass Form und Orientierung getrennt repräsentiert werden. Diese Informationen, wie "T-Shirt" und Rotationswinkel, werden dann im Modell-Gedächtnis gespeichert. Je mehr gespeichert wird, desto mehr überlagern sich die Informationen. Es wird spannend, wenn wir diese Modell-Daten mit den Ergebnissen unserer Experimente vergleichen können. Dann können wir beantworten, ob das Modell die Informationen in einem ähnlichen Format wie das Gehirn repräsentiert. Bisher habe ich noch keine Ergebnisse, da ich gerade erst mit meinem PhD und dem Projekt begonnen habe.
Warum hast Du Dich entschieden, rotierende 2D-Kleidungsstücke als Stimuli für Dein Modell zu verwenden?
Als Grundlage verwende ich das in der Machine-Learning-Community etablierte Open Source Datenset „Fashion MNIST“. Es umfasst 10 Kategorien (Hose, Pullover etc.) mit je 7000 2D-Bildern in Schwarzweiß von Kleidungsstücken. Jedes Bild wird daraufhin in 16 verschiedene Winkel rotiert. Die Verwendung rotierter 2D-Kleidungsstücke als Stimuli bietet eine klare und kontrollierte Möglichkeit, sowohl die Form- als auch die Orientierungsverarbeitung zu untersuchen. Kleidungsstücke haben eine Vielfalt an Formen, die es dem Modell ermöglichen, komplexe Muster zu lernen. Durch die Rotation der Bilder kann ich zusätzlich die Fähigkeit des Modells testen, abstrakte Merkmale wie die Orientierung zu lernen, sich „zu merken“ und zu verarbeiten. Mit dem Modell kann man so eine ähnliche Aufgabe lösen, wie menschliche Teilnehmende an Experimenten unseres Labors und gleichzeitig die Auswirkungen und Mechanismen dieses Arbeitsgedächtnis-Modells untersuchen.
Wann hast Du Dich entschieden, Wissenschaftler zu werden? Wie hast Du dich für dieses Studienfach entschieden?
Vergleichsweise spät. Ich habe nach meinem Bachelor und einigen Jahren in einem Start-up gemerkt, dass mir der Sinn in meiner Arbeit fehlt. Vielleicht etwas idealistisch habe ich mich deshalb dann auf einen Master in kognitiven Neurowissenschaften beworben. Während meiner Masterarbeit habe ich großen Gefallen an der komputationalen bzw. theoretischen kognitiven Neurowissenschaft gefunden und bin so zu meinem PhD am MPI gekommen.
Was schätzt Du an der Max-Planck Community?
An der Max-Planck Community schätze ich besonders das interdisziplinäre und kollaborative Umfeld. Die Möglichkeit, mit führenden Experten aus verschiedenen Disziplinen zusammenzuarbeiten und Zugang zu erstklassigen Ressourcen und Einrichtungen zu haben, ist enorm wertvoll. Die Max-Planck-Gesellschaft fördert ein Umfeld, in dem innovative Ideen und wissenschaftliche Exzellenz gedeihen können. Zudem bietet das MPI zahlreiche Möglichkeiten für den Austausch und die Weiterbildung.