Technische Universität Darmstadt
Studie der TU Darmstadt findet Verzerrungen in verhaltensökonomischen Theorien, die von KI gelernt sind
Forschende am Centre for Cognitive Science der TU Darmstadt und von hessian.AI untersuchen in einer Publikation in der renommierten Fachzeitschrift „Nature Human Behaviour“ die Eigenschaften von durch Künstliche Intelligenz automatisch gelernten verhaltensökonomischen Theorien.
Im Alltag müssen Menschen ständig riskante Entscheidungen treffen – etwa, ob sie am Aktienmarkt investieren, eine Versicherung abschließen, Lotto spielen oder ob sie ein neues Telefon kaufen, dessen Preis morgen fallen könnte. Forschende aus den Wirtschaftswissenschaften, der Psychologie und den Kognitionswissenschaften untersuchen seit langem solche Entscheidungen im Labor mithilfe von Wetten. Diese weisen Komponenten auf, die riskante Entscheidungen definieren: Es gibt verschiedene Handlungsoptionen, jede Option hat bestimmte Wahrscheinlichkeiten für Ergebnisse, und diese Ergebnisse sind mit bestimmten Auszahlungen verbunden. Zum Beispiel könnte man vor die Wahl gestellt werden, entweder 100 Euro sicher zu erhalten oder ein Lotterielos zu nehmen, bei dem man mit 75-prozentiger Wahrscheinlichkeit 150 Euro gewinnt, aber zu 25 Prozent leer ausgeht. Die Ergebnisse solcher Experimente haben gezeigt, dass Menschen systematisch von der mathematisch optimalen Wahl abweichen. Sie verlieren also Geld. Bei dem oben genannten Glücksspiel beispielsweise hat die zweite Option einen höheren Erwartungswert, doch wenn man sie fragt, ziehen viele Menschen die erste Option vor.
Aufgrund der gravierenden Auswirkungen dieser Entscheidungsfehler auf das Leben Einzelner und die Wirtschaft insgesamt ist es von anhaltendem wissenschaftlichem Interesse, vorherzusagen, wie Menschen suboptimale Entscheidungen treffen. Die Arbeit von Daniel Kahneman und Amos Tversky, die meinten, sie würden „natürliche Dummheit statt künstlicher Intelligenz“ untersuchen, führte zu einer besseren Beschreibung menschlicher Entscheidungen durch die kumulative Prospect Theory und zur Verleihung des Nobelpreises für Wirtschaftswissenschaften im Jahr 2002. Dennoch gibt es nach wie vor viele Anomalien und Kontexte, in denen Entscheidungen nicht gut vorhergesagt werden können. Noch schwieriger ist es, Erklärungen für die Entscheidungen von Menschen zu finden. Dazu gehören auch prominente Ideen wie die von Gerd Gigerenzer, dass menschliche Entscheidungen auf kognitiven Abkürzungen, so genannten Heuristiken, beruhen.
In einer aktuellen Studie (Peterson et al., 2021, Science) hat ein Forschungsteam der Princeton University, USA, Künstliche Intelligenz mit dem Ziel eingesetzt, menschliche Entscheidungen bei riskanten Glücksspielen besser zu verstehen. Die Idee: Wenn tiefe neuronale Netze immer erfolgreicher in der Vorhersage von Daten werden, könnten sie vielleicht auch menschliche Entscheidungen besser vorhersagen als verhaltensökonomische Theorien. Solche neuronalen Netze benötigen jedoch riesige Datenmengen, um trainiert zu werden. Daher wurde im Rahmen der Studie ein Datensatz erstellt, der menschliche Entscheidungen zu mehr als 13.000 Wetten enthält. Bei der Vorhersage der Spielentscheidungen von Menschen basierend auf diesem Datensatz schnitten die neuronalen Netze, die am wenigsten durch theoretische Annahmen eingeschränkt waren, am besten ab. Die Forschenden leiteten daraus eine „maschinell erlernte Theorie der wirtschaftlichen Entscheidungsfindung“ ab – eine interpretierbare Zusammenfassung des Verhaltens dieser neuronalen Netze.
In einer neuen Veröffentlichung in der internationalen Fachzeitschrift „Nature Human Behavior“ haben Forschende des LOEWE-Schwerpunkts „WhiteBox“ an der TU Darmstadt systematisch die Vorhersagen untersucht, die sich aus der Kombination verschiedener maschineller Lernmodelle mit unterschiedlichen Entscheidungsdatensätzen ergeben. Die Veröffentlichung, die ihren Ursprung in einem Kursprojekt im Masterstudiengang Cognitive Science hatte, fand auffällige Unterschiede in der Vorhersage menschlicher Entscheidungen: Während einige neuronale Netze die Entscheidungen aus dem Datensatz der Studie von 2021 zwar am genauesten vorhersagen konnten, gelang dies nicht für menschliches Verhalten aus kleineren psychologischen Experimenten. Dies ist ein typisches Beispiel dafür, wie Verzerrungen in Datensätzen zu Interaktionseffekten zwischen Modellen und Datensätzen führen können, sodass Erkenntnisse aus einem Datensatz nicht auf einen anderen übertragen werden können. Aus diesen Beobachtungen konnten die Forschenden ein generatives kognitives Modell entwickeln, das die Unterschiede zwischen den tatsächlichen Entscheidungen aus den Datensätzen und den Vorhersagen der KI-Modelle mit klassischen verhaltensökonomischen Ergebnissen menschlicher Entscheidungsunsicherheit quantitativ erklärt.
„Neuronale Netze können alle Vorschläge menschlicher Theoretiker in Bezug auf Vorhersagefehler in einem Datensatz übertreffen, aber das ist keine Garantie dafür, dass dies auch auf andere Datensätze menschlicher Glücksspiele oder sogar auf natürlichere, alltägliche Entscheidungen übertragbar ist“, erklärt Professor Constantin Rothkopf vom Centre for Cognitive Science der TU Darmstadt und Letztautor des Fachartikels in „Nature Human Behaviour“. Die Studie unterstreicht, dass die Kognitionswissenschaft noch immer nicht einfach durch künstliche Intelligenz automatisiert werden kann und dass eine sorgfältige Kombination von theoretischen Überlegungen, maschinellem Lernen und Datenanalysen erforderlich ist, um zu verstehen und zu erklären, warum menschliche Entscheidungen sind, wie sie sind, und vom mathematischen Optimum abweichen.
Die Publikation in Nature Human Behaviour: Thomas, T., Straub, D., Tatai, F. et al. Modelling dataset bias in machine-learned theories of economic decision-making. Nat Hum Behav (2024). https://doi.org/10.1038/s41562-023-01784-6
https://www.nature.com/articles/s41562-023-01784-6
TU Darmstadt Science Communication Centre, Abteilung Kommunikation Karolinenplatz 5 64289 Darmstadt presse@tu-darmstadt.de
Twitter: @TUDarmstadt