Eine in den USA durchgeführte Studie untersuchte die Auswirkungen von Datenpools auf die politischen Meinungen von LMs, die die Bausteine derzeit weit verbreiteter Chatbots mit künstlicher Intelligenz sind.
In diesem Zusammenhang wandten Wissenschaftler den politischen Kompasstest an, der auf der horizontalen Achse wirtschaftliche Werte (rechts und links) und auf der vertikalen Achse soziale Werte (liberal und konservativ) auf 14 verschiedenen LMs umfasst.
Die Forschung untersuchte auch die Auswirkungen politischer Neigungen im Inhalt verschiedener Datenquellen wie Nachrichten, Diskussionsforen, Büchern und Online-Enzyklopädien, die zur Ausbildung von LMs verwendet werden, auf das Natural Language Processing Model (NLP) sowie Desinformation und Hassrede, die von LM produziert wird. als Folge dieses Effekts.
Als Ergebnis der Untersuchung wurde festgestellt, dass LMs, die die politischen Neigungen der Quellen im Datenpool haben, in dem sie ausgebildet wurden, neben ihren Meinungen auch Hassreden und Fehlinformationen provoziert haben.
Als der ehemalige US-Präsident Donald Trump am 20. Januar 2017 sein Amt antrat, sehen wir außerdem beim Vergleich von LMs, die mit Datensätzen vor und nach diesem Datum trainiert wurden, dass die Trends bei LMs, die mit Daten aus der Trump-Zeit und danach trainiert wurden, an den erkannten Extremen liegen des politischen Kompasses.
Es wurde festgestellt, dass bei den LMs die „BERT“-Varianten konservativer seien als die „GPT“-Modelle und dass erhebliche Unterschiede in der politischen Ausrichtung verschiedener LMs, die von demselben Unternehmen entwickelt wurden, beobachtet wurden.
Die Tatsache, dass ausgebildete LMs soziale Themen voreingenommener angingen als wirtschaftliche Themen, wurde auf die Notwendigkeit eines breiteren Datensatzes für die wirtschaftliche Interpretation trotz der Fülle an Daten zu sozialen Themen zurückgeführt.
Die Forscher betonten, dass kein Sprachmodell völlig frei von sozialer Voreingenommenheit sein kann, und warnten, dass es theoretisch möglich sei, dass LMs, die mithilfe von Ressourcen ausgebildet werden, die extreme politische Ansichten repräsentieren, die bestehende Polarisierung im Unternehmen weiter vertiefen.
Die Forschungsergebnisse wurden im Bericht der 61. Jahrestagung der Association for Computational Linguistics veröffentlicht.
Neuanfang