Kann KI auch sexistisch oder rassistisch sein?

Erstellt am 14. April 2024 | 12:00
KI-Chatbot
Laut einer Studie der Unesco können KI-Chatbots die Ungleichheiten zwischen den Geschlechtern und rassistische Stereotypen signifikant verstärken.
Foto: KI-generiert/Dall-e 3
Nicht nur wir Menschen, sondern auch auf Künstliche Intelligenz (KI) basierende Textgeneratoren und Sprachmodelle können sexistische, homophobe und rassistische Inhalte hervorbringen und sogar verstärken. Warum das so ist und was man dagegen tun kan, erklärt KI-Expertin Marlies Temper von der Fachhochschule St. Pölten.

Mit dem Schlagwort Künstliche Intelligenz (KI) bezeichnen wir Algorithmen, die auf Basis von Daten Wissen extrahieren und so zum Beispiel in der Lage sind, Vorhersagen oder Prognosen zu treffen oder Texte und Bilder zu erstellen. Teil von KI ist etwa auch maschinelles Lernen, das Systeme in die Lage versetzt, selbstständig aus Daten zu lernen und sich zu verbessern.

All diese Algorithmen sind nicht per se sexistisch oder rassistisch. Da sie aber auf Daten trainiert werden, die von Menschen erstellt wurden, kann es zu Voreingenommenheit und damit zu sexistischen beziehungsweise rassistischen Ergebnissen einer KI kommen.

Marlies Temper ist Leiterin der Studiengänge Data Intelligence (MA) und Data Science and Business Analytics (BA) an der FH St. Pölten
Marlies Temper ist Leiterin der Studiengänge Data Intelligence (MA) und Data Science and Business Analytics (BA) an der FH St. Pölten.
Foto: Arndt Oetting, Arnd Oetting

Es ist daher sehr wichtig, dass KI von Personen mit Expertise entwickelt wird, die gelernt haben, worauf man bei der Entwicklung von KI achten muss. Datenquellen müssen beispielsweise vielfältig sein und repräsentativ, spezifische Maßnahmen wie etwa die Implementierung von ethischen Richtlinien oder die Wahl von Datenbereinigungstechniken beim Design müssen getroffen werden, um Voreingenommenheit zu minimieren und damit einen sicheren Einsatz von KI zu gewährleisten.