Kann KI auch sexistisch oder rassistisch sein?
Mit dem Schlagwort Künstliche Intelligenz (KI) bezeichnen wir Algorithmen, die auf Basis von Daten Wissen extrahieren und so zum Beispiel in der Lage sind, Vorhersagen oder Prognosen zu treffen oder Texte und Bilder zu erstellen. Teil von KI ist etwa auch maschinelles Lernen, das Systeme in die Lage versetzt, selbstständig aus Daten zu lernen und sich zu verbessern.
All diese Algorithmen sind nicht per se sexistisch oder rassistisch. Da sie aber auf Daten trainiert werden, die von Menschen erstellt wurden, kann es zu Voreingenommenheit und damit zu sexistischen beziehungsweise rassistischen Ergebnissen einer KI kommen.
Es ist daher sehr wichtig, dass KI von Personen mit Expertise entwickelt wird, die gelernt haben, worauf man bei der Entwicklung von KI achten muss. Datenquellen müssen beispielsweise vielfältig sein und repräsentativ, spezifische Maßnahmen wie etwa die Implementierung von ethischen Richtlinien oder die Wahl von Datenbereinigungstechniken beim Design müssen getroffen werden, um Voreingenommenheit zu minimieren und damit einen sicheren Einsatz von KI zu gewährleisten.