Künstliche Intelligenz und Rassismus – Kommentar von Peter Gietz
- Startseite
- chevron_right
- Allgemein
- chevron_right
- Künstliche Intelligenz und Rassismus – Kommentar von Peter Gietz
In unserer digitalisierten Welt begegnen wir künstlicher Intelligenz (KI) ständig und mittlerweile in nahezu allen Aspekten unseres Alltags. Man kann heute mal eben den Sprachassistenten im Handy nach dem Weg fragen oder mit einem Filter, der allein das menschliche Gesicht erkennt, ein lustiges Foto schießen. Künstliche Intelligenz beeinflusst unser Leben aber auch auf viel subtilere Weise. Stellt man einen Antrag auf einen Kredit, werden bei der Evaluation dieses Antrags und der Überprüfung der Kreditwürdigkeit alle angegebenen Informationen automatisiert durch ein Programm überprüft. Welche Faktoren dabei eine Rolle spielen und wie sie untereinander gewichtet werden, weiß das Programm durch künstliche Intelligenz bzw. durch maschinelles Lernen, welches in der neuesten Iteration Deep Learning (DL) genannt wird. Dass diese automatisierten Prozesse alles andere als perfekt sind, zeigt sich an verschiedenen Beispielen: Die Identifikation schwarzer Männer als Gorillas durch Google oder Twitter-Bots, die nach kürzester Zeit vollkommen dem Rassismus verfallen, sind zwei von vielen Fällen, in denen die KI die falschen Schlüsse zieht.
Was die Technologie rund um KI betrifft, stehen wir noch ganz am Anfang des Möglichen. Gerade deshalb ist es so wichtig, jetzt schon entschieden gegen latenten Rassismus in der KI und die daraus resultierenden Mikroaggressionen vorzugehen, indem wir ein Bewusstsein dafür schaffen. Obwohl fast alle modernen Unternehmen heute mit irgendeiner Form von KI arbeiten oder zumindest in Berührung kommen, sind sich nur wenige bewusst, wie die Mechanismen dahinter funktionieren. Oft wird in diesem Zusammenhang auch die mangelnde Diversität in den Firmenriesen, die sich mit KI beschäftigen, kritisiert – zu Recht. Aufgrund fehlender Erfahrungswerte ist das Bewusstsein dafür, wie tief systemischer Rassismus in der öffentlichen Verwaltung verankert ist, kaum vorhanden. Die mangelnde Diversität hat im Netz schon öfter für kuriose Fehler von KI, wie die bereits genannten, gesorgt. Ein weiteres Beispiel sind automatische Seifenspender, die dunkle Haut nicht als Haut erkennen, da der Algorithmus nie darauf geschult wurde. Während letzteres Beispiel nur harmlose Konsequenzen nach sich zieht, kann das gleiche Prinzip in anderen Anwendungsbereichen ganz fatale Folgen haben.
Wie bei anderer Software auch, obliegt die Entwicklung sowie das Training der KI zunächst dem Menschen. Jeder Mensch hat dabei, ob bewusst oder unbewusst, eigene Vorurteile, die er an den lernenden Algorithmus weitergibt. KI oder DL werden durch neuronale Netze ermöglicht, die aufgrund von Daten-Input Muster in den Daten-Beziehungen erkennen und diese gewonnenen Erkenntnisse auf neue Daten anwenden. So erkennt zum Beispiel ein Streaming-Service, dass ein neuer Film für eine*n Benutzer*in attraktiv ist und schlägt diesen vor, nachdem die KI sich zuvor gemerkt hat, welche Filme bereits angeschaut wurden. An dieser Stelle setzt bereits ein systemisches Problem der KI an: Explizit diskriminierende Beispiele aus der Vergangenheit, wie etwa in der Gesetzgebung, trainieren die KI, diese Diskriminierung als Norm anzusehen und so in die weitere Verarbeitung einfließen zu lassen. So auch im Beispiel des Programms „Compas“, das schwarze Gefängnisinsassen im Durchschnitt als gefährlicher einstufte als weiße Insassen, die wegen derselben Vergehen im Gefängnis saßen. Diese Missstände konnten erst durch investigativen Journalismus und einen Bericht der Seite Propublica.org aufgedeckt werden. KI kann nur so inklusiv und neutral sein, wie wir sie dies lehren. Wann immer Daten verwendet werden, sollte der Mensch sich genau bewusst machen, in welchem Kontext diese Daten stehen. Wären wir uns alle der bestehenden Problematik rund um mangelnde Diversität in der KI bewusst und würden aktiv Inklusion betreiben – als Kunden und als Entwickler – wäre schon viel geholfen.
Die Wirkungsgeschichte der KI ist noch jung. Und doch besteht bereits ein recht großes Misstrauen unter „People of Colour“, aufgrund des Einsatzes von KI-Technologie zum Nachteil ohnehin schon marginalisierter Gruppen. Aus diesem Grund gibt es nicht nur einen Überschuss an latent (oder sogar explizit) rassistischen Daten, sondern auch einen akuten Mangel an authentischen Daten. So fehlen etwa Sprachbeispiele, die die Stimmenerkennung der KI enorm verbessern könnten, indem sie ihr ermöglichen, Stimmen den kulturspezifischen Sprachmustern (u. a. AAE) zuzuordnen.
Im Großen und Ganzen, ist KI etwas Gutes für die Gesellschaft, Sie erleichtert unseren Alltag in vielerlei Hinsicht: Von kleinen Alltagshelfern, durch die unser Kühlschrank selbstständig fehlende Lebensmittel nachbestellt, über Vorschläge auf Medienportalen, sodass wir neue Lieblingskünstler finden, bis hin zur maschinell unterstützten Diagnose, die dabei hilft, insbesondere Krebserkrankungen möglichst früh festzustellen. In der Theorie sollte gerade die KI uns dazu befähigen, alltägliche Vorurteile auszumerzen, indem Anträge und Bewerbungen ganz sachlich von der KI bearbeitet werden. Jedoch können wir dieses Ziel der Neutralität nur erreichen, wenn wir die geeigneten Bedingungen dafür schaffen. Gemeinsam können wir dafür Sorge tragen, dass fehlerhafte Herangehensweisen, die zur Ausgrenzung von Minderheiten führen, im Keim erstickt werden. Es ist daher wichtig, dass wir uns alle – nicht nur die Betroffenen – bewusst gegen Rassismus in neuen Technologien aussprechen und dies auch mit unseren Handlungen bekräftigen.
Abonnieren Sie unseren Newsletter
Neueste Beiträge
- Here to spread the word: Die DAASI International auf der it-sa 2024
- Federation Services – das neue Modul in didmos
- Neue Partnerschaft: DAASI International und Remelda Technologies für sichere und innovative Softwarelösungen
- Karriere im Fokus: DAASI International auf dem Tigers Career Day 2024
- AARC revolutioniert Authentifizierung und Autorisierung in der Forschung