Home

Wir verlassen uns auf Alexa und auf Siri. Anwendungen auf Basis Künstlicher Intelligenz sind selbstverständlich. Aber ist ihr Einsatz mit den Menschenrechten vereinbar?

Suchmaschinen, Parkassistenten, personalisierte Musikempfehlungen, Chatbots – Künstliche Intelligenz (KI) hat längst Einzug in unseren Alltag gehalten. Bemerkt und unbemerkt.

Ende Februar präsentierte die EU-Kommission ein Strategiepapier für KI. Das White Paper sieht unter anderem Regulierungen für Technologien vor, die von der EU-Kommission als Anwendungen „mit hohem Risiko“ eingestuft werden. In Bereichen wie Medizin, Verkehr, Polizei und Justiz soll es eigene Zertifizierungen geben, bevor die Systeme eingesetzt werden. Der Entwurf steht bis Ende Mai zur öffentlichen Konsultation auf der Website der EU-Kommission zur Verfügung.  Zwanzig Milliarden Euro im Jahr sollen in Anwendungen und Weiterentwicklungen von KI investiert werden. Doch was bedeutet der Einsatz Künstlicher Intelligenz aus menschenrechtlicher Sicht?

Widerspruch I: Monopolbildung

„Schon das überwachungsbasierte Geschäftsmodell von Großkonzernen wie Google oder Facebook lässt sich mit Menschenrechten wie dem Schutz auf Privatsphäre nicht vereinbaren“, sagt Rasha Abdul-Rahim von der NGO Amnesty International in London. „Diese Dienste sind scheinbar gratis, doch wir bezahlen mit unseren Daten.“ Die Menschenrechtsorganisation hat einen Bericht vorgelegt, der die Auswirkungen des digitalen Lebens aus der Perspektive der Menschenrechte analysiert. Im Fokus des Berichts stehen die Algorithmen der KI. Denn: Je intelligenter ein System funktionieren soll, desto mehr Daten braucht es. Vor dem Hintergrund der Monopolbildung im Digitalbereich wird dieser Umstand von Amnesty International als problematisch bewertet: 90 Prozent der Suchanfragen im Internet werden über Google getätigt, mehr als zwei Drittel der Social-Media-Nutzer haben ein Facebook-Konto. Facebook und Google dominieren das digitale Leben. Amnesty International fordert daher Investitionen in alternative Internetmodelle sowie striktere Regulierungen.

Widerspruch II: Informationskontrolle

Michael Lysander Fremuth, wissenschaftlicher Leiter des Ludwig Boltzmann Instituts für Menschenrechte in Wien, sieht das Recht auf Information durch KI potenziell bedroht: „Nämlich dann, wenn Algorithmen je nach Nutzerprofil nur gezielte Informationen anzeigen und damit unbemerkt als Filter im Vorfeld fungieren. Auch das Recht auf Meinungsfreiheit ist betroffen, wenn automatisierte Programme entscheiden, welche Inhalte publiziert werden dürfen oder welche – etwa aus Gründen des Persönlichkeitsschutzes – von Dienstanbietern zu löschen sind.“

Widerspruch III: Diskriminierung

Nicht nur die Menge der für KI-Systeme verwendeten Daten ist heikel, sondern auch die Art der Daten. „Selbstlernende Programme werden oft mit alten Datenbeständen trainiert. Das ist problematisch, da das Bewusstsein für Diskriminierung wie Rassismus und Sexismus noch nicht so ausgeprägt war“, erklärt Matthias C. Kettemann, Forscher am Alexander von Humboldt Institut für Internet und Gesellschaft in Berlin. Ein Beispiel sei der AMS-Algorithmus, der Menschen mit Betreuungsverantwortung oder ohne höhere Bildung in schlechteren Kategorien einstuft, was sich konkret auf den Zugang zu Fördermaßnahmen für diese Personen auswirkt. „Aber was ist, wenn dieser Mensch, der nur eine Grundschulbildung hat, ein fantastischer Goldschmied ist?“, fragt Kettemann. „Wir Menschen lassen uns von der scheinbaren Unfehlbarkeit automatisierter Entscheidungen leicht verführen und verlieren die Kompetenz, individuelle Fälle zu berücksichtigen“, sagt er. Ein anderes berühmt-berüchtigtes Beispiel für programmierte Vorurteile ist das Compas-Programm, mit dem in einigen US-Staaten das Rückfallrisiko von Straftätern berechnet wird. Für Compas ist relevant, aus welchem Stadtteil eine Person kommt, welches Einkommen sie hat und ob sich die Eltern getrennt haben.

Widerspruch IV: Intransparenz

„Es ist ein dramatischer Fehler, wenn KI-Systeme eingesetzt werden, um in Behörden zu sparen“, sagt Matthias Spielkamp, Geschäftsführer von AlgorithmWatch. Die Organisation fordert ein Transparenzregister von automatisierten Entscheidungssystemen, die in der öffentlichen Verwaltung zum Einsatz kommen. Dieses Register soll über den Zweck, das zugrunde liegende Modell sowie die Entwickler Auskunft geben: „Oft sind es zugekaufte Systeme, wie von Microsoft oder IBM. Wenn man nach der Funktionsweise fragt, heißt es dann: Geschäftsgeheimnis. Also keinerlei Nachvollziehbarkeit.“

Die andere Seite

KI wird aber auch im Sinne des Schutzes von Menschenrechten eingesetzt: Bei der Bekämpfung von Kinderpornografie, wenn Systeme entsprechende Inhalte erkennen und löschen, zur Vernetzung marginalisierter Gruppen wie LGBTQI-Communitys, oder um Menschenrechtsverletzungen zu dokumentieren und aufzuzeigen.

Industrienationen wie Kanada, Japan oder Frankreich haben in den vergangenen Jahren eigene KI-Strategien erarbeitet. In Österreich hätte 2019 eine solche präsentiert werden sollen. Das vorzeitige Koalitionsende verzögerte die Bundesstrategie, die aktuelle Regierung will sie nun vollenden.

Der Spielraum der Politik

Im Regierungsprogramm ist von Rahmenbedingungen für die Entwicklung und den Einsatz von KI-Systemen und Algorithmen zu lesen bei gleichzeitigem Schutz der Menschenwürde. So sollen etwa Verwaltungsentscheidungen maschinell unterstützt, aber nicht durch Maschinen getroffen werden dürfen.

Sabine Köszegi, Vorsitzende des Österreichischen Rats für Robotik und KI, sieht in Österreich einen Bedarf an gezielter Forschung, an Innovation sowie an begleitenden Bildungsmaßnahmen in Bezug auf die Technologie. Gleichzeitig warnt sie vor zu hohen Erwartungen: „KI-Technologie ist kein Wundermittel. Probleme wie der Klimawandel oder die aktuelle Corona-Krise lassen sich mit KI allein nicht lösen, KI kann aber unterstützen.“ Die KI-Strategie der EU-Kommission geht für Köszegi grundsätzlich in die richtige Richtung, sei aber noch „grob skizziert“.

Die österreichischen und europäischen Menschenrechtsstandards bieten aus Sicht von Lysander Fremuth ein hohes Schutzniveau, jedoch seien private Akteure wie Google oder Facebook nicht unmittelbar an diese Standards gebunden: „Daher muss die EU auch für diese Akteure Regulierungen schaffen“, sagt Fremuth. Ähnlich sieht es Internetforscher Matthias C. Kettemann, der sich eine Algorithmus-Verordnung auf EU-Ebene wünscht. „Wir sind der Technik ja nicht ausgeliefert“, sagt er. Hinter der KI und ihrem Einsatz stehen immer noch menschliche Entscheidungen: von Entwicklern, Programmierern, Unternehmen sowie von der Politik und der Justiz.

erschienen in: Digitale Repulik“ der Wiener Zeitung

Foto: by Drew Graham on Unsplash

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s