KIDD News - 12.01.2022

Interview mit Alexander Sander, Mitglied des KIDD Advisory Boards und Experte für Daten und Softwareethik

Welche ethischen Grundsätze sind wichtig beim Einsatz von KI? Welche Rolle spielt die Transparenz von Daten bei der betrieblichen Mitbestimmung? Und ist der rechtliche Rahmen für den Einsatz von KI ausreichend?

Wichtige Fragen, die wir im Interview mit Alexander Sander, Mitglied des KIDD-Advisory Board, diskutiert haben. Alexander ist Politikberater bei der Free Software Foundation Europe (FSFE) und Mitinitiator der Kampagne Public Money? Public Code! und beriet u.a. bereits die EU sowie die Stadt Barcelona in seiner Wahlheimat Spanien. Außerdem ist er Beirat der Initiative gegen Totalüberwachung.

Das Interview wurde geführt von Katja Anclam, female.vision e.V., im KIDD-Konsortium zuständig für das Arbeitspaket Outreach & Stakeholderbeteiligung.

KIDD: Was interessiert Dich am Forschungsprojekt KIDD – warum bist Du im Advisory Board?

Erstmal ist KI natürlich ein absolutes Zukunftsthema und gleichzeitig ein sehr junges Thema. Es muss noch viel geforscht werden. Die Idee an sich ist schon fast sechzig, siebzig Jahre alt. Aber jetzt gehen wir aufgrund unserer technischen Kapazitäten in die heiße Phase.

Das spannende am KIDD-Projekt ist die Überlegung: Wie kann man praktische Hilfestellung in den Unternehmen leisten, um mit KI positiv umzugehen? Und zwar so, dass Mitarbeiter:innen nicht diskriminiert werden, dass es keine Einschränkung der Grundrechte gibt und einen Leitfaden zu erarbeiten, wie KI in den verschiedenen Kontexten eingesetzt werden kann.

KIDD: Im Advisory Board berätst Du das Konsortium zu Fragen von IT und Softwareethik – welche ethischen Grundsätze sind für Dich besonders wichtig?

Ich denke das zentrale Thema bei Digitalisierung überhaupt ist der Schutz von Grund- und Menschenrechten und dass es in diesem Feld keine Diskriminierung gibt. Und das müssen wir auch beim Einsatz von KI immer mitdenken. Es geht nicht darum etwas kaputt zu regulieren oder Möglichkeiten zu verhindern.

Die spannende Frage, die wir uns stellen müssen, ist wie wir praktisch mit KI umgehen, so dass sie uns als Gesellschaft nach vorne bringt, ohne uns gleichzeitig als Gesellschaft zu schaden.

Da geht es immer wieder um vermeintliche Einzelfälle: wenn zum Beispiel ein Algorithmus mit einer 99-prozentigen Wahrscheinlichkeit perfekt und richtig arbeitet, ist es immer noch ein Prozent, das übrigbleibt. Hier gilt es dann die gesamte Gesellschaft im Blick zu behalten und nicht einer Mehrheit zu folgen.

KIDD: Was ist aus deiner Sicht für einen selbstbestimmten Umgang mit Technik notwendig?

Das ist ein großes Thema: Welche Daten werden zum Beispiel überhaupt genutzt und analysiert, um zum Beispiel zu automatisierten Entscheidungsprozessen zu kommen? Wir haben zusätzlich zur EU KI-Verordnung, mit der wir uns jetzt befassen, bereits eine Gesetzgebung. Das ist das klassische Datenschutzrecht. Und natürlich gelten immer die Grundrechte. Wichtig wird es aber im Zusammenhang mit KI dafür zu sorgen, dass wir als Nutzer:innen darüber informiert werden, wenn ein KI -Entscheidungsprozess in irgendeiner Art und Weise involviert ist. Wie formulieren wir das, damit es dann am Ende tatsächlich Realität wird? Momentan wird in diesem Bereich viel gemacht und probiert. Deswegen ist es wichtig, dass wir zu einem gesetzlichen Rahmen kommen, um eine gewisse Transparenz zu gewährleisten, damit die Bürger:innen und Nutzer:innen wissen, wann sie gerade in einem KI-gesteuerten Prozess sind und dann entsprechend auch wissen, welche Daten verwendet werden, wofür diese Daten verwendet werden und vor allem, wie diese Daten am Ende gewichtet werden.

KIDD: Immer wieder wird gefordert, dass es mehr Transparenz und Offenheit mit Daten geben muss – wie ist Transparenz in Zusammenhang mit Daten überhaupt zu erkennen?

Das ist momentan relativ schwierig und hier müssen wir daher auch in der Gesetzgebung dafür sorgen, dass für Nutzer:innen transparent wird, wann eine KI involviert ist – und viel mehr noch: was diese KI dann tatsächlich tut! Am besten wäre natürlich, wenn man in den Code hineinschauen kann, um zu sehen, wie bestimmte Entscheidungen gewichtet werden und bestimmte Entscheidungen zustande kommen. Mit dem Code allein kann ich dann natürlich auch nur sehr begrenzt etwas anfangen, wenn ich das dahinterliegenden Datenset überhaupt nicht kenne. Am Code und Datensatz zusammen kann man am Ende ganz gut erkennen, ob Diskriminierung vorherrscht oder nicht.

Nehmen wir folgendes Beispiel: eine KI soll in einem Unternehmen überlegen, wer neue Mitarbeiter:innen für das Unternehmen sein könnten. Jetzt hat diese Firma über Jahrzehnte hinweg in Leitungspositionen nur Männer besetzt und so kommt die KI eben zu dem Ergebnis: ja, Männer performen hier offensichtlich deutlich besser und daher sollte nur nach Männern Ausschau gehalten werden. Das ist natürlich ein Ergebnis, was aus KI-Sicht in diesem Fall logisch wäre, weil sie eben die Vergangenheit analysiert hat. Aber ob dieses Ergebnis besonders zukunftsträchtig und gerecht ist, darf angezweifelt werden.

Diese Problematik kann man nicht nur mit einer Gesetzgebung abdecken. Dazu gehören auch andere Verfahren, wie sie zum Beispiel der KIDD-Prozess mit dem Panel der Vielfalt bietet,

was ich eine sehr gute Idee finde, um tatsächlich sicherzustellen, dass möglichst viele Stakeholder:innen in einem Unternehmen einen Blick auf die Prozesse werfen können und hier ihre Erfahrung mit einbringen, um Diskriminierung nicht immer weiter zu verstetigen.

KIDD: Wie ist das mit Software, die KI enthält, die jetzt im Augenblick eingeführt wird? Gibt es da aus Deiner Sicht schon einen ausreichenden rechtlichen Rahmen?

Es gibt schon einen rechtlichen Rahmen. Wir haben ein Datenschutzrecht, wir haben ein Arbeitsrecht. Es gibt aber kein dezidiertes Recht, das sich bisher mit diesen konkreten Fragen, die aus KI heraus erwachsen, auseinandersetzt.

Ich denke ein zentrales Thema bei der KI Gesetzgebung ist Transparenz. Und diese Transparenz besteht durch die momentane Gesetzeslage noch nicht. Es gibt keine Verpflichtung irgendwem gegenüber, den Code oder die Datensätze transparent zu machen, um nachzuvollziehen, ob tatsächlich Diskriminierung stattfindet.

Wir haben zwar Rechte, die Diskriminierung untersagen, gleichwohl können wir die Ergebnisse von KI nicht analysieren und können deswegen auch nur schwer nachvollziehen, wann Diskriminierung vorherrscht.

Und wenn wir uns konkrete Fälle von Diskriminierung in KI anschauen, erkennen wir, dass hier Algorithmen nicht funktionieren. Wenn z.B. ein dreijähriges Kind auf einer No-Flight Liste landet, weil es vielleicht mal mit jemandem im Flugzeug gesessen hat, der möglicherweise mit Terrorismus zu tun hatte, dann sehen wir einfach, dass irgendwas in diesem Algorithmus falsch sein muss.

Schöner wäre es natürlich, wenn wir das einfach vorher abfangen könnten und gar nicht erst KI ins Rennen schicken, die diese Fehler produziert und im Zweifelsfall tatsächlich Menschen in ihren Grundrechten einschränkt. Das ist ein großes Problem.

Und hier brauchen wir eine KI-Gesetzgebung auf europäischer Ebene, die für Transparenz sorgt, damit wir solche Fälle im Vorfeld abfangen. Das wird natürlich nicht hundertprozentig funktionieren, aber es geht darum, Fehlerquellen zu minimieren, weil es hier um den persönlichen Lebensbereich von Menschen geht, die ja im schlimmsten Fall aus ihrem Alltag ausgeschlossen werden und im Grunde dann nicht mehr am gesellschaftlichen Leben teilnehmen können. Und das nur, weil ein automatisierter Entscheidungsprozess an irgendeiner Stelle über sie gerichtet hat. Und das ist falsch.

KIDD: Eine breite gesellschaftliche Diskussion – neben der kommenden EU-Verordnung, die den rechtlichen Rahmen dafür abbilden wird – bedeutet ja auch, dass – bei der Einführung von KI in Betrieben – auch Arbeitnehmer:innen befähigt sein müssen, an diesen Diskussionen teilzunehmen. Welche Fähigkeiten sind da gefragt?

Das ist natürlich die grundsätzliche Frage: mit wieviel Wissen darf ich an der Debatte teilnehmen? Wieviel Wissen haben wir Deutschen, wenn es um Digitalisierung geht? Wo stehen wir im europäischen Vergleich? Wie kann man das angehen? Wie kann man sowas ändern? Grundsätzlich finde ich, kann sich erstmal jede/r – egal mit welchem Wissensstand – an der Debatte beteiligen und seine/ihre Bedenken mit einbringen. Diese sollte man auch ernst nehmen. Und dann geht es darum, diesen Dialog zu führen und die Ängste zu nehmen, wenn sie unberechtigt sind oder sich ernsthaft mit Ängsten und Befürchtungen auseinanderzusetzen und versuchen, sie aufzulösen.

Das braucht solche Ansätze, wie das KIDD-Projekt, das sich über ein Panel der Vielfalt Gedanken machen und hier wirklich überlegt, wie so ein Austauschprozess im Unternehmen praktisch organisiert werden kann.

Es ist einfach zu sagen: wir brauchen transparente KI – da wird sich wahrscheinlich jede/-r dahinter stellen können. Aber was das dann konkret bedeutet, ist die eigentlich spannende Frage.

Ich glaube, dass viele öffentliche Veranstaltungen zu diesem Thema stattfinden und der Diskussionsprozess auch durch die Gesetzgebung gerade erst richtig ins Rollen kommt.

Erinnern wir uns an die Datenschutzgesetzgebung, die auch fast ein Jahrzehnt gebraucht hat, bis sie von ihrer anfänglichen Idee bis zur tatsächlichen Umsetzung auf den Weg gebracht wurde. Da bin ich ganz zuversichtlich, dass das bei KI auch stattfinden wird.

Hier möchte ich gerne mit dem Finger nach Europa zeigen und sagen: dort unterhalten wir uns gerade – und zwar europäisch – und in diese Debatte sollte man sich als Bundesregierung oder auch deutsche Gesellschaft möglichst früh mit einbringen und nicht erst warten, bis wir über die Umsetzung reden

Deswegen rufe ich alle auf, sich schon jetzt mit dem Thema – vor allen Dingen im Hinblick auf die europäische Gesetzgebung – auseinanderzusetzen.

Wem gegenüber wollen wir wie transparent sein, und was bedeutet das dann für Behörden und Menschen, aber eben auch für Unternehmen?

KIDD: Was ist Deine positive Vision für die Zukunft mit KI?

Private Daten schützen, offene Daten nutzen. Hier geht es eben vor allen Dingen darum, dass wir die Grundrechte der Menschen schützen wollen. Wenn man der KI ein anderes Mindset mit auf den Weg gibt, kann man diese beispielsweise dafür nutzen Diskriminierung aufzulösen.

Wenn man davon ausgeht, dass die KI Entwicklung – also auch die technische Entwicklung von dem was KI irgendwann einmal können soll, entsprechend weitergeht –  und das wird definitiv so sein – dann lassen sich ganz faszinierende Zukunftsfantasien an die Wand malen, was mit KI alles möglich ist.

Es gilt immer zu entscheiden, wie wichtig sind die Daten tatsächlich für das was ich mache?  Gibt es nicht eine andere Möglichkeit Daten auszuwerten, um zu dem gleichen Ergebnis zu kommen, die weniger invasiv sind zum Beispiel?

Wie wird dieser ganze Prozess gesamtgesellschaftlich getragen? Das wird vor allen Dingen durch das Mittel der Transparenz, was Vertrauen schafft, gedeckt sein.

Und deswegen brauchen wir Prozesse, in denen wir möglichst offen mit möglichst vielen Leuten darüber diskutieren, was wir hier eigentlich konkret vorhaben und wie sinnvoll das ist. Auf der einen Seite dem Forschergeist Spielraum zu geben, auf der anderen Seite auch Bedenkenträger:innen nicht als Spötter:innen abzutun, sondern deren Bedenken tatsächlich ernst in diese Prozesse mitzunehmen und dann ganz im Habermasschen Sinne die beste Lösung zu finden.

Vielen Dank für das Gespräch!