KIDD News - 07.12.2022

Interview mit Rosmarie Steininger, Geschäftsführerin der CHEMISTREE GmbH und Mitinitiatorin von KIDD, über die Normungsroadmap Künstliche Intelligenz

Wie lässt sich Künstliche Intelligenz auf vertrauenswürdige und transparente Weise in der Deutschen Wirtschaft fördern? Wozu braucht es Normierung und Standardisierung im Bereich KI? Und welche Rolle spielt KIDD als Use Case in der Normungsroadmap?

Die deutsche Normungsroadmap Künstliche Intelligenz (KI), erarbeitet von einer Gruppe Expert:innen im Bereich KI im Auftrag von Politik und Verbänden, stellt fundierte Handlungsempfehlungen zur Normung und Standardisierung von KI dar.

Rosmarie Steininger, Geschäftsführerin der Chemistree GmbH, gibt im Interview einen exklusiven Einblick in die zweite Auflage der Normungsroadmap KI, an der sie federführend mitgearbeitet hat und die demnächst vorgestellt wird.

Mit ihrem Unternehmen Chemistree bietet Rosmarie algorithmenbasierte Matchinglösungen z.B. für HR in Unternehmen an und arbeitet im KIDD-Konsortium eng an der Erprobung und Entwicklung des KIDD-Prozesses mit.

Das Interview führte Katja Anclam, female.vision e.V., im KIDD-Konsortium zuständig für das Arbeitspaket Outreach & Stakeholderbeteiligung.


KIDD: Rosmarie, du gehörst zum Expertenkreis der deutschen “Normungsroadmap Künstliche Intelligenz“. Könntest du ein bisschen genauer erklären: Was ist eigentlich die Normungsroadmap KI, und wer ist daran beteiligt?

Rosmarie: Die “Normungsroadmap Künstliche Intelligenz“ ist ein Katalog von Handlungsempfehlungen zur Normung und Standardisierung rund um KI. Dieser Katalog soll, nachdem im November 2020 eine erste Version vorgelegt wurde, nun demnächst in einer zweiten Runde vorgestellt werden.

Die Normungs- und Standardisierungsarbeit wird von einer Koordinierungsgruppe gesteuert, in der Politik und Verbände vertreten sind, also Ministerien, Forschungsgesellschaften und gesellschaftliche Verbände. Diese Institutionen haben zusätzlich Personen für einen Expertenrat benannt, der die Koordinierungsgruppe berät und ihr zuarbeitet.

Bei der Arbeit an der Normungsroadmap gibt es übergreifende Gruppen wie Grundlagen, Zertifizierung und soziotechnische Systeme. Daneben gibt es sektorale Arbeitsgruppen wie zum Beispiel Energie und Umwelt oder Mobilität. Ich habe gemeinsam mit Dr.-Ing. Patricia Stock vom REFA-Institut e. V. und Lajla Fetic von der Bertelsmann Stiftung die Arbeitsgruppe soziotechnische Systeme geleitet.

Normen und Standards sind ein Vehikel dafür, einerseits Kriterien für Qualität festzulegen und andererseits das Wissen zur Verfügung zu stellen, wie man diese Qualität erreicht.

KIDD: Kannst du etwas zu den Zielen der Normungsroadmap sagen?

Rosmarie: Bei der Setzung von Standards geht es darum, die Wettbewerbsfähigkeit Deutschlands zu steigern. Denn Normen und Standards sind ein Vehikel dafür, einerseits Kriterien für Qualität festzulegen und andererseits das Wissen zur Verfügung zu stellen, wie man diese Qualität erreicht.

Das Ziel bei der KI-Normung ist es, den Ordnungsrahmen für menschenzentrierte KI so zu setzen, dass europäische Maßstäbe berücksichtigt werden.

KIDD: Das hört sich nach einem sehr umfangreichen Unterfangen an. Warum ist es aus deiner Sicht überhaupt so wichtig, dass gerade im Bereich KI Regeln und Normen gesetzt werden, die dann auch verbindlich sind?

Rosmarie: Für bestimmte Sektoren oder Anwendungsfelder liegen schon Normen und Standards für KI vor, zum Beispiel die Maschinenrichtlinie, und auch im Finanzbereich gibt es da einiges. In ganz vielen Sektoren und Bereichen sind jedoch praktisch keine übergreifenden Normen etabliert. Z.B. gibt es im Personalbereich in Deutschland noch kaum Standards dafür, wie man KI- und Software-Anwendungen gut einsetzt.

Nehmen wir ein Beispiel: Der Betriebsrat weiß bei einer Software oder KI, die das Unternehmen für die Personalauswahl einsetzt, oft nicht, welche Algorithmen dahinterstecken und ob er ihr vertrauen kann. Das Unternehmen auf der anderen Seite ist häufig nicht in der Lage, es dem Betriebsrat in allen technischen Einzelheiten zu erklären.

Diese Lücke soll die Normung schließen. Mit ihrer Hilfe kann der Software- oder KI-Anbieter sagen: Schau her, wir funktionieren nach diesem Standard, der übergreifend ausgearbeitet wurde, deswegen sind wir vertrauenswürdig.

Den Akteuren in der Wirtschaft war es wichtig, zu wissen: Was muss ich machen, um KI ohne Bedenken einsetzen zu können?

KIDD: Viele stellen sich ja KI gar nicht als Produkt vor. Was genau muss da eigentlich geregelt werden?

Rosmarie: In der ersten Normungsroadmap KI sind fünf Handlungsfelder definiert worden, für die Regelungen gefunden werden sollten. Nehmen wir die “Datenreferenzmodelle für Interoperabilität“. Hier geht es um die Frage, wie zwei Systeme miteinander reden können. Dafür muss man die Daten vergleichbar oder transferierbar machen. Man muss also ein Übersetzungsprogramm haben oder eine Art gemeinsames Esperanto entwickeln.

Hier hilft eine Norm, an der sich alle orientieren können – ganz ähnlich wie bei Ladegeräten für Smartphones, die die gleichen Stecker verwenden können. Wenn Interoperabilität geschaffen ist, können wir leichter Daten austauschen und neue Anwendungen entwickeln 

Ein zweiter wichtiger Grund für die Normung von KI besteht in dem Wunsch, einschätzen zu können, ob eine KI problematisch ist oder nicht, also eine Einstufung der Kritikalität von Anwendungen. Da gibt es fünf Kritikalitätsstufen, die von der Datenethikkommission vorgeschlagen wurden: z.B. eine Verbotsstufe, die würde für so etwas wie autonom entscheidende Drohnen gelten, die Menschen töten können. Und eine unbedenkliche Stufe, wo eigentlich gar nichts geregelt werden muss, wie z.B. eine Steuerung, die das Licht ausschaltet, wenn keiner im Raum ist. In solchen Anwendungen hat man z.B. kein Diskriminierungspotenzial zu befürchten.

Dann gibt es Stufen dazwischen, riskante und hochriskante Anwendungen. Den Akteuren in der Wirtschaft war es wichtig, zu wissen: Was muss ich machen, um KI ohne Bedenken einsetzen zu können?

Der Grundgedanke der ganzen Diskussion lautet “excellence and trust“. Qualität und Vertrauen bedingen sich gegenseitig.

Zudem wurde in der letzten Ausgabe der Normungsroadmap KI eine Horizontale KI-Basis-Sicherheitsnorm gefordert, dazu passt der Vorschlag für eine EU-Verordnung zur KI. Dieser Verordnungsentwurf enthält Vorgaben dafür, welche Maßnahmen ergriffen werden müssen, damit eine KI, die als Hochrisiko eingestuft wird, trotzdem genutzt werden kann. Denn der Sinn ist ja nicht, dass Hochrisiko-Anwendungen in jedem Fall verboten werden, sondern dass sie durch die Festlegung von bestimmten Kriterien so sicher gemacht werden, dass man sie benutzen kann. Der Grundgedanke der ganzen Diskussion lautet “excellence and trust“. Qualität und Vertrauen bedingen sich gegenseitig.

Die EU-Verordnung regelt für Hochrisiko-Anwendungen z.B. Transparenzpflichten. Wer solche Anwendungen einsetzt, muss zudem sicherstellen, dass es eine menschliche Aufsicht gibt. Es muss gewährleistet sein, dass jemand die Anwendung ausschaltet, wenn er glaubt, dass etwas nicht mehr funktioniert. Und auch dafür braucht es wieder Standards und Normung, denn es stellt sich die Frage: Wie sieht Transparenz denn genau aus? Wie muss eine Anwendung gemacht sein, damit sie ausreichend transparent ist? Zeige ich jemandem den Quellcode, den er aber leider kaum verstehen kann? Oder erkläre ich schlicht: Ich habe das ordentlich gemacht, glaub mir einfach? Beides macht natürlich keinen Sinn, also brauchen wir eine andere Vorgehensweise, die definiert werden muss. Weitere offensichtliche Fragen in diesem Kontext sind: Für welchen Anwendungsfall gilt hier was? Wie sieht so ein “Ausschaltknopf“, wie es in der EU-Verordnung heißt, für KI überhaupt aus? Was muss ich wissen, um eine Anwendung gegebenenfalls auszuschalten?

KIDD: Das klingt spannend. Wie wird KI in diesem Zusammenhang eigentlich definiert?

Rosmarie: Erstaunlicherweise gibt es bisher keine Definition, auf die sich alle einigen können!

KIDD: Ist das nicht problematisch?

Rosmarie: Ja, das macht es tatsächlich nicht leichter! Zunächst war ich sehr erstaunt, als ich feststellte, dass weder der KI-Strategie der Bundesregierung, noch in der ersten Version der Normungsroadmap KI der Begriff KI klar definiert wurde. Aber dann stellte ich fest, dass eine Definition tatsächlich nicht einfach ist. Ein Grund dafür ist, dass es zwei gegenläufige Effekte gibt: Zum einen wollen manche Anbieter nicht, dass das, was sie machen, als KI gilt, obwohl es im landläufigen Sinne eigentlich so verstanden wird. Aber sie haben Bedenken, dass ihre Kunden oder Nutzer durch den Begriff KI abgeschreckt werden.

Andere wollen als KI gelten, obwohl sie es vielleicht im landläufigen Sinne nicht sind, weil sie es schick finden. Es gelingt einfach nicht, die verschiedenen Sichtweisen auf KI und die damit verbundenen Interessen zueinander zu bringen.

In der EU-Verordnung hat man eine relativ breite Definition von KI gewählt, sehr viele Anwendungen fallen darunter. Die KI-Verordnung wird ja im Moment noch beraten, die Definition kann sich also noch ändern. Manche sagen, KI ist nur das, was selbst lernt, was wir irgendwie nicht im Griff haben – und davor haben wir Angst.

Ich persönlich bin der Meinung, dass man in meinem Bereich, HR-Tech, sowohl mit deterministischen Algorithmen als auch mit maschinell lernenden Systemen gute Lösungen bauen oder eben auch großen Unfug treiben kann. Es kommt bei jeder Anwendung darauf an, dass sie gut gemacht, transparent und steuerbar ist. Daher ist die breite Definition von KI in der EU-Verordnung für mich in Ordnung. Man muss eben immer sagen können, was man macht und warum. Und jemand muss das System immer steuern können. Das machen wir sowieso, egal ob wir es KI nennen oder nicht.

KIDD: Glaubst du, es wird dann einfach die EU-Definition übernommen? Und ist das nicht ein Problem, wenn man sich selbst aussuchen kann, ob etwas KI ist? Das scheint mir jedenfalls das Gegenteil von Normen und Standards zu sein.

Rosmarie: Naja, in der EU-Verordnung ist jetzt zumindest festgelegt, was im Sinne der Verordnung KI ist und damit auch, was entsprechend reguliert werden soll. Diese Definition wird, wenn die EU-Verordnung verabschiedet ist, bestimmt auch für die Standardisierung übernommen. Ob sie im allgemeinen Sprachgebrauch übernommen wird, weiß ich nicht. Vom Taschenrechner über den Thermostat der Heizung bis zum Cyborg kann alles Mögliche KI sein. Ich bin gespannt, wie sich der Diskurs hier entwickelt.

Wo immer Interaktion zwischen Technik und Mensch stattfindet, sprechen wir von einem soziotechnischen System. In Bezug auf KI bedeutet das, wir schauen, wo sie auf einen Menschen trifft, Menschen beeinflusst.  

KIDD: Du bist ja mit jeder Sitzung zur Normungsroadmap KI tiefer in das Thema eingetaucht, vor allem als Co-Leiterin deiner Arbeitsgruppe “soziotechnische Systeme“. Da wäre gleich meine nächste Frage: Was sind eigentlich soziotechnische Systeme? Und was macht ihr in eurer Arbeitsgruppe?

Rosmarie: Der Begriff wurde schon vor 70 Jahren im Bergbau für das Zusammenspiel von Technik und Mensch geprägt. Wo immer Interaktion zwischen Technik und Mensch stattfindet, sprechen wir von einem soziotechnischen System. In Bezug auf KI bedeutet das, wir schauen, wo sie auf einen Menschen trifft, Menschen beeinflusst. Da, wo das der Fall ist, fragen wir: Wie wirkt sich die KI auf den Menschen und seine Umgebung, wie wirkt sie sich auf die ganze Organisation und sogar die Gesellschaft aus – und wie wird die KI wiederum beeinflusst?

KIDD: Das hört sich nach einem Vollzeitjob an, denn die Schnittstellen zwischen Mensch und Maschine werden ja in Zukunft noch wichtiger. Aber ihr macht das ehrenamtlich?

Rosmarie: Ja, das ist ehrenamtlich. Ich habe erst vor kurzem verstanden: Wer bei der Normung mitwirkt, der zahlt sogar dafür. Denn es ist für Firmen ein strategischer Vorteil, auf Normen Einfluss zu nehmen, die den Rahmen für das eigene Handeln und Wirtschaften bestimmen. In der Vorstufe zur Normung, der Normungsroadmap KI, kann jede und jeder mitwirken, ohne dafür zu bezahlen.

Was mich beschäftigt: Für die Normungsroadmap KI arbeiten hunderte von Menschen ehrenamtlich, und sie kommen am Ende tatsächlich zu einem Ergebnis: In der ersten Normungsroadmap KI, die 2020 vorgelegt wurde, waren das 276 Seiten Text, mit 78 Handlungsempfehlungen. Vor ein paar Monaten stellte jemand die Frage: Wie viel davon landet tatsächlich als “New Work Item“, als Normungsitem, auf europäischer Ebene, fließt also in die europäische Normung ein? Die Antwort war damals: Null. Das liegt daran, dass jemand diese Vorschläge aus der Normungsroadmap KI über die deutschen Normungsgremien auf europäischer Ebene einbringen muss. Und dafür gibt es keine explizite Stelle “für Deutschland“, auch das muss ehrenamtlich gemacht werden, von Menschen, die das wichtig genug finden, um ihre persönliche Zeit einzubringen. Oder von Menschen, die von einer Institution dafür bezahlt werden. Inzwischen wird daran gearbeitet, dass diese New Work Items tatsächlich auf europäischer Ebene landen, und das ist auch dringend erforderlich.  

KIDD: Dabei geht es ja darum, mit der Normungsroadmap KI die verschiedenen Perspektiven aus der Gesellschaft einzubringen und zu stärken.

Rosmarie: In meiner Arbeitsgruppe sind viele Vertreter aus den Zivilgesellschaften, aus der Gewerkschaft, aus Verbänden, NGOs oder Stiftungen. female.vision ist ja zum Beispiel auch dabei.

Als Teil der Arbeitsgruppenleitung gehört es zu meinen Aufgaben, Leute zu motivieren, die hier alle ehrenamtlich arbeiten. Dafür ist es natürlich entscheidend, dass die Arbeit auch eine Wirkung erzielt. Die Gesellschaft hat ein Interesse daran, dass die erarbeiteten Handlungsempfehlungen auch strukturell weiterverfolgt werden, und dass das nicht dem Zufall oder Lobbyisten überlassen wird.

Es wäre vermessen, für “die KI an sich“ zu definieren, was ethisch richtig oder falsch ist (…). Wir können nur den Prozess definieren, wie man bei einem konkreten Anwendungsfall zu einer fairen, ethisch akzeptablen Lösung kommt.

KIDD: Wo würdest du KIDD in Bezug auf Normen und Standards sehen?

Rosmarie: KIDD ist für mich ein Use Case, ein Leuchtturmbeispiel für den Bereich soziotechnische Systeme. Wie gestaltet man die Interaktion zwischen Mensch und Maschine gut? Ein Kriterium dabei ist ja die Frage nach Ethik und Diversität.

Die erste Version der Normungsroadmap KI hat dafür im Kapitel 4.2 erst einmal gesammelt: Was gibt es für Ethik-Kataloge mit Bezug zur KI? Es wäre vermessen, für “die KI an sich“ zu definieren, was ethisch richtig oder falsch ist, dafür gibt es viel zu viele Anwendungsfälle und viel zu viele unterschiedliche Perspektiven. Wir können nur den Prozess definieren, wie man bei einem konkreten Anwendungsfall zu einer fairen, ethisch akzeptablen Lösung kommt. KIDD ist ein Beispiel für so einen Prozess: Wer muss da mitreden, wie können die mitreden, wie wird entschieden?

KIDD: Wie sieht deine positive Version für eine Zukunft mit KI aus? Wie stellst du dir das vor?

Rosmarie: Ich glaube, wir sollten zu einer “lovable“ oder “likable AI“ kommen, zu einer KI, die ich als Mensch gerne mag. Das beinhaltet, dass sie “gut“ ist: excellence and trust. Ich möchte nichts, das technisch schlecht ist, aber auch nichts, dem ich nicht vertrauen kann. Im Moment werden manche KI-Anwendungen gebaut, weil sie technisch machbar sind oder, weil man doch bestimmt aus den Daten etwas herausholen kann. Das wird gemacht, egal ob es für die Lösung eines Problems sinnvoll ist oder nicht – das macht mir Angst, denn da kommen Ergebnisse raus, die auch mir nicht gefallen.

Wenn das Ziel aber eine likable oder lovable AI wäre, dann wäre das gut. In der Medizin zum Beispiel kann KI Leben verlängern. Alles, was da möglich ist, will man natürlich haben. Die Krebstherapie, die Diagnostik, viele Dinge können hier verbessert werden. Solange wir dafür sorgen, dass es eine optimale Mischung zwischen Technik und menschlicher Aufsicht gibt. KI muss also immer vertrauenswürdig sein.

Wichtig ist, dass die Menschen Subjekt bleiben und nicht zum Objekt werden.

KIDD: Das ist ein schöner Aspekt: Liebe habe ich bisher nicht mit AI in Verbindung gebracht. Aber darum sollte es gehen: Dass sie unser Leben besser macht.

Rosmarie: Genau, wichtig ist, dass die Menschen Subjekt bleiben und nicht zum Objekt werden. Oft hat man das Gefühl, der Mensch ist ein Objekt, über den etwas entschieden wird, auch bei den KI-Definitionen. Der Mensch hat gar nicht die Möglichkeit, zu sagen: Will ich das oder nicht? Wenn sich das ändern würde, wenn der Mensch entscheiden könnte: Will ich das? Dann könnte die Diskussion um KI anders aussehen.

KIDD: Das ist ein schönes Schlusswort. Es ist also wichtig, dass KI transparent und menschenzentriert bleibt.

Rosmarie: Ja, schauen wir mal, ob das mit der lovable KI funktioniert.

Vielen Dank für das Gespräch!


Die Normungsroadmap KI wird am 09.12.2022 im Rahmen des Digitalgipfels der Bundesregierung veröffentlicht. Das Dokument steht dann hier zum Download bereit.