Künstliche Intelligenz

Wenn Maschinen entscheiden

05.09.2019 – Autos, die alleine fahren, und Roboter, die Verletzte operieren: Schlaue Maschinen nehmen uns einiges ab. Aber wer übernimmt die Verantwortung, wenn sie falsch entscheiden? Das wollte die AfD von der Bundesregierung wissen.
Roboter Sophia
Gruselig menschenähnlich: Sophia ist eine der berühmtesten künstlichen Intelligenzen. Die AfD nennt sie in ihrer Kleinen Anfrage als Beispiel. © shutterstock.com/zixia

Wenn Computer-Systeme eigenständig Probleme lösen und sogar dazulernen können, nennt man das künstliche Intelligenz – oder kurz: KI. Sie wird schon in sehr vielen Bereichen eingesetzt. Zum Beispiel steuert sie große Maschinen in Fabriken. Oder wertet Unmengen von Akten aus, um Anwälten die Arbeit zu erleichtern. In Zukunft wird KI noch viele Aufgaben übernehmen, die bisher Menschen erledigt haben. 

Das wollte die AfD wissen 

Die AfD-Fraktion im Bundestag sieht die „enormen Fortschritte in den Bereichen Verkehr, Bildung, Industrie, Medizin“ erst einmal positiv. Das steht in ihrer Kleinen Anfrage. Aber sie macht sich auch Sorgen. Denn wenn Maschinen entscheiden, wer ist dann verantwortlich für ihre Entscheidungen? Die AfD kritisiert: „Die KI-Strategie der Bundesregierung beschäftigt sich nicht mit Fragen von Schadensverursachung und daraus entstehender Verantwortung oder Haftung.“ 

Das antwortete die Bundesregierung 

In ihrer Antwort betont auch die Bundesregierung, dass künstliche Intelligenz weiter entwickelt und gefördert werde müsse. Es heißt dort zum Beispiel: „Da die deutsche Gesellschaft altert, werden zukünftig weniger Menschen arbeiten. Hier könnte KI helfen.“ 

Die Probleme, die sich daraus ergeben, wenn etwa eine Maschine Schaden anrichtet, seien der Bundesregierung durchaus bewusst. Deshalb habe sie im letzten Herbst eine "Datenethikkommission" eingesetzt. Die solle bis Ende Oktober Vorschläge erarbeiten, welche Regeln für solche Fälle taugen. 

Was ist die Datenethikkommission? 

Ethikkommissionen gibt es zu verschiedenen Themen. Das sind Arbeitsgruppen, in denen Experten aus verschiedenen Bereichen sich mit besonders komplizierten moralischen Fragen beschäftigen. Sie versuchen, alle Sichtweisen zu bedenken und sprechen dann Empfehlungen aus, die den Politikern helfen sollen, kluge Entscheidungen zu treffen.  

Die Datenethikkommission hat von der Bundesregierung eine klare Aufgabe bekommen. Sie soll „ethische Maßstäbe“ und „konkrete Regulierungsoptionen“ vorschlagen für Fälle, in denen künstliche Intelligenzen Entscheidungen aufgrund von Daten-Auswertungen oder Algorithmen fällen. 

Die Bundesregierung hat Leitfragen formuliert, die die Kommission beantworten soll. Die lauten zum Beispiel: Welche Rolle wollen wir den neuen Technologien in der Zukunft zukommen lassen? Welche ethischen Grenzen gibt es für den Einsatz von algorithmenbasierten Prognose- und Entscheidungssystemen und andere datenbasierte Geschäftsmodelle?

Die Antworten sollen schnell gefunden werden: Für Ende Oktober sind die Ergebnisse der Arbeitsgruppe angekündigt. 

(DBT/jk)

Kommentare