Zum Inhalt springen

Künstliche Intelligenz Wenn Computer selber denken

Einerseits erleichtern intelligente Programme uns das Leben. Andererseits wollen wir nicht, dass sie uns das Denken abnehmen. Mit diesem Zwiespalt beschäftigt sich eine Kommission im Bundestag.

Roboter und Mensch

Wenn Maschinen handeln, wer übernimmt dann die Verantwortung? Mit solchen Fragen beschäftigt sich die Enquete-Kommission „Künstliche Intelligenz“. © shutterstock.com/MikeDotta

Wenn ein Auto, das ohne Fahrer fährt, einen Unfall baut – wer ist dann schuld? Derjenige, dem das Auto gehört? Oder der Autobauer, der die Technik hergestellt hat? Wenn jemand, der sich im Internet über Sneakers informiert, nur die Schuhe bestimmter Marken angezeigt bekommt – ist das fair? Oder doch unfair, weil Hersteller anderer Marken gar nicht zum Zuge kommen und die Kunden nicht die komplette Auswahl sehen?

Mit solchen Fragen beschäftigt sich eine Gruppe von Abgeordneten des Bundestages. Das Gremium nennt sich Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale“. Enquete-Kommissionen setzt der Bundestag ein, wenn es um wichtige Zukunftsfragen geht, die so kompliziert sind, dass die Abgeordneten sie nicht neben dem aktuellen Tagesgeschäft klären können. In solchen Kommissionen sitzen Abgeordnete und Experten, die sich dann über einen längeren Zeitraum intensiv mit einem Thema beschäftigen.

Was ist KI?

In diesem Fall heißt das Thema also: künstliche Intelligenz, kurz: KI. Von KI spricht man, wenn Maschinen oder Computerprogramme so schlau programmiert sind, dass sie nicht nur Befehle ausführen, sondern auch Zusammenhänge erkennen, daraus Schlüsse ziehen und so dazu lernen können.

Einerseits können solche intelligenten Systeme den Menschen enorm viel Arbeit abnehmen. Sie können zum Beispiel die riesigen Mengen an digitalen Daten, die wir täglich erzeugen, ordnen, auswerten, analysieren. Andererseits aber entstehen durch KI ganz neue moralische Fragen. Denn die technischen Vorgänge, die Systeme ausführen, haben ja Einfluss auf das Leben und Handeln von Menschen.

Die Enquete-Kommission beschäftigt sich mit beidem: mit den Chancen und den Gefahren. Da künstliche Intelligenz in sehr, sehr vielen Bereichen des Lebens eine Rolle spielt, gibt es innerhalb der Kommission sechs Projektgruppen:„KI und Wirtschaft“, „KI und Gesundheit“, „KI und Staat“, „KI und Arbeit, Bildung, Forschung“, „KI und Mobilität“ und „KI und Medien“.

Der Bericht der Kommission

Die Kommission schaut sich an, wo es bei der künstlichen Intelligenz ethische Probleme geben könnte und möchte dafür Vorschläge für die Lösung entwickeln. Ende Oktober stellten die Experten einen vorläufigen Bericht vor, in dem alle ihre bisherigen Erkenntnisse zusammengefasst sind.

Wichtig zu wissen: In Enquete-Kommissionen arbeiten Abgeordnete alle Fraktionen mit und sie sind naturgemäß nicht immer bei allem einer Meinung. Auf die Berichte der Kommission müssen sie sich aber einigen und diese formal beschließen. Dies wird so organisiert, dass Fraktionen Änderungsanträge stellen können, wenn sie etwas anders dargestellt wünschen. Dieser Prozess läuft noch zum Teil, so dass die endgültige Version des Berichts noch nicht fertig ist. Am 4. November wurden aber zumindest Teile davon schon beschlossen.

Was macht Algorithmen gefährlich?

Ein wichtiges Thema in dem Bericht sind Algorithmus-Systeme. Das sind Programme, die Informationen nach bestimmten Vorgaben auswerten. Um das Beispiel noch einmal aufzugreifen: Ein Algorithmus kann etwa erfassen, nach welchen Schuhen ein Nutzer im Internet sucht. Er erkennt ein Muster wie „mag weiße Sneaker“ oder „mag Sneaker der Marke xy“. Und dann zeigt er automatisch nur noch Werbeanzeigen für weiße Sneaker einer bestimmten Marke an.

Vielleicht denkt ihr jetzt: „Wo liegt das Problem? Ist doch gut, wenn ich angezeigt bekomme, wofür ich mich interessiere, dann muss ich nicht so lange suchen.“ Wenn man aber gar nicht erkennt, dass man es mit einem Algorithmus zu tun hat, dann kann es passieren, dass man unvollständig informiert wird, ohne es zu merken. Am Ende erfahrt ihr vielleicht gar nicht, dass eine neue Firma auch ganz tolle Sneaker anbietet, und das vielleicht auch noch viel preiswerter.

Das Beispiel mit den Schuhen ist noch relativ harmlos. Aber stellt euch vor, es geht darum, auf einer Dating-Plattform jemanden zu finden, mit dem man sich treffen möchte. Oder darum, sich eine eigene Meinung zu einem schwierigen politischen Thema zu bilden. Da möchten wir wohl kaum, dass ein Computer uns das Denken abnimmt.

Deshalb hat die Enquete-Kommission sich damit beschäftigt, wie man dafür sorgen könnte, dass Algorithmen transparenter werden, wir also wissen, womit wir es zu tun haben, wenn der Vorschlag für die weißen Sneaker kommt.

Zu Gast waren bei der letzten Sitzung der Enquete-Kommission übrigens zwei Sprecherinnen der Datenethik-Kommission. Diese war von der Bundesregierung eingesetzt worden, um ebenfalls kritische Fragen zu klären, die auftauchen, wenn große Mengen von Daten von Computerprogrammen verarbeitet werden. Hier könnt ihr euch im Video anschauen, was die beiden berichtet haben – das ist allerdings wirklich ganz schön kompliziert ...

(DBT/jk)

Mehr zum Thema