Digitalisierung Welche Regeln braucht generative KI?
Derzeit wird viel über ChatGPT diskutiert. Klar ist: Generative KI wird die Art, wie wir kommunizieren, leben und arbeiten, massiv verändern. Darüber, wie stark die Technologie reguliert werden sollte, haben Expertinnen und Experten im Digitalausschuss diskutiert.
Um „generative KI“ ging es kürzlich in einer Anhörung des Digitalausschusses mit Expertinnen und Experten. Was bedeutet das? Eine generative KI ist eine Künstliche Intelligenz, die auf Befehl Texte, Bilder und andere Daten erstellen, also generieren kann. Ein aktuell viel diskutiertes Beispiel ist der Chatbot ChatGPT, der in Sekundenschnelle sehr eloquente Texte formulieren kann.
Werden Übersetzer und PR-Fachleute überflüssig?
Die Auswirkungen von generativer KI auf die Arbeitswelt erläuterte Christian Kellermann von der Hochschule für Technik und Wirtschaft Berlin im Ausschuss. Er sagte, es gebe Arbeitsbereiche, bei denen anzunehmen sei, dass KI menschliche Arbeit perspektivisch ersetzen könne, etwa Übersetzungen, die Generierung von Codes oder auch kreatives Schreiben. Übersetzer, Meinungsforscher und PR-Fachleute würden sich damit beschäftigen müssen. Allerdings sei die bisherige Studienlage dazu nur bedingt aussagekräftig.
Regeln für Künstliche Intelligenz
Die Entwicklung von KI ist – nicht nur im Bereich Arbeit – mit Sorgen verbunden. Wie stellt man sicher, dass es nicht zu Missbrauch kommt? Das soll in der Europäischen Union der sogenannte „AI Act“ regeln, über den das Europäische Parlament voraussichtlich Mitte Juni abstimmen will. (AI steht für „Artificial Intelligence“, das ist der englische Begriff für Künstliche Intelligenz.)
KI-Systeme sollen demnach in vier verschiedene Risikostufen eingeteilt werden: „unzulässig“, „hohes Risiko“, „begrenztes Risiko“ und „minimales Risiko“. Entsprechend dieser Risikostufen sollen alle Maßnahmen und Vorschriften angepasst werden. So sollen Grundrechte, Sicherheit und Privatsphäre der Menschen geschützt werden.
Plädoyer für wenig Regulierung
Dafür, das Level an Regulierung so gering wie möglich zu halten und Geschwindigkeit aufzunehmen in Sachen KI, sprach sich Jonas Andrulis vom Heidelberger Start-Up Aleph Alpha aus. KI sei die Basistechnologie einer „neuen industriellen Revolution“, bei der aktuell US-Tech-Giganten mit „intransparenten Angeboten“ den Ton angeben würden. Für Deutschland und Europa sei aber die inhaltliche und ökonomische Souveränität entscheidend. „Wir haben kein Microsoft und Google in Europa“, sagte Andrulis.
Auch Rasmus Rothe vom KI-Bundesverband plädierte dafür, dem Mittelstand keine Steine in den Weg zu legen und pragmatischer zu werden, um wettbewerbsfähig zu bleiben. Er verwies darauf, dass generative KI viele Aufgaben besser ausführen werde als der Mensch und die Technologie zu Wirtschaftswachstum führen könne. Es müsse immer auf den konkreten Einsatzzweck einer KI geschaut werden und künftig mehr in Richtung eines TÜV für KI-Anwendungen gedacht werden, schlug er vor.
Gesellschaftliche sinnvolle Anwendungen nicht ausbremsen
Philipp Hacker von der Viadrina-Universität in Frankfurt (Oder) betonte, dass generative KI die Art, wie wir kommunizieren, leben und arbeiten, massiv verändern werde. So sehe er unter anderem das Risiko, dass Anwendungen, die gesellschaftlich sinnvoll seien, ausgebremst oder verhindert würden. Als Beispiel nannte er den von Google entwickelten KI-basierten Chatbot Bard, der in der EU nicht verfügbar sei.
Stimmen für eine starke Regulierung
Doris Weßels von der Fachhochschule Kiel sprach sich dagegen für klare Eckpfeiler im AI Act und eine Kennzeichnungspflicht aus, betonte aber, dass es nicht zu einer Überregulierung kommen dürfe.
Auch der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, forderte einen klaren Rechtsrahmen. Die Regelungen der Datenschutz-Grundverordnung (DSGVO) seien dafür „eine gute Ausgangsbasis“.
Fake News entgegenwirken
Catelijne Muller von der Initiative ALLAI, die sich für einen verantwortungsvollen Umgang mit KI einsetzt, betonte, es sei nicht so, dass die europäischen Regulierungsbemühungen nicht Schritt halten könnten. Die großen Systeme könnten schon jetzt reguliert werden – das forderten die Unternehmen, wie etwa OpenAI, der Anbieter von ChatGPT, auch selbst, um Problemen wie Desinformation, Fake News oder die Einstufung als Hochrisiko-Technologie entgegenwirken zu können.
Zusammenarbeit von Entwicklern und Nutzern
Auch Natali Helberger von der University of Amsterdam verwies darauf, dass Entwickler und Nutzer zusammenarbeiten müssten, um zu einem verantwortungsvollen Umgang mit KI zu kommen.
Diesen Aspekt betonte auch Sandra Wachter vom Oxford Internet Institute. Derjenige, der ein System entwickle, habe ebenso Einfluss auf das Risiko wie derjenige, der es nutze. Entwickler könnten etwa entscheiden, mit welchen Daten sie ein System fütterten und so bestimmte gesellschaftliche Sichtweisen verstetigen oder ihnen entgegenwirken.
Hier seht ihr die Anhörung im Video: