Ist die Regulierung der Künstlichen Intelligenz durch den EU AI Act hinreichend?

Source : left/Ala z via WikiCommons (GFDL); links/Pxhere (public domain

Am 14. Juni hat das Europaparlament nach dem EU-Rat und der Kommission einen Gesetzesentwurf zur Regulierung von Künstlichen Intelligenzen verabschiedet. Der voraussichtlich Ende 2023 von der EU verkündete AI Act gibt doch unzureichende Antworten auf die grundlegenden Fragen, die diese neue Technologie aufwirft.

Vorwort des Autors:

Autor*in: ChatGPT
Endredaktion: Peter Fleissner

ChatGPT (Generative Pre-trained Transformer) ist eine Software, die Künstliche Intelligenz einsetzt, um mit Nutzer*innen schriftlich zu kommunizieren. Sie verwendet neueste digitale Lerntechnologie. Trainiert anhand einer großen Menge von Texten generiert sie Antworten, die natürlich klingen und für das Gespräch relevant sein sollen. Das US-amerikanische Unternehmen OpenAI mit Sitz in Kalifornien entwickelte den Chatbot und veröffentlichte ihn im November 2022.

Diesem Artikel liegt eine Langfassung von 15 Seiten zu Grunde, die auf meinen Wunsch von ChatGPT gekürzt wurde. Damit konnten neuere Informationen nach dem September 2021 in den Beitrag aufgenommen werden, die ChatGPT unbekannt gewesen wären.

(Peter Fleissner, Wien, 07. Juli 2023)     

In den letzten Jahrzehnten haben wir ein Stakkato von tragischen Ereignissen erlebt, die sich auch weltweit verbreitet haben: Finanz- und Wirtschaftskrisen, Staatsschuldenkrise, Pandemie, Migrationsbewegungen, Unterminierung der Demokratie, Ukrainekrieg, Faschisierung und Aufrüstung. Gleichzeitig erleben wir ein zunehmendes Chaos in den Kommandohöhen der Staaten und in den großen Parteien, Unentschlossenheit im Europarlament und Uneinigkeit zwischen den nationalen Regierungen im EU-Raum. Dies führt zu wachsendem Handlungsbedarf und zu einem Rückstau bei nötigen Reformen. Andererseits verzeichnen wir immer schnellere wissenschaftlich-technische Durchbrüche, die sich direkt auf das Leben der Menschen in Arbeit und Freizeit, und natürlich auch auf die Unternehmen und ihre wirtschaftliche Lage auswirken.

ChatGPT – eine Software mit erstaunlichen Eigenschaften

Der neueste Durchbruch fand vor einigen Monaten im Bereich der Künstlichen Intelligenz (KI) statt. Obwohl in den USA bereits kurz nach dem Zweiten Weltkrieg über künstliche Intelligenz nachgedacht wurde, dauerte es ein halbes Jahrhundert, bis eine Pionierleistung in diesem Sektor marktfähig wurde. Vor einigen Monaten konnte OpenAI die dritte Version des Sprachmodells GPT (Generative Pre-Trained Transformer) unter dem Namen ChatGPT veröffentlichen, eine Künstliche Intelligenz (KI) mit erstaunlichen Fähigkeiten, die (derzeit noch) kostenlos von jedem Menschen, der über einen Internetzugang verfügt, über einen Computer oder ein Handy wie ein Fernschreiber genutzt werden kann. Die Software verwendet eine von OpenAI entwickelte Version des Sprachmodells GPT3 (Die verbesserte Version vier ist schon am Markt). Dieses Modell, das von einer formalen Hypothese ausgeht, wie natürliche Sprache funktioniert, ist auf der Softwareebene mit einem Lernmechanismus verbunden. Zunächst lernt es durch »selbstüberwachtes Training« aus beliebigen Textstücken (online-Foren, soziale Medien, Zeitungs- oder Buchartikeln aus dem Internet usw.) das nächste Wort vorauszusagen, mit dem originalen Text zu vergleichen und seine Vorhersage zu korrigieren. Danach wird es durch »überwachtes Lernen« dazu gebracht, Antworten auf vorher gestellte Fragen zu geben, die durch vorfabrizierte Antworten verbessert werden (»fine-tuning«). In einem letzten Schritt wird das Modell durch »bestärkendes Lernen« weiter optimiert, indem seine Antworten qualitativ bewertet werden. Nach einigen Zwischenschritten, die der Entfernung von unerwünschten Textstücken dienen, bleibt das beste Ergebnis übrig.

Die neuen KI-Chatbots verkörpern den zurzeit besten niederschwelligen Zugang zum »general intellect« (Marx), dem schriftlich vergegenständlichten Wissen der Welt. Im Kapitalismus stellt Künstliche Intelligenz einen weiteren Bereich dar, in dem tote Arbeit über lebendige Arbeit herrscht.

ChatGPT kann auf Anweisung Texte erstellen, bearbeiten, Programmcodes schreiben und interagieren. Es erkennt eigene Fehler, weist auf fremde Fehler hin und weigert sich, unangemessene Anfragen zu beantworten. Die Automatisierung durch die KI erfasst zunehmend geistige Routinetätigkeiten und hinterlässt bereits erste Spuren in den verschiedensten Bereichen wie z.B. bei Dienstleistungen und in den Büroabteilungen von Produktionsbetrieben.

Um keine diskriminierenden, rassistischen oder sexistischen Resultate oder eine Darstellung aus der Sicht politische Ideologien zu erhalten, hat ChatGPT digitale Filter eingebaut, die solche Äußerungen verhindern bzw. abändern. Auf meine direkte Frage dazu antwortete mir ChatGPT: »Als künstliche Intelligenz bin ich kein moralischer Akteur und ich habe keine persönlichen Überzeugungen oder Meinungen. Mein Ziel ist es, den Benutzern auf eine objektive und informative Weise zu antworten und keine politischen Überzeugungen zu äußern.«

ChatGPT ist die neueste Version der »Informationsverarbeitenden Maschinerie« (IVM), ein Begriff, der 1978 vom Berliner Soziologen Frank Adler1 geprägt wurde. Die IVM besteht aus Sensorik, dem eigentlichen Informationsverarbeitungsmechanismus und dem Aktor/Effektor. Durch technische Fortschritte in den letzten Jahrzehnten, sowohl bei Hardware als auch in der Programmiertechnik, konnte eine enorme Steigerung der Rechengeschwindigkeit, Miniaturisierung und Zuverlässigkeit erreicht werden. Die neuen Chatbots verkörpern den zurzeit besten niederschwelligen Zugang zum »general intellect« (Marx), dem schriftlich vergegenständlichten Wissen der Welt.

Das Training der heutigen KI erfordert massiven Energieverbrauch, riesige Datenmengen (auf denen womöglich copyrights bestehen) und den Einsatz von Menschen, die zu Niedrigstlöhnen arbeiten, oft aus dem Globalen Süden.

Die Entwicklung der KI begann 1966 mit ELIZA am Massachusetts Institute of Technology (MIT). ELIZA war ein frühes Beispiel für ein Computersystem, das einen psychoanalytischen Therapeuten simulieren sollte, geschaffen von Joe Weizenbaum. Es verwendete einfache Texterkennung und Textgenerierung, aber keine KI. ELIZA legte den Grundstein für die Entwicklung von modernen Chatbots und virtuellen Assistenten.

Die KI bringt jedoch auch einige intrinsische Probleme mit sich. Das Investitionsvolumen ist enorm. Microsoft hat sich etwa bei OpenAI mit 10 Mrd. Dollar beteiligt. Das Training der KI erfordert riesige Datenmengen (auf denen womöglich copyrights bestehen) und zusätzlich den Einsatz von Menschen, die zu Niedrigstlöhnen arbeiten, oft aus dem Globalen Süden. Der Energieverbrauch beim Training und bei der Nutzung ist beachtlich. Außerdem sind Chatbots nicht fehlerfrei und können falsche Informationen liefern, wenn ihnen valide empirische Daten fehlen. Quellenangaben fehlen häufig.

Internationale Regulierungsbemühungen

Nach dem plötzlichen Erfolg von ChatGPT im Vorjahr arbeiten Expert*innen und Gesetzgeber*innen in verschiedenen Ländern mit Hochdruck an der Entwicklung von Regeln und Gesetzesentwürfen für eine KI.

In den USA sind die Bemühungen zur Regulierung der KI noch nicht abgeschlossen. Auf Bundesstaats- und Gemeindeebenen wurden bereits mehrere Gesetzesentwürfe verabschiedet oder vorgeschlagen. Die Bundesregierung führt derzeit Anhörungen und Foren durch, um Prioritäten für die KI-Regulierung festzulegen. Politiker auf höchster Ebene treffen sich regelmäßig mit KI-Expert*innen und -Forscher*innen. Das Weiße Haus hat einen Entwurf für eine KI-Rechtserklärung veröffentlicht. Das National Institute of Standards and Technology (NIST) hat eine Rahmenvereinbarung für vertrauenswürdige KI veröffentlicht. Die Biden-Regierung plant zudem eine öffentliche Bewertung generativer KI-Systeme.

China hat im April 2023 seine ersten ethischen Leitlinien für Künstliche Intelligenz veröffentlicht. Diese betonen das Recht der Menschen, selbst über die Nutzung von KI-Diensten zu entscheiden. Die Cyberspace Administration of China (CAC) hat neue Regeln für generative KI vorgeschlagen, die unter anderem auf die Wahrheitstreue, Diskriminierungsfreiheit und Verhinderung von potenziell schädlichem Output abzielen.

Regulierungsbemühungen für Künstliche Intelligenz schreiten weltweit voran, um ethische Standards zu gewährleisten, die potenziellen Risiken zu minimieren und die Vorteile des Einsatzes von KI zu maximieren.

Auch die lateinamerikanischen Länder beschäftigen sich mit den Herausforderungen und Chancen der KI. Ein Gipfel der Behörden für Ethik fand in der chilenischen Hauptstadt statt, bei dem der Schutz der Menschenrechte und die Entwicklung integrativer Technologien im Mittelpunkt standen. Die UNESCO hat bereits eine Empfehlung zur Ethik der KI abgegeben, an der viele Mitgliedstaaten arbeiten. Die lateinamerikanische Zivilgesellschaft ist besorgt über repressive Anwendungen von KI-Tools und möglichen Datenschutzverletzungen. Brasilien prüft ein Regulierungsprojekt, das den Schutz der Menschen, insbesondere im Gesundheitswesen, betont. In Argentinien soll KI bei den Provinzwahlen eingesetzt werden, um den Prozess zu beschleunigen. Costa Rica arbeitet an einem rechtlichen Rahmen in Zusammenarbeit mit der UNESCO.

Insgesamt zeigen diese Entwicklungen, dass Regulierungsbemühungen für Künstliche Intelligenz weltweit voranschreiten, um ethische Standards zu gewährleisten, die potenziellen Risiken zu minimieren und die Vorteile des Einsatzes von KI zu maximieren.

Vorschlag der EU

Im Juni 2023 hat das Europäische Parlament als drittes der drei EU-Kernorgane nach dem Rat der Europäischen Union und der Europäischen Kommission einen Gesetzesentwurf zur Regulierung von Künstlichen Intelligenzen2 verabschiedet. Dieses Gesetz, das als »AI Act« bezeichnet wird, verlangt Transparenz für KI-Systeme mit hohem Risiko und schafft nach Abschluss des gesetzgebenden Prozesses weltweit die ersten Regeln für Künstliche Intelligenz. Der Gesetzentwurf wurde mehrheitlich befürwortet. In der nächsten Phase, dem sogenannten Trilog, werden die EU-Gesetzgeber und die Mitgliedstaaten über die letzten Details des Gesetzes verhandeln. Bis Ende 2023 soll das Gesetz verabschiedet werden – eine weltweite Premiere für die Regulierung von Künstlicher Intelligenz.

Inhaltliche Verbesserungen durch das Parlament

Das Parlament forderte zusätzlich zum Vorschlag der Kommission ein Verbot von biometrischer Überwachung, Emotionserkennung und vorausschauender Polizeiarbeit durch KI-Systeme. Es wurden maßgeschneiderte Regelungen für Allzweck-KI und Grundlagenmodelle wie ChatGPT gefordert. Zusätzlich sollen rechtliche Beschwerden über KI-Systeme eingebracht werden können. Die KI-Regulierung folgt einem risikobasierten Ansatz und verbietet KI-Praktiken, die Menschen gefährden oder diskriminieren könnten. Jede KI, die mit Menschen interagiert, muss den Kommunikationspartner*innen ohne Aufforderung mitteilen, dass der Output des Chatbots von einem Roboter erzeugt wurden. Außerdem werden für KI-Systeme Risikomanagementregeln vorgeschrieben.

Die Abgeordneten des Europarlaments haben den Vorschlag der Kommission um bestimmte Hochrisikobereiche erweitert. Auch schlugen sie vor, KI-Systeme zur Beeinflussung von Wähler*innen in politischen Kampagnen und Vorschlagsapps, die von Social-Media-Plattformen mit mehr als 45 Millionen Menschen (gemäß dem Gesetz über digitale Dienste) genutzt werden, als hochriskant einzustufen.

Abstimmungsverhalten der Linksfraktion

Die Linksfraktion im Europäischen Parlament GUE/NGL – Konföderale Fraktion der Vereinten Europäischen Linken/Nordische Grüne Linke), die kleinste der 7 Europarlamentsfraktionen, stellte insgesamt 16 Änderungsanträge. Sie forderte, dass die risikobehafteten Bereiche klar benannt und nicht verwässert oder relativiert werden sollten. Außerdem sollten die hochriskanten Systeme, die im Anhang III des AI Acts definiert sind, einbezogen werden. Dazu gehören beispielsweise biometrische Identifizierung und Kategorisierung von Personen, die Verwaltung und der Betrieb kritischer Infrastrukturen sowie Systeme, die über die Zuweisung oder Bewertung von Personen in Bildungseinrichtungen, Beschäftigung, Personalmanagement, Zugang zur Selbstständigkeit und generell über die Inanspruchnahme öffentlicher Dienste und Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrollen, Rechtspflege und demokratische Prozesse entscheiden.

Wenn ihre Änderungsanträge angenommen worden wären, hätte die Linksfraktion wahrscheinlich dem Gesetz zugestimmt. So blieb ihr nur die Ablehnung oder die Enthaltung. Da die Linksfraktion mit dem vom Plenum geforderten Verbot der Gesichtserkennung übereinstimmte, enthielt sie sich schließlich der Stimme.

Was bleibt beim AI Act offen?

Obwohl der Versuch, Künstliche Intelligenz EU-weit zu regulieren, lobenswert und positiv zu bewerten ist, gibt der EU AI Act nur unzureichende Antworten auf die grundlegenden Fragen, die durch diese neue Technologie aufgeworfen wurden. Im Kapitalismus stellt Künstliche Intelligenz einen weiteren Bereich dar, in dem tote Arbeit über lebendige Arbeit herrscht. Dies steht im Gegensatz zum gemeinsamen Ziel der kommunistischen Parteien, wie es von Marx formuliert wurde, nämlich die »Emanzipation der Arbeit«3 zu erreichen.

Es wäre notwendig, auch um den US-Technologiegiganten auf geopolitischer Ebene die Stirn zu bieten, in der EU eine eigenständige KI auf gemeinwirtschaftlicher Basis nach den Mustern von CERN und Mobilfunkstandard 2G zu entwickeln.

Es wäre jedoch nicht nur aus ideologischen Gründen notwendig, sondern auch, um den US-Technologiegiganten auf geopolitischer Ebene die Stirn zu bieten, innerhalb der EU eine eigenständige Künstliche Intelligenz auf gemeinwirtschaftlicher Basis zu entwickeln. Ein solches Projekt sollte von einem EU-weiten demokratischen Diskurs begleitet werden, in dem festgelegt wird, wo die KI legal eingesetzt werden darf und mit welchen Daten sie trainiert werden kann.

Ein ähnlicher Ansatz hat sich bereits in der EU bewährt. Die Erfahrungen mit dem Aufbau des internationalen Kernforschungszentrums CERN zeigen die Vorteile einer gemeinschaftsbasierten Infrastruktur, die weltweit bahnbrechende wissenschaftliche Leistungen hervorgebracht hat. CERN hat erfolgreich und transparent mit relevanten Forschungseinrichtungen auf der ganzen Welt zusammengearbeitet und tut es weiterhin. Ein weiteres Beispiel für eine gemeinschaftliche Initiative ist die Etablierung des weltweit ersten Mobilfunkstandards 2G durch die EU-Kommission, wodurch konkurrierende Unternehmen mit der Produktion kompatibler Telefone beginnen konnten, was zu einer schnellen Verbreitung von Mobiltelefonen in der EU führte.

Angesichts der zunehmenden ökologischen Probleme ist es nicht sinnvoll, den Energiebedarf bei der Entwicklung, Anwendung und dem Training von Künstlicher Intelligenz zu vernachlässigen. Stattdessen sollten Forschungen zu alternativen KI-Projekten gefördert werden, die weder den großen Energieverbrauch noch das aufwändige Training mit umfangreichen Datenmengen erfordern (wie zum Beispiel LIVE AI, das nur eine kleine Software benötigt und kontinuierlich dazulernen kann).

Es sind dringend Überlegungen zu den langfristigen kulturellen Auswirkungen von KI erforderlich. Es ist noch unklar, wie Chatbots das Lernverhalten von Jugendlichen und Erwachsenen beeinflussen und wie sich dies auf die Innovationskraft von Unternehmen auswirkt. Wird die Kreativität der Menschen erhalten bleiben, wenn direkte und unmittelbare Interaktionen mit der Umwelt durch Antworten aus der KI ersetzt werden? Diese Fragen scheinen bedeutender zu sein als die meiner Meinung nach unbegründeten Erwartungen der Transhumanisten hinsichtlich einer Entthronung der Menschheit und einer Machtergreifung durch KI.

Im Gegensatz zur marxistischen Utopie des 19. Jahrhunderts bedeutete der spätere schnelle »wissenschaftlich-technische Fortschritt« nicht, dass entfremdete und ausgebeutete Arbeit durch freie Arbeit in der »disposable time« ersetzt wurde.

Sehr negativ und bezeichnend ist, dass der EU-Entwurf Fragen zu den Auswirkungen auf die Arbeitswelt außer Acht lässt. Die Automatisierung hat insbesondere in den Industrieländern zu massiven Arbeitsplatzverlusten geführt, die von einer Verschlechterung der Sozialsysteme begleitet wurden. Arbeitsplatzverlustwarnungen wären angebracht, um die Einführung von KI in besonders stark betroffenen Branchen zu verlangsamen oder sogar zu stoppen. Im Gegensatz zur marxistischen Utopie des 19. Jahrhunderts bedeutete der spätere schnelle »wissenschaftlich-technische Fortschritt« nicht, dass entfremdete und ausgebeutete Arbeit durch freie Arbeit in der »disposable time«4 ersetzt wurde. Diese frei zur Verfügung stehende Zeit, die der Kapitalismus durch Konkurrenzprozesse und immer neue Technologien objektiv hervorbringt, wird im kapitalistischen Gewand zu Arbeits- und/oder Berufslosigkeit, die nicht mit Freiheit, sondern mit Verelendung einhergeht.

Der EP-Entwurf konzentriert sich gemäß der neoliberalen Ausrichtung der EU auf marktwirtschaftliche Regelungen, die von der KI erfüllt werden sollen. Bereiche wie die Menschenrechte werden zwar oft erwähnt, aber ihre konkrete Einhaltung bleibt offen. Und schließlich betone ich mein ceterum censeo: Wie bei vielen anderen Gesetzen werden der militärische Bereich und die Geheimdienste von der Regulierung ausgenommen, obwohl gerade dort ein besonders hoher Bedarf an Transparenz und Kontrolle besteht.

Quellenverweise:

  1. Adler, Frank (1978) Zu einigen Grundmerkmalen der wissenschaftlich-technischen Revolution, Arbeitskreis wissenschaftlich-technische Intelligenz, Wien, S.41
  2. „Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union“ (COM/2021/206 final).
  3. Interview mit Karl Marx für die Chicago »Tribune« vom 5. Jänner 1879 – MEW, Bd. 34, S. 510/511.
  4. Grundrisse der Kritik der Politischen Ökonomie, in MEW, Bd. 42, S. 604.

 

Zum Weiterlesen: