Der Durchbruch in der künstlichen Intelligenz wirft Bedenken hinsichtlich Einflusskampagnen auf, da für die Durchführung groß angelegter Desinformationskampagnen weitaus weniger personelle und finanzielle Ressourcen erforderlich sein werden. Mittlerweile ist klar geworden, dass KI-Systeme selbst in der Lage sind, Fehlinformationen zu erzeugen und somit das Vertrauen der Öffentlichkeit in demokratische Institutionen erheblich untergraben können.

Laut einer im Jahr 2023 vom Forschungsdienst des Europäischen Parlaments (EPRS) veröffentlichten Zusammenfassung gibt der Durchbruch der generativen künstlichen Intelligenz (im Folgenden: KI) Anlass zur Sorge im Zusammenhang mit Einflusskampagnen, da hierfür weitaus weniger personelle und finanzielle Ressourcen erforderlich sein werden Durchführung groß angelegter Desinformationskampagnen. . Das EPRS-Dokument liefert unter anderem mehrere Studien und Forschungsergebnisse als Beispiele. Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) betont, dass die Kombination sprachlicher Modelle künstlicher Intelligenz (durch Empfang, Verarbeitung und Speicherung von Informationen als Wissen, Verstehen und Erzeugen von Sprache) und Desinformation bereits zu einem hohen Maß an Täuschung und Täuschung führen kann kann das Vertrauen der Öffentlichkeit in demokratische Institutionen erheblich beeinträchtigen. Mittlerweile ist klar geworden, dass KI-Systeme selbst falsch informieren können. Eine Studie ergab, dass Googles KI-Tool Bard in 78 von 100 in der Studie getesteten Erzählungen überzeugend falsche Informationen lieferte (Bard ist ein generativer, auf künstlicher Intelligenz basierender Chatbot, der menschlich klingende Informationen erzeugen kann). Texte, Artikel und Social-Media-Inhalte als Reaktion auf Benutzeranfragen und -fragen).

Die neue Version von ChatGPT, ChatGPT-4, ist noch anfälliger für die Generierung falscher Informationen (kann in 100 von 100 Fällen mit falschen und irreführenden Informationen reagieren), sodass sie in Bezug auf die Gefahr überzeugender ist als ihr Vorgänger, ChatGPT-3.5 ( was 80 Mal von 100 falschen Antworten hervorrief). Die Ergebnisse zeigen, dass ein Chatbot – oder ein ähnliches Tool, das dieselbe zugrunde liegende Technologie verwendet – nun effektiv zur Verbreitung von Fehlinformationen in großem Maßstab eingesetzt werden kann, deren politische Auswirkungen und Bedeutung unvorhersehbar sind. Der letztgenannte Fall verdeutlicht angesichts der Erkenntnisse von NewsGuard auch, dass OpenAI (aufgrund des Marktwettbewerbs) eine viel leistungsfähigere Version seiner KI-Technologie eingeführt hat, bevor die kritischsten Fehler der früheren Version behoben wurden. Solche Unternehmen versprechen, dass sie sich der Risiken bewusst sind und versuchen, diese zu bewältigen: So hat beispielsweise OpenAI, das hinter ChatGPT steht, angekündigt, die Nutzung der Anwendung zu überwachen, um politikbeeinflussende Aktivitäten effektiv herauszufiltern .

Big-Tech-Plattformen haben Möglichkeiten, Fake News einzudämmen, insbesondere aufgrund der Erfahrungen aus der Brexit-Kampagne oder den US-Präsidentschaftswahlen 2016 und 2020. Bei diesen Plattformen gibt es jedoch noch keine einheitliche Regelung, was vor allem auf die Unterschiede zwischen europäischem und amerikanischem Rechtsdenken zurückzuführen ist. Der Wahlkampf für die US-Präsidentschaftswahl 2024 steht vor den immer größeren Herausforderungen der KI-basierten Desinformation, so sorgt beispielsweise der Robocall, der sich als US-Präsident Joe Biden ausgibt, bereits für besondere Besorgnis (aufgrund des Audio-Deepfakes). Die Telefonnachricht „fälscht“ die Stimme des derzeitigen Präsidenten digital und gibt gleichzeitig eine von Bidens Unterschriftenzeilen wieder: Der Robocall forderte die Einwohner von New Hampshire auf, bei den Vorwahlen der Demokraten im Januar 2024 nicht zu wählen, was die staatlichen Behörden dazu veranlasste, eine Untersuchung einzuleiten. im Zusammenhang mit der möglichen Unterdrückung ( Zurückhaltung) von Wählern.

Wasim Khaled, CEO des Softwareentwicklungsunternehmens Blackbird.AI, sagte, die Leichtigkeit, mit der gefälschte Audiodaten erstellt und verbreitet werden können, verkompliziere eine bereits hyperpolarisierte politische Landschaft, untergrabe das Vertrauen in die Medien und ermögliche es jedem, zu behaupten, er habe „fabrizierte Beweise“ auf der Grundlage auf Fakten. Das chinesische Unternehmen ByteDance, der Eigentümer der Plattform TikTok, hat kürzlich StreamVoice vorgestellt, ein auf künstlicher Intelligenz basierendes Tool, das die Stimme eines Benutzers in Echtzeit in jede gewünschte Alternative umwandelt. Der Digital Services Act (kurz DSA), also die Verordnung (EU) 2022/2065, aktualisiert die E-Commerce-Richtlinie aus dem Jahr 2000 zu illegalen Inhalten, transparenter Werbung und Fehlinformationen und zielt auch darauf ab, das Wettbewerbsrecht an den wichtigsten Stellen nach dem Self-Service einzuführen Für die öffentliche politische Kommunikation auf Social-Media-Plattformen soll die bisher übliche Pflichtregelung gelten. Das Dekret wurde am 27. Oktober 2022 im Amtsblatt der Europäischen Union bekannt gegeben, seine Grundregeln gelten seit dem 16. November 2022, die überwiegende Mehrheit davon seit dem 17. Februar 2024. Die DSA ermutigt die größten Plattformen, aktiv zu werden, die verpflichtet sein werden, jährlich zu analysieren, wie sich ihre Dienste, insbesondere ihr algorithmisches (auf künstlicher Intelligenz basierendes) Empfehlungssystem, das Inhalte bewertet, auf den Wahlprozess auswirkt.

Die Europäische Kommission stellte ihren Vorschlag am 21. April 2021 vor, und am 9. Dezember 2023 erzielten die Ratspräsidentschaft und die Verhandlungsführer des Europäischen Parlaments eine vorläufige Einigung über den Vorschlag zu harmonisierten Regeln für künstliche Intelligenz (im Folgenden: KI-Codex). ). Die Hauptidee besteht darin, die Fähigkeit künstlicher Intelligenz, der Gesellschaft Schaden zuzufügen, anhand eines risikobasierten Ansatzes zu regulieren.

In den Wochen nach der vorläufigen Einigung wird die Arbeit auf Expertenebene fortgesetzt, um die Einzelheiten der neuen Verordnung zu finalisieren. Anschließend wird die Präsidentschaft den Kompromisstext den Vertretern der Mitgliedstaaten zur Genehmigung vorlegen. Der gesamte Text muss von beiden Institutionen bestätigt und vor der offiziellen Annahme durch die Mitgesetzgeber einer juristischen und sprachlichen Prüfung unterzogen werden.

Der Zweck des Verordnungsentwurfs besteht darin, sicherzustellen, dass auf dem europäischen Markt platzierte und genutzte KI-Systeme sicher sind und die Grundrechte und EU-Werte respektieren, und Investitionen und Innovationen in KI in Europa zu fördern.

Der Entwurf ist weltweit der erste Gesetzesvorschlag, der sich mit diesem Thema befasst, und kann somit wie die DSGVO zu einem globalen Standard für andere Jurisdiktionen im Bereich der KI-Regulierung werden. Durch die Definition dieser Standards möchte die EU den Weg für einen globalen Ansatz ebnen, der künstliche Intelligenz fördert, der:

  • ethisch
  • sicher
  • zuverlässig

Laut Präambel (16) des KI-Kodex können auf künstlicher Intelligenz basierende Manipulationstechniken eingesetzt werden, um Menschen zu unerwünschtem Verhalten zu verleiten oder zu täuschen, indem sie dazu gebracht werden, Entscheidungen zu treffen, die ihre Autonomie, Entscheidungsfindung und freie Wahl untergraben und beeinträchtigen. Die Vermarktung, der Einsatz oder die Nutzung von KI-Systemen, deren Zweck darin besteht, das menschliche Verhalten erheblich zu verfälschen und höchstwahrscheinlich körperlichen oder geistigen Schaden zu verursachen, ist äußerst gefährlich und sollte daher verboten werden. Solche KI-Systeme nutzen unterschwellige Komponenten wie Audio-, Bild- und Videoreize, die von der Person nicht wahrgenommen werden können, weil die Reize außerhalb der menschlichen Wahrnehmung liegen, oder andere unterschwellige Techniken, die die Autonomie, Entscheidungsfindung oder freie Wahl der Person untergraben oder beeinträchtigen Menschen sind sich dessen nicht bewusst, oder selbst wenn sie sich dessen bewusst sind, können sie es nicht kontrollieren oder ihm widerstehen, zum Beispiel im Fall von Maschinen-Gehirn-Schnittstellen oder virtueller Realität.

Innerhalb der Europäischen Kommission wird ein KI-Büro eingerichtet, das die fortschrittlichsten KI-Modelle überwacht, zur Förderung von Standards und Testpraktiken beiträgt und gemeinsame Regeln in allen Mitgliedstaaten durchsetzt. Das MI-Büro wird von einem wissenschaftlichen Beirat unabhängiger Experten unterstützt. Der aus Vertretern der Mitgliedstaaten bestehende AI-Vorstand wird als Koordinierungsplattform und Beratungsgremium der Kommission dienen und den Mitgliedstaaten eine wichtige Rolle bei der Umsetzung der Verordnung, einschließlich der Entwicklung von Kodizes, zuweisen Übungsbeispiele für Grundmodelle.

Abschließend noch ein paar Worte zu den Sanktionen: Die bei Verstößen gegen den Kodex verhängten Bußgelder werden als Prozentsatz des weltweiten Jahresumsatzes des betreffenden Unternehmens im vorangegangenen Geschäftsjahr oder als vorher festgelegter Betrag festgesetzt, je nachdem, welcher Betrag höher ist. Das

  • 35 Mio. EUR oder 7 % bei rechtswidrigem Verhalten im Zusammenhang mit verbotenen KI-Anwendungen,
  • 15 Mio. EUR oder 3 % bei Verstoß gegen die im Kodex festgelegten Pflichten,
  • und 7,5 Mio. Euro bzw. 1,5 % wegen unrichtiger Angaben.

Gleichzeitig legt die befristete Vereinbarung angemessenere Obergrenzen für Verwaltungsstrafen fest, die gegen KMU und innovative Start-up-Unternehmen verhängt werden können, wenn diese Unternehmen gegen die Bestimmungen des Kodex verstoßen. Natürliche oder juristische Personen können wegen Nichteinhaltung des Kodex eine Beschwerde bei der zuständigen Marktüberwachungsbehörde einreichen. Die Beschwerde wird gemäß den speziell für diesen Zweck vorgesehenen Verfahren der jeweiligen Behörde bearbeitet.

Quelle: alaptorvenyblog.hu

Titelbild: Gerd Altmann / Pixabay