1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
TechnikGlobal

Künstliche Intelligenz: Was erwartet uns 2024?

2. Januar 2024

Von erbittertem Streit ums Urheberrecht bis zu Deepfakes im Superwahljahr: Auf diese vier Diskussionen sollten wir uns einstellen.

https://p.dw.com/p/4ahjL
Symbolbild | Nutzung von KI Apps
Eine Frau "chattet" mit Hilfe künstlicher Intelligenz - mit einer ChatGPT-AppBild: Pond5 Images/IMAGO

Künstliche Intelligenz ist im Alltag angekommen: Lange galt KI vor allem als Stoff für Science-Fiction und Grundlagenforschung. Heute nutzen Millionen Menschen tagtäglich Anwendungen wie die KI-Sprachprogramme ChatGPT oder Bard. Und das, so Fachleute, sei erst der Anfang.

"KI erlebt gerade ihren iPhone-Moment", sagt Léa Steinacker, Sozialwissenschaftlerin und Chief Innovation Officer beim Start-up ada Learning. Die Einführung des Apple Smartphones im Jahr 2007 gilt als Wendepunkt, seit dem immer mehr Menschen das Internet über ihr Mobiltelefon nutzen. 

Anwendungen wie ChatGPT, die einfach und ohne technische Vorkenntnisse zu bedienen seien, hätten "künstliche Intelligenz zu den Endnutzern gebracht", so Steinacker gegenüber der DW. "Und das wird Auswirkungen auf die gesamte Gesellschaft haben."

Wie Ihr KI für Euch arbeiten lassen könnt

Diese Debatten erwarten uns im Jahr 2024:

Können Deepfakes Wahlen gefährden?

Sogenannte generative KI ermöglicht es, in Sekundenschnelle überzeugende Texte und Bilder aus dem Nichts zu erschaffen - einschließlich sogenannter Deepfakes, in denen Menschen Dinge zu sagen oder zu tun scheinen, die sie nie gesagt oder getan haben.

Vor diesem Hintergrund befürchten Experten Desinformations-Kampagnen in bisher nicht gekanntem Ausmaß für das Superwahljahr 2024 - in dem ein neuer US-Präsident, das Europäische Parlament sowie Dutzende weitere Staatsoberhäupter und Parlamente gewählt werden. Mit gezielt gestreuten Deepfakes, so die Befürchtung, könnte versucht werden, die öffentliche Meinung im Vorfeld der Wahlen zu beeinflussen oder Unruhen zu schüren.

"Für das Vertrauen in den EU-Wahlprozess ist entscheidend, ob wir uns auf die Cybersicherheit der Infrastruktur und die Integrität von Informationen verlassen können", warnt Juhan Lepassaar, der Direktor der EU-Agentur für Cybersicherheit (ENISA).

Wahlmanipulation mit KI-Fakes und Desinformation

Wie viel Einfluss Deepfakes tatsächlich haben werden, wird auch davon abhängen, wie sehr soziale Netzwerke sich anstrengen, ihre Verbreitung einzudämmen. Plattformen wie Googles YouTube oder Metas Facebook und Instagram haben Kennzeichnungsrichtlinien für KI-generierte Inhalte eingeführt. Das Jahr 2024 wird zeigen, wie gut sie funktionieren.

Wem gehören die KI-generierten Inhalte?

Um ihre generativen KI-Anwendungen zu entwickeln, trainieren Unternehmen Computermodelle mit riesigen Mengen an Texten oder Bildern aus dem Internet. Bislang geschieht dies ohne die ausdrückliche Zustimmung von Autoren, Illustratoren oder Fotografen.

Viele Rechteinhaber sehen darin eine Verletzung ihrer Urheberrechte - und sie wehren sich. Ende Dezember kündigte die "New York Times" an, OpenAI und Microsoft zu verklagen. Die Zeitung wirft den beiden Unternehmen hinter ChatGPT vor, Millionen ihrer Artikel unzulässig verwendet zu haben. Gleichzeitig wird OpenAI auch von einer Gruppe prominenter US-amerikanischer Autoren verklagt, darunter John Grisham und Jonathan Franzen.

Weitere Gerichtsprozesse sind anhängig. So hat die Fotoagentur Getty Images das KI-Unternehmen Stability AI verklagt, das hinter dem Bilderzeugungssystem Stable Diffusion steht. Erste Urteile könnten 2024 ergehen - und sie könnten wertvolle Hinweise darauf geben, wie bestehendes Urheberrecht an das Zeitalter der KI angepasst werden sollte.

Wer hat die Macht über KI?

Je ausgefeilter KI-Technologie wird, desto schwieriger und teurer wird es für Unternehmen, entsprechende Modelle zu entwickeln und zu trainieren. Digitalrechtsexperten warnen daher, dass sich immer mehr Wissen in den Händen weniger mächtiger Unternehmen konzentrieren wird.

DW-Bildanalyse | Kniefall von Putin vor Xi
Hinweise auf eine Manipulation per KI - der angebliche Kniefall des russischen Präsidenten Wladimir Putin vor Chinas Machthaber Xi Jinping: Deformierte Ohren, Schuh und HändeBild: Twitter/DW

"Diese Machtkonzentration in Bezug auf Infrastruktur, Rechenleistung und Daten in den Händen einiger weniger Tech-Unternehmen illustriert ein Problem, das schon lange in der Tech-Branche existiert", sagt Fanny Hidvegi von der NGO Access Now in Brüssel der DW. Sie warnt: Je mehr KI-Technologie zu einem integralen Bestandteil des menschlichen Lebens wird, desto mehr werden einige wenige private Unternehmen in der Lage sein zu bestimmen, wie KI unsere Gesellschaften umgestalten wird.

Wie können KI-Gesetze durchgesetzt werden?

Vor diesem Hintergrund sind sich Experten einig: So wie Autos mit Sicherheitsgurten ausgestattet sein müssen, braucht es auch Regeln für KI-Technologie.

Nach jahrelangen Verhandlungen hat sich die EU im Dezember 2023 auf ein KI-Gesetz geeinigt. Es ist das weltweit erste umfassende Gesetzespaket speziell für künstliche Intelligenz.

Im Jahr 2024 werden deshalb alle Augen auf die europäischen Regulierungsbehörden gerichtet sein, um zu sehen, ob sie ihre neuen Regeln auch durchsetzen. Und es zeichnen sich bereits weitere hitzige Diskussionen darüber ab, ob und wie diese Regeln im Nachhinein angepasst werden sollten.

"Der Teufel steckt im Detail", sagt Léa Steinacker, "und wir sollten uns sowohl in der EU als auch in den USA auf langwierige Debatten über die praktische Umsetzung dieser neuen Gesetze einstellen."

Kommentarbild Janosch Delcker
Janosch Delcker Chefkorrespondent für Technologie