1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Politik

Hassrede im Netz: EU will Social Media sicherer machen

20. April 2023

Die EU will bislang undurchsichtigen Algorithmen großer IT-Firmen auf die Spur kommen. Dafür hat sie ein neues Amt in Sevilla eröffnet. Doch wie soll eine Behörde Hass und Propaganda im Netz überhaupt bekämpfen?

https://p.dw.com/p/4QJiZ
Pinke und grüne Lichter im Serverraum eines Rechenzentrums
Wer bestimmt, was wir sehen? Das versucht die EU jetzt mit Blick auf Algorithmen zu entschlüsseln Bild: Sebastian Gollnow/dpa/picture alliance

Mittlerweile ist es ein altbekanntes Problem - doch bislang ohne echte Lösung: rassistische oder sexistische Beleidigungen, eine menschenverachtende Sprache, teilweise sogar Anstiftungen zur Gewalt. Vor allem in sozialen Netzwerken wie Facebook, Twitter und Co. herrscht teilweise ein aggressives Klima.

Die Plattformen dienen schon seit Jahren nicht mehr nur der Unterhaltung, sie werden auch für Informationskriege, Falschmeldungen, Verschwörungstheorien oder Mobilisierungsaktionen extremistischer Gruppen missbraucht. Auf Video-Plattformen wie Tiktok, wo jüngere User unterwegs sind, werden Inhalte verbreitet, die zu Essstörungen oder Selbstverletzungen anstiften.

Soziale Medien: mehr als Speicherorte

Die Reaktionen der Betreiber auf die Probleme auf sozialen Plattformen waren bisher eher abwartend - obwohl auch sie nach Expertenmeinung eine Mitverantwortung tragen: "Die Plattformen sind ja kein reiner Speicherort für nutzergenerierte Inhalte, sondern sie haben auch algorithmische Systeme, die für die Verteilung der Inhalte sorgen", sagt Josephine Ballon von der gemeinnützigen Organisation HateAid, die sich für Betroffene von Hasskommentaren einsetzt.

Chaos vor dem Präsidentensitz: Menschen in Brasilienfarben gekleidet laufen durcheinander, Rauch oder Tränengas ist zu sehen
Social Media wird auch zur Mobilisierung missbraucht. Im Januar 2023 stürmten Anhänger des brasilianischen Ex-Präsidenten Jair Bolsonaro das Regierungsviertel in BrasiliaBild: Ueslei Marcelino/REUTERS

Das heißt: Facebook und Co. sind zwar nicht für die Inhalte selbst verantwortlich, für deren Verbreitung dank ausgefeilter Algorithmen aber schon. Diese Algorithmen sind Systeme, die auf Basis von gesammelten Daten entscheiden, welche Inhalte User auf den Plattformen sehen und welche nicht. Unter anderem können Likes und Kommentare die Ausspielung beeinflussen, dazu kommen aber noch Prozesse, die sich von außen schwer nachvollziehen lassen.

"Diese Algorithmen sind nicht offen und wir tappen weitestgehend im Dunklen über ihre Funktionsweise", sagt Ballon der DW. Von Whistleblowern wie der ehemaligen Facebook-Mitarbeiterin Frances Haugen veröffentlichte Dokumente weisen aber darauf hin, dass zum Beispiel Facebook-Algorithmen polarisierende Inhalte, die auch Hass erzeugen können, höher bewerten - mit verheerenden Folgen für die ganze Gesellschaft.

Auf der Suche nach dem ganz großen Bild 

Nun versucht die EU , des Problems Herr zu werden und etwas Licht ins Dunkel zu bringen. Bereits im November 2022 trat das Gesetz über digitale Dienste (Digital Services Act, DSA) in Kraft, um klarere Regeln fürs Internet zu schaffen - insbesondere für Plattformen mit mehr als 45 Millionen Usern innerhalb der EU. Das Gesetz schreibt unter anderem vor, dass die Anbieter systemische Risiken ihrer Dienste ermitteln, analysieren und bewerten müssen, einschließlich algorithmischer Systeme.

Machen Algorithmen radikal?

Forschenden räumt das Gesetz ein erweitertes Zugangsrecht zu den Daten der großen Plattformen ein. Bei der EU-Kommission müssen die Plattform-Riesen zudem künftig einmal im Jahr eine Risikobewertung mit Blick auf schädliche Inhalte vorlegen - samt möglicher Gegenmaßnahmen. "Was den DSA - auch im Vergleich zu Regulierungen, die wir schon auf nationaler Ebene hatten - auszeichnet, ist das Transparenz-Element. Hierbei geht es darum, zum ersten Mal Einblicke in die technische Funktionsweise der Plattformen zu bekommen", sagt Ballon. "Wir wissen natürlich schon einiges durch Whistleblower und Analysen, aber das ganz große Bild gibt es bisher nicht, weil die Plattformen im Verborgenen agieren."

"Auf Herz und Nieren prüfen"

An diesem Dienstag nun wurde in Sevilla das Europäische Zentrum für die Transparenz von Algorithmen (ECAT) eröffnet. Rund 30 Mitarbeitende, darunter KI-Experten sowie Daten- und Sozialwissenschaftler, werden die EU-Kommission künftig bei der Durchsetzung des DSA beraten und sich mit weiteren Experten austauschen. Die Muster, nach denen große IT-Konzerne Usern Inhalte empfehlen, sollen transparenter gemacht werden.

Porträtbild Josephine Ballon von HateAid
"Tappen im Dunkeln": Josephine Ballon von der Organisation HateAidBild: Andrea Heinsohn

Die Behörde soll "erstmals die sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen auf Herz und Nieren prüfen, um zu sehen, wie ihre Algorithmen funktionieren und zur Verbreitung illegaler und schädlicher Inhalte beitragen, denen zu viele Europäerinnen und Europäer ausgesetzt sind", sagte Kommissionsvizepräsidentin Margrethe Vestager laut Pressemitteilung.

Nicht mehr hilflos ausgeliefert?

Doch reichen die Bemühungen der EU aus? "Den DSA bewerten wir schon als wichtigen Schritt, weil es das Narrativ ein bisschen umdreht und sagt: Wir sind Big-Tech und der technologischen Entwicklung nicht hilflos ausgeliefert, sondern wir müssen entscheiden können, was wir als demokratische Gesellschaft als Rahmenbedingungen setzen wollen und an welche Bedingungen sich die Plattformen zu halten haben", sagte Angela Müller von der NGO AlgorithmWatch der DW. "Ich denke nicht, dass der DSA die große Revolution ist, aber es ist ein guter wichtiger Schritt." Vor allem EU-Länder, die bis dahin keine Regulierung hatten, würden davon profitieren.

Porträtbild von Elon Musk
Twitter-Boss Elon Musk hat verkündet, dass er die Inhalte in dem Kurznachrichtendienst so wenig wie möglich einschränken willBild: Jim Watson/La Nacion/Zumapress/picture alliance

Durch den Zugang zu den Plattformdaten könne nun endlich das Handeln von Facebook und Co. überprüft werden. "Aber die Frage ist jetzt erstmal: Versuchen sich die Plattformen da irgendwie herauszuwinden? Ich bin überzeugt, dass sie alle möglichen Mittel und Wege finden werden, die Verpflichtungen abzuschwächen", sagt Müller.

Das andere Problem sei die Belegschaft und das sogenannte Capacity Building, also den Aufbau von Fachwissen bei den Plattformbetreibern. "Ob es da wirklich Leute gibt, die sich kümmern, bezweifele ich", sagt Müller.

Stephanie Höppner Autorin und Redakteurin für Politik und Gesellschaft