Schwerpunkt Digitalisierung Neue Tools für mehr Kontrolle

Autoritäre Regime nutzen digitale Techniken für mehr Kontrolle und Unterdrückung, doch die Digitalisierung hat noch immer ein enormes emanzipatorisches Potenzial.

© picture alliance/photothek

Der digitale Raum wird enger

Die Idee vom Internet als Freiheitsmedium hat gelitten. Nach dem Arabischen Frühling haben die Regime der Welt digital aufgerüstet mit Netzsperren, Überwachungstechnologie und Zensurgesetzen.

Hoffnungsschimmer Arabischer Frühling

Es gibt eine alte Erzählung, die sagt: Das Internet ist unzensierbar. Die dezentrale Organisation der Infrastruktur mache sie immun gegen Kontrolle, glaubten viele. Die globale Vielfalt der Stimmen werde fast von allein für Demokratie sorgen. Als Ende 2010 der Arabische Frühling anbrach, schien es, als werde diese Utopie wahr. Durch die Straßen Nordafrikas und der Arabischen Halbinsel zogen damals nicht nur zehntausende Demonstrantinnen und der Geruch von Tränengas, sondern auch die Idee dezentraler und vernetzter Massenproteste.

Immer mehr Menschen taten im Netz ihren Unmut über repressive Politik und die katastrophale wirtschaftliche Lage kund, verabredeten sich zu Demonstrationen und teilten Bilder davon, die die staatlichen Medien zurückhielten. Für einen Moment sah es so aus, als würde die arabische Welt mit Hilfe digitaler Medien alle autokratischen Herrscher abschütteln.

Immer weniger Internetfreiheit

Aus heutiger Sicht weiß man: Die Hoffnung, dass die Aufstände die politische Struktur der Region nachhaltig demokratisieren könnten, hat sich kaum erfüllt. Zudem wurde schnell deutlich, wie eurozentrisch die westliche Rede von „Facebook- und Twitter-Revolutionen“ war. Sozialen Medien mögen als Verstärker des Protests gewirkt haben, doch das Rückgrat der Aufstände waren lokale Strukturen und analoge Netzwerke des Widerstands.

Vor allem aber wirkten die Aufstände als Weckruf für die Diktatoren dieser Welt, ihre Regime digital aufzurüsten: Sie installierten Netzsperren und bemächtigten sich der digitalen Infrastruktur, erließen Zensurgesetze und kauften im Westen Überwachungstechnologie. Wo dies schon vorher geschehen war, wurden digitale Protestposts schnell zu Beweismitteln: Unzählige Blogger und Online-Aktivistinnen landeten im vergangenen Jahrzehnt im Gefängnis. Zum zwölften Mal in Folge konstatierte die NGO Freedomhouse 2021, dass die Internetfreiheit gegenüber dem Vorjahr kleiner geworden ist.

Sowohl Hilfe als auch Gefahr

Heute wissen wir, dass das Internet beides zugleich ist: Ein Medium der Freiheit und ein Medium der Kontrolle ‒ je nachdem, wie es technisch, sozial und politisch gestaltet wird. In vielen demokratischen Staaten etwa hat das Internet zu einer weiteren Demokratisierung der Öffentlichkeit beigetragen. So viele Menschen wie noch nie haben heute einfachen Zugang zu Wissen, Kultur und Diskursen.

Damit haben sich auch die Spielräume zivilgesellschaftlicher Akteure für Organisation und Mobilisierung erweitert, konnten marginalisierte Gruppen sich Gehör verschaffen. Durch das Hashtag-Prinzip von Social-Media-Plattformen wie Twitter konnten beispielsweise die vielen Einzelstimmen Schwarzer US-Amerikanerinnen zu einer politischen Bewegung werden. Vernetzt durch das Schlagwort #BlackLivesMatter waren sie ein mächtiger Chor, der Alltagsrassismus und Polizeigewalt anklagt. Ein anderes Beispiel für die kollektive Kraft der Hashtags sind feministische Initiativen wie #Aufschrei in Deutschland, #ShutItAllDown in Namibia oder #MeToo weltweit. Auch wenn sich dadurch allein noch nicht Verhältnisse ändern: Nie zuvor konnten Menschen ihren alltäglichen Erfahrungen mit sexualisierter Gewalt und Diskriminierung so erfolgreich Gehör verschaffen wie heute.

Hate-Speech und Trolle

Doch auch rechtspopulistische und rechtsextreme Akteure wissen die neuen Möglichkeiten zu nutzen ‒ oft mit dem Ziel, jene Marginalisierten zum Schweigen zu bringen, die sich gerade erst ermächtigt sahen. Studien zeigen, dass im Netz insbesondere Frauen, queere Menschen und solche mit Migrationshintergrund angefeindet werden und sich immer öfter aus der digitalen Öffentlichkeit zurückziehen. Derweil hat wohl kein Politiker so sehr von den Sozialen Medien profitiert wie Ex-Präsident Donald Trump. Die Targeting-Werkzeuge der Plattformen halfen seinem Wahlkampf 2016, gezielt schwarze US-Bürgerinnen zu demobilisieren, Facebooks Algorithmen belohnten seine polarisierende Rhetorik und blanke Desinformation mit unglaublicher Reichweite.

Soziale Medien in der Hand weniger Konzerne

Im Ringen um die demokratische Öffentlichkeit könnten am Ende diejenigen Akteure die Oberhand gewinnen, die die Demokratisierung am liebsten rückgängig machen würden. Die Situation wird dadurch erschwert, dass mit den Sozialen Medien die wichtigsten Arenen der Netzöffentlichkeit von wenigen hyperkapitalistischen Konzernen betrieben werden. Sie haben Diskurse lange Zeit nur nach eigenem Gutdünken moderiert, geleitet von Profitstreben. Seit Jahren ringt die Politik deshalb darum, wie Plattformkonzerne und mit ihnen die digitale Öffentlichkeit zu regulieren sind. Nicht selten schießen sie dabei mit hehren Absichten über das Ziel hinaus. Deutschland etwa erhöht über das Netzwerkdurchsetzungsgesetz seit 2017 den Druck auf Facebook und Co., rechtswidrige Inhalte schnell zu löschen. Doch welche Äußerungen verboten sind und welche nicht, ist oft nicht klar.

Um das abzuwägen, bleiben den Klickarbeitern der Plattformen oft nur wenige Sekunden, im Zweifelsfall löschen sie lieber zu viel. Erst 2021 verpflichtete eine Reform des Gesetzes die Unternehmen, ihren Nutzerinnen geordnete Widerspruchsverfahren zu ermöglichen und zu Unrecht gelöschte Inhalte wiederherzustellen. Unterdessen werden Innenminister auch in Demokratien nicht müde, die staatliche Überwachung digitaler Räume auszubauen. Sie wollen Zugang zu verschlüsselten E-Mails und Messengern, verpflichten Telefon- und Internetanbieter zur anlasslosen Vorratsdatenspeicherung von Nutzungsdaten und versuchen, mit Gesichtserkennung & Co. auch die analoge Welt besser im Blick zu haben.

Digitaler Aufruf, analoger Protest

Diesem wachsenden Kontrolldruck zum Trotz überwiegt in vielen liberalen Demokratien die emanzipatorische Wirkung des Internets. Bürgerinnen dokumentieren mit Smartphones Polizeigewalt und rassistische Übergriffe, Aktivisten zwingen den Staat zu Transparenz und Bloggerinnen schaffen zivilgesellschaftliche Gegenöffentlichkeiten.

Auch die Erfolge von globalen Umweltbewegungen wie Fridays for Future oder Extinction Rebellion wären ohne digitale Hilfsmittel kaum denkbar. Für die Planung von Aktionen, die Organisation von Ortsgruppen und die Koordination von Forderungen sind Messenger und kollaborative Online-Tools unersetzlich. Zudem verstehen die jungen Klimaaktivistinnen wie kaum jemand vor ihnen, analogen Protest und Aktionen des zivilen Ungehorsams mit digitalen Medien zu verbinden. Auch in Ländern wie Uganda und Indien streiken junge Menschen für das Klima, auch dort bedienen sie sich geschickt der Sozialen Medien.

Der Atlas der Zivilgesellschaft 2022: Die wichtigsten Erkenntnisse

Fehlende Kontrolle durch Konzerne

Doch während die Aktivistinnen mit Fakten überzeugen wollen, sind die Sozialen Medien in vielen Ländern des globalen Südens zur Brutstätte von Desinformation, Hass und Gewalt geworden. Denn dort gehen die Plattformen noch weniger effektiv dagegen vor als in den USA und in Europa. Die Facebook Papers zeigten 2021, wie der Konzern in Indien oder Äthiopien versagt, irreführende Posts und Aufrufe zu Gewalt zu unterbinden. Das Unternehmen gibt schlicht nicht genug Geld für Faktenprüferinnen, Moderatoren und algorithmische Erkennungssysteme mit den richtigen Sprachkenntnissen aus. Weil ihre sortierenden Algorithmen Inhalte belohnen, die besonders emotional und polarisierend sind, wirken sie oft wie ein Brandbeschleuniger.

Nichtsdestotrotz finden Menschen in repressiveren Staaten immer wieder Wege, die Sozialen Medien auch für ihren Widerstand zu nutzen. Im Iran etwa, wo Frauen auf Instagram Fotos und Videos von sich beim Tanzen und ohne Kopftuch posteten, um gegen die sexistische Moralpolitik des Mullah-Regimes zu protestieren. Oder in Nigeria, wo sich 2020 vor allem junge Menschen unter dem Hashtag #EndSARS auf Twitter zusammenschlossen, um auf Gewalt durch die Polizeieinheit Special Anti-Robbery Squad (SARS) aufmerksam zu machen und Proteste zu organisieren.

Netzsperren als Mittel zur Unterdrückung

Die Reaktion der Regierenden auf solche Aktionen ist häufig gleich: Sie nutzen ihre Macht über die Telekommunikations-Infrastruktur und lassen den Zugang zu den Diensten sperren. Im Iran sind Facebook und Twitter seit langem nicht zu erreichen, auch Instagram war zwischendurch blockiert. In Nigeria ließ Präsident Muhammadu Buhari als Reaktion auf den Protest Twitter für einige Zeit sperren, in der Türkei war Wikipedia über Jahre nicht zugänglich. Einigen Menschen gelingt es, die Sperren mit Verschlüsselungs- und Anonymisierungswerkzeugen zu umgehen, doch gegen digitalen Massenprotest sind die Netzsperren oft ein wirksames Mittel.

Lukrative Märkte, lasche Kontrolle

Immer wieder greifen Regierungen zu noch drastischeren Maßnahmen und lassen das Internet im Land oder einigen Regionen gleich ganz abschalten. 155 Shutdowns dieser Art zählte die NGO Access Now allein in 2020, von Belarus über Myanmar bis nach Indien, das die Liste mit 109 Internetabschaltungen anführt. Insgesamt summierten sich die Shutdowns in dem Jahr auf mehr als 3.000 Tage ‒ insbesondere vor Wahlen oder während Protesten.

Kaum maßvoller sind die in vielen Staaten erlassenen Zensurgesetze für Soziale Medien und andere digitale Räume. Diese werden zwar häufig als Maßnahmen gegen Terrorpropaganda, Cyberkriminalität oder Fake News getarnt. Doch sie zielen mit schwammig formulierten Vorgaben und drastischen Sanktionsmöglichkeiten fast immer darauf ab, den Diskurs im Netz zu kontrollieren, ohne die Dienste gleich ganz sperren zu müssen. Nicht selten berufen sich Machthaber wie der russische Präsident Wladimir Putin oder der türkische Regierungschef Recep Tayyip Erdoğan dabei explizit auf Deutschland und das Netzwerkdurchsetzungsgesetz als Vorbild. Allzu häufig fügen sich die US-Plattformkonzerne, weil sie nicht den Zugang zu lukrativen Märkten verlieren wollen.

Technisches Katz-und-Maus-Spiel

Vervollständigt wird der Instrumentenkoffer der staatlichen Kontrolle digitaler Räume schließlich durch Überwachung. Etwa in Hongkong, wo die Demokratiebewegung ihre Proteste über verschlüsselten Messenger und Bluetooth-Kommunikation organisierte und die Geräte verhafteter Oppositioneller zur Analyse nach China geschickt wurden. Oder in Mexiko, wo mit dem Pegasus-Trojaner Oppositionelle, Journalistinnen und Geistliche überwacht wurden. Nicht erst seit diesem Skandal ist klar: Oft sind es Firmen aus dem Westen, auch aus Deutschland, die den Überwachungsstaat im Globalen Süden mit hochrüsten.

Ein gutes Jahrzehnt nach dem Arabischen Frühling ist klar: Derlei vernetzte Massenproteste sind heute vielerorts kaum noch möglich. Zu fest haben die Autokraten das Internet im Griff, zu gut lassen sich digitale Technologien zur Kontrolle nutzen. Und doch blitzt das emanzipatorische Potenzial als Freiheitsmedium immer wieder auf. Viele Aktivistinnen liefern sich heute ein technisches Katz-und-Maus-Spiel mit den Behörden, umgehen Zensur mit Anonymisierungsdiensten und setzen auf verschlüsselte Messenger. Dass emanzipatorische Möglichkeiten ausgebaut werden, ist auch eine Aufgabe westlicher Staaten. Zu selten haben sie im Blick, dass sich die eigenen Regulierungsentscheidungen auf die digitalen Räume in weniger demokratischen Staaten auswirken.

Entscheidungen in Deutschland wirken weltweit

Wenn etwa deutsche Behörden das Wissen über Schwachstellen in weit verbreiteten IT-Systemen horten, statt diese Sicherheitslücken zu schließen, weil sie sie für digitale Waffen benötigen, dann macht das auch Geräte von Oppositionellen in autoritären Systemen angreifbar. Wenn die Forderung europäischer Innenminister nach Hintertüren zu verschlüsselten Messengern und E-Mails umgesetzt wird, dann gefährdet das auch die Kommunikationsfreiheit von Journalistinnen in repressiven Staaten. Und wenn die EU Plattformen verpflichtet, automatische Upload-Filter gegen Urheberrechtsverletzungen einzurichten, dann freuen sich illiberale Machthaber über die Etablierung einer Infrastruktur, die sich leicht für Zensur missbrauchen lässt. Regierungen und Unternehmen in Europa und den USA tragen eine Mitverantwortung für die digitalen Infrastrukturen weltweit.

→ Atlas der Zivilgesellschaft

© picture alliance / Jörg Carstensen/dpa

Interview
Ist der Rechtsstaat im Netz gefangen?

Vor Provokateuren, die jeden Widerspruch aus dem Netz verdrängen wollen, müssen vor allem Angehörige marginalisierter Gruppen geschützt werden. Wie das klappen kann, erzählen Mitarbeitende von HateAid und der Gesellschaft für Freiheitsrechte.

Wie EU und Deutschland das Netz regulieren

Netzwerkdurchsetzungsgesetz (NetzDG): Das „Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken“ verpflichtet Social-Media-Plattformen seit 2017, gegen rechtswidrige Posts vorzugehen. Unter anderem müssen die Unternehmen innerhalb von 24 Stunden „offensichtlich rechtswidrige Inhalte“ löschen, die von Nutzerinnen gemeldet wurden. Sonst drohen Bußgelder in Millionenhöhe. Das NetzDG gilt für Plattformen mit mehr als zwei Millionen Nutzerinnen und Nutzern in Deutschland. Eine abschließende Liste führt die Bundesregierung nicht. Doch mindestens Facebook, Twitter, YouTube, Instagram, Reddit, TikTok, Change.org und SoundCloud haben die vorgeschriebenen Transparenzberichte veröffentlicht. Seit 2021 müssen die Unternehmen ihren Nutzerinnen ein Widerspruchsverfahren anbieten, seit 2022 potenziell strafrechtlich relevante Inhalte mit IP Adresse an das Bundeskriminalamt melden.

Digital Services Act (DSA): Das „Gesetz über Digitale Dienste“ soll den Anbieterinnen von Online-Diensten in der Europäischen Union umfassende Regeln vorgeben. Der Ende 2020 von der EU-Kommission vorgelegte Verordnungsvorschlag betrifft auch den Bereich des NetzDG, geht aber darüber hinaus. Der DAS soll nicht nur vereinheitlichen, wie mit rechtswidrigen Inhalten umzugehen ist, sondern enthält auch weitergehende Vorgaben zur Haftung der Unternehmen für Inhalte ihrer Nutzerinnen, zu Online-Werbung, zum Betrieb von Online-Marktplatzen und zur staatlichen Aufsicht über die Dienste. Der Gesetzgebungsprozess war bei Redaktionsschluss noch nicht abgeschlossen.

→ Atlas der Zivilgesellschaft

© REUTERS/Ajeng Dinar Ulfiana

Indonesien: Ein Gesetz als Allzweckwaffe gegen Kritik

In Indonesien bekämpft die Regierung unliebsame Stimmen im Netz mit einem Gesetz, das eingeführt wurde, um den Online-Handel zu regulieren. Heute soll damit die Zivilgesellschaft mundtot gemacht werden.

Das ITE-Gesetz („Information and Electronic Transaction Law“) wurde 2008 verabschiedet und 2016 überarbeitet. Ursprünglich war es geschaffen worden, um auf dem neuen Feld des E-Commerce den Umgang mit Hasskriminalität, Falschmeldungen und Pornographie zu regeln. Inzwischen nutzt es die indonesische Regierung, um Kritik zu unterbinden, denn das Gesetz lässt viel Interpretationsspielraum.

Es definiert zwar, was unter Strafe steht und was nicht. In Artikel 27 etwa wird Verleumdung definiert. Artikel 28 behandelt Falschmeldungen und Hasskriminalität. Beide Artikel sind allerdings so verfasst, dass sie den Behörden und der Polizei erlauben, die Meinungsfreiheit zu unterdrücken.

→ Atlas der Zivilgesellschaft

Wie die indonesische Regierung versucht, die Zivilgesellschaft mundtot zu machen

© The New York Times/Redux/laif

Facebook: Brandbeschleuniger für Konflikte

Hassrede, Datenmissbrauch, Desinformation ‒ Facebook ist eine Gefahr für Demokratie und Gesellschaft.

Das größte soziale Netz der Welt

Die Welt näher zusammenbringen, das ist nach eigener Aussage die Mission von Meta. Tatsächlich ist das Flaggschiff des Plattformkonzerns, der bis vor Kurzem noch Facebook hieß, das wohl erste wirklich globale Soziale Netzwerk: Facebook wird von Menschen in allen Regionen der Erde genutzt, knapp drei Milliarden monatliche Nutzerinnen hat der Dienst. Hinzu kommen WhatsApp und Instagram. Wäre Facebook ein Land, es wäre der mit Abstand bevölkerungsreichste Staat.

Chaos und Gewalt statt Demokratie

Doch ob die Bevölkerung dort sicher wäre, ob Frieden und Gerechtigkeit herrschen würden, daran darf gezweifelt werden. Standen im Nachgang des Arabischen Frühlings lange die von Facebook eröffneten Möglichkeiten für zivilgesellschaftliche Mobilisierung im Fokus, so ist die Kritik an Firmengründer Mark Zuckerberg zehn Jahre später so laut wie nie. Facebook scheitert an der eigenen Mission. Statt zu verbinden und zu empowern, fördert die Plattform allzu oft Chaos und Gewalt.

Selbst das Unternehmen kommt zu diesem Schluss. Zahlreiche interne Dokumente, die die ehemalige Facebook-Angestellte Frances Haugen 2021 zugänglich machte, zeigen: Während Instagram sich toxisch auf die Psyche junger Menschen auswirkt, hat Facebook häufig den gleichen Effekt auf das gesellschaftliche Klima. Aktivistinnen aus dem globalen Süden warnen seit Jahren: In liberalen Staaten mit gefestigter demokratischer Öffentlichkeit mag die Plattform schädlich wirken, siehe Donald Trump, in politisch fragileren Regionen aber, in denen Facebook oft die einzige Form der digitalen Öffentlichkeit bildet, wirkt sie geradezu verheerend.

Einen Markt nach dem anderen erobert

Gemäß Zuckerbergs Motto „Move fast and break things“ hat Facebook im vergangenen Jahrzehnt einen Markt nach dem anderen erobert ‒ ohne sich für kulturelle Besonderheiten oder die politische Situation zu interessieren. Mehr als 70 Prozent der Nutzer lebt nach Schätzungen des Konzerns außerhalb von Europa und Nordamerika. Derweil gibt Facebook 87 Prozent des Budgets zum Auffinden von Fehlinformationen für die USA aus, wie die Facebook Papers zeigen. Für den Rest der Welt bleiben 13 Prozent.

In Myanmar etwa, wo seit Mitte der 2010er-Jahre ein Völkermord an der ethnischen Minderheit der Rohingya verübt wurde, ließ Facebook die Verbreitung von Gewaltaufrufen gegen die Volksgruppe zu. Eine Gruppe burmesischer NGOs und ein Report des Human Rights Council der UN stellten 2018 fest: Facebooks fehlende Moderation trug substanziell zur Gewalt bei. Der Konzern hatte nicht genug Moderatorinnen mit entsprechenden Sprachkenntnissen beschäftigt, um seine eigenen Regeln durchzusetzen und Hass einzudämmen.

Via Posts zu Gewalt aufgerufen

Wie die Facebook Papers zeigen, wiederholt sich ähnliches in Äthiopien, wo seit Ende 2020 Bürgerkrieg herrscht. Mitarbeitende des Netzwerks warnten wiederholt davor, dass „problematische Akteure“ Desinformationen verbreiten und zu Gewalt aufrufen. Doch Facebook passte seinen Moderationsaufwand nicht an. Für die 115 Millionen Einwohnerinnen waren nur sechs Faktenprüfer mit entsprechenden Sprachkenntnissen angestellt. Facebooks Algorithmen konnten Hate Speech lange Zeit nicht in Oromo und Amharisch verstehen, den verbreitetsten Sprachen im Land.

Interne Untersuchungen zeigen auch: Facebook scheitert nicht nur daran, Konflikte einzudämmen, es funktioniert selbst oft als Brandbeschleuniger. Dass die Plattform Emotionalisierung, Polarisierung und Desinformation fördert, liegt in der Logik ihres Geschäftsmodells. Denn Geld verdient Facebook damit, die Aufmerksamkeit der Nutzer an Werbekunden zu vermarkten. Für dieses Geschäft betreibt das Unternehmen eine der größten Datensammlungen der Welt.

Geld verdienen mit Falschmeldungen

Was Werbekunden helfen soll, die Menschen zu erreichen, die sie am besten beeinflussen können, ist anfällig für Missbrauch und Manipulation. Zudem optimiert Facebook alle Prozesse so, dass Menschen möglichst lange auf der Plattform verbringen. Die Algorithmen, die die Kommunikationsflüsse bei Facebook sortieren, bevorzugen deshalb Beiträge, die viele Likes, Shares, Kommentare oder Emojis auslösen. Doch virale Beiträge enthalten laut einem internen Bericht von 2020 viermal so oft Falschinformationen wie andere.

Es ist diese Kombination aus Datafizierung und Aufmerksamkeitsmaximierung, die Facebook so gefährlich und gleichzeitig so erfolgreich macht. Der Konzern gehört zu den wertvollsten der Welt, machte allein 2020 einen Netto-Gewinn von 29 Milliarden Dollar. Dass Facebook diesen Kurs von selbst ändert, ist nicht wahrscheinlich.

→ Atlas der Zivilgesellschaft

Bild anzeigen

Hass-Kommentare löschen kostet Geld, das sich Facebook bei den Rohingyas gespart hat.

© The New York Times/Redux/laif

Kontrolle durch biometrische Überwachung

Wer in Indien keinen Fingerabdruck vorzeigt, bekommt kein verbilligtes Kochgas und keine Rente mehr. Auch andere Staaten digitalisieren ihre Sozialleistungen, häufig mit der Hilfe von privaten Unternehmen. Die Risiken sind immens.

Was Europa verhindert, rollt Indien aus

Kaum eine Technologie ruft europäische Menschenrechtsorganisationen und Aktivistinnen derzeit so auf den Plan wie Gesichtserkennung und biometrische Datenerfassung. „Holt euch euer Gesicht zurück!“, ruft eine gemeinsame Kampagne von zig Organisationen für digitale Grundrechte, die derzeit eine Million Unterschriften sammeln will. Ihre Forderung: Die EU soll alle Formen biometrischer Überwachung im öffentlichen Raum verbieten. Ihre Argumente: Biometrische Massenüberwachung bedroht sonst Grundrechte wie das Recht auf Redefreiheit, Versammlungsfreiheit und das Recht auf Privatsphäre.

Doch während in der EU um die Einsatzmöglichkeiten und Gefahren von Biometrie gestritten und die Regulierung der künstlichen Intelligenz in Arbeit ist, die Hochrisikotechnologien in den Blick nimmt, setzen andere Staaten bereits biometrische Erfassung in großem Stil ein. Die größte biometrische Datenbank der Welt befindet sich in Indien, sie heißt Aadhaar.

Aadhaar erfasst die ganze Bevölkerung

Das Identifikationssystem Aadhaar erfasst laut Regierung rund 1,4 Milliarden Menschen, das sind 99 Prozent der Bevölkerung. Der Aufbau der Datenbank wurde mit Geldern des Weltbank-Vorhabens ID for Development (ID4D) finanziert, das weltweit digitale Identifizierungssysteme entwickelt. Für Indiens Regierungschef Narendra Modi ist die Datenbank eine wichtige Säule seiner „Digital India“-Kampagne, mit der er Indien fit für die Zukunft machen will. Derartige Systeme bergen jedoch gesellschaftliche Risiken: Sie können den Schutz der Persönlichkeit und die soziale Sicherheit bedrohen, fürchtet IT for Change, eine Partnerorganisation von Brot für die Welt im Land.

Eine 12-stellige Nummer für alle

Wie funktioniert das System? Indiens Identifizierungsbehörde UIDAI vergibt an jede erfasste Person eine zwölfstellige Nummer (Aadhaar), unter der sie Angaben wie etwa Name, Geschlecht, Geburtsdatum und Adresse, aber auch biometrische Daten wie Fingerabdrücke, Iris-Scans und Fotos speichert. UIDAI hat diese Arbeit an sogenannte Registrare ausgelagert, das sind neben Behörden auch Privatunternehmen wie Banken und Versicherungen. Diese wiederum dürfen Subunternehmen mit der Eintragung der Bürgerinnen in das Aadhaar-System beauftragen.

Obwohl es bis heute keinen gesetzlichen Persönlichkeitsschutz gibt, der verhindert, dass die so gespeicherten Daten weitergegeben oder gestohlen werden können, ist der Eintrag in die biometrische Datenbank Voraussetzung, um zahlreiche staatliche Dienstleistungen in Anspruch zu nehmen. Ohne Aadhaar kein subventioniertes Kochgas, keine Rentenzahlungen, Stipendien oder Jobs. Inzwischen verlangen auch immer mehr private Unternehmen die Aadhaar-Nummern: Banken für Konten und Kredite, Telekomfirmen für Sim-Karten, Versicherungen für ihre Policen sowie Start-ups für Dienstleistungen.

Wie das Aadhaar-System biometrische Daten erfasst
Bild anzeigen

Anmeldebüro für das Aadhaar-Programm in Neu Delhi.

Bild anzeigen

Ein junges Mädchen lässt bei der Anmeldung für Aadhaar all ihre Fingerabdrücke scannen.

Bild anzeigen

Die Iris eines Mädchens wird gescannt.

Bild anzeigen

Der Kunde einer Bank hebt Geld ab mit seinem Fingerabdruck.



Gefahr für die Ärmsten

Diese Digitalisierung der staatlichen Leistungen bedroht vor allem die ärmsten Inderinnen in ihrer sozialen Sicherheit. Aufgrund fehlender Aadhaar-Nummern wurden Millionen Menschen Lebensmittelrationen verweigert, Kindern Einschulung oder Schulspeisung verweigert und alten Menschen die Rentenzahlungen gestoppt. Die Lesegeräte, mit denen die Fingerabdrücke geprüft werden, sind oft ebenso unzuverlässig wie die Internet- oder Mobilfunkverbindungen. Und wer schwer mit seinen Händen arbeitet, dessen Fingerabdrücke sind für die Scan-Geräte häufig unleserlich. Auch bei Augenkrankheiten versagen die Iris-Scanner oft.

Datenlecks und Grundrechte

Zahlreiche Skandale enthüllten bereits die Sicherheitslücken des Aadhaar-Systems: Personenbezogene Aadhaar-Daten standen für weniger als zehn Euro online zum Verkauf. Millionen von Aadhaar-Nummern samt persönlichen Informationen fanden sich auf über 200 Regierungswebseiten. Amnesty International sieht die Grundrechte auch deshalb bedroht, weil die UIDAI die Nummern aus vielerlei Gründen deaktivieren darf. Die Betroffenen verlieren dadurch auf einen Schlag ihren Zugang zu staatlichen Leistungen.

Auch in anderen Ländern des globalen Südens werden biometrische Technologien zur Überprüfung der Identität von Sozialversicherten eingesetzt. In Mexiko müssen die 55,6 Millionen Versicherten von Seguro Popular, der staatlichen Krankenversicherung für die ärmsten Bürger, ihre biometrischen Daten an die Behörden weitergeben. In Südafrika erhalten 17,2 Millionen Empfänger von Sozialbeihilfen biometrische Smartcards. Sozialversicherungsbehörden und private Unternehmen wie MasterCard oder Visa schließen häufig kommerzielle Vereinbarungen ab, um Smartcards für Sozialhilfeprogramme zu entwickeln oder Unternehmen die Annahme dieser Karten zu ermöglichen. Die biometrische Karte für Sozialhilfe ist in Südafrika etwa eine MasterCard.

Solche Vereinbarungen enthalten in der Regel keine Rechtsbehelfe bei Daten- und Informationsmissbrauch. Privatunternehmen, Geberagenturen und die Weltbank rechtfertigen den Ausbau digitaler Identifizierungssysteme damit, dass der Einsatz von Iris- und Fingerabdruckscanner oder Gesichts- und Spracherkennung zusammen mit der Integration von Datenbanken die Effizienz steigert, Betrug bekämpft und Kosten senkt.

Daten für Strafverfolgungsbehörden

Biometrische Daten, die einmal in der Datenbank eines Sozialschutzprogramms gespeichert sind, können mit anderen Systemen über eine gemeinsame Kennung verknüpft werden. Nigerias nationale Identitätsdatenbank etwa ist mit verschiedenen Datenbanken, die auch Strafverfolgungsbehörden nutzen. Videokameras im öffentlichen Raum können dann jedes erfasste Gesicht mit Millionen Gesichtern in der Datenbank abgleichen und Alarm auslösen, wenn eine gesuchte Person auftaucht. Der Druck, sensible Daten der Sozialversicherungen einschließlich biometrischer Daten mit Polizeibehörden zu teilen, ist enorm. Das gefährdet nicht nur die Privatsphäre von Millionen Menschen weltweit, sondern auch die bürgerlichen Freiheiten.

→ Atlas der Zivilgesellschaft

Indien: Wie das Aadhaar-System die Rechte der Ärmsten beschneidet

© picture alliance/Jörg Carstensen/dpa

Überwachungsstaat made in Europe

Weltweit nutzen Autokraten Technologie aus Europa, um in ihren Ländern die Bevölkerung zu unterdrücken. Der Markt für Überwachungsprodukte wächst, die Europäische Union tut sich schwer damit, Exporte wirksam zu kontrollieren.

Digitale Waffen

Der Pegasus-Skandal hat 2021 ein Schlaglicht auf die Hersteller von Überwachungstechnologien geworfen. Produziert und vertrieben wird die hochleistungsfähige Spähsoftware von der Firma NSO Group mit Sitz in Israel. Auch die USA gelten als Hotspot für Produzenten von Überwachungsprodukten. Außerdem spielen Deutschland und Europa laut einem 2018 von Privacy International veröffentlichten Ranking der weltweiten Überwachungsindustrie ganz oben mit. Hier ansässige Unternehmen beliefern westliche Geheimdienste offenbar genauso wie Kriminelle und autokratische Herrscher.

Hierzulande tragen die Hersteller der digitalen Waffensysteme klangvolle und häufig wechselnde Namen wie Advanced German Technologies, Trovicor oder FinFisher. Sie scheuen die Öffentlichkeit, doch ihre Produkte tauchen regelmäßig dort auf, wo Menschenrechte unter Druck sind. 2017 beispielsweise wird der Trojaner Finspy der Münchner Firma FinFisher auf Webseiten in der Türkei gefunden. Die Seiten täuschen vor, Teil der türkischen Oppositionsbewegung zu sein und fordern Aktivistinnen zum Download einer Vernetzungs-App auf, mit der heimlich das Überwachungsprogramm installiert wird. Dass die Erdoğan-Regierung dahintersteckt, gilt als wahrscheinlich, konkrete Beweise fehlen.

Mexiko: Verwanzt und ausgespäht

Vom Trojaner bis zum Lügendetektor

In Deutschland verklagt derweil ein zivilgesellschaftliches Bündnis den Hersteller, weil er keine Ausfuhrgenehmigung für die Türkei hat. FinFisher streitet ab, Überwachungsprodukte an den Bosporus geliefert zu haben, doch seit 2019 ermittelt die Staatsanwaltschaft. 2020 durchsucht sie die Firmenzentrale, Ende 2021 meldet FinFisher Insolvenz an. Beobachter vermuten, dass dieser Schritt einem Abschluss des Strafverfahrens zuvorkommen soll, die Mutter-Holding des Unternehmens besteht unter neuem Namen Vilicius weiter. Doch dass es überhaupt so weit kommt, gilt trotzdem als Erfolg.

Seit Jahren ringt die EU darum, wie die Ausfuhr von Überwachungsprodukten zu kontrollieren ist. Der Markt wächst, die Angebotspalette reicht von Trojanern über biometrische Videoüberwachung bis zu smarten Lügendetektoren. Überwachungstechnologie gilt dabei juristisch nicht per se als kritisches Gut. Es handelt sich vielmehr um Produkte, die zwar bei Militär und Polizei zum Einsatz kommen können, sich aber auch für zivile Zwecke nutzen lassen. Solche Dual-Use-Produkte sind nicht verboten. Nach zähen Verhandlungen gelten seit September 2021 in der EU überarbeitete Regeln für den Export solcher Güter.

Erstmalig unterliegt der Dual-Use-Verordnung explizit auch Überwachungstechnologie. Für die Ausfuhr gelten seitdem neue Transparenzvorgaben und eine Verpflichtung für Hersteller, Risiken für die Menschenrechte zu prüfen. Die EU-Kommission soll zudem eine Kontrollliste von konkreten Technologien und Zielländern führen, bei denen der Export vorab genehmigt werden muss. Sie muss von den EU-Staaten einstimmig beschlossen werden, verpflichtet diese jedoch nicht, die Ausfuhr zu verbieten.

Menschenrechte statt Gewinne

Menschenrechtsorganisationen sind von dem Kompromiss enttäuscht. Sie hatten verbindlichere Kontrollvorgaben und umfassendere Sorgfaltspflichten gefordert und fürchten, dass europäische Unternehmen auch künftig Produkte an autoritäre Regime verkaufen können. Dass die EU tatsächlich willens ist, Menschenrechte über Marktpotenziale zu stellen, muss sie erst noch zeigen.

→ Atlas der Zivilgesellschaft

© Pierre Alozie/eyevine/laif

Wenn Maschinen über Menschen entscheiden

In Österreich werden Arbeitslose automatisch in Kategorien sortiert, in den Niederlanden suchten Gemeinden automatisiert nach Sozialbetrügern. Was macht es mit der Zivilgesellschaft, wenn Staaten High-Tech-Tools gegen ihr Volk richten?

Wahrscheinlichkeit statt Menschlichkeit

Darf man arbeitslose Menschen nach Alter, Geschlecht oder Zahl ihrer Kinder sortieren und ihnen ‒ je nach Kategorie ‒ dann Fortbildungen verweigern? In Österreich liegt diese Frage Anfang 2021 beim Obersten Verwaltungsgerichtshof. Er soll darüber befinden, ob die österreichischen Arbeitsmarktservices (AMS), vergleichbar mit den deutschen Jobcentern, in Zukunft in ganz Österreich ein Computersystem einsetzen dürfen, das Arbeitslose automatisch in Gruppen sortiert und so die Beraterinnen bei ihrer Entscheidung über das weitere Vorgehen unterstützt.

Technisch ist die Sache nicht kompliziert: Das Arbeitsmarkt-Chancen-Modell, wie es offiziell heißt, teilt Jobsuchende in drei Kategorien ein. Entwickelt hat es eine Wiener Firma, die dazu das System mit Arbeitsmarktdaten aus den vergangenen Jahren fütterte, darunter Geschlecht, Alter, Staatsangehörigkeit, den Wohnort oder auch mögliche Betreuungspflichten, also Kinder oder zu pflegende Angehörige. Auf Basis dieser Daten trifft das System für neue Jobsuchende nun eine Vorhersage darüber, wie wahrscheinlich es ist, dass er oder sie binnen einer bestimmten Frist wieder Arbeit findet. Entsprechende Förderung, zum Beispiel Weiterbildungen, bekommen nur diejenigen finanziert, deren Chancen passabel stehen. Aus einem Menschen wird eine statistische Wahrscheinlichkeit.

Darf ein Staat seine Bürger so behandeln?

Das hat weitreichende Konsequenzen. Nicht nur für jede und jeden Einzelnen, sondern auch für die Zivilgesellschaft insgesamt. In Österreich hatten Forscherinnen und Bürgerrechtsorganisationen das System von Anfang an kritisiert. Ihrer Meinung nach diskriminiert es jene, die ohnehin am Jobmarkt benachteiligt sind. Ältere Menschen oder Frauen erhalten per se einen Punktabzug ‒ letztere noch mehr, wenn sie Kinder haben. Männer sind davon nicht betroffen.

Ist das sexistisch? Diskriminierend? Der AMS-Chef ­Johannes Kopf sagt: nein. Das System bilde lediglich die real existierenden Bedingungen auf dem Arbeitsmarkt ab. Die Mathematikerin Paola Lopez, die zum Thema forscht, bezeichnet den AMS-Algorithmus hingegen als „Diskriminierungsbarometer“. Dabei könne man den Algorithmus durchaus sinnvoll nutzen ‒ um eben diejenigen besonders zu fördern, die am stärksten benachteiligt sind. Stattdessen werden sie vom System abgesägt.

An die Rechte der Betroffenen denkt niemand

Die Hauptbetroffenen solcher Entscheidungen sind häufig Angehörige marginalisierter und sozial benachteiligter Gruppen. Sie haben es ohnehin schwerer als andere, an Willensbildungsprozessen zu partizipieren oder sich für Gleichbehandlung, soziale Sicherung oder Zugang zu Informationen zu engagieren. Automatisierte Entscheidungsprozesse machen es ihnen noch schwerer, für die materiellen Grundlagen eines selbstbestimmten Lebens sorgen zu können.

In Österreich tobt seit mehr als einem Jahr ein erbitterter Kampf. Nach einem Testbetrieb wollte das AMS das Modell Anfang 2021 eigentlich landesweit einführen. Dann schritt die Datenschutzbehörde ein. Das AMS betreibe ein „eingriffrelevantes Profiling“ von Menschen, dafür müsse erst eine Rechtsgrundlage geschaffen werden. Die Behörde musste den Testbetrieb stoppen. Kurz darauf kassierte das Bundesverwaltungsgericht das Verbot wieder. Um den Förderbedarf zu beurteilen, dürfe das AMS sehr wohl die Daten von Arbeitssuchenden in das Modell einspeisen, urteilte es im Dezember 2020. Verboten sei nur, die Entscheidung gänzlich zu automatisieren. Damit steht dem Einsatz des Systems nun theoretisch der Weg frei.

Unterstützung oder Vorgabe?

Die Verantwortlichen der Agentur betonen immer wieder: Automatisch entschieden wird hier gar nichts. Das System diene lediglich dazu, Berater bei ihrer Entscheidung zu unterstützen, am Ende entscheide immer eine Person. Kritikerinnen überzeugt das nicht. Sie verweisen auf Studien, die belegen: Wenn eine Maschine eine bestimmte Prognose ausspuckt, setzen sich Menschen in der Regel nicht darüber hinweg.

Dass man über den Algorithmus des AMS überhaupt so gut Bescheid weiß, ist eine absolute Besonderheit. Denn in der Regel bergen automatisierte Entscheidungsprozesse noch ein ganz anderes Problem: Sie sind eine Blackbox für die Betroffenen, von außen nicht nachvollziehbar. Der AMS-Algorithmus ist bekannt, weil die verantwortliche Firma die Formel zumindest beispielhaft für einige Fälle veröffentlicht hat. Doch Transparenz allein reicht nicht aus. Es braucht auch Widerspruchsmöglichkeiten. Was nützt es einer Jobsuchenden in Österreich, wenn offen dokumentiert ist, dass das System sie benachteiligt? Sie hat dennoch keine Möglichkeit, sich der Bewertung zu entziehen oder Widerspruch gegen die Prognose einzulegen.

Verdächtig per Algorithmus

Menschenrechtsorganisationen und Aktivistinnen fordern deshalb klare Regeln dafür, wann solche Systeme überhaupt eingesetzt werden dürfen ‒ egal ob von Unternehmen oder Staaten. Die Auseinandersetzung um das AMS ist zu einem Fallbeispiel dafür geworden, was alles schieflaufen kann, wenn öffentliche Stellen mit automatisierten Vorhersagen arbeiten, um Zugang zu Leistungen zu ermöglichen oder zu verwehren. Derzeit bewegen sie sich damit in einer rechtlichen Grauzone.

So kontrolliert die deutsche Finanzaufsicht BaFin etwa den Einsatz von Algorithmen im Hochgeschwindigkeitshandel an der Börse. Doch wenn etwa eine Gemeinde oder Behörde beschließt, mithilfe von automatisierten Prozessen Sozialbetrüger und Schwarzarbeit aufzuspüren, also Algorithmen gegen Menschen einzusetzen, dann kontrolliert das niemand.

Risiko-Scoring führt zu Benachteiligung

So geschehen ist das in den Niederlanden, wo das Sozialministerium mit einem Programm namens SyRi, kurz für Systeem Risico Indicatie, jahrelang alle möglichen sensiblen Sozial- und Meldedaten von Menschen analysierte, um diejenigen zu markieren, die womöglich zu Unrecht Arbeitslosen- oder Wohngeld bekommen hatten. Wer in der Datenanalyse von SyRi rot aufleuchtete, musste damit rechnen, demnächst einen Hausbesuch zu bekommen. Informiert wurden die Betroffenen über den Verdacht gegen sie nicht. Auch weigerte sich das Ministerium offenzulegen, welche Daten genau analysiert wurden und wie das System zu seinen Ergebnissen kam.

Das Muster, solche Systeme gegen jene einzusetzen, die ohnehin schon im Nachteil sind, findet man auch hier wieder. Denn zum Einsatz kam das System vor allem in Gemeinden, die als Problemviertel galten: deren Bewohnerinnen arm waren und in denen überproportional viele zugewanderte Menschen lebten, die vorrangig auf staatliche Unterstützung angewiesen sind. Erst das Urteil eines Den Haager Gerichts  Anfang 2020 konnte das Risiko-Scoring mitten in Europa beenden. Der Einsatz sei ein Verstoß gegen die Europäische Menschenrechtskonvention, befand das Gericht. Denn es sei möglich, dass das Programm arme Menschen und Migrantinnen diskriminiere. Aktivistinnen und zivilgesellschaftliche Organisationen hatten zuvor seit Jahren vergeblich dagegen gekämpft.

Ein Rechtsrahmen voller Lücken

Können Unternehmen und Behörden tatsächlich völlig unbehelligt Algorithmen auf ihre Kundinnen und Bürger loslassen ‒ auch wenn es um so wichtige Dinge wie einen Kredit oder Sozialleistungen geht? Theoretisch gibt es bereits einen Rechtsrahmen, der Menschen in der EU vor solchen automatisierten Prozessen schützt: Sind persönliche Daten betroffen, dann greifen die europäischen Datenschutzregeln und diese verbieten sogenannte voll automatisierte Entscheidungen. Dass diese Regel nur ein schwacher Trost ist, zeigen die beiden Beispiele aus Österreich und den Niederlanden.

Mit dem „AI Act“ bewegt sich in der EU ein Regelwerk für sogenannte künstliche Intelligenz auf die Zielgerade zu. Der soll Hochrisiko-Systeme wie etwa biometrische Gesichtserkennung in Zukunft stärker in den Blick nehmen. Doch Menschenrechtsorganisationen befürchten, dass gerade Algorithmen im Zusammenhang mit sozialer Sicherung durch die Maschen der Gesetzgebung fallen könnten.

→ Atlas der Zivilgesellschaft