Meta-Brillen: Nacktaufnahmen landen bei kenianischen Datenarbeitern
Meta-Brillen: Nacktaufnahmen bei kenianischen Arbeitern

Meta-Brillen: Private Videos landen bei kenianischen Datenarbeitern

Schwedische Journalisten haben bei einer umfangreichen Recherche erhebliche Datenschutzprobleme bei den KI-Brillen von Meta aufgedeckt. Die Untersuchung der Zeitungen Göteborgs Posten und Svenska Dagbladet zeigt, dass das von den Ray-Ban-Meta-Brillen aufgenommene Bild- und Videomaterial nicht ausschließlich automatisiert verarbeitet wird.

Menschliche Auswertung in Nairobi

Ein wesentlicher Teil der Auswertung erfolgt durch Beschäftigte externer Datenannotationsfirmen. Im Mittelpunkt steht dabei das Unternehmen Sama mit Sitz in Nairobi, Kenia. Gespräche mit Mitarbeitern offenbaren, dass auf ihren Bildschirmen regelmäßig höchst private Inhalte erscheinen, die Nutzer kaum freiwillig weitergeben würden.

Zu den problematischen Aufnahmen gehören:

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram
  • Szenen aus Badezimmern und intime Momente
  • Eingaben von PIN-Nummern an Geldautomaten
  • Bankdaten und sensible Informationen

Hinzu kommt, dass die angeblich erfolgende Anonymisierung häufig versagt. Gesichter bleiben klar erkennbar, was die Privatsphäre zusätzlich gefährdet.

KI-Training erfordert menschliche Augen

Der Grund für die manuelle Auswertung liegt in der Funktionsweise künstlicher Intelligenz. Für die Verbesserung der KI-Bilderkennung müssen Menschen Inhalte markieren und erläutern, um die Systeme zu trainieren. Dadurch erhalten die Mitarbeiter jedoch Einblick in private Lebensbereiche von Nutzern und unbeteiligten Personen.

Mehrere befragte Beschäftigte schildern eine hohe psychische Belastung durch ihre täglichen Zehn-Stunden-Schichten mit sehr persönlichen Inhalten. Gleichzeitig berichten sie von Existenzängsten, da umfassende Vertraulichkeitsvereinbarungen gelten und Gespräche mit Außenstehenden zum Jobverlust führen können.

Mangelnde Aufklärung beim Kauf

Die enthüllten Praktiken werfen die Frage auf, inwieweit Nutzer der Verarbeitung bewusst zugestimmt haben. Die Journalisten führten Testkäufe bei schwedischen Optik-Ketten und unabhängigen Händlern durch. Teilweise erhielten sie die falsche Auskunft, alle Daten würden lokal auf den Geräten gespeichert, obwohl die KI-Funktion zwingend eine Internetverbindung und Serververarbeitung voraussetzt.

Hinweise zur Datennutzung finden sich zwar in den Allgemeinen Geschäftsbedingungen. Nutzer stimmen dort der automatisierten und menschlichen Auswertung zu, wenn sie KI-Funktionen verwenden. Aus den AGB geht jedoch nicht hervor:

  1. Wie lange Daten gespeichert werden
  2. Mit wem sie geteilt werden
  3. Wo genau die Verarbeitung stattfindet

Eine Nutzung der Brillen ohne Zustimmung zu diesen Bedingungen ist nicht möglich.

Fragwürdiger Datenschutz in Kenia

Datenschutzexperten kritisieren die mangelnde Transparenz darüber, wann Kameras aktiv sind und wie Inhalte weiterverarbeitet werden. Meta verweist auf eigene Datenschutzrichtlinien und betont die Konformität mit Datenschutzvorschriften.

Ein europäischer Vertreter des Unternehmens erklärte, der Standort der Datenverarbeitung sei gemäß Datenschutz-Grundverordnung zweitrangig, solange ein gleichwertiges Schutzniveau bestehe. Für Kenia besteht jedoch bislang keine EU-Anerkennung eines angemessenen Datenschutzniveaus.

Der zentrale Kritikpunkt bleibt der Widerspruch zwischen der Vermarktung der Brille als Alltagsgerät und der Tatsache, dass in Kenia Beschäftigte private Aufnahmen aus Wohnungen und Badezimmern auswerten müssen.

Meta reagiert auf die Vorwürfe

In einer Stellungnahme zu den Recherchen erklärt Meta: „Mit Ray-Ban Meta-Brillen können Sie mithilfe von KI und ohne Einsatz Ihrer Hände Fragen zu Ihrer Umgebung beantworten. Sofern Nutzer die von ihnen aufgenommenen Medien nicht für Meta oder andere freigeben, verbleiben diese Medien auf dem Gerät des Nutzers.“

Das Unternehmen räumt ein: „Wenn Nutzer Inhalte mit Meta AI teilen, beauftragen wir manchmal externe Dienstleister mit der Überprüfung dieser Daten, um die Nutzererfahrung zu verbessern, wie es auch viele andere Unternehmen tun. Wir ergreifen Maßnahmen, um diese Daten zu filtern, um die Privatsphäre der Menschen zu schützen und zu verhindern, dass personenbezogene Daten überprüft werden.“

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration

Die schwedischen Recherchen zeigen jedoch deutliche Lücken zwischen diesen Versprechungen und der Realität der Datenverarbeitung in Kenia auf.