Morning Overview

Bericht: Meta-Smartbrillen sollen Nutzervideos Auftragnehmern zugänglich gemacht haben

Die britische Datenschutzbehörde hat Meta wegen Vorwürfen angeschrieben, dass von den Ray-Ban-Smartbrillen des Unternehmens aufgenommene Videos für externe Auftragnehmer zugänglich gewesen seien. Das wirft scharfe Fragen darüber auf, wie der Tech-Konzern mit persönlichen Aufnahmen umgeht, die von seinen KI-gestützten Wearables erstellt wurden. Das Information Commissioner’s Office (ICO) bezeichnete die Erkenntnisse als „besorgniserregend“ und deutete an, Meta zu Antworten zu seinen Datenpraktiken drängen zu wollen. Die Enthüllung kommt zu einem Zeitpunkt, an dem Smartbrillen sich vom Nischen-Gadget zum Massenprodukt entwickeln, während die Datenschutzregeln dafür nicht Schritt gehalten haben.

Was das ICO beunruhigte

Die Entscheidung des ICO, Meta direkt zu kontaktieren, beruht auf einem Bericht, wonach von Nutzern aufgezeichnete Videos von Ray-Ban-Meta-Brillen mit externen Auftragnehmern geteilt worden seien. Den Angaben zufolge prüften die Auftragnehmer das Filmmaterial im Rahmen von Bemühungen, Metas KI-Funktionen zu verfeinern, etwa für die Echtzeit-Objekterkennung und Szeneninterpretation. Besonders heikel an dieser Situation ist die Natur von Aufnahmen durch Smartbrillen: Im Gegensatz zur Smartphone-Kamera, die ein Nutzer bewusst erhebt und ausrichtet, zeichnen Smartbrillen kontinuierlich und aus der Ich-Perspektive alles im Sichtfeld der Trägerin oder des Trägers auf. Dazu können Passanten, private Räume und Gespräche gehören, deren Beteiligte nicht damit rechnen, aufgezeichnet oder gar von einer Person bei einem Drittunternehmen gesichtet zu werden.

Die britische Aufsichtsbehörde teilte mit, sie habe Meta geschrieben und die Vorwürfe als besorgniserregend bezeichnet sowie deutlich gemacht, dass sie klären wolle, ob das Datenhandling des Unternehmens mit dem britischen Datenschutzrecht vereinbar ist. Das Schreiben signalisiert mehr als routinemäßiges Interesse; es deutet darauf hin, dass die Behörde eine mögliche Diskrepanz zwischen den Nutzerangaben darüber, wie ihre Daten verwendet würden, und dem, was tatsächlich hinter den Kulissen geschah, sieht.

Metas KI-Ambitionen und der Privatsphäre-Kompromiss

Mark Zuckerberg stellte die Ray-Ban-Meta-Brille 2025 vor und positionierte sie als Flaggschiffprodukt in Metas Bestreben, KI-Assistenten in den Alltag zu integrieren. Die Brille kann Objekte identifizieren, Text übersetzen und Fragen zu dem beantworten, was die Trägerin oder der Träger sieht – alles angetrieben von KI-Modellen, die große Mengen visueller Daten zum Lernen benötigen. Genau hier beginnt die Schwierigkeit. KI-Systeme lernen, indem sie Realbeispiele verarbeiten, und für eine tragbare Kamera bedeuten „Realbeispiele“ Aufnahmen tatsächlicher Menschen in ihren Alltagsabläufen.

Die übliche Branchenpraxis zur Verbesserung von KI-Modellen umfasst menschliche Prüferinnen und Prüfer, die Daten kennzeichnen, korrigieren und bewerten, die Algorithmen verarbeiten. Apple, Google und Amazon waren bereits wegen ähnlicher Prüfprogramme für Sprachassistenten in der Kritik. Im Kontext von Smartbrillen kommt jedoch eine andere Risikodimension hinzu. Audioausschnitte eines Sprachassistenten sind bereits invasiv, wenn sie mit Auftragnehmern geteilt werden. Videoaufnahmen einer tragbaren Kamera sind deutlich aufschlussreicher und können Gesichter, Kennzeichen, medizinische Dokumente oder intime häusliche Szenen erfassen.

Meta betont, dass es Nutzerdaten entsprechend seiner Datenschutzerklärung verarbeitet. Das Schreiben des ICO legt jedoch nahe, dass die Aufsichtsbehörde nicht überzeugt ist, dass die bisherigen Offenlegungen den Nutzerinnen und Nutzern ein klares Bild darüber vermittelten, wer ihre Aufnahmen sieht und unter welchen Bedingungen. Die Lücke zwischen der rechtlichen Sprache einer Datenschutzerklärung und den berechtigten Erwartungen der Nutzer ist genau das Feld, das Datenschutzbehörden überwachen sollen.

Warum der Zugriff von Auftragnehmern relevant ist

Wenn ein Technologieunternehmen Nutzerdaten mit Auftragnehmern teilt, schafft das ein Problem in der Nachverfolgbarkeit. Mitarbeiterinnen und Mitarbeiter des Mutterkonzerns unterliegen internen Richtlinien, Sicherheitsfreigaben und direkter Aufsicht. Auftragnehmer hingegen arbeiten häufig für Personaldienstleister mit eigenen Datenhandhabungsstandards, die mit denen des Auftraggebers übereinstimmen können – müssen aber nicht. Sie können über private Geräte, in geteilten Büros oder über Grenzen hinweg mit schwächerer Durchsetzung auf Daten zugreifen. Jede zusätzliche Station in dieser Kette erhöht die Angriffsfläche für Missbrauch, Lecks oder unbefugte Speicherung.

Für Smartbrillen-Nutzende sind die Folgen persönlich. Wer eine Geburtstagsfeier, einen Arztbesuch oder einen Spaziergang durch die Nachbarschaft aufzeichnet, hat nicht zwangsläufig zugestimmt, dass dieses Filmmaterial von einer fremden Person an einem Prüfplatz angesehen wird. Selbst wenn das Material ausschließlich zum Training eines KI-Modells verwendet und anschließend gelöscht wird, stellt die menschliche Sichtung an sich ein Datenschutzereignis dar, über das Nutzerinnen und Nutzer in klaren Worten informiert werden sollten, bevor sie aufnehmen.

Die übergeordnete Sorge ist systemisch. Wenn Metas Praxis, Smartbrillen-Aufnahmen an Auftragnehmer weiterzugeben, nicht ausreichend offengelegt wurde, stellt sich die Frage, ob ähnliche Lücken in anderen KI-Trainingspipelines der Branche bestehen. Wearables mit Kameras verbreiten sich. Snap, Google und mehrere Start-ups entwickeln oder vertreiben eigene Smartbrillen mit KI-Funktionen, die Trainingsdaten erfordern. Der Präzedenzfall, den die Reaktion der Regulierer in Metas Fall schafft, wird die Erwartungen an alle Unternehmen in diesem Bereich prägen.

Regulatorischer Druck über das Vereinigte Königreich hinaus

Das ICO ist nicht die einzige Behörde, die aufmerksam ist. Europäische Datenschutzbehörden stehen Metas Datenpraktiken seit Jahren skeptisch gegenüber, und die Datenschutz-Grundverordnung (DSGVO) der EU gibt ihnen weitreichende Durchgriffsrechte. Italiens Datenschutzbehörde hatte 2023 ChatGPT vorübergehend verboten wegen Bedenken, wie Nutzerdaten verarbeitet werden, und Smartbrillen-Aufnahmen könnten nach den strengen Regeln der DSGVO für biometrische und visuelle Daten ähnliche Prüfungen auslösen.

In den Vereinigten Staaten hat die Federal Trade Commission gegen Unternehmen vorgegangen, die den Einsatz von Verbraucherdaten falsch dargestellt haben, wobei die Durchsetzung dort historisch langsamer und fragmentierter verlief als in Europa. Mehrere US-Bundesstaaten, darunter Illinois und Texas, haben biometrische Datenschutzgesetze, die auf durch Smartbrillen erfasste Gesichtsdaten anwendbar sein könnten, wenn diese ohne ausreichende Einwilligung verarbeitet werden.

Das regulatorische Bild formt sich noch, und diese Unsicherheit ist ein Risiko für Meta. Führt das Engagement des ICO zu einer offiziellen Feststellung der Nichteinhaltung, könnte das parallele Untersuchungen in anderen Rechtsordnungen auslösen. Global tätige Unternehmen können ein Schreiben der britischen Regulierungsbehörde nicht als lokales Problem behandeln; es dient oft als Signal dafür, dass andere Aufsichtsbehörden ebenfalls aufmerksam sind.

Was das für Smartbrillen-Nutzende bedeutet

Für alle, die bereits ein Paar KI-fähiger Smartbrillen besitzen oder einen Kauf erwägen, ist die Reaktion des ICO eine konkrete Warnung, das Kleingedruckte genau zu lesen — und es anschließend noch einmal zu lesen. Datenschutzerklärungen für KI-Produkte sind oft so abgefasst, dass sie dem Unternehmen maximale Flexibilität einräumen, mit weit gefasster Sprache über „Verbesserung von Diensten“, die von automatischer Analyse bis hin zu menschlicher Prüfung durch Auftragnehmer auf einem anderen Kontinent alles abdecken kann.

Nutzerinnen und Nutzer sollten vor dem Vertrauen einer tragbaren Kamera mit ihrem Alltag drei konkrete Fragen geklärt sehen. Erstens: Gibt das Unternehmen offen an, ob menschliche Prüfer Aufnahmen sehen werden, und unter welchen Bedingungen? Zweitens: Gibt es Opt-out-Mechanismen, die tatsächlich verhindern, dass Daten das Gerät verlassen oder für Trainingszwecke verwendet werden, statt nur einige Funktionen einzuschränken? Drittens: Was geschieht mit Aufnahmen nach dem Hochladen: wie lange werden sie gespeichert, werden sie anonymisiert und können sie auf Verlangen gelöscht werden?

Es lohnt sich auch, die Perspektive von Menschen zu bedenken, die die Brille nie tragen wollten. Passanten können in Geschäften, in öffentlichen Verkehrsmitteln oder in privaten Räumen aufgezeichnet werden, oft ohne ausreichende Hinweise. Zwar haben Meta und andere Hersteller Indikatorlichter und andere visuelle Signale eingeführt, diese sind jedoch leicht zu übersehen. Deutlichere soziale Normen, etwa zuvor um Erlaubnis zu fragen, bevor in engem Umfeld oder in sensiblen Situationen aufgezeichnet wird, werden wichtig sein, damit Smartbrillen mit grundlegenden Erwartungen an Privatsphäre koexistieren können.

Der weitere Weg für Meta und seine Konkurrenten

Meta steht nun vor einer bekannten, aber eskalierenden Herausforderung: Reguliererinnen, Regulierer und die Öffentlichkeit davon zu überzeugen, dass der Datenhunger des Unternehmens mit sinnvollen Datenschutzgarantien in Einklang gebracht werden kann. Das Unternehmen kann die Fragen des ICO als rein enge Compliance-Angelegenheit betrachten oder als Anlass nehmen, sein Smartbrillen-Ökosystem im Hinblick auf Datenverarbeitung und -erklärung neu zu gestalten.

Konkrete Maßnahmen könnten darin bestehen, das Volumen der in die Cloud gesendeten Aufnahmen zu begrenzen, mehr Verarbeitung direkt auf dem Gerät vorzunehmen und die Kontrolle darüber zu verschärfen, welche Auftragnehmer welche Daten sehen dürfen. Ebenso wichtig wäre es, Offenlegungen in einer für normale Nutzer verständlichen Sprache neu zu formulieren, mit klaren, leicht auffindbaren Erklärungen dazu, wann Menschen die Aufnahmen einsehen könnten.

Andere Unternehmen aus den Bereichen Wearables und KI werden das genau beobachten. Eine harte regulatorische Reaktion könnte die gesamte Branche zu strengeren Standardeinstellungen, deutlich sichtbaren Einwilligungsabläufen und robusteren technischen Schutzmaßnahmen gegen Missbrauch zwingen. Eine schwache Reaktion könnte dagegen Unternehmen ermutigen, vage Datenschutzformulierungen weiter auszudehnen, um immer invasive Datenpraktiken abzudecken.

Wenn Smartbrillen zunehmend Teil des Alltags werden, wird das Ergebnis dieses Streits mitbestimmen, ob Menschen sich in einer Welt wohlfühlen, in der Kameras und KI ständig aktiv sind. Das Eingreifen des ICO ist ein früher Test dafür, wie weit Regulierungsbehörden bereit sind zu gehen, um dieses Wohlbefinden zu schützen, und wie weit Unternehmen wie Meta bereit sind, ihre Geschäftsmodelle entsprechend anzupassen.

Alexander Clark

Alexander Clark is a tech writer who thrives on exploring the latest innovations and industry trends. As a contributor to Morning Overview, he covers everything from emerging technologies to the impact of digital transformation on everyday life. With a passion for making complex topics accessible, Alexander delivers insightful analysis that keeps readers informed and engaged. When he's not writing about the future of technology, he enjoys testing new gadgets and experimenting with smart home tech.