Morning Overview

Un informe afirma que las gafas inteligentes de Meta expusieron vídeos de usuarios a contratistas

La autoridad de protección de datos del Reino Unido ha escrito a Meta por alegaciones de que los vídeos grabados con las gafas inteligentes Ray-Ban de la compañía eran accesibles para contratistas externos, planteando preguntas incisivas sobre cómo el gigante tecnológico gestiona las grabaciones personales captadas por sus dispositivos ponibles impulsados por IA. La Oficina del Comisionado de Información describió los hallazgos como «preocupantes» y señaló que exigirá a Meta explicaciones sobre sus prácticas de manejo de datos. La divulgación se produce en un momento en que las gafas inteligentes están pasando de ser un dispositivo de nicho a un producto de consumo masivo, y las normas de privacidad que las rigen no han seguido el mismo ritmo.

Lo que el ICO consideró preocupante

La decisión del ICO de contactar directamente con Meta se deriva de un informe que alega que vídeos grabados por usuarios con las gafas Ray-Ban Meta fueron compartidos con contratistas externos. Según se informa, los contratistas revisaron el metraje como parte de los esfuerzos para perfeccionar las capacidades de IA de Meta, incluidas funciones como el reconocimiento de objetos en tiempo real y la interpretación de escenas. Lo que hace que esta situación sea particularmente sensible es la propia naturaleza del metraje de las gafas inteligentes: a diferencia de la cámara de un teléfono, que el usuario levanta y apunta deliberadamente, las gafas inteligentes capturan vídeo continuo en primera persona de todo lo que hay en el campo de visión del portador. Eso puede incluir transeúntes, espacios privados y conversaciones que nadie esperaba que se grabaran, y mucho menos que las revisara un trabajador humano de una empresa externa.

El regulador del Reino Unido dijo que había escrito a Meta describiendo las alegaciones como preocupantes e indicando que buscaría claridad sobre si el manejo de datos de la compañía cumplía con la ley de protección de datos del Reino Unido. La carta señala algo más que un interés rutinario; sugiere que la oficina ve una posible brecha entre lo que se dijo a los usuarios sobre cómo se utilizarían sus datos y lo que realmente ocurrió entre bastidores.

Las ambiciones de IA de Meta y el compromiso con la privacidad

Mark Zuckerberg presentó las gafas Ray-Ban Meta en 2025, posicionándolas como un producto emblemático en el impulso de Meta por integrar asistentes de IA en la vida cotidiana. Las gafas pueden identificar objetos, traducir texto y responder preguntas sobre lo que el usuario ve, todo impulsado por modelos de IA que necesitan grandes cantidades de datos visuales para mejorar. Es en esa canalización de entrenamiento donde surge la fricción. Los sistemas de IA aprenden procesando ejemplos del mundo real, y para una cámara ponible, «ejemplos del mundo real» significa metraje de personas reales que realizan sus rutinas diarias.

La práctica estándar de la industria para mejorar los modelos de IA implica revisores humanos que etiquetan, corrigen y evalúan los datos que procesan los algoritmos. Apple, Google y Amazon han enfrentado escrutinio por programas de revisión similares para asistentes de voz. Pero el contexto de las gafas inteligentes introduce una dimensión diferente de riesgo. Los fragmentos de audio de un asistente de voz ya resultan invasivos cuando se comparten con contratistas. El vídeo de una cámara ponible es mucho más revelador, pudiendo capturar rostros, matrículas, documentos médicos o escenas íntimas en el hogar.

Meta ha mantenido que maneja los datos de los usuarios de acuerdo con su política de privacidad. Sin embargo, la carta del ICO implica que el regulador no está satisfecho con que las divulgaciones existentes ofrecieran a los usuarios una imagen clara de quién vería sus grabaciones y en qué condiciones. La brecha entre el lenguaje legal de una política de privacidad y las expectativas razonables de un usuario es precisamente el terreno que los reguladores de datos están diseñados para vigilar.

Por qué importa el acceso de contratistas

Cuando una empresa tecnológica comparte datos de usuarios con contratistas, introduce un problema de cadena de custodia. Los empleados de la empresa matriz están sujetos a políticas internas, autorizaciones de seguridad y supervisión directa. Los contratistas, por el contrario, a menudo trabajan para empresas de personal con sus propios estándares de manejo de datos, que pueden o no coincidir con los del cliente. Pueden acceder a los datos desde dispositivos personales, en oficinas compartidas o a través de jurisdicciones con niveles de cumplimiento más débiles. Cada eslabón adicional en la cadena aumenta la superficie para un uso indebido, filtraciones o retenciones no autorizadas.

Para los usuarios de gafas inteligentes, lo que está en juego es personal. Alguien que graba una fiesta de cumpleaños, una visita al médico o un paseo por su vecindario no necesariamente consintió que ese metraje fuera visto por un desconocido en un escritorio de revisión. Incluso si el metraje se utiliza únicamente para entrenar un modelo de IA y luego se elimina, el acto de la revisión humana en sí constituye un evento de privacidad sobre el que los usuarios merecen saber de forma clara antes de pulsar grabar.

La preocupación más amplia es sistémica. Si las prácticas de Meta respecto a contratistas para el metraje de gafas inteligentes no se divulgaron adecuadamente, surge la pregunta de si existen brechas similares en otras canalizaciones de entrenamiento de IA en la industria. Las cámaras ponibles se están proliferando. Snap, Google y varias startups están desarrollando o comercializando sus propios productos de gafas inteligentes, cada uno con funciones de IA que exigen datos de entrenamiento. El precedente que marquen los reguladores al manejar el caso de Meta dará forma a las expectativas para todas las empresas del sector.

Presión regulatoria más allá del Reino Unido

El ICO no es la única autoridad que está observando. Las agencias europeas de protección de datos han sido escépticas respecto a las prácticas de datos de Meta durante años, y el Reglamento General de Protección de Datos de la UE les otorga amplios poderes de aplicación. La autoridad italiana de protección de datos prohibió temporalmente ChatGPT en 2023 por preocupaciones sobre cómo se procesaban los datos de los usuarios, y el metraje de las gafas inteligentes podría desencadenar un escrutinio comparable bajo las estrictas normas del GDPR sobre datos biométricos y visuales.

En Estados Unidos, la Comisión Federal de Comercio ha actuado contra empresas que tergiversaron cómo utilizaban los datos de los consumidores, aunque la aplicación ha sido históricamente más lenta y fragmentada que en Europa. Varios estados estadounidenses, incluidos Illinois y Texas, tienen leyes de privacidad biométrica que podrían aplicarse a datos faciales captados por gafas inteligentes si esos datos se procesan sin un consentimiento adecuado.

El panorama regulatorio todavía se está formando, y esa incertidumbre en sí misma es un riesgo para Meta. Si la intervención del ICO conduce a un hallazgo formal de incumplimiento, podría provocar investigaciones paralelas en otras jurisdicciones. Las empresas que operan a nivel mundial no pueden tratar una carta regulatoria del Reino Unido como un problema local; a menudo sirve como señal de que otros órganos vigilantes están prestando atención.

Qué significa esto para los usuarios de gafas inteligentes

Para cualquiera que posea o esté considerando comprar un par de gafas inteligentes con IA, la acción del ICO es una advertencia concreta para leer la letra pequeña y luego volver a leerla. Las políticas de privacidad de los productos de IA suelen estar redactadas para dar a la empresa la máxima flexibilidad, usando un lenguaje amplio sobre «mejorar los servicios» que puede cubrir desde análisis automatizados hasta la revisión humana por contratistas en otro continente.

Los usuarios deberían buscar respuestas específicas a tres preguntas antes de confiar la vida diaria a una cámara ponible. Primero, ¿la empresa divulga si revisores humanos verán las grabaciones y en qué circunstancias? Segundo, ¿existen mecanismos de exclusión que realmente impidan que los datos salgan del dispositivo o se usen para entrenamiento, en lugar de limitar solo algunas funciones? Tercero, ¿qué sucede con el metraje después de subirse: cuánto tiempo se conserva, si se anonimiza y si puede eliminarse bajo petición?

También vale la pena considerar la perspectiva de las personas que nunca eligieron llevar las gafas. Los transeúntes pueden ser grabados en tiendas, en el transporte público o en hogares privados, con poca o ninguna advertencia. Aunque Meta y otros fabricantes han añadido luces indicadoras y otras señales visuales, esas señales son fáciles de pasar por alto. Normas sociales más claras, como pedir permiso antes de grabar en espacios reducidos o en entornos sensibles, serán esenciales si las gafas inteligentes quieren convivir con expectativas básicas de privacidad.

El camino por delante para Meta y sus rivales

Meta ahora afronta un reto familiar pero en escalada: convencer a los reguladores y al público de que su apetito por los datos puede compaginarse con salvaguardias de privacidad significativas. La compañía puede tratar las preguntas del ICO como un asunto de cumplimiento puntual o como un catalizador para rediseñar la forma en que su ecosistema de gafas inteligentes maneja y explica el uso de datos.

Las medidas concretas podrían incluir limitar el volumen de metraje enviado a la nube, almacenar más procesamiento en el propio dispositivo y endurecer los controles sobre qué contratistas ven qué datos. Igual de importante será reescribir las divulgaciones en un lenguaje que los usuarios corrientes puedan entender, con explicaciones explícitas y fáciles de encontrar sobre cuándo es posible que humanos vean sus grabaciones.

Otras empresas en los sectores de ponibles e IA estarán observando de cerca. Una respuesta regulatoria contundente podría empujar a toda la industria hacia ajustes predeterminados más estrictos, flujos de consentimiento más visibles y salvaguardas técnicas más robustas contra el uso indebido. Una respuesta débil, por el contrario, podría animar a las empresas a seguir ampliando un lenguaje de privacidad vago para cubrir prácticas de datos cada vez más invasivas.

A medida que las gafas inteligentes se integren en la vida cotidiana, el resultado de esta disputa ayudará a determinar si las personas se sienten cómodas viviendo en un mundo donde las cámaras y la IA están siempre activas. La intervención del ICO es una primera prueba de hasta dónde están dispuestos a llegar los reguladores para proteger esa comodidad y de cuánto están dispuestas a ajustar sus modelos de negocio empresas como Meta en respuesta.

Alexander Clark

Alexander Clark is a tech writer who thrives on exploring the latest innovations and industry trends. As a contributor to Morning Overview, he covers everything from emerging technologies to the impact of digital transformation on everyday life. With a passion for making complex topics accessible, Alexander delivers insightful analysis that keeps readers informed and engaged. When he's not writing about the future of technology, he enjoys testing new gadgets and experimenting with smart home tech.