El fiscal general de Nuevo México, Raúl Torrez, presentó una demanda contra Meta Platforms y su director ejecutivo Mark Zuckerberg, alegando que la empresa diseñó Instagram y Facebook de formas que exponen a los niños al abuso sexual y a la trata de personas. La demanda, planteada como una acción de protección al consumidor, sostiene que la arquitectura de las plataformas de Meta engancha deliberadamente a los usuarios jóvenes mediante funciones adictivas, al tiempo que no los protege del contacto depredador. Es una de un número creciente de acciones legales a nivel estatal que comparten una teoría común: el diseño impulsado por el compromiso de las grandes tecnológicas no solo mantiene a los niños desplazándose sin parar, sino que los vuelve vulnerables.
Cómo los bucles de compromiso generan exposición
La tensión central en cada demanda e investigación federal dirigida a las empresas de redes sociales no es si los niños usan estas plataformas. Es si las plataformas están construidas para mantener a los niños usándolas de maneras que aumentan el riesgo. La denuncia de Nuevo México, presentada bajo las leyes estatales de protección al consumidor y seguridad infantil, conecta los sistemas de recomendación algorítmica de Meta con la facilitación de la explotación sexual de menores. La teoría del estado es que las funciones diseñadas para maximizar el tiempo en la aplicación, como el desplazamiento infinito, las notificaciones push y las recomendaciones de contenido afinadas para el compromiso emocional, también canalizan a los usuarios jóvenes hacia interacciones dañinas con adultos.
Esa teoría no se originó en una sala de tribunal. Una petición de noviembre de 2022 para la elaboración de normas por parte de la FTC argumentó que características de diseño específicas «sirven a los intereses de las plataformas y los anunciantes, no de los niños», y pidió a los reguladores prohibir prácticas de diseño desleales que transforman las experiencias en línea de los menores en oportunidades de extracción. La iniciativa Better Internet for Kids de Europa ha catalogado por separado técnicas persuasivas que explotan las vulnerabilidades del desarrollo de los usuarios jóvenes, a menudo recopilando más datos personales de los necesarios en el proceso. El patrón entre jurisdicciones es consistente: funciones optimizadas para métricas de compromiso de adultos se aplican a menores sin salvaguardas significativas.
En la práctica, los bucles de compromiso funcionan recompensando a los usuarios por permanecer en la plataforma y volver con frecuencia. Para los adolescentes, cuyos cerebros todavía están desarrollando el control de los impulsos y la evaluación del riesgo, la combinación de recompensas variables, comparación social y notificaciones constantes puede ser especialmente potente. Cuando estos bucles se cruzan con sistemas de recomendación que priorizan contenido que probablemente provoque una reacción, pueden amplificar no solo material entretenido sino también contenido de autolesión, imágenes sexualizadas y contactos no solicitados de adultos que saben cómo manipular el sistema.
Los críticos sostienen que esto no es un subproducto accidental de la innovación sino una consecuencia previsible de modelos de negocio que valoran la atención por encima de todo. Por diseño, cualquier fricción que desacelere a un usuario, ya sea una advertencia de seguridad, una configuración predeterminada más estricta en la mensajería privada o una verificación de edad robusta, corre el riesgo de reducir el compromiso y, por lo tanto, los ingresos por publicidad. La demanda de Nuevo México busca traducir esa crítica en responsabilidad legal, sosteniendo que Meta tergiversó la seguridad de sus productos ante las familias mientras incrustaba riesgos en el núcleo de sus servicios.
Lo que encontraron los investigadores federales
El estudio 6(b) de la FTC, titulado «Una mirada detrás de las pantallas», examinó cómo las principales empresas de redes sociales y de transmisión de video monetizan los datos de los usuarios, incluidos los datos pertenecientes a niños y adolescentes. El informe del personal resultante halló que las grandes plataformas habían llevado a cabo lo que la agencia describió como vasta vigilancia con salvaguardas inadecuadas para los usuarios jóvenes. El informe documentó brechas de privacidad y seguridad que afectan a los niños y vinculó esas brechas directamente a modelos de negocio basados en la publicidad orientada por vigilancia y la optimización del compromiso.
El estudio de la FTC importa porque desplaza la conversación más allá de actores malos individuales o incidentes aislados. Describe un problema estructural: plataformas que obtienen beneficios manteniendo a los usuarios comprometidos tienen incentivos financieros para resistir la fricción, incluida la fricción de la verificación de edad, los controles parentales o la moderación de contenido que podría reducir el tiempo en la aplicación. Cuando esos usuarios son adolescentes, la disyuntiva entre los ingresos por compromiso y la seguridad infantil se vuelve evidente. El informe completo de la agencia respalda las afirmaciones de que las prácticas de diseño y optimización no son elecciones de ingeniería neutrales, sino decisiones impulsadas por el lucro con consecuencias medibles para los menores.
Entre los problemas destacados estaban las prácticas opacas de recolección de datos, la limitada transparencia sobre cómo operan los algoritmos de recomendación y la aplicación inconsistente de herramientas de seguridad destinadas a proteger a los usuarios más jóvenes. El informe subrayó que incluso cuando las empresas ofrecen controles parentales o configuraciones específicas para adolescentes, esas medidas a menudo se asientan sobre un sistema que sigue estando fundamentalmente orientado a maximizar el compromiso. Como resultado, las salvaguardas pueden sentirse como complementos en lugar de principios de diseño centrales.
Para los reguladores y los tribunales, estos hallazgos proporcionan un respaldo fáctico a los argumentos de que ciertas elecciones de diseño son injustas o engañosas cuando se aplican a los niños. Si una plataforma se promociona como segura para los jóvenes mientras secretamente construye perfiles sobre ellos y los dirige hacia contenidos que aumentan el tiempo en el sitio, las agencias de aplicación de la ley pueden considerar eso como una desalineación entre las promesas públicas y las prácticas internas.
Presión del Congreso y resistencia empresarial
Los legisladores han intentado forzar la rendición de cuentas mediante audiencias públicas, con resultados mixtos. En octubre de 2021, el Subcomité de Comercio del Senado escuchó el testimonio de Frances Haugen, una exempleada de Facebook que divulgó investigaciones internas que mostraban que la empresa entendía que sus productos dañaban la salud mental de los adolescentes. El relato del denunciante de Haugen detalló cómo estudios internos vinculaban las características de compromiso adictivo con declives en el bienestar adolescente y cómo la empresa eligió el crecimiento sobre la seguridad cuando ambos entraban en conflicto.
Esa audiencia no produjo una legislación vinculante, pero sentó las bases para una sesión del Comité Judicial del Senado en enero de 2024 que citó a los directores ejecutivos de cinco empresas: Meta, X, TikTok, Snap y Discord. El comité enmarcó la audiencia explícitamente en torno al historial de seguridad infantil de las compañías. Cuando algunos ejecutivos inicialmente se resistieron a presentarse, el comité emitió citaciones al CEO de Discord, Jason Citron; al CEO de Snap, Evan Spiegel; y a la CEO de X, Linda Yaccarino, para obligarlos a asistir. La escalada desde el testimonio voluntario hasta el poder de citación señaló que la paciencia del Congreso con la autorregulación se estaba agotando.
Durante estas audiencias, los legisladores presionaron a los ejecutivos sobre si apoyarían reglas federales de privacidad más estrictas para menores, configuraciones de seguridad predeterminadas y límites más claros sobre la segmentación de niños mediante datos. Los líderes empresariales típicamente respondieron destacando equipos y herramientas de seguridad existentes, mientras resistían mandatos específicos que podrían restringir el diseño de productos o los modelos de publicidad. Los intercambios subrayaron una creciente brecha entre las expectativas políticas y la disposición corporativa a alterar los incentivos comerciales subyacentes.
Meta, por su parte, ha señalado nuevas funciones de seguridad para adolescentes y reportado la eliminación de 635,000 cuentas que sexualizan a niños, según reportes de The Associated Press. Pero esas medidas llegaron en un contexto de demandas estatales que alegan diseño adictivo y daños a la juventud, lo que plantea una pregunta razonable: ¿son estas inversiones en seguridad reformas genuinas o respuestas para controlar daños ante la presión legal y política? El momento sugiere lo segundo, y la escala del problema, medida en cientos de miles de cuentas depredadoras en los servicios de una sola empresa, ilustra cómo la aplicación reactiva puede tener dificultades para mantenerse al ritmo de los riesgos sistémicos.
De plataformas individuales a la reforma sistémica
La convergencia de litigios estatales, investigaciones federales y el escrutinio del Congreso está empujando el debate hacia soluciones sistémicas en lugar de arreglos plataforma por plataforma. Una idea emergente es tratar ciertas funciones que maximizan el compromiso como intrínsecamente de alto riesgo cuando se usan en servicios a los que es probable que accedan menores. Eso podría significar límites presuntivos en la reproducción automática, el desplazamiento infinito o la amplificación algorítmica de contenido para usuarios menores de edad, a menos que las empresas puedan demostrar protecciones robustas.
Otra vía es fortalecer las obligaciones de transparencia. Reguladores y legisladores están cada vez más interesados en exigir a las empresas que compartan información más detallada sobre cómo funcionan los sistemas de recomendación, qué datos recopilan sobre menores y cómo evalúan el impacto de nuevas funciones en la seguridad infantil. Los hallazgos de la FTC sobre la publicidad basada en vigilancia dejan claro que, sin conocimiento de estos procesos internos, es difícil para padres, educadores o responsables de políticas evaluar las afirmaciones corporativas sobre seguridad.
Al mismo tiempo, existe un reconocimiento creciente de que las familias no pueden asumir la carga solas. Si bien la alfabetización mediática y los controles parentales son útiles, operan dentro de entornos cuyas reglas básicas las establecen las empresas. Cuando esas reglas premian la atención por encima de todo, incluso los padres más vigilantes y los adolescentes más hábiles digitalmente enfrentan una batalla cuesta arriba.
El caso de Nuevo México contra Meta pondrá a prueba si los tribunales están dispuestos a responsabilizar legalmente a las plataformas por elecciones de diseño que supuestamente exponen a los niños a daños graves. Sea cual sea su resultado, la demanda refleja un cambio más amplio: la seguridad infantil en línea ya no se trata como una responsabilidad corporativa voluntaria, sino como una cuestión de deber legal y supervisión regulatoria. A medida que surgen más pruebas sobre cómo operan los sistemas impulsados por el compromiso, es probable que aumente la presión para rediseñar esos sistemas teniendo en cuenta a los niños.