En un procedimiento judicial celebrado en Los Ángeles, Mark Zuckerberg, director ejecutivo de Meta, admitió ante un jurado que Instagram demoró en introducir herramientas más eficaces para detectar cuentas de menores de 13 años. El testimonio forma parte de una demanda que cuestiona si las grandes plataformas diseñaron intencionalmente funciones para fomentar un uso prolongado entre jóvenes y si ello produjo daños a la salud mental.
La audiencia, que tuvo relevancia mediática, incluyó la exhibición de documentos internos y el cruce de preguntas sobre la filosofía de producto de la compañía. Zuckerberg sostuvo que la empresa ha ido incorporando mejoras en la verificación de edad, aunque reconoció que «podríamos haberlo hecho antes«.
Lo esencial del testimonio y los documentos mostrados
Durante su intervención, Zuckerberg fue confrontado con datos internos que indicaban que, en 2015, Instagram contaba con alrededor de cuatro millones de usuarios menores de 13 años y que aproximadamente el 30% de niños entre 10 y 12 años en Estados Unidos utilizaban la aplicación. Esos documentos fueron clave para ilustrar la brecha entre las políticas formales y la realidad del uso.
El CEO defendió que la compañía nunca permitió oficialmente el acceso a menores de 13 años y destacó la existencia de normas al respecto, pero también aceptó que había fallas en los mecanismos de control. En su respuesta, afirmó que hoy Meta se encuentra «en el lugar correcto» en cuanto a los procesos de verificación y que se seguirán añadiendo herramientas.
Acusaciones sobre diseño y tiempo de uso
La demanda sostiene que ciertas decisiones de diseño, algoritmos y funciones de personalización buscaron aumentar la permanencia de los usuarios en las aplicaciones. El abogado de la parte actora planteó que la empresa había fijado metas internas relacionadas con el tiempo que las personas pasaban en sus productos.
Zuckerberg reconoció que en el pasado existieron objetivos vinculados al tiempo de uso, pero defendió que la intención principal de la compañía fue desarrollar servicios que permitieran a las personas conectarse y acceder a información. La discusión central del jurado será si esas prácticas pueden traducirse en responsabilidad legal por los problemas de salud mental alegados por las familias.
La versión de la demandante
La demanda fue presentada por una joven identificada como Kaley G.M., quien asegura haber comenzado a usar plataformas digitales desde la infancia y a experimentar problemas de salud mental asociados a ese uso temprano. Según el expediente, Kaley accedió a YouTube a los seis años e Instagram a los 11, y posteriormente utilizó otras aplicaciones como TikTok y Snapchat.
Los abogados de la parte actora argumentan que la facilidad para registrarse, pese a las restricciones de edad en los acuerdos de usuario, y las tácticas de retención de las plataformas contribuyeron a una exposición prolongada que agravó la salud mental de la demandante.
Contexto legal y posibles precedentes
Este juicio, fechado en su fase actual a partir de la cobertura del 19 de febrero de 2026, es el primero de varios casos en Los Ángeles que podrían fijar criterios relevantes para miles de demandas similares en Estados Unidos. El tribunal debe evaluar exclusivamente elementos del diseño y la arquitectura de las aplicaciones, dado que la ley federal ofrece amplia inmunidad a las plataformas respecto al contenido generado por usuarios.
En paralelo, se tramitan procesos federales y estatales que podrían derivar en litigios adicionales: un caso de alcance nacional en Oakland y otro en Nuevo México donde las autoridades estatales han presentado cargos relacionados con la protección de menores. El resultado de estas causas puede influir en cómo se regula el diseño digital y la responsabilidad corporativa en materia de protección infantil.
Implicaciones para la industria
Si el jurado concluye que existió responsabilidad por el diseño de funciones destinadas a aumentar el tiempo de uso, las empresas tecnológicas podrían enfrentarse a cambios en la evaluación de sus prácticas productivas. El debate abarca desde el uso de algoritmos y sistemas de recomendación hasta las estrategias de personalización que buscan mantener a los usuarios en la plataforma.
El juicio seguirá en curso y está previsto que continúe hasta finales de marzo, cuando el jurado emitirá una decisión sobre la posible responsabilidad de Instagram y YouTube en los problemas de salud mental alegados. Mientras tanto, la audiencia pública ha reavivado la discusión sobre regulación digital, ética en el diseño y medidas concretas para proteger a los menores en entornos en línea.



