Un estudio revela que el 64% de las herramientas de seguridad para adolescentes de Meta no funcionan

Alberto Noriega     25 septiembre 2025     5 min.
Un estudio revela que el 64% de las herramientas de seguridad para adolescentes de Meta no funcionan

Un informe revela que el 64% de las herramientas de seguridad de Meta para adolescentes son ineficaces, pese al lanzamiento global de Teen Accounts.

Meta lanzó este jueves su función Teen Accounts a nivel global, justo cuando un informe académico reveló que la mayoría de sus herramientas de seguridad para adolescentes son ineficaces. El estudio, titulado Teen Accounts, Broken Promises, evaluó 47 funciones de protección y concluyó que 30 de ellas —el 64%— no cumplen su cometido o han sido retiradas. La investigación fue realizada por Cybersecurity for Democracy de la Universidad de Nueva York, junto al exingeniero y denunciante de Meta Arturo Béjar y varias organizaciones de defensa infantil. El hallazgo llega mientras crecen las presiones regulatorias y sociales contra la compañía por los riesgos que enfrentan los menores en Instagram, Facebook y Messenger.

Promesas rotas en la seguridad adolescente

El informe presentó un panorama alarmante. De las 47 herramientas de seguridad evaluadas, solo 8 obtuvieron una calificación positiva por su eficacia en la prevención de daños. Otras nueve lograron una valoración intermedia, mientras que 30 —la gran mayoría— fueron catalogadas como sustancialmente ineficaces o directamente descontinuadas.

Los investigadores crearon cuentas de prueba que simulaban adolescentes, padres y adultos malintencionados. El objetivo era medir hasta qué punto las plataformas de Meta realmente bloqueaban conductas dañinas. Los resultados fueron claros: adultos desconocidos pudieron contactar con menores pese a las restricciones anunciadas por la empresa, y las herramientas de filtrado no impidieron la llegada de mensajes con contenido misógino, insultos o incluso mensajes alentando al suicidio.

El sistema de recomendaciones algorítmicas de Instagram tampoco pasó la prueba. Las cuentas adolescentes recibieron sugerencias de contenido sexual, violento y de autolesión, incluyendo descripciones explícitas, imágenes de desnudos y vídeos de accidentes y agresiones. Para las organizaciones firmantes, estos hallazgos demuestran que la arquitectura misma de la plataforma prioriza la interacción y el tiempo de pantalla por encima de la seguridad de los usuarios más vulnerables.

Pexels Cottonbro 5053740

La respuesta de Meta

Meta respondió con contundencia a las acusaciones. Andy Stone, portavoz de la compañía, calificó el informe de “engañoso y peligrosamente especulativo”, asegurando que los investigadores malinterpretaron varias de las funciones. Según la empresa, Teen Accounts ofrece protecciones automáticas de seguridad y controles parentales simples, con resultados positivos en métricas como menor exposición a contenido sensible, reducción de contactos no deseados y menos tiempo de uso nocturno en Instagram.

La compañía también explicó que algunas funciones señaladas como eliminadas habían sido integradas en otros sistemas y no retiradas por completo. No obstante, evitó detallar qué porcentaje de padres activa efectivamente los controles parentales, un punto crítico que condiciona el impacto real de las medidas.

La reacción refleja una estrategia defensiva recurrente en Meta: reivindicar avances tecnológicos sin aportar métricas verificables sobre su adopción ni su efectividad en la práctica. Para los críticos, esta opacidad refuerza la percepción de que la compañía prioriza la reputación corporativa antes que la seguridad de los adolescentes.

Un clamor por la regulación

Los autores del informe, junto a familiares de jóvenes fallecidos por suicidio tras episodios de ciberacoso, exigen que las autoridades actúen. Han pedido a la Federal Trade Commission (FTC) y a fiscales estatales que apliquen las leyes de privacidad infantil para obligar a Meta a implementar cambios estructurales en sus plataformas.

Pexels Tofros Com 83191 389734

La crítica no surge en el vacío. Hace casi dos años, el CEO Mark Zuckerberg testificó ante el Congreso estadounidense, pidió disculpas públicas a padres afectados y prometió reforzar la seguridad de los menores. Sin embargo, el nuevo estudio sostiene que las promesas no se han traducido en mejoras sustanciales. Instagram sigue siendo un entorno inseguro para millones de adolescentes, pese a los compromisos asumidos en audiencias públicas y comunicados corporativos.

El informe concluye con un mensaje contundente: “Hasta que no haya acciones regulatorias claras, Teen Accounts será otra oportunidad perdida para proteger a la infancia, y las redes sociales de Meta seguirán exponiendo a demasiados adolescentes a riesgos graves”.

Entre la innovación y la negligencia

El lanzamiento global de Teen Accounts y el informe crítico que lo acompañó dibujan una paradoja: Meta insiste en ser líder en la creación de herramientas de protección, pero la realidad muestra una brecha estructural entre el diseño anunciado y la experiencia vivida por los adolescentes. Esa contradicción pone en entredicho no solo la eficacia técnica, sino la credibilidad de la empresa frente a la opinión pública y los reguladores.

La tensión revela un dilema central en la economía digital: ¿pueden compañías cuyo modelo de negocio depende del tiempo de atención garantizar al mismo tiempo la protección de los usuarios más jóvenes? Si las recomendaciones algorítmicas siguen privilegiando el contenido más adictivo y extremo, incluso el mejor paquete de funciones de seguridad resultará insuficiente.

El futuro inmediato pasa por una mayor intervención política y regulatoria. En EE. UU. y Europa crecen las propuestas legislativas que buscan limitar el acceso de menores, restringir la recopilación de datos y obligar a las plataformas a demostrar la eficacia de sus medidas de seguridad. La pregunta ya no es si Meta lanzará más herramientas, sino si estará dispuesta a someterlas a una verificación independiente y a rediseñar un ecosistema que hoy, según la evidencia, falla a quienes más debería proteger.

En última instancia, la discusión trasciende a Meta. Se trata de decidir qué modelo digital queremos para las próximas generaciones: uno en el que la seguridad de los adolescentes dependa de filtros incompletos y algoritmos opacos, o uno en el que la protección de la infancia se convierta en la base misma de la innovación tecnológica. El informe Broken Promises deja claro que el camino actual no basta. El desafío ahora es corregirlo antes de que los daños sean irreparables.

Comentarios cerrados