El infierno del metaverso: cuando la innovación digital normaliza la violencia
- Redacción El Salmón
- hace 2 días
- 5 Min. de lectura

El metaverso ha sido presentado por empresas como Meta como el futuro de la interacción humana: una frontera expansiva para jugar, trabajar y socializar en entornos virtuales inmersivos. Promete libertad, creatividad y conexión sin barreras físicas. Sin embargo, esta visión futurista contrasta brutalmente con la realidad que enfrentan miles de mujeres, adolescentes y menores de edad que hoy sufren acoso, abuso sexual, grooming y una completa desprotección. Lejos de representar un entorno seguro, el metaverso actual —y en particular Horizon Worlds, la plataforma insignia de Meta— se ha convertido en un nuevo territorio sin ley.
Una infancia expuesta sin filtros
En abril de 2025, la organización Fairplay presentó una denuncia formal ante la Comisión Federal de Comercio de Estados Unidos (FTC), revelando que niños menores de 13 años estaban utilizando Horizon Worlds, a pesar de que la propia empresa prohíbe expresamente el acceso a esa franja etaria. Este hecho no fue una simple omisión: se trató de una práctica estructuralmente conocida y tolerada dentro de la empresa.
Kelly Stonelake, exdirectiva de Meta, testificó bajo juramento que la compañía era plenamente consciente de esta situación. Documentos internos filtrados indicaban que hasta un tercio de los usuarios de Horizon Worlds podrían ser menores de edad que ingresaban mediante cuentas de adultos. No obstante, no se implementaron controles rigurosos porque —según su declaración— “había una presión corporativa por hacer crecer la base de usuarios antes que protegerlos”.
Este comportamiento no solo revela una falla ética profunda, sino también una posible violación de la Ley de Protección de la Privacidad Infantil en Internet (COPPA), que prohíbe la recopilación de datos personales de menores sin consentimiento parental. Meta, en su afán por liderar la revolución del metaverso, parece haber optado por mirar hacia otro lado.
Un espacio hostil para las mujeres
El informe Horizon Worlds Exposed, publicado por el Center for Countering Digital Hate (CCDH) en marzo de 2023, reveló un panorama alarmante: en un total de 100 sesiones grabadas por investigadores encubiertos en Horizon Worlds, cada siete minutos ocurría un incidente de abuso sexual, acoso o contenido ofensivo. En total, se documentaron over 100 casos de agresión sexual virtual en apenas unas pocas horas de observación.
Los investigadores encontraron incidentes de tocar sin consentimiento, solicitudes de desnudez, lenguaje misógino, racismo, discursos violentos y simulaciones explícitas de abuso sexual. Incluso con medidas básicas de privacidad como las “zonas seguras” (personal bubbles), los agresores sabían cómo desactivarlas o ignorarlas, y coordinaban ataques en grupo. El informe demuestra que el problema no es anecdótico, sino sistémico.
Contrario al argumento de que “el avatar no es real”, estudios académicos han demostrado que el cuerpo responde a estas agresiones virtuales con reacciones fisiológicas reales. Un estudio de la Universidad de Stanford encontró que la proximidad invasiva de un avatar en entornos de realidad virtual puede provocar síntomas físicos comparables al trauma en la vida real. Guo Freeman, investigadora en experiencias digitales, lo expresó claramente: “La violencia en el metaverso no es simbólica. Es una experiencia visceral que puede generar trauma psicológico duradero”.
La prensa global y las voces que alertan
El informe del CCDH no pasó desapercibido. Aunque la mayoría de los medios no lo ha abordado con la profundidad que amerita, algunos reportes —como los de Wired, Business Insider, The Independent y organizaciones como Equality Now— han recogido testimonios de mujeres que, al entrar en Horizon Worlds, fueron inmediatamente acosadas, tocadas sin consentimiento o expuestas a lenguaje sexual violento.
En una nota publicada por The Guardian, se recogen declaraciones de expertas en violencia de género que advierten que Meta está creando un entorno altamente peligroso para sus usuarios más vulnerables. Según los expertos citados, “la falta de reglas claras, de consecuencias para los agresores y de herramientas de moderación efectivas convierte al metaverso en un espacio de impunidad total”.
Diseño negligente y moderación insuficiente
Uno de los problemas estructurales de Horizon Worlds es que ha sido diseñado para maximizar la inmersión y el realismo —la ilusión de “estar ahí”— sin integrar barreras efectivas contra el abuso. Las denominadas “zonas personales”, que deberían impedir que otro avatar se acerque demasiado, están desactivadas por defecto o son fácilmente vulneradas por agresores coordinados.
A esto se suma la casi inexistente presencia de moderadores humanos, la ausencia de monitoreo en tiempo real, y un sistema de reportes confuso, lento y muchas veces ignorado. El informe del CCDH demostró que incluso cuando se reportaban conductas abusivas, no se tomaban medidas inmediatas ni se bloqueaban a los usuarios infractores. En la práctica, las víctimas no tienen protección y los agresores no enfrentan consecuencias.
Las plataformas como Meta suelen escudarse en la “libertad del usuario”, pero esa libertad sin regulación ha generado un ambiente de violencia estructural, donde las mujeres y los menores son empujados a autoprotegerse… o abandonar la plataforma.
Los niños, en la línea de fuego
Más allá del acoso a mujeres adultas, uno de los aspectos más alarmantes es la facilidad con la que niños acceden a entornos virtuales no aptos. La investigación del CCDH demostró que los entornos de realidad virtual, como Horizon Worlds, están plagados de lenguaje sexual explícito, drogas simuladas, violencia y grooming. En muchos casos, se encontraron adultos que deliberadamente fingían ser niños para establecer contacto con menores, con fines claramente sexuales.
La FTC ya ha iniciado investigaciones por violaciones a la ley COPPA, pero la respuesta institucional sigue siendo lenta e insuficiente. Según un informe de Common Sense Media, en plataformas como VRChat o Roblox, se puede observar comportamiento predatorio en menos de cinco minutos. A pesar de esto, muchas de estas plataformas no exigen verificación real de edad, y los controles parentales siguen siendo débiles o voluntarios.
¿Qué se necesita para cambiar?
Expertos en derechos digitales, seguridad infantil y violencia de género coinciden en que las medidas defensivas no son suficientes. Se requieren reformas profundas y estructurales. Algunas de las más urgentes incluyen:
Diseño con enfoque preventivo, que integre zonas seguras obligatorias, límites físicos predeterminados, y restricciones para impedir el contacto entre adultos y menores.
Verificación de edad rigurosa, que use métodos biométricos o verificaciones legales en lugar de declaraciones autorreportadas.
Moderación humana en tiempo real, con personal capacitado para intervenir ante agresiones o sospechas de grooming de forma inmediata.
Transparencia y auditoría externa, que obligue a las empresas a rendir cuentas públicamente sobre cómo gestionan los abusos, a quiénes protegen y cómo actúan ante denuncias.
Lo virtual también es real
El metaverso no es una fantasía inocua. Lo que ocurre allí afecta el cuerpo, la mente y la seguridad de quienes lo habitan. La impunidad en estos entornos digitales no es un error técnico, es consecuencia directa de un modelo de negocio que prioriza el crecimiento exponencial por encima de los derechos humanos.
Como sociedad, no podemos permitir que estas plataformas sigan expandiéndose sin marcos éticos, sin regulación efectiva y sin responsabilidad social. El metaverso podría ser una herramienta poderosa para la creatividad, la colaboración y la educación, pero hoy —para demasiadas personas— se parece más a un infierno disfrazado de paraíso digital.
Comments