Virales > Cuidar a los más chicos
Cómo prevenir el acoso a menores en Roblox: guía para padres y educadores
La plataforma, con más de 80 millones de usuarios donde el 60% son menores entre 9 y 16 años, puede ser utilizada por acosadores sexuales a través de espacios privados llamados "condos". Especialistas recomiendan activar controles parentales y educación digital para detectar señales de grooming.
POR REDACCIÓN
Las plataformas de videojuegos multijugador como Roblox se han convertido en espacios de socialización predominante para las generaciones más jóvenes, particularmente para usuarios entre 4 y 15 años. Esta popularidad convierte a estos entornos digitales en focos de atención ante posibles situaciones de acoso sexual infantil, conocido como grooming.
Roblox funciona como un ecosistema en línea donde los usuarios crean y comparten experiencias interactivas en forma de minijuegos. Sin embargo, la plataforma incluye funcionalidades que pueden derivar en contextos vulnerables para los menores. Entre estos se encuentran los denominados "condominios" o "condos", espacios privados donde puede presentarse contenido sexual explícito a través de avatares desnudos o simulaciones de actos sexuales. Estos espacios suelen eludir los sistemas de control de la plataforma al ser promocionados mediante canexternos como Discord o TikTok.
El fenómeno del grooming consiste en que un adulto establece contacto con un menor en línea para ganarse su confianza mediante engaños, con el objetivo final de obtener material sexual o concertar encuentros físicos. Estudios internacionales indican que los perfiles de acosadores suelen corresponder a personas socialmente adaptadas, con edades comprendidas entre 28 y 35 años.
Como medidas de protección, se recomienda activar los controles parentales disponibles en la plataforma, los cuales permiten limitar las funciones de chat con desconocidos. No obstante, estas herramientas no eliminan completamente el riesgo, por lo que resulta fundamental complementarlas con procesos de alfabetización digital dirigidos tanto a menores como a padres y educadores.
Paralelamente, se explora el potencial de la inteligencia artificial como herramienta para identificar comportamientos inadecuados. Proyectos de investigación como HATEMEDIA, desarrollado por la Universidad Internacional de La Rioja, y trabajos del grupo SINAI de la Universidad de Jaén, se orientan a la detección de expresiones ofensivas en entornos digitales. Empresas tecnológicas como Meta y NVIDIA investigan la integración de modelos de IA en personajes no jugadores (NPC) que podrían monitorizar interacciones inapropiadas.
La combinación de herramientas tecnológicas y educación en el uso responsable de las plataformas digitales se configura como la estrategia más efectiva para garantizar la seguridad de los menores en entornos de juego en línea.