Publicidad
Publicidad

Virales > Cuidar a los más chicos

Cómo prevenir el acoso a menores en Roblox: guía para padres y educadores

La plataforma, con más de 80 millones de usuarios donde el 60% son menores entre 9 y 16 años, puede ser utilizada por acosadores sexuales a través de espacios privados llamados "condos". Especialistas recomiendan activar controles parentales y educación digital para detectar señales de grooming.

POR REDACCIÓN

Hace 3 horas
9. Los riesgos ocultos de Roblox. FOTO: Imagen ilustrativa

Las plataformas de videojuegos multijugador como Roblox se han convertido en espacios de socialización predominante para las generaciones más jóvenes, particularmente para usuarios entre 4 y 15 años. Esta popularidad convierte a estos entornos digitales en focos de atención ante posibles situaciones de acoso sexual infantil, conocido como grooming.

Roblox funciona como un ecosistema en línea donde los usuarios crean y comparten experiencias interactivas en forma de minijuegos. Sin embargo, la plataforma incluye funcionalidades que pueden derivar en contextos vulnerables para los menores. Entre estos se encuentran los denominados "condominios" o "condos", espacios privados donde puede presentarse contenido sexual explícito a través de avatares desnudos o simulaciones de actos sexuales. Estos espacios suelen eludir los sistemas de control de la plataforma al ser promocionados mediante canexternos como Discord o TikTok.

Publicidad

El fenómeno del grooming consiste en que un adulto establece contacto con un menor en línea para ganarse su confianza mediante engaños, con el objetivo final de obtener material sexual o concertar encuentros físicos. Estudios internacionales indican que los perfiles de acosadores suelen corresponder a personas socialmente adaptadas, con edades comprendidas entre 28 y 35 años.

Como medidas de protección, se recomienda activar los controles parentales disponibles en la plataforma, los cuales permiten limitar las funciones de chat con desconocidos. No obstante, estas herramientas no eliminan completamente el riesgo, por lo que resulta fundamental complementarlas con procesos de alfabetización digital dirigidos tanto a menores como a padres y educadores.

Publicidad

Paralelamente, se explora el potencial de la inteligencia artificial como herramienta para identificar comportamientos inadecuados. Proyectos de investigación como HATEMEDIA, desarrollado por la Universidad Internacional de La Rioja, y trabajos del grupo SINAI de la Universidad de Jaén, se orientan a la detección de expresiones ofensivas en entornos digitales. Empresas tecnológicas como Meta y NVIDIA investigan la integración de modelos de IA en personajes no jugadores (NPC) que podrían monitorizar interacciones inapropiadas.

La combinación de herramientas tecnológicas y educación en el uso responsable de las plataformas digitales se configura como la estrategia más efectiva para garantizar la seguridad de los menores en entornos de juego en línea.

Publicidad
Publicidad
Publicidad
Más Leídas
Más Leídas
Publicidad
Publicidad

ÚLTIMAS NOTICIAS