mayo 3, 2024

Los niños a menudo confían en sus propios instintos cuando se enfrentan a amenazas a su seguridad en línea, como contenido explícito o acoso en línea, revela un nuevo estudio.

ANUNCIO

Los hallazgos revelan una verdad incómoda sobre cómo los niños son abandonados a su suerte cuando navegan en el mundo digital, lo que aumenta su vulnerabilidad al daño.

Realizado por las organizaciones no gubernamentales ECPAT International, Eurochild y Terre des Hommes Holanda, el estudio involucró discusiones de grupos focales con 483 niños de 15 países, incluidos diez estados miembros de la UE.

Muchos de esos niños dijeron que prefieren guardarse sus actividades en línea para sí mismos y tienen dificultades para hablar con los adultos sobre los riesgos que enfrentan en línea. Otros dijeron que filtran lo que les cuentan a sus padres y cuidadores sobre los daños que enfrentan.

Estos daños incluyen ciberacoso, contenido violento o experiencias negativas de salud mental. Pero en los 15 países estudiados, el abuso y la explotación sexual en línea (como el acicalamiento, el material sexual autogenerado y el abuso sexual infantil transmitido en vivo) constituyen la mayor amenaza para los menores.

«Vemos que los niños se sienten muy solos a la hora de garantizar su seguridad frente al abuso y la explotación sexual infantil. Y, por supuesto, esto es una enorme responsabilidad», afirmó Eva Notté, asesora técnica sobre explotación infantil de Terre des Hommes Países Bajos.

«Pero vemos que, a través de su propio comportamiento, están tratando de autocensurarse lo que hacen. Intentan estar atentos a los riesgos, pero en realidad carecen de las herramientas y la información necesarias para navegar eficazmente en el mundo en línea», añadió.

El informe llega en medio de un estancamiento en las instituciones de la UE por un nueva ley planeada tomar medidas enérgicas contra la explotación infantil en línea mediante el uso de tecnologías emergentes para detectar material de abuso sexual infantil (CSAM) nuevo y existente y actividades de captación infantil.

La ley ha enfrentado una dura oposición de los defensores de la privacidad digital, quienes afirman que permitir que las plataformas espíen el contenido sería una grave infracción del derecho a la privacidad en línea.

Pero las ONG dicen que el estudio destaca la necesidad urgente de que los países de la UE lleguen a un compromiso para que existan barreras legales que hagan que Internet sea más seguro para los niños.

«Existe una gran necesidad de marcos regulatorios que realmente pongan esa responsabilidad y esa carga no en los niños, sino en los proveedores de servicios en línea», explicó Fabiola Bas Palomares, responsable de políticas y defensa de Eurochild. «Tenemos que trabajar juntos para garantizar que los niños estén protegidos del abuso sexual infantil en línea».

También se produce en medio de una creciente preocupación por el uso de la IA para generar material totalmente falso sobre abuso sexual infantil.

Según el Centro Común de Investigación de la UE, una gran parte de ese contenido abusivo es generado por los propios adolescentes, lo que demuestra que los niños también necesitan ser educados sobre los peligros de difundir y crear contenido abusivo.

El papel clave de las plataformas

Cuando se dieron a conocer los resultados del estudio en Bruselas el lunes, las ONG pidieron a las plataformas digitales que den un paso al frente y desempeñen su papel en la lucha contra los contenidos ilegales que ponen en riesgo la seguridad de los niños.

En declaraciones a Euronews, Tomas Hartman, director senior de políticas públicas de Snap Inc., dijo que la empresa y su aplicación Snapchat, que cuenta con unos 102 millones de usuarios registrados en la UE, están dispuestos a desempeñar su papel en la lucha contra la explotación sexual infantil en línea.

«Somos muy conscientes de que nuestra aplicación es utilizada por muchos jóvenes, y es por eso que la seguridad y privacidad de nuestros usuarios es nuestra principal prioridad, y especialmente para los menores», dijo Hartman, enumerando varias medidas de seguridad que Snapchat ha introducido para proteger a los adolescentes. usuarios, como limitar la configuración de contactos a amigos y contactos telefónicos, y desactivar la opción de compartir ubicación de forma predeterminada.

Hartman también dijo que la ley prevista en la UE para abordar el material de abuso sexual infantil (CSAM) es «absolutamente crucial» para Snapchat.

«Es importante para nosotros poder escanear de forma proactiva este material CSAM conocido. Y contamos con tecnologías confiables para hacerlo: utilizamos ADN fotográfico para las imágenes y CSAI Match para los videos», explicó. «Esta es nuestra máxima prioridad».

La aplicación Snapchat, utilizada predominantemente por usuarios jóvenes para compartir imágenes que desaparecen después de haber sido vistas, tiene un requisito de edad de 13 años y configuraciones de privacidad adicionales para usuarios de 13 a 17 años. Ha sido objeto de escrutinio por no mantener a los usuarios menores de edad fuera de su plataforma.

ANUNCIO

Snapchat, junto con Meta, recibió el pasado mes de noviembre una solicitud de información de la Comisión Europea sobre las medidas que está tomando para «cumplir con sus obligaciones relacionadas con la protección de menores».

Una de las preocupaciones es el chatbot ‘My AI’ disponible para los usuarios de Snapchat, impulsado por ChatGPT de Microsoft. En su sitio web, Snapchat reconoce que el chatbot «puede incluir contenido sesgado, incorrecto, dañino o engañoso».

Continuar leyendo este Titular: Los niños dependen del «instinto» para protegerse del daño en línea, según un nuevo estudio