El regulador británico de comunicaciones, Ofcom, propuso este miércoles una serie de medidas para que las aplicaciones de redes sociales y servicios de internet protejan a los menores de contenido nocivo como la autolesión, la pornografía o el suicidio.
La consejera delegada, Melanie Dowes, dijo a la BBC que, en base a este borrador, que se somete a consulta pública hasta el 17 de julio, las empresas de tecnología tendrán que imponer “controles de edad sólidos y adecuados” y “cambiar los algoritmos que crean los contenidos perjudiciales para los niños y adolescentes”.
Dowes explicó a la cadena pública que, por primera vez, estas compañías serán responsables legalmente de hacer análisis de riesgo de sus servicios, siguiendo las directrices difundidas este miércoles, que finalizarán en 2025, y en aplicación de la ley de Seguridad en Línea aprobada en 2023.
“Se les pedirá que nos los proporcionen y los examinaremos y nos aseguraremos de que sean adecuados, y luego deberán tomar medidas para resolver esos riesgos que detectaron”, declaró.
La directiva recordó que, de acuerdo con la nueva legislación, las compañías que incumplan estas normas serán denunciadas públicamente y se podría prohibir el uso de sus plataformas a los menores de 18 años.
Según los documentos publicados en la página web de Ofcom, además de estrictos controles de edad y algoritmos más seguros, se pedirá a las firmas tecnológicas sistemas de moderación interna efectivos para atajar el contenido negativo, que incluye también la incitación a trastornos alimenticios, violencia o abusos.
El regulador señala que lanzará una consulta adicional a finales de año sobre cómo se pueden utilizar herramientas automatizadas, incluida la inteligencia artificial, para detectar de forma proactiva contenido ilegal y dañino para los menores.
De interés: Condenan a ‘Iván Mordisco’ y mandos de disidencias de FARC por reclutamiento de menores
¡Síguenos en Facebook y Twitter para mantenerte informado con las mejores noticias!
EFE
