Reuters.- La agencia de las Naciones Unidas para la infancia, UNICEF, pidió a los países que penalicen la creación de contenidos de abuso sexual infantil generados por inteligencia artificial (IA), afirmando que le alarmaban los informes sobre el aumento del número de imágenes creadas con IA que sexualizan a los niños.
La agencia también instó a los desarrolladores a implementar enfoques de seguridad desde el diseño y medidas de protección para evitar el uso indebido de los modelos de IA. UNICEF dijo que las empresas digitales deben impedir la circulación de estas imágenes reforzando la moderación de contenidos con inversiones en tecnologías de detección.
“El daño causado por el abuso de los deepfake es real y urgente. Los niños no pueden esperar a que la ley se ponga al día”, dijo UNICEF en un comunicado. Los deepfake son imágenes, vídeos y audios generados por IA que imitan de forma convincente a personas reales.
Te podría interesar
-
Educación
La foto Unicef del año es una niña estudiando en Afganistán, donde no podrá ir a la secundaria
-
Crisis en África
Van más de 100 mil niños desplazados en diciembre por el recrudecimiento del conflicto en el Congo: Unicef
UNICEF también expresó su preocupación por el uso de la IA para quitar o alterar la ropa en las fotos con el fin de crear imágenes falsas de desnudos o sexualizadas. Según UNICEF, al menos 1,2 millones de niños de 11 países revelaron que sus imágenes habían sido manipuladas para crear deepfake sexualmente explícitos durante el último año.
Gran Bretaña anunció el sábado que planea ilegalizar el uso de herramientas de IA para crear imágenes de abuso sexual infantil, convirtiéndose en el primer país en hacerlo.
En los últimos años ha aumentado la preocupación por el uso de la IA para generar contenidos de abusoinfantil, en particular los chatbots como Grok de xAI, propiedad de Elon Musk, que ha sido objeto de escrutinio por producir imágenes sexualizadas de mujeres y menores.
Una investigación de Reuters descubrió que el chatbot seguía generando las imágenes pese a que los usuarios advertían explícitamente de que los sujetos no habían dado su consentimiento.
xAI declaró el 14 de enero que había restringido la edición de imágenes para los usuarios de Grok AI y bloqueado a los usuarios, en función de su ubicación, para que no generaran imágenes de personas con ropa reveladora en “jurisdicciones donde es ilegal”. No identificó los países.
Antes, había limitado el uso de las funciones de generación y edición de imágenes de Grok solo a los suscriptores de pago.
