OpenAI, Google, Meta, Microsoft y otras empresas abocadas al desarrollo de la inteligencia artificial se han comprometido a combatir las imágenes de abuso sexual infantil. La iniciativa, impulsada por Thorn y All Tech is Human, establece una nueva serie de principios que se aplicarán en el entrenamiento y funcionamiento de modelos de IA generativa.
Las empresas han asumido varios compromisos para evitar la creación y diseminación de imágenes de abuso sexual infantil. Para ello, tendrán que asegurarse que los datos usados para entrenar sus IA no incluyan ese tipo de fotografías, y eliminarlas en caso de hallarlas. Así mismo, deberán evadir el uso de datasets identificados como de alto riesgo de contener material de abuso infantil.
Además de impedir el uso de imágenes de abuso sexual infantil para entrenar sus IA generativas, las empresas tendrán que someter los modelos a rigurosas pruebas para demostrar que no las pueden crear. Thorn indica que, solo en EE. UU., más de 104 millones de archivos sospechados de incluir material de abuso sexual infantil fueron denunciados en 2023.
“La IA generativa hace que la creación de grandes volúmenes de contenido sea más fácil que nunca. La tecnología desbloquea la capacidad de un solo depredador infantil de crear rápidamente material de abuso sexual infantil (CSAM) a escala. Estos actores maliciosos pueden adaptar imágenes y vídeos originales en nuevo material de abuso, revictimizando a los niños en ese contenido, o manipular material infantil benigno para convertirlo en contenido sexualizado, o crear CSAM totalmente generado por IA”.Thorn.
normal
El compromiso ha sido firmado también por Amazon, Anthropic (Claude), Mistral AI, Stability AI (Stable Diffusion), Civitai, Metaphysic y Teleperformance. Algunas de estas empresas han brindado más detalles sobre la iniciativa para adoptar los principios de seguridad por diseño impulsados por Thorn y All Tech is Human. Además, se han comprometido a brindar actualizaciones anuales de transparencia.
Las imágenes de abuso sexual infantil, un gran problema en la era de la IA generativa
En el mundo de la inteligencia artificial generativa, no todo es color de rosas. La detección de imágenes de abuso sexual infantil en bancos de datos usados para entrenar modelos de IA ha causado consternación entre investigadores y activistas. En diciembre de 2023, expertos de la Universidad de Stanford hallaron más de 3.000 fotos de este tipo en una base de datos llamada LAION-5B. La misma se utilizaba para entrenar a la inteligencia artificial de Stable Diffusion, entre otras.
Que las principales referentes del sector de la IA generativa se comprometan a ser transparentes ante una temática tan delicada, no es menor. Habrá que ver si el compromiso se cumple a raja tabla. Después de todo, muchas empresas aún se niegan a brindar precisiones sobre de dónde obtienen la información con la que entrenan a sus modelos. OpenAI, por ejemplo, solo se ha limitado a decir que utiliza “datos disponibles públicamente”. Sin embargo, la startup está en la mira de múltiples demandas por supuesta violación de derechos de autor.
Impedir que las imágenes de abuso sexual infantil se hagan un lugar entre los datos de modelos de inteligencia artificial, no es tarea sencilla. Si bien muchas empresas aseguran usar filtros para que ese tipo de material, y otros igual de inapropiados, no llegue a sus modelos finales, es evidente que todavía no son suficientes.
El desafío de la transparencia
Expertos en la materia sostienen que mucha de la información ni siquiera se revisa antes de alimentarla a las IA. Otra investigación publicada en 2023 halló que entre los miles de sitios web usados para entrenar a modelos de Meta y Google había de pornografía y de contenidos transfóbicos, nazis y de supremacistas blancos.
“Instamos a todas las empresas que desarrollan, implementan, mantienen y utilizan tecnologías y productos de IA generativa a que se comprometan a adoptar estos principios de seguridad por diseño y demuestren su dedicación para prevenir la creación y propagación de material de abuso sexual infantil, imágenes de abuso sexual infantil creadas con IA generativa y otros actos de abuso y explotación sexual infantil”, concluyó Thorn.
CON INFORMACIÓN VÍA HIPERTEXTUAL