TENDENCIAS_ Twitter detecta que algoritmo tiende a recortar a personas afrodescendientes de las fotos

El algoritmo de recorte de imágenes de Twitter Inc tiene un sesgo problemático que lleva a la exclusión de personas afrodescendiente y a hombres, dijo la compañía en una nueva investigación el miércoles, y agregó que “cómo recortar una imagen” es una decisión que pueden tomar mejor las personas.

El estudio de tres de sus investigadores de aprendizaje automático se hizo luego de las críticas de usuarios el año pasado sobre vistas previas de imágenes en publicaciones que excluyen los rostros de personas afrodescendientes.

El informe encontró una diferencia del 8% con respecto a la paridad demográfica a favor de las mujeres y un 4% a favor de las personas blancas.

El documento citó varias razones posibles, incluidos problemas con los fondos de las imágenes y el color de los ojos, pero dijo que ninguna era una excusa.

“El recorte basado en el aprendizaje automático es fundamentalmente defectuoso porque elimina la voluntad del usuario y restringe la expresión del usuario de su propia identidad y valores, y a cambio impone una mirada normativa sobre qué parte de la imagen se considera más interesante”, escribieron investigadores.

Para contrarrestar el problema, Twitter comenzó recientemente a mostrar fotos de aspecto estándar en su totalidad, sin ningún recorte, en sus aplicaciones móviles y está tratando de expandir ese esfuerzo.

Los investigadores también evaluaron si los recortes favorecían los cuerpos de las mujeres antes que las cabezas, lo que refleja lo que se conoce como la “mirada masculina”, pero encontraron que no parece ser el caso.

Los hallazgos son otro ejemplo del impacto dispar de los sistemas de inteligencia artificial, incluidos los sesgos demográficos identificados en el reconocimiento facial y el análisis de texto, según el documento.

Un trabajo de investigadores de Microsoft Corp y el Instituto de Tecnología de Massachusetts en 2018 y un estudio posterior del gobierno de Estados Unidos encontraron que los sistemas de análisis facial identifican erróneamente a las personas de color con más frecuencia que a las personas blancas.

Amazon Inc descartó en 2018 una herramienta de reclutamiento con inteligencia artificial que mostraba prejuicios hacia las mujeres.

CON INFORMACIÓN VÍA EL ECONOMISTA

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s