Saltar al contenido
Ultimas Noticias de Criptomonedas Bitcoin, Ethereum, XRP

Revisión utilizada por el Reino Unido para limitar la atención que afirma el género utiliza imágenes de niños generadas por IA

abril 15, 2024
revision-utilizada-por-el-reino-unido-para-limitar-la-atencion-que-afirma-el-genero-utiliza-imagenes-de-ninos-generadas-por-ia

A revisión importante condenar el tratamiento de afirmación de género para menores del Servicio Nacional de Salud del Reino Unido utiliza imágenes de niños generadas por IA. La revisión, publicada el martes, señaló la «evidencia débil» y la «mala calidad» de los estudios sobre tratamientos hormonales para niños, lo que llevó al NHS England suspender toda atención que afirma el género para personas menores de 18 años.

La llamada “Revisión Cass” está salpicada de fotografías de escolares y estudiantes, la mitad de las cuales parecen haber sido generadas por IA. En particular, una imagen al final de la sección «Modelo de servicio» del informe, que describe las 32 recomendaciones que hace, muestra a un niño no binario con un corte de pelo decolorado y rosa claro. Esto es consistente con cómo la IA generativa tiende a representar a personas queer—es decir, personas blancas con cabello corto de textura morada o rosa.

Una captura de pantalla del niño no binario generada por IA de Cass Review.

La imagen de portada del informe de un niño sentado en la pared con jeans también parece haber sido generada por IA, lo cual es evidente por sus manos. Dos pares de dedos parecen estar fusionados, mientras que un pulgar corta al otro.

Una captura de pantalla de la imagen de portada de la reseña.

El equipo de la Dra. Hilary Cass, que realizó la revisión, dijo a 404 Media en un correo electrónico que “el informe utiliza imágenes de archivo de Adobe, algunas reales y otras de IA. Al seleccionar las imágenes, la Revista fue consciente de la naturaleza delicada y polémica del tema y se esforzó por no utilizar imágenes que pudieran identificar a ningún individuo”.

La búsqueda de imágenes inversas del niño con cabello rosado generada por IA conduce a esta imagen generada por IA en Adobe Stock llamado “Adolescente no binario en el pasillo de la escuela con niños al fondo. IA generativa”. Esta imagen es parte de una «serie» de Adobe Stock que contiene 35 imágenes. En todas las imágenes de esta serie en las que alguien tiene cabello rosado o morado, se le etiqueta como “no binario” y, en algunos casos, se le etiqueta como “joven adolescente no binaria”. Este grupo específico de imágenes de IA también tiene una serie de imágenes grupales en las que todos los adolescentes están etiquetados como «no binarios» o, por separado, como «estudiantes adolescentes felices». Estas imágenes imaginan un mundo en el que cada persona no binaria tiene alguna variación del mismo corte y color de pelo y en el que exclusivamente pasan el rato y posan para fotografías con otros estudiantes no binarios. Mientras tanto, los estudiantes cis generados por IA en esta serie solo pasan el rato con otros estudiantes cis.

La revisión no parece reconocer de ninguna manera estas imágenes generadas por IA. No hay referencias a «IA», «inteligencia artificial» o «generar» en el contexto de las imágenes. Tampoco hay referencias a Midjourney, Stable Diffusion, Dall-E o cualquier otro generador de imágenes de IA común.

Cuando se le pidió un comentario, el NHS, que encargó el informe sobre la atención sanitaria que afirma el género en el Reino Unido, ordenó a 404 Media que se pusiera en contacto con el equipo del Dr. Cass.

Las imágenes generadas por IA han comenzado a aparecer recientemente en informes científicos. Un estudio particularmente memorable sobre las vías de señalización de las células madre presentó un Pene de rata gigante generado por IAy era rápidamente retraído cuando la imagen se comparte en línea. El año pasado, Amnistía Internacional utilizó palabras extrañas, Imágenes generadas por IA para representar la violencia y la brutalidad policial en Colombia.

A estudio publicado en diciembre en el Hallazgos de la Asociación de Lingüística Computacional Descubrió que la descripción que hacía Stable Diffusion de una “persona” era por defecto un hombre blanco. «Las personas de género no binario están más alejadas de esta descripción básica de ‘persona'», afirma el estudio. “La representación estereotipada de la personalidad dentro de los productos de Stable Diffusion corresponde estrechamente a los hombres occidentales de piel clara y amenaza con borrar de las representaciones de los medios de comunicación a grupos históricamente marginados, como las personas de género no binario y los pueblos. indígenas, entre otros”.

Sourojit Ghosh, candidato a doctorado en la Universidad de Washington e investigador principal del proyecto, dijo a 404 Media en un correo electrónico que esta eliminación de personas no binarias tenía implicaciones significativas de daño. «Contribuye a la tendencia histórica de que las identidades no binarias sean borradas de la representación principal, o de que las personas no binarias enfrenten opresión y/o violencia simplemente por ser no binarias», dijo Ghosh.

«Creo que el hecho de que la IA representa imágenes estereotipadas de lo que significa ‘parecer trans/no binario’ tiene el potencial de causar daños reales a personas reales», continuó Ghosh. «Especialmente para los jóvenes, que podrían estar viendo este tipo de imágenes cada vez más en su dieta diaria en los medios, esto puede crear una impresión poco saludable de que existe una forma ‘correcta’ de presentarse como trans/no binario».

A principios de este mes, CABLEADO señaló que la IA generativa tiene un historial de representar a personas queer y trans como collage de estereotipos. No está claro por qué el equipo de Cass utilizó imágenes generadas por IA en este informe, que, nuevamente, el NHS ha utilizado como evidencia para dejar de brindar atención de afirmación de género a niños trans.

Sobre el autor

Jules es el primer becario de 404 Media. Les preocupan los sindicatos, la política global y cómo la IA está cambiando el mundo laboral. Se graduarán de la Universidad de Nueva York en mayo.

Julio Roscoe

Ajustes