
Microsoft ha estado dando a los usuarios acceso a un modelo de análisis de imágenes basado en inteligencia artificial que afirma ser capaz de detectar el género de una persona, años después de prometer que retiraría la tecnología.
Microsoft anunció que eliminaría gradualmente el acceso a herramientas de análisis facial que afirman poder detectar la edad, las emociones y el género de una persona en 2022. Esta tecnología, y específicamente las herramientas de clasificación de género, han sido criticadas por ser a menudo incorrectas y particularmente dañinas para las personas transgénero.
«El acceso de API a capacidades que predicen atributos sensibles también abre una amplia gama de formas en que se pueden utilizar indebidamente, incluido someter a las personas a estereotipos, discriminación o denegación injusta de servicios». Microsoft dijo en ese momento. “Para mitigar estos riesgos, hemos optado por no admitir un sistema de propósito general en Face API que pretende inferir estados emocionales, género, edad, sonrisa, vello facial, cabello y maquillaje. La detección de estos atributos ya no estará disponible para nuevos clientes a partir del 21 de junio de 2022, y los clientes existentes tienen hasta el 30 de junio de 2023 para dejar de usar estos atributos antes de que se retire”.
404 Media se enteró de que Microsoft todavía proporcionaba la herramienta de detección de género de Ada Ada Adauna artista algorítmica cuya práctica implica procesar fotografías de ella misma a través de una variedad de importantes herramientas de análisis de imágenes de IA y sitios de redes sociales. Ada Ada Ada me dijo que configuró la versión 3.2 de la API de análisis de imágenes de Microsoft para detectar su edad y género en función de sus fotografías a principios de 2022, antes de que Microsoft anunciara que retiraría la detección de género. Su acceso continuo a la herramienta demostró que Microsoft nunca la desactivó, y Microsoft no sabía que las personas todavía podían acceder a la herramienta hasta que me comuniqué para hacer comentarios.
Microsoft dijo que la API de análisis de imágenes más reciente (4.0), que se encuentra en versión preliminar pública, no tiene capacidades de detección de edad o género y que Microsoft ha desaprobado la función de edad y género en versiones anteriores de la API y ningún nuevo cliente debería tener acceso. a esas características. Sin embargo, Microsoft dijo que si bien la versión 3.2 de Image Analysis sigue estando disponible de forma generalizada, los clientes no deberían haber tenido acceso a la función obsoleta de edad y género. Microsoft dijo que después de que me puse en contacto para hacer comentarios, llegó a la conclusión de que un error provocó que una cantidad muy pequeña de aplicaciones de clientes conservaran su acceso a la funcionalidad de edad y género. Microsoft dijo que está tomando medidas inmediatas para corregir esto y eliminar el acceso a estas funciones.
💡
¿Sabes algo más sobre las herramientas de inteligencia artificial de Microsoft? Me encantaría saber de usted. Usando un dispositivo que no sea de trabajo, puedes enviarme un mensaje de forma segura en Signal a emanuel.404, o enviarme un correo electrónico a emanuel@404media.co.
«Mi problema con esto siempre ha sido que Microsoft logró obtener una buena prensa inmerecida al afirmar que retirarían estos servicios, citando preocupaciones éticas», me dijo Ada Ada Ada. “Tengo la impresión de que nadie realmente se tomó su tiempo para asegurarse de que esta tecnología dañina fuera realmente retirada. No les importó que en realidad quedara fuera de servicio en el momento en que dijeron que lo harían. Lo que importaba era simplemente que pudieran cosechar los frutos de esa buena prensa, por lo que solo se preocuparían por el acceso de nuevos usuarios, no por el acceso de los clientes existentes. Si no fuera por haberles informado sobre este asunto, probablemente habría estado disponible durante años”.
«Creo que este tema refleja muchas conversaciones corporativas en torno a la ‘IA ética'», añadió. “Las empresas de IA afirman seguir estos vagos principios, pero en realidad no ofrecen a ningún investigador, periodista o incluso artista los medios para seguirlos adecuadamente. Sólo tenemos que hablar de su palabra”.
«En realidad, no se puede distinguir el género de una persona a partir de su apariencia física», escribió para Os Keyes, un investigador de la Universidad de Washington que ha escrito mucho sobre el reconocimiento automático de género (AGR). Lógica en 2019. “Si lo intentas, terminarás lastimando trans y personas que no se ajustan al género cuando invariablemente no coinciden con su idea normativa de cómo ‘luce’ el género”.
“Esto es exactamente lo que esperaba cuando [Microsoft] lo implementó [gender detection] Punto final”, me dijo Keyes en un correo electrónico. “La forma en que muchas empresas, particularmente las grandes como Microsoft, desarrollan e implementan tecnologías hace inevitable que las responsabilidades pasen desapercibidas. Quizás si el equipo ejecutivo hubiera dedicado menos tiempo a despedir empleados ya vender productos de IA generativa que no funcionan, podrían tener la continuidad y confiabilidad del personal y los procesos para hacer pequeñas cosas como ‘controlar sus propios productos’”.
Access Now, una organización digital sin fines de lucro de derechos civiles, también realizó una campaña prohibir los clasificadores de género basados en IA en la Unión Europea.
Sobre el autor
Emanuel Maiberg está interesado en comunidades poco conocidas y procesos que dan forma a la tecnología, los alborotadores y los pequeños problemas. Envíele un correo electrónico a emanuel@404media.co