
PUNTOS IMPORTANTES:
- El crecimiento explosivo de las deepfakes plantea desafíos sin precedentes para la integridad de las elecciones en todo el mundo.
- Veinte empresas tecnológicas líderes, incluyendo Microsoft, Google y Amazon, se comprometen a combatir la desinformación electoral mediante IA.
- La industria busca establecer estándares técnicos y mecanismos de detección para identificar y contrarrestar contenido engañoso.
Un grupo de 20 empresas. tecnológicas líderes el anuncio viernes un compromiso conjunto para combatir la desinformación con IA en las elecciones de este año.
Entre ellos, Microsoft, Meta, Google, amazonas, IBM, Adobey el diseñador de chips brazosjunto con startups de inteligencia artificial como OpenAI, Anthropic, y Stability AI, y compañías de redes sociales como QuebrarTikTok y X.
Las plataformas tecnológicas se están preparando para un año crucial de elecciones en todo el mundo, afectando a más de cuatro mil millones de personas en más de 40 países. El auge del contenido generado por IA ha llevado a serias preocupaciones sobre la desinformación relacionada con las eleccionescon un aumento del 900% año tras año en la creación de deepfakes.
Desafío de las deepfakes en elecciones
La desinformación en las elecciones ha sido un problema mayor desde la campaña presidencial de 2016, cuando actores rusos encontraron formas baratas y fáciles de difundir contenido inexacto a través de plataformas sociales. Los legisladores están aún más preocupados hoy en día con el rápido aumento de la IA.
“Hay razón para una seria preocupación sobre cómo la IA podría ser utilizada para engañar a los votados en campañas. Es talentoso ver a algunas compañías unirse a la mesa, pero ahora mismo no veo suficientes especificaciones, por lo que probablemente necesitaremos legislación que establezca estándares claros.”
Josh Becker, senador estatal demócrata en California.
Mientras tanto, las tecnologías de detección y marca de agua utilizadas para identificar deepfakes no han avanzado lo suficientemente rápido. Por ahora, las compañías solo están acordando lo que equivale a un conjunto de estándares técnicos y mecanismos de detección.
Problemas y soluciones en la lucha contra la desinformación
Tienen un largo camino por recorrer para combatir eficazmente el problema, que tiene muchas capas. Los servicios que afirman identificar texto generado por IA, como ensayos, por ejemplo, han mostrado tener sesgo contra hablantes no nativos de inglés. Y no es mucho más fácil para imágenes y vídeos.
Incluso si las plataformas detrás de imágenes y videos generados por IA acuerdan incorporan cosas como marcas de agua invisibles y ciertos tipos de metadatos, hay formas de eludir esas de protección. Hacer capturas de pantalla incluso a veces puede engañar a un detector.
Además, las señales invisibles que algunas compañías incluyen en imágenes generadas por IA aún no han llegado a muchos generadores de audio y video.
Compromiso con la democracia
La noticia del acuerdo llega un día después de que el creador de ChatGPT, OpenAI, anunciara Sora, su nuevo modelo para video generado por IA. Sora funciona de manera similar a la herramienta de generación de imágenes IA de OpenAI, DALL-E. Un escribe una escena deseada y Sora devolverá un clip de vídeo en alta definición al usuario. Sora también puede generar clips de video inspirados en imágenes fijas, y extender videos existentes o llenar fotogramas faltantes.
Las compañías participantes en el acuerdo acordaron ocho compromisos de alto nivel, incluyendo evaluar los riesgos de los modelos, “buscar detectar” y abordar la distribución de dicho contenido en sus plataformas y proporcionar transparencia sobre esos procesos al público. Como con la mayoría de los compromisos voluntarios en la industria tecnológica y más allá, el comunicado especificó que los compromisos se aplican solo “donde son relevantes para los servicios que cada compañía proporciona”.
“La democracia se basa en elecciones seguras y protegidas” dijo Kent Walker, presidente de asuntos globales de Google, en un comunicado. El acuerdo refleja el esfuerzo de la industria para enfrentar la “desinformación electoral generada por IA que erosiona la confianza” añadido.
Christina Montgomery, jefa de privacidad y confianza de IBM, dijo en el comunicado que en este año clave electoral,
“Se necesitan medidas concretas y cooperativas para proteger a las personas y sociedades de los riesgos amplificados de contenido engañoso generado por IA”.