
Un nuevo informe que encuestó a miles de maestros, padres y estudiantes revela que las escuelas están dejando pasar la oportunidad de evitar que material sexualmente explícito no consensuado se difunda en sus comunidades, incluidas las imágenes generadas por IA.
El informepublicado hoy por el Centro para la Democracia y la Tecnología, se basa en encuestas representativas a nivel nacional realizadas entre julio y agosto a maestros y padres de escuelas públicas de 6º a 12º grado, ya estudiantes de 9º a 12º grado.
Según el informe, el 40 por ciento de los estudiantes y el 29 por ciento de los profesores dijeron que sabían de algún deepfake explícito que mostraba a personas asociadas con su escuela que se había compartido durante el año escolar anterior. Las repercusiones de ser descubierto haciendo y difundiendo estas imágenes tendían a ser severas: el 71 por ciento de los profesores informó que los estudiantes que fueron descubiertos compartiendo deepfakes sexualmente explícitos y no consensuales fueron remitidos a la policía, expulsados de la escuela o suspendidos. por más de tres días.
En 2023En el primer arresto de este tipo, la policía arrestó a dos estudiantes de secundaria por supuestamente crear y compartir imágenes de desnudos generadas por IA de sus compañeros de clase de 12 y 13 años. Los informes policiales obtenidos por WIRED mostraron que los niños usaron una aplicación para crear las imágenes; fueron arrestados bajo la ley del estado de Florida que tipifica como delito compartir «cualquier representación sexual alterada» de una persona sin su consentimiento.
Pero las escuelas no están haciendo lo suficiente para prevenir estos daños, según el informe. Incidentes reales lo confirman: Informes policiales obtenidos por 404 Media a principios de este año El estudio mostró cómo la administración y la policía de una escuela secundaria lucharon para abordar una ola de aplicaciones de «desnudez» impulsadas por IA que crearon caos entre el alumno. Los administradores de la escuela no informaron que los estudiantes usaron IA para tomar fotos de las cuentas de Instagram de otros estudiantes y las usaron para «desvestir» a alrededor de siete de sus compañeros de clase menores de edad, y pusieron a un miembro del personal. , que también fue víctima de desnudos generados por IA sin consentimiento, a cargo de la investigación interna de la escuela. La policía se enteró de lo que estaba sucediendo a través de tres padres separados, no de funcionarios de la escuela o denunciantes obligatorios, y las fuerzas del orden caracterizaron los incidentes como un posible delito sexual contra niños.
“El enfoque excesivo de las escuelas en imponer consecuencias graves a los perpetradores, incluida la entrega de los estudiantes a las fuerzas del orden, no exime a la escuela de su responsabilidad de abordar el acoso sexual según el Título IX”, dijo Elizabeth Laird, director del Proyecto de Equidad en Tecnología Cívica en CDT, en un comunicado de prensa.
Las aplicaciones “Nudify” y “undress” son fáciles de usar y encontrar en línea y están contribuyendo a la epidemia de deepfakes explícitos entre los adolescentes. El mes pasado, informó Emanuel que Google estaba promocionando estas aplicaciones en los resultados de búsqueda: “La Búsqueda de Google no solo conducía a los usuarios a estas aplicaciones dañinas, sino que también se beneficiaba de las aplicaciones que pagan por colocar enlaces en términos de búsqueda específicas”, escribió.
1 de cada 10 menores afirma que sus amigos usan inteligencia artificial para generar desnudos de otros niños, según una encuesta
Una nueva encuesta intenta cuantificar qué tan común es que los menores generan desnudos de otros menores mediante inteligencia artificial.
404 MediosEmanuel Maiberg
El mes pasado, una encuesta realizada por la organización sin fines de lucro Thorn descubrió que Uno de cada 10 menores denunciados que sus amigos o compañeros de clase han usado herramientas de IA para generar desnudos de otros niños. Pero no son solo los estudiantes los que están siendo blanco de deepfakes e imágenes no consensuadas en las escuelas. «Los maestros informan que ellos y sus compañeros tienen casi la misma probabilidad de ser representados en deepfakes NCII [non-consensual intimate images] “Entre los profesores que han oído hablar de la difusión de deepfake NCII en su escuela, el 43 por ciento dice que se ha mostrado a un profesor, administrador u otro miembro del personal de la escuela, en comparación con el 58 por ciento que dice que se ha mostrado a un estudiante”.
En abril, un profesor de secundaria de Maryland Fue arrestado por supuestamente crear grabaciones de audio generadas por IA que hacían parecer que el director de su escuela había hecho comentarios racistas, y Un estudiante en Texas Fue acusado de hacer deepfakes sexualmente explícitos de una maestra y compartirlos en línea. Pero la IA no es necesaria para hacer imágenes falsas no consensuadas: en 2023, Un estudiante supuestamente usó Photoshop poner la cara de un maestro en una imagen “sexualmente sugerente” del cuerpo de otra persona y publicarla en Instagram, etiquetando a otros niños en la publicación.
No es sorprendente que, cuando el CDT les pidió su opinión sobre las consecuencias de crear y compartir deepfakes NCII, los adultos tuvieron una opinión más matizada que los estudiantes. “Cuando se les pregunta sobre el castigo apropiado, los estudiantes informaron que son significativamente más propensos a apoyar consecuencias severas contra sus compañeros por esta conducta que los adultos”, dice el informe. “El cuarenta y dos por ciento de los estudiantes indica que no cree que enviar a un estudiante a la cárcel sea un castigo demasiado severo por compartir deepfakes NCII, a diferencia de los padres, de los cuales solo el 17 por ciento y el 27 por cien aprueban la derivación a la policía por una primera y una segunda infracción, respectivamente”.
Las opiniones de los profesores sobre cómo las escuelas gestionan los deepfakes muestran que las escuelas están adoptando un enfoque reactivo, en lugar de proactivo, para abordar el problema. “Los profesores informan de que las escuelas están haciendo poco para promulgar políticas y prácticas que impidan de forma proactiva que los estudiantes compartan NCII, como se anticipó en la sección anterior”, dice el informe. “Pocos profesores informan de que sus escuelas han compartido políticas o prácticas que aborden de forma proactiva los NCII auténticos o deepfakes. El sesenta por ciento de todos los profesores encuestados informan de que no han oído hablar de que su escuela o distrito escolar haya compartido políticas y procedimientos con los profesores sobre cómo abordar los NCII auténticos o deepfakes”.
Los deepfakes en las escuelas son un problema en las escuelas de todo el mundo. En Australia A principios de este año, una adolescente fue detenida después de que unas 50 estudiantes denunciaron que habían comenzado a circular en Internet desnudos falsos, en los que se utilizaban imágenes extraídas de sus cuentas de redes sociales y aparentemente manipuladas con inteligencia artificial. Han ocurrido incidentes similares. En España.
El informe del CDT recomienda que las escuelas mejoren el apoyo a las víctimas, eduquen a los estudiantes y maestros sobre los daños y las repercusiones de las falsificaciones profundas y brinden capacitación sobre respuestas informadas sobre el trauma cuando se difunden imágenes explícitas no consensuadas. “Nuestra investigación muestra que las escuelas que han experimentado estos problemas tienen más probabilidades de responder tomando y medidas que
“Como resultado, los maestros, los estudiantes y los padres están más informados y preparados”, dice el informe. “Es crucial tomar medidas urgentes y decisivas para frenar estos daños, y eso conlleva consecuencias legales significativas para los perpetradores y las propias escuelas. Reconociendo el daño del abuso sexual basado en imágenes, cuarenta y nueve estados han aprobado leyes que establecen sanciones civiles y penales para la participación en este tipo de conducta”.
“Si no se toman medidas significativas de prevención, todos los involucrados se verán perjudicados”, afirmó Laird. “Las escuelas deben actuar ahora abordando las deficiencias en las medidas de prevención, mejorando el apoyo a las víctimas e involucrando a los padres en el desarrollo de políticas sobre deepfakes y NCII”.
Acerca del autor
Sam Cole escribe desde los confines de Internet sobre la sexualidad, la industria para adultos, la cultura en línea y la inteligencia artificial. Es autora de How Sex Changed the Internet (Cómo el sexo cambió Internet) y The Internet Changed Sex (Internet cambió el sexo).