La gente está utilizando el popular generador de vídeos de IA Runway para hacer que los vídeos reales de asesinatos parezcan sacados de uno de los dibujos animados. Minions películas y subirlas a plataformas de redes sociales donde obtengan millas de visitas antes de que las plataformas puedan detectarlas y eliminarlas. Este método de edición de IA parece dificultar que las principales plataformas moderen videos infamemente gráficos que antes solo se podía encontrar en los rincones más oscuros de Internet.
La práctica, que la gente ha llegado a llamar “Minion Gore” o “videos de Minion AI” comenzó a ganar popularidad a mediados de diciembre, y aunque 404 Media ha visto plataformas de redes sociales eliminar muchos de estos videos, al momento de escribir este artículo hemos visto ejemplos de videos extremadamente violentos de Minion Gore alojados en YouTube, TikTok, Instagram y X, que no fueron detectados hasta que nos comunicamos con estas plataformas para hacer comentarios.
Específicamente, al comparar las ediciones de Minion Gore con los videos originales, pude verificar que TikTok estaba presentando un video Minionfied de Ronnie McNutt, quien transmitió en vivo su suicidio en Facebook en 2020, pegándose un tiro en la cabeza. Instagram todavía presenta un clip de Minionfied del tiroteo en la mezquita de Christchurch en Nueva Zelanda en 2019, en el que un hombre se transmitió en vivo matando a 51 personas. También he visto otros videos de Minion Gore cuyos materiales originales no pude localizar, pero parecen incluir otros videos de ejecuciones públicas, imágenes de guerra del frente en Ucrania y accidentes laborales en sitios de construcción.

La gran mayoría de estos videos, incluidos los videos de Minion Gore del tiroteo en Christchurch y el suicidio de McNutt, incluyen una marca de agua Runway en la esquina inferior derecha, lo que indica que fueron creados en su plataforma. Los vídeos parecen utilizar la tecnología de la empresa. Gen-3 “vídeo a vídeo” herramienta, que permite a los usuarios cargar un vídeo que luego pueden modificar con IA generativa. Probé la versión gratuita de la herramienta de video a video de Runway y pude Minionificar un video que subí a la plataforma escribiendo un mensaje de texto pidiéndole a Runway que «haga que el clip parezca una de las películas animadas de los Minions».
Runway no respondió a una solicitud de comentarios.
💡
¿Sabes algo más sobre estos vídeos? Me encantaría saber de usted. un dispositivo que no sea de trabajo, puedes enviarme mensajes usando de forma segura en Signal en emanuel.404. De lo contrario, envíame un correo electrónico a emanuel@404media.co.
He visto varios ejemplos de TikTok eliminando videos de Minion Gore antes de comunicarme con la compañía para hacer comentarios. Por ejemplo, todos los vídeos violentos de TikTok incluidos en el Conoce tu meme El artículo sobre Minion Gore ya ha sido eliminado. Sin embargo, como señala el mismo artículo de Know Your Meme, una primera instancia del vídeo de Minion Gore sobre el suicidio de McNutt obtuvo más de 250.000 visitas en sólo 10 días. También encontré otra versión del mismo video que se volvió a subir a TikTok a mediados de diciembre y que no se eliminó hasta que me comuniqué con TikTok para hacer comentarios el martes.
TikTok me dijo que elimina cualquier contenido que viole sus Pautas de la comunidadindependientemente de si fue alterado con IA. Esto, dijo TikTok, incluye sus políticas que prohíben «odioso contenido así como contenido sangriento, espantoso, inquietante o extremadamente violento.» TikTok también dijo que ha estado tomando proactivas para eliminar contenido dañino generado por IA que viola sus políticas, que está actualizando continuamente sus reglas de detección para medidas para contenido generado por IA a medida que evoluciona la tecnología, y que cuando se le informa sobre un video sintético clip que se difunde en línea y viola sus políticas, crea reglas de detección para detectar automáticamente y tomar medidas sobre versiones similares de ese contenido.
Las principales plataformas de Internet crean «hashes» únicos, una cadena única de letras y números que actúa como una huella digital para videos en función de su apariencia, para videos conocidos que violan sus políticas. Esto permite que las plataformas detecten y eliminen automáticamente estos videos o impidan que se carguen en primer lugar. TikTok no respondió preguntas específicas sobre si las ediciones de Minion Gore de videos violadores conocidos pasarían por alto este tipo de método de moderación automatizado. En 2020, Sam y yo mostramos que este tipo de moderación automatizada se puede evitar incluso con ediciones simples de videos infractores con hash.
«En la mayoría de los casos, el hash/huellas dactilares actuales no puede detectar de manera confiable estas variantes», dijo Hany Farid, profesor de UC Berkeley y uno de los principales expertos del mundo en imágenes manipuladas digitalmente y desarrollador de PhotoDNA, uno de los sistemas de imágenes más utilizados. tecnologías de identificación y filtrado de contenidos, me dijo en un correo electrónico. “Comenzando con el contenido infractor original, sería posible que las plataformas crearan estas variaciones de minions, las tomaran con hash/huellas dactilares y agregaran esas firmas a la base de datos. La eficacia de este enfoque dependerá de la solidez del algoritmo hash y de la capacidad de imitar fielmente el contenido producido por otros. Y, por supuesto, esto sería un problema de golpear al topo, ya que los creadores reemplazarán a los minions con otros personajes de dibujos animados”.
De hecho, esto ya está sucediendo. He visto un video de las ejecuciones de ISIS y el suicidio de McNutt publicado en Twitter, que también fue modificado con Runway, pero en lugar de convertir a las personas en el video en Minions, se convirtió en Santa Claus. También hay varios videos diferentes de Minion Gore con el mismo contenido violento, por lo que, en teoría, un hash de una versión no resultará en la eliminación automática de otra. Debido a que Runway aparentemente no impide que las personas utilicen sus herramientas para editar videos notoriamente violentos, esto crea una situación en la que las personas pueden crear fácilmente versiones infinitas y ligeramente diferentes de esos videos y subirlos a Internet.
YouTube reconoce nuestra solicitud de comentarios, pero no los proporcionó un tiempo para su publicación. Instagram y X no respondieron a una solicitud de comentarios.
Sobre el autor
Emanuel Maiberg está interesado en comunidades poco conocidas y procesos que dan forma a la tecnología, los alborotadores y los pequeños problemas. Envíele un correo electrónico a emanuel@404media.co