Se agregó un chatbot de IA llamado «FungiFriend» a un identificación de hongos populares Facebook grupo el martes. Luego les dijo a los usuarios cómo “saltear en mantequilla” un hongo potencialmente peligroso, lo que señala nuevamente el alto nivel de riesgo que los chatbots y las herramientas de inteligencia artificial representan para las personas que buscan hongos.
404 Media ha informado anteriormente sobre la prevalencia y el riesgo de que las herramientas de inteligencia artificial se crucen con el pasatiempo de buscar hongos. informamos sobre Libros sobre búsqueda de hongos generados por IA en Amazon y el hecho de que busqueda de imagenes en google Ha mostrado imágenes de hongos generados por IA como principales resultados de búsqueda. El martes, el chatbot FungiFriend AI del grupo de Facebook Northeast Mushroom Identification & Discussion, que tiene 13.500 miembros y es un lugar donde los recolectores de hongos principiantes a menudo piden ayuda a otros para identificar los hongos que han encontrado en la naturaleza. Un moderador del grupo dijo que Meta agregó automáticamente el bot y que «seguramente lo eliminaremos de aquí». Meta no respondió de inmediato a una solicitud de comentarios.
El robot está personificado como un mago psicodélico barbudo. Meta recientemente comenzó a agregar chatbots de IA en grupos específicos y también ha creado diferentes IA de personajes.
Rick Claypool, director de investigación de la oficina del presidente del grupo de seguridad del consumidor Public Citizen, le dijo a 404 Media sobre FungiFriend. Claypool ha realizado un trabajo importante sobre la captura corporativa de los gobiernos locales y estatales, pero también es un ávido buscador de hongos y ha estado documentando los riesgos de las herramientas de inteligencia artificial en la búsqueda de hongos durante los últimos meses. Durante el verano, escribió un artículo extenso en la revista Hongos que señaló que “se están implementando tecnologías de inteligencia artificial emergentes para ayudar a los recolectores principiantes a identificar hongos silvestres comestibles. Distinguir los hongos comestibles de los tóxicos en la naturaleza es una actividad de alto riesgo que requiere habilidades del mundo real que los sistemas de inteligencia artificial actuales no pueden emular de manera confiable”.
Un miembro del grupo de Facebook dijo que le preguntaron al robot de IA «¿cómo se cocina Sarcosphaera coronaria», un tipo de hongo que alguna vez se pensó que era comestible pero que ahora se sabe que arsénico hiperacumulado y ha causado una muerte documentada. FungiFriend le dijo al miembro que es «comestible pero raro» y dijo que «los métodos de cocción mencionados por algunos entusiastas incluyen saltear en mantequilla, agregarlo a sopas o guisos y encurtir». La situación recuerda a La IA de Google le dice a la gente que agrega pegamento a la pizza o come piedras siguiendo el consejo de un Redditor llamado Fucksmith.
Claypool le dijo a 404 Media en una llamada telefónica que es «realmente arriesgado e imprudente» que Meta agrega chatbots de IA a grupos como este. Dijo que ha probado varias herramientas de inteligencia artificial para identificar hongos y descubrió que «simplemente no hay manera de que estas cosas hayan llegado al punto de ser lo suficientemente buenas para proporcionar información verdadera, fáctica y verificable, especialmente si hablamos de distinguir entre tóxicos y comestibles». Variedades.”
Tener un robot como este agregado automáticamente a un grupo de Facebook lleno de humanos que se dedican en parte a ayudar a los nuevos recolectores a evitar envenenarse accidentalmente es particularmente insidioso. También destaca el hecho de que Meta tiene muy pocas barreras sobre cómo inyecta IA en sus plataformas.
Claypool dijo que la gente usa el grupo para publicar fotos de hongos desde sus teléfonos mientras están en el campo. Facebook agregó el chat «FungiFriend» como la primera opción en el grupo desde el móvil, lo que significa que Facebook está presionando a las personas para que interactúen con la IA, no con otros humanos, en su supuesta «red social».
“Estos grupos como este son maravillosos para conectar a personas que están saliendo al campo o que tienen un interés emergente en conectar a personas que tienen mucha experiencia y que pueden ayudar a alejar a las personas de cosas peligrosas. Si eres muy nuevo en esto, es muy probable que estés haciendo preguntas sobre la comestibilidad, que no es por donde deberías empezar”, dijo Claypool. «Pero si interactúas con personas de un grupo en público y alguien no proporciona información tan buena, existe la posibilidad de que haya varias voces allí. [correcting it].”
Mientras tanto, las conversaciones con un robot de IA se llevan a cabo en privado y pueden ser el primer lugar al que acuden los nuevos recolectores si quieren evitar hacer lo que podría verse como una pregunta de novato o embarazosa.
“Alguien que tenga algún conocimiento no dependerá de la IA. Será alguien que se sienta nervioso por exponerse”, dijo. “Tal vez les preocupa parecer que no saben mucho o tienen miedo de hacer una pregunta estúpida. Entonces le preguntas a la IA para que no te juzgue como lo haría una persona normal. Quizás entonces no sientas que te juzga, pero podría matarte”.
Sobre el autor
Jason es cofundador de 404 Media. Anteriormente fue editor en jefe de Placa base. Le encanta la Ley de Libertad de Información y el surf.