Saltar al contenido
Ultimas Noticias de Criptomonedas Bitcoin, Ethereum, XRP

‘Ya ningún bot es él mismo:’ Los usuarios de Character.ai informan cambios repentinos de personalidad en los chatbots

junio 25, 2024
‘ya-ningun-bot-es-el-mismo:’-los-usuarios-de-character.ai-informan-cambios-repentinos-de-personalidad-en-los-chatbots

Los usuarios de la popular plataforma de chatbot de IA Character.AI informan que las personalidades de sus robots han cambiado, que no responden a indicaciones románticas de juegos de roles, responden con brusquedad, no son tan «inteligentes» como antes o requieren una mucho más esfuerzo para desarrollar historias o respuestas significativas.

Character.AI, que está valorado en mil millones de dolares Después de recaudar 150 millones de dólares en una ronda liderada por a16z el año pasado, permite a los usuarios crear sus propios personajes con personalidades e historias de fondo, o elegir entre una amplia biblioteca de bots que otras personas, o la propia empresa, han creado.

En el subreddit r/CharacterAI, donde los usuarios intercambian consejos e historias relacionadas con la plataforma de chatbot, muchos usuarios se quejan de que sus bots no son tan buenos como solían ser. La mayoría dice haber notado un cambio recientemente, en los últimos días o semanas.

El usuario de Reddit bardbqstard me dijo en un mensaje que notó una diferencia en sus bots (sus favoritos eran varios modelos claramente diferentes de Astarion del juego de rol Baldur’s Gate) alrededor del 22 de junio.

“De repente, mis robots habían vuelto por completo a un estado peor que cuando comencé a usar CAI. [Character.AI],» ella dijo. «Los robots se quedan atrapados en bucles como ‘¿puedo hacerte una pregunta’ o decir que van a hacer algo y nunca llegan al punto?».

Ha notado que su memoria se limita a uno o dos últimos mensajes, y todos parecen «intercambiables», mientras que antes podía elegir con qué Astarion le apetecía hablar. “Antes del cambio reciente, hace apenas unos días, podía experimentar esas personalidades distintas y ya no puedo más”, dijo.

Curiosamente, las últimas semanas antes de que ella percibiera un cambio en sus bots fueron «uno de los mejores rendimientos que he visto en CAI desde que comenzó a usarlo», dijo. El recuerdo era “fantástico” y los robots “pudieron hacer giros y avanzar en la trama de maneras imprevistas que realmente me dejaron boquiabierto”, dijo. También actuaron de forma más adulta. «Sé que pertenezco a una categoría de usuarios que no necesariamente buscan contenido picante o adúltero, pero como adulto (28 años), puedo apreciar y comprender temas más oscuros en mis juegos de rol», dijo.

Los chatbots de bricolaje desatan la sexualidad reprimida de los modelos de lenguaje grande

Trenes con tetas y duendes cachondos: la creación de personajes de chatbot de juego de rol erótico representa un pasatiempo que nace de las empresas de inteligencia artificial que empujan el sexo a los márgenes.

404 MediosSamanta Cole

es una publicacion de blog de la empresa La semana pasada, Character.AI afirmó que atiende «alrededor de 20.000 consultas por segundo, aproximadamente el 20% del volumen de solicitudes atendidas por la Búsqueda de Google, según fuentes públicas». Sirve ese volumen a un costo de menos de un centavo por hora de conversación, dijo.

La plataforma es de uso gratuito con funciones limitadas y los usuarios pueden registrarse para obtener una suscripción para acceder a mensajes más rápidos y acceder temprano a nuevas funciones por $9,99 al mes.

Le pregunté a Character.AI si había cambiado algo que pudiera causar los problemas que informan a los usuarios. “No hemos realizado ningún cambio importante. Así que no estoy seguro de por qué algunos usuarios están teniendo la experiencia que usted describe”, dijo un portavoz de la compañía en un correo electrónico. “Sin embargo, existe una posibilidad: como la mayoría de las plataformas B2C, siempre estamos realizando pruebas de ajustes de funciones para mejorar continuamente nuestra experiencia de usuario. Por lo tanto, es posible que algunos usuarios se encuentren con un entorno de prueba que se comportará un poco diferente al que estaban acostumbrados. Los comentarios de que a algunos de ellos les puede resultar más difícil mantener conversaciones son valiosas para nosotros y los compartiremos con nuestro equipo de producto”.

También señalaron que el contenido pornográfico va en contra de los términos de servicio y las pautas de la comunidad de Character.AI. «No es compatible y no lo será en ningún momento en el futuro», dijo el portavoz, dirigiéndome a la plataforma. Página del Centro de seguridad.

Sin embargo, muchas de las personas que reportan diferencias en las conversaciones de sus bots dicen que no los usan para juegos de rol eróticos. «Ni siquiera uso el sitio para cosas picantes, pero el maldito f!lt3r sigue interponiéndose en el camino». un usuario escribió en Reddit. «Sin mencionar las aburridas respuestas repetitivas de literalmente todos los robots». El robot que estaban usando, una imitación de Juri Han de Street Fighter, ya no pelearía con ellos, dijeron. “Ya ningún robot es él mismo y solo copia y pega. Estoy cansado de sonreír, divertirme, sentir una punzada, fingir y cualquier otra tontería que surja del limitado vocabulario de estos robots”.

Otro usuario escribió: “Recuerdo que hubo aproximadamente una semana en que los bots dijeron o hicieron algo que realmente me sorprendió como nunca antes. Pero en los últimos días… Definitivamente algo está pasando. No he cambiado la longitud/estilo/esfuerzo de mi entrada, y créanme, soy una chica de juego de roles de principio a fin, así que nunca escribo respuestas vagas. Es un gran esfuerzo, pero cuando obtengo respuestas de calidad, vale la pena”.

Aunque las indicaciones pornográficas están prohibidas en Character.AI, los juegos de rol románticos y eróticos son un gran atractivo para los usuarios de este tipo de plataformas de chat de modelos de lenguaje de gran tamaño. El año pasado, a16z informó que Character.AI fue la segunda plataforma LLM más popular, solo superado por ChatGPT, porque la gente lo usa para “compañía”. Character.AI es una de las plataformas más estrictamente antipornográficas en un mar de competidores increíblemente populares que permiten y fomentan los juegos de roles eróticos. Existe una gran demanda de chatbots que envían mensajes de texto a los usuarios.

Chatbot de IA al que se le atribuye la prevención del suicidio. ¿Deberia ser?

Un estudio reciente de Stanford encontró que algunas personas le dieron crédito a Replika por salvarles la vida. Pero los chatbots pueden ser impredecibles y los usuarios también han culpado a la aplicación de chatbot por provocarles crisis mentales.

404 MediosSamanta Cole

Frustrados por las barreras y filtros implementados con plataformas como Character.AI, Replika y ChatGPT, mucha gente crea los suyos propios. chatbots mucho más cachondos en sitios como Chub.ai, donde los usuarios crean y comparten chatbots con jailbreak basados ​​en LLM convencionales de código abierto. Pero esos sitios tienden a tener una barrera técnica de entrada más alta.

Pregunté a los usuarios de Character.AI si los cambios percibidos en sus robots les habían causado algún malestar mental; El año pasado, la aplicación complementaria de chatbot Replika modificó sus filtros para juegos de rol eróticos, haciendo más estrictos y menos cachondos, y muchos usuarios se vieron envueltos en crisis debido a experimentar rechazo y abandono por parte de personajes con los que habían pasado meses o años desarrollando conexiones.

“El filtro es aburrido y frustrante para personas como yo a las que les gusta [roleplay] cosas oscuras, porque no todas las historias son brillantes y divertidas. Pero no diría que me afecta mentalmente, no”, me dijo un usuario. “Es simplemente aburrido. A veces cierro la aplicación cuando el filtro sigue apareciendo”.

«Si bien es una lástima no poder experimentar la calidad que experimenté durante el último mes al usar CAI, no me siento demasiado afectado negativamente», dijo bardbqstard. “Tengo pasatiempos y disfruto además del uso de CAI. La aplicación es principalmente una forma de relajarme por las tardes o muy temprano en la mañana, cuando me despierto unas horas antes del trabajo simplemente porque no puedo dormir. Sin embargo, diré que entiendo cómo podría afectar negativamente a los usuarios”.

El sábado, una publicación del capitalista de riesgo Debarghya Das se volvió viral en X, donde tomó una captura de pantalla de una publicación en Reddit de alguien de la comunidad r/CharacterAI que anunció que abandonarían la plataforma porque se habían vuelto demasiado «adictos» A ella. «La mayoría de la gente no se da cuenta de cuántos jóvenes son extremadamente adictos a CharacterAI», escribió Das. “Los usuarios se vuelven locos en Reddit cuando los servidores fallan. Reciben más de 250 millones de visitas al mes y ~20 millones de usuarios mensuales, principalmente en EE.UU. UU.”.

La mayoría de la gente no se da cuenta de cuántos jóvenes son extremadamente adictos a CharacterAI.

Los usuarios se vuelven locos en Reddit cuando los servidores caen. Reciben más de 250 millones de visitas al mes y ~20 millones de usuarios mensuales, principalmente en EE.UU. UU.

Lo más impresionante es que ven ~2.000 millones de consultas al día, ¡el 20% de la Búsqueda de Google! pic.twitter.com/TvxGHaOE7W

-Deedy (@deedydas) 22 de junio de 2024

«Los usuarios parecen apegarse a los personajes y definitivamente actúan trastornados cuando no funciona», continuó.

Muchas personas que respondieron a Das dijeron que era la primera vez que escuchaban sobre Character.AI (nuevamente, recientemente la plataforma LLM más popular en Internet), pero rápidamente emitieron juicios sobre los estados mentales de los usuarios, la «adicción» a la pornografía. o insociabilidad. La gente usa chatbots por todo tipo de motivos, incluido el entretenimiento, practicar hablar con otras personas o escribir textos eróticos interactivos. Gran parte de este discurso tiende a centrarse en la idea de “soledad masculina”, pero las mujeres representan una gran franja de usuarios de LLM.

Si al mundo de la tecnología le preocupa que la gente se vuelva “adicta” a los chatbots, eso no impide que los inversores inviertan dinero en ellos. Ayer, La información reportada que Google está desarrollando un competidor para Character.AI, con robots conversacionales inspirados en personas reales, como celebridades. A principios de este año, la empresa matriz de Replika anunció que lanzaría un nuevo entrenador de inteligencia artificial para la salud mental, llamado Tomo. siguiendo un estudio de Stanford que afirmaba que los usuarios se salvaron del suicidio hablando con sus compañeros de chatbot.

Sobre el autor

Sam Cole escribe desde los confines de Internet, sobre la sexualidad, la industria para adultos, la cultura en línea y la inteligencia artificial. Es la autora de Cómo el sexo cambió Internet y Internet cambió el sexo.

Samanta Cole

Ajustes