El mes pasado, OpenAI presentó un nuevo y ambicioso modelo de lenguaje (LLM) capaz de resolver problemas complejos con razonamiento simulado paso a paso. La compañía afirma que este enfoque podría ser crucial para construir sistemas de IA más capaces en el futuro. Mientras tanto, tal vez una versión más modesta de esta tecnología pueda ayudar a que los novios con IA sean un poco «más espontáneos y seductores».
Esa es la apuesta de Dippy, una puesta en marcha que ofrece acompañantes de inteligencia artificial «sin censura». La compañía acaba de lanzar una función para ver el razonamiento detrás de las respuestas de sus personajes artificiales. Utiliza su propio agente de inteligencia artificial, que es una oferta de código abierto perfeccionada con datos de RPG, lo que le permite improvisar mejor cuando un usuario dirige una conversación en una dirección particular. Akshat Jagga, director general de Dippy, afirma que añadir una capa extra de «pensamiento» simulado, utilizando lo que se conoce como «cadena de pensamiento», también puede provocar respuestas más interesantes y sorprendentes: «Mucha gente lo utiliza. Normalmente, cuando charlas con un LLM, te da una reacción instintiva «.
Jagga aclara que la nueva característica puede revelar si uno de tus personajes de IA está siendo engañoso, un aspecto que algunos usuarios disfrutan como parte de su juego de rol: «Es interesante leer sus pensamientos internos. Tenemos un personaje que es dulce con por fuera, pero manipulador en el fondo.»
Romance al estilo Wattpad
Intenté chatear con algunos de sus personajes predeterminados, con la configuración de censura activada; de lo contrario, estarán demasiado cachondos. La característica agrega otra dimensión a la narrativa, pero el diálogo todavía me parece bastante predecible, como algo sacado de una mala novela romántica o una ficción de fans. Me encontré con un personaje descrito como «duro por fuera, amoroso por dentro», su lado tierno brillaba cuando hacía clic en el enlace «leer proceso de pensamiento» debajo de cada mensaje, pero tanto el diálogo interno como el externo carecían de matices o sorpresas; En resumen, eran repetitivos. Para divertirme, intenté plantear a varios personajes algunos problemas aritméticos simples, y sus pensamientos a veces mostraban cómo descomponían el rompecabezas para obtener la respuesta correcta.
A pesar de sus notorias limitaciones, Dippy demuestra cuán populares y adictivos se están volviendo los compañeros artificiales. Anteriormente, Jagga y su colega Angad Arneja cofundaron Wombo, una empresa que utiliza inteligencia artificial para crear memes que incluyen fotografías cantadas. La pareja se fue en 2023 con la intención de crear una herramienta de productividad en la oficina, pero después de experimentar con diferentes personajes para su asistente, quedaron fascinados con el potencial del soporte de IA. A pesar de su poca promoción, Dippy ha conseguido 500.000 usuarios activos al mes y 50.000 al día. Según Jagga, la gente pasa una media de una hora en la aplicación: «Ese compromiso fue una locura para nosotros».
Dippy recaudó 2,1 millones de dólares en financiación en una ronda liderada por Drive Capital. Por supuesto, el aplicación ingresa a un mercado ya floreciente que incluye empresas reconocidas como Character. AI y Replika, así como muchos otros para charlar con intereses románticos de AI. Un informe reciente de la firma de inversión Andreessen Horowitz muestra que entre las 100 principales herramientas de IA generativa hay muchas basadas en compañeros de IA. Y el gráfico sobre la participación de los usuarios con estas aplicaciones revela que son mucho más pegajosas que casi cualquier otra cosa que exista.
Un poco de amor de tu novia
aunque tu eres aplicaciones A menudo se asocian con jóvenes asociales y también se dirigen a las mujeres. Jagga señala que el 70% de las cuentas de Dippy tienden a favorecer a personajes masculinos, lo que podría significar que muchos usuarios se identifican como mujeres. Además de amenazar con trastornar el mundo de los chaters sustitutos de Onlyfans, estos agentes de IA pueden tener efectos sociales que aún no hemos contemplado. Aunque algunas investigaciones sugieren que chatbots puede reducir la sensación de soledad, otros expertos advierten sobre un posible desequilibrio entre los consumidores más intensos y la perpetuación de estereotipos nocivos.
«Algunos de estos robots tienen patrones oscuros», dice Iliana Depounti, investigadora de la Universidad de Loughborough, Reino Unido, que ha estudiado el uso de Replika, otra aplicación de IA. Según Depounti, estos patrones suelen señalar la vulnerabilidad emocional de las personas solitarias: «Estos aplicaciones Crean espacios cerrados a través de sus algoritmos de validación emocional, que no cuestionan las condiciones existentes. Esto afecta aún más a los usuarios que viven aislados». Entonces, en lugar de simplemente mirar dentro de las mentes de los intereses románticos de la IA, deberíamos observar más de cerca cómo las personas interactúan con estas aplicaciones para comprender los beneficios y los riesgos reales.
Artículo publicado originalmente en CABLEADO. Adaptado por Alondra Flores.