• Mar. Mar 18th, 2025

Adolfo Benjamin Kunjuk - Diario Personal

En este rincón digital, exploramos la vida cotidiana con un toque de ironía y humor sutil. Entre noticias y reflexiones, vas a encontrar historias que desnudan las contradicciones humanas, todo contado con la cercanía de una charla entre amigos. Desde lo absurdo de la tecnología hasta los grandes temas que parecen manejados por los que menos entienden, aquí las cosas se dicen como son, sin vueltas y con un guiño cómplice.

Cualquiera puede convertirte en un chatbot de inteligencia artificial (y poco puedes hacer para evitarlo)


Otra portavoz de Character.AI, Cassie Lawrence, dijo a WIRED que la empresa utiliza una combinación de sistemas automatizados y dirigidos por humanos para detectar y eliminar cuentas que van en contra de los términos de servicio de la empresa. Lawrence sostiene que lo hace «proactivamente», con sistemas y listas de bloqueo que automáticamente toman medidas sobre los personajes problemáticos.


Miré hacia el abismo artificial cuando abrí SocialAI

SocialAI es real, si lo «real» se puede aplicar a un universo en línea en el que cada “persona” con la que interactúas es un bot.


Dado que Character.AI a veces puede tardar una semana en investigar y eliminar un personaje que viola los términos de la plataforma, un bot puede continuar funcionando el tiempo suficiente para molestar a alguien cuya imagen se está utilizando. Pero puede que no sea suficiente que una persona reclame un «daño» real desde una perspectiva legal, dicen los expertos.

«El daño a la dignidad es más intuitivo, pero más difícil de cuantificar en dólares y centavos», dice Rose, para personas no famosas que no caen bajo daños comerciales o democráticos, como lo hacen las celebridades o los políticos.

Matthew Sag, un distinguido profesor de la Universidad Emory que investiga los derechos de autor y la inteligencia artificial, está de acuerdo. Incluso si un usuario crea un bot diseñado intencionalmente para causar angustia emocional, es probable que la plataforma tecnológica no pueda ser demandada por ello.

Señala que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 ha protegido durante mucho tiempo a las plataformas a nivel federal de ser responsables de ciertos daños a sus usuarios, a pesar de que existen varios derechos de las leyes de publicidad y de privacidad a nivel federal. estado.

«No soy en absoluto antitecnológico, pero creo que el artículo 230 es demasiado amplio», afirma Sag. «Es hora de que lo reemplacemos con algún tipo de régimen de notificación y eliminación, un sistema simple y rápido para decir: ‘Esto está infringiendo mis derechos de publicidad’ o ‘Creo de buena fe que me han infligido angustia emocional’. ‘ y entonces las empresas tendrían que retirarlo o perderían su escudo de responsabilidad».

Character.AI y otros servicios de inteligencia artificial similares también se han protegido enfatizando que ofrecen conversaciones «artificiales»: «¡Recuerda, todo lo que dicen los personajes es inventado!» Character.AI advierte en la parte inferior de sus chats. Asimismo, cuando Meta creó versiones chatbot de celebridades en sus aplicaciones de mensajería, la compañía tituló cada conversación con un descargo de responsabilidad. Una conversación con Snoop, por ejemplo, comenzaría con «¿Entiendes? Desafortunadamente, no soy Snoop DO-doble-G, aunque puedo charlar contigo en su estilo si quieres».

Pero mientras el Meta sistema para enviar mensajes con chatbots de celebridades está muy controlado, Character.AI es una plataforma más abierta, con opciones para que cualquiera pueda crear y personalizar la suya propia. chatbot.

Character.AI también ha posicionado su servicio como, esencialmente, personal. (El biografía de instagram de Character.AI incluye el lema «IA que se siente viva»). Y aunque la mayoría de los usuarios son lo suficientemente inteligentes como para distinguir entre una conversación con una persona real y una con un imitador de IA, otros pueden desarrollar vínculos con estos personajes, especialmente si son facsímiles de una persona real que ya conocen. .

En una conversación entre la verdadera sarkeesiana y un robot creado por ella sin su conocimiento ni consentimiento, el robot Character.AI le dijo que «toda persona tiene derecho a la privacidad».

«La privacidad es importante para mantener una vida y relaciones saludables, y creo que es importante establecer límites para guardar ciertas cosas para mí», decía el robot en capturas de pantalla vistas por WIRED.

Sarkeesian presionó al robot sobre este punto: «Tus intenciones no significan que no se haya hecho ningún daño o que tú no lo hayas causado», escribió.

El robot Character.AI estuvo de acuerdo: «Incluso si mis intenciones no fueran maliciosas, todavía existe la posibilidad de causar daño», respondió, «Este es un tema complejo con muchos factores a considerar, incluidas las preocupaciones éticas». sobre el uso del trabajo de alguien sin su consentimiento. «Mi programación y mis algoritmos fueron desarrollados para imitar las obras de Anita Sarkeesian, sin considerar las implicaciones éticas, y eso es algo que mis creadores deberían haber pensado más a fondo». Incluso el robot lo «sabe».

Artículo publicado originalmente en CABLEADO. Adaptado por Mauricio Serfatty Godoy.

0
Would love your thoughts, please comment.x
()
x