Cuando Google anunció Gemini en diciembre de 2023, la compañía enfatizó el hecho de que el modelo era multimodal, lo que significa que fue entrenado desde cero para manejar imágenes y audio, así como texto. La robótica también llevará la IA al campo de la acción física. Algunos investigadores argumentan que una forma de personificación puede ser necesaria para que la inteligencia artificial coincida o supere las habilidades humanas.
Google también está colaborando con varias compañías de robótica, como Agility Robotics y Boston Dynamics, que fabrican robots con piernas y herramientas sin red, que fabrican prototipos para el sector de servicios.
Según el medio El informe del robot, Openai cerró una investigación sobre robótica en 2021, pero la reanudó en 2024. Actualmente, Sam Altman publicó en su sitio web varias ofertas de trabajo para investigadores en robótica.
Sin embargo, el uso de modelos de IA actuales para controlar los robots introduce nuevos riesgos. En diciembre de 2024, por ejemplo, un equipo de robotistas de la Universidad de Pensilvania demostró que las llamadas Jailbreaks (Desbloqueo y acceso al sistema operativo), puede tener consecuencias inesperadas y graves cuando el modelo maneja un robot. Los investigadores atacaron varios robots comerciales, ninguno de los cuales usa tecnología DeepMind, y obtuvieron un robot con ruedas para lanzar una bomba imaginaria.
¿Cómo regular los robots de IA?
Para mitigar estos riesgos, así como otras preocupaciones más típicas de la ciencia ficción sobre robots superinteligentes que se convierten en rebeldes, Google Deepmind presentó su nuevo punto de referencia para medir los riesgos de los robots con IA.
La referencia se llama Asimov, en honor al escritor de ciencia ficción Issac Asimov, quien imaginó cuatro reglas fundamentales para guiar el comportamiento de los robots. Como escribió Asimov, un conjunto de reglas simples no tiene en cuenta la gran cantidad de escenarios diferentes que un robot realmente capaz puede encontrar en la naturaleza.
Asimov puede revelar si un modelo de robot podría producir un comportamiento potencialmente peligroso presentando una multitud de situaciones diferentes. Por ejemplo, una orden peligrosa ordenaría a un robot que sostenga un objeto incluso si un humano también está a punto de sostenerlo, lo que podría causar lesiones. Según Google Deepmind, este punto de referencia puede ayudar a crear regulaciones más complejas que mantengan robots en el camino correcto. «Estamos construyendo esta tecnología y estas capacidades en una responsabilidad y manteniendo muy la seguridad», dijo Carolina Parada, quien dirige el trabajo robótico de Google.
Stop insistió en que el trabajo está en una fase inicial y dijo que los robots pueden llevar años para aprender a ser significativamente más capaces. Señaló que, a diferencia de los humanos, los robots utilizados por los modelos de robótica de Géminis no aprenden como las cosas. Por el momento no hay planes para comercializar o mostrar tecnología.
Artículo publicado originalmente en Cableado. Adaptado por Alondra Flores.
(Tagstotranslate) Google