• Sáb. May 24th, 2025

Adolfo Benjamin Kunjuk - Diario Personal

En este rincón digital, exploramos la vida cotidiana con un toque de ironía y humor sutil. Entre noticias y reflexiones, vas a encontrar historias que desnudan las contradicciones humanas, todo contado con la cercanía de una charla entre amigos. Desde lo absurdo de la tecnología hasta los grandes temas que parecen manejados por los que menos entienden, aquí las cosas se dicen como son, sin vueltas y con un guiño cómplice.

La UE quiere asegurar que las tecnológicas se sometan a su Ley de IA y ya tiene un plan para lograrlo


La Comisión Europea ha publicado el primer borrador del Código de prácticas para la inteligencia artificial (IA) de uso general. El documento señala una serie de requisitos, estándares y mecanismos para garantizar que empresas como OpenAI, Meta o Google cumplan con los establecidos en la Ley de IA vigente en el bloque.

El órgano ejecutivo explica que la primera versión de este instrumento de cumplimiento ha sido desarrollada por expertos independientes, en colaboración con la Oficina Europea de IA y basándose en información proporcionada por los principales proveedores de modelos de inteligencia artificial de propósito general (GPAI). sus siglas en inglés).

La propuesta será revisada por casi 1.000 interesados ​​en los próximos días. El organismo regulador espera obtener comentarios y opiniones para perfeccionar el código. El documento final estará listo antes del 1 de mayo del próximo año. “La versión final establecerá objetivos, medidas y, cuando corresponda, indicadores clave de desempeño (KPI). Desempeñará un papel crucial a la hora de guiar el desarrollo y la futura implementación de una GPAI segura y confiable. “Debe detallar normas relacionadas con los derechos de autor y definir riesgos sistémicos, así como medidas de evaluación y mitigación”, afirma la Comisión.


Meta y otras empresas tecnológicas desafían las reglas que Europa fijó para la IA

En una carta abierta, Mark Zuckerberg, John Elkann, Federico Marchetti y otros empresarios del sector económico critican el marco regulatorio de la Unión Europea.


¿Qué propone el nuevo código de IA de la Unión Europea?

El esquema de 36 páginas aborda cuatro aspectos clave: transparencia, cumplimiento de los derechos de autor, identificación de riesgos y moderación de los peligros técnicos y de gobernanza. Destaca que las empresas detrás de grandes modelos de propósito general necesitarán rastreadores de informes webfuentes de información y bases de datos que han utilizado para entrenar, probar y verificar los algoritmos.

Las empresas también tendrán que establecer los términos de los acuerdos de licencia que les permitan acceder a contenidos protegidos. Se les exigirá que implementen un punto de contacto único para gestionar las quejas y comentarios de los propietarios de propiedad intelectual.

El código enumera varios tipos de amenazas que las organizaciones sujetas a las regulaciones acuerdan considerar y abordar como riesgos sistemáticos. Estos incluyen el ciberdelito, la discriminación, la persuasión y la manipulación a gran escala, así como el uso indebido de la IA para crear armas químicas, biológicas y nucleares.

Los creadores de GPAI se comprometerán a adoptar un Marco de Seguridad y Protección (SSF). La política tiene como objetivo garantizar la seguridad y la responsabilidad en el desarrollo de la IA. Será necesario que los proveedores desglosen sus protocolos de gestión y mitigación de contingencias, considerando aspectos técnicos, gestión de datos, detección de fallas y evaluación de la eficiencia de sus productos.

El borrador exige a las entidades tecnológicas relacionadas con la IA entregar informes periódicos sobre sus lineamientos de gobierno interno, realizar análisis continuos sobre posibles amenazas a sus sistemas e incorporar evaluadores externos cuando sea necesario.

Las regulaciones no son obligatorias. Las empresas que diseñan GPAI pueden adoptar medidas alternativas siempre que puedan justificar su eficacia según la Ley europea de IA. Pese a ello, se espera que organizaciones como OpenAI, Google, Meta, Anthropic y Mistral cumplan con las nuevas directrices de la Unión Europea.

La Ley de IA entró en vigor en agosto con la intención de moderar la producción, comercialización y uso de sistemas de IA. Contempla criterios que autorizan o prohíben el uso y venta de estos programas informáticos en función del “potencial que tienen de causar daño a la sociedad”. Están sujetos a las disposiciones los agentes públicos y privados, tanto locales como internacionales, con operaciones dentro del bloque. Las entidades que incumplan lo dispuesto en la normativa se enfrentarán a multas de hasta 35 millones de euros o el equivalente al 7% de su facturación anual en todo el mundo.

0
Would love your thoughts, please comment.x
()
x