Este 2 de agosto ha entrado en vigor finalmente la nueva normativa europea respecto a la utilización de inteligencia artificial en el continente. La legislación impulsada por la Comisión Europea -primera que se implanta de forma oficial en el Viejo Continente- ha sido aceptada y firmada ya por un total de 25 empresas.
El histórico documento hace referencia al código de buenas conductas prácticas en la utilización de la IA. Y entre las empresas firmantes destacan Google, Amazon, IBM, Microsoft y Open AI, entre otras. Sin embargo, llama la atención la ausencia de algunos de los gigantes de la tecnología como es Meta (Facebook, Whatsapp e Instagram), Baidu, Alibaba o Deepseek.
La lista está formada por: Accexible, AI Alignment Solutions, Aleph Alpha, Almawave, Amazon, Anthropic, Bria AI, Cohere, Cyber Institute, Domyn ,Dweve, Euc Inovação Portugal, Fastweb, Google, Humane Technology, IBM, Lawise, Microsoft ,Mistral AI, Open Hippo, OpenAI, Pleias ,Re-AuditIA, ServiceNow, Virtuo Turing y Writer, aunque pueden unirse nuevas compañías.
Sin embargo, hay algunas como xAI, propiedad del magnate Elon Musk, que solo se ha adscrito a uno de los puntos que recoge el acuerdo, el referente a la seguridad. Mientras que no ha firmado los otros dos aspectos, relacionados con los derechos de autor y la transparencia.
En cualquier caso, aquellas empresas que no hayan firmado este código voluntario, deberán demostrar por medios alternativos que están respetando la legislación europea.
En definitiva, lo que entra en vigor en todo el territorio de la Unión Europea desde este 2 de agosto son una serie de medidas que obligan a los grandes sistemas como ChatGPT, de OpenAI, o Gemini, de Google, a respetar los contenidos protegidos por derechos de autor y a no proporcionar información discriminatoria ni contraria a los derechos fundamentales.
Las obligaciones forman parte de la ley de inteligencia artificial de la UE, que entró en vigor el año pasado y se irá desplegando de forma progresiva hasta 2027. La ley, pionera en el mundo, permite o prohíbe el uso de la tecnología en función del riesgo que genere para las personas y hace dos semanas, la Comisión Europea publicó las directrices que deberán seguir los sistemas de inteligencia artificial generativa para cumplir con la norma.
Por su parte, Estados Unidos está presionando a la UE por las recientes leyes que han entrado en vigor para controlar el poder de las grandes tecnológicas, en su mayoría estadounidenses.
No solo la ley de inteligencia artificial, sino también la de mercados digitales -que establece las pautas de la libre competencia entre las tecnológicas- y la de servicios digitales -que les obliga a combatir el contenido ilegal-.
Bruselas pide a los sistemas de inteligencia artificial generativa, principalmente a los considerados de alto riesgo por su elevada capacidad de cálculo, que no los entrenen con datos protegidos por derechos de autor y a que evalúen el peligro que pueden provocar a los usuarios.
En concreto, que analicen hasta qué punto pueden fomentar violaciones de los derechos humanos y si existen otros peligros como la posibilidad de que las personas pierdan el control o haya accidentes químicos, biológicos y nucleares.
Cualquier actualización de los modelos de inteligencia artificial que a partir de hoy se lance al mercado deberá respetar la normativa y en caso de incumplimiento, Bruselas podrá abrir expedientes a las empresas a partir del 2 de agosto de 2026.
Aunque la fecha se aplaza un año para todas las versiones de los chats que ya se estén comercializando y la vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, Henna Virkkunen, ha abierto la puerta a retrasar la aplicación de la ley.
Cuarenta organizaciones europeas e internacionales de artistas, editores y poseedores de copyright han mostrado esta semana su «insatisfacción» con el código de conducta porque lo consideran «una oportunidad perdida para brindar una protección significativa de los derechos de propiedad intelectual».