El 11 de mayo de 2023 tuvo lugar una reunión en la que el Parlamento Europeo acordó su posición para negociar nuevas normas dentro del borrador de la ley que pretende reforzar la normativa sobre el desarrollo y el uso de la inteligencia artificial (IA). Los legisladores del Parlamento Europeo han dado un primer paso hacia la adopción de una ley que regule las herramientas de la Inteligencia Artificial, como el ChatGPT. La Unión Europea sigue dando pasos para aprobar la primera ley del mundo que pondrá normas al uso de la inteligencia artificial. Ya en abril de 2021, Europa creó la primera regulación sobre inteligencia artificial y robots, adoptando en noviembre del mismo año los 193 Estados miembros la Recomendación sobre la Ética de la inteligencia artificial.
Sin embargo, ha sido en esta última reunión cuando la Comisión Europea ha presentado dos propuestas legislativas que introducen normas de responsabilidad para la Inteligencia Artificial: (i) la propuesta de revisión de la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos. Tiene como objetivo garantizar que las víctimas de los daños causados por productos con inteligencia artificial gocen de un nivel de protección equivalente en virtud de las normas de responsabilidad civil al de las víctimas de daños ocasionados sin que haya mediado la inteligencia artificial; y (ii) la propuesta de una Directiva específica sobre responsabilidad en materia de IA, cuyo objetivo es establecer un marco claro y armonizado para la responsabilidad civil en el ámbito de la inteligencia artificial.
La Comisión Europea pretende adaptarse a la era digital con nuevas normas que garanticen que los consumidores tengan la misma protección cuando se vean perjudicados por productos o servicios de inteligencia artificial que cuando se producen daños en cualquier otra circunstancia. El proyecto de reglamento clasifica los sistemas de IA en cuatro niveles atendiendo a su posible riesgo:
- Riesgo mínimo: donde se encuentran la mayoría de los sistemas de IA, siendo de uso libre (filtros de spam).
- Riesgo limitado: son los sistemas de IA que no tienen un impacto significativo en la vida humana o en los derechos fundamentales (chatbots)
- Riesgo alto: son los sistemas de IA que pueden causar un daño, ya sea físico o psicológico, a los seres humanos (sistemas de vigilancia masiva).
- Riesgo inadmisible: son aquellos sistemas de IA que suponen una amenaza para la seguridad o los derechos fundamentales de las personas (sistemas de puntuación social)
La ley que regulará la inteligencia artificial en la UE ha sido aprobada por los principales Comités parlamentarios del Parlamento Europeo y se espera que sea adoptada plenamente este verano, involucrando a todos los países miembros de la UE.