Las comisiones del Parlamento Europeo adoptan un acuerdo provisional sobre la Ley de IA, que difiere de la propuesta de la Comisión. Se amplía la definición de sistemas de IA, en consonancia con las normas de la OCDE, pero se reduce el alcance de los sistemas de alto riesgo. Las enmiendas incluyen nuevas categorías de alto riesgo, prácticas prohibidas y principios éticos. Se imponen obligaciones a los proveedores de modelos fundacionales y se hace hincapié en la gobernanza de la cadena de valor de la IA. Surgen respuestas variadas, con preocupaciones sobre la innovación. El avance de la Ley permite a las empresas anticiparse y prepararse para su aplicación, lo que pone de relieve la necesidad de que las partes interesadas en los sistemas de alto riesgo realicen un trabajo adicional.
El jueves 11 de mayo, las principales comisiones parlamentarias del Parlamento Europeo para la Ley de IA aprobaron su texto (un acuerdo político provisional alcanzado por el Parlamento dos semanas antes) por una amplia mayoría (84-7). La votación plenaria está prevista ahora para mediados de junio. Si el Parlamento vota a favor del texto, será la base para iniciar las posteriores negociaciones a tres bandas por la Presidencia española con el Consejo y la Comisión. Se espera un texto de compromiso final a principios de 2024.
El texto aprobado el jueves incluye algunos cambios y adiciones importantes a la propuesta de la Comisión y a la posición del Consejo.
La definición de "sistema de IA" es más amplia en comparación, sobre todo, con la posición del Consejo. La intención es alinearse más con la OCDE, ampliando el ámbito potencial de los sistemas a regular. Sin embargo, al mismo tiempo, ese ámbito también se reduce, ya que el texto incluye que los sistemas que entren en el ámbito de uno o varios de los ámbitos o casos de uso del anexo III sólo se considerarán de alto riesgo si existe un riesgo significativo de perjuicio para la salud, la seguridad o los derechos fundamentales de las personas físicas implicadas. Este añadido recuerda la posición del Consejo. Se trata de garantizar que los sistemas de IA no susceptibles de causar violaciones graves de los derechos fundamentales u otros riesgos significativos no queden incluidos. Si los proveedores consideran que no existe ningún riesgo significativo, deberán notificarlo a la autoridad nacional de supervisión pertinente o a la Oficina de IA, que dispondrá de tres meses para oponerse. Las clasificaciones erróneas estarán sujetas a sanciones si el sistema se comercializa antes de este plazo.
También se modifica la lista del anexo III de sistemas autónomos de IA de alto riesgo, incluyendo, por ejemplo, los sistemas de recomendación de plataformas en línea muy grandes (redes sociales) como categoría de alto riesgo. También se modifica significativamente la lista de prácticas prohibidas, incluyendo, por ejemplo, la prohibición absoluta de la identificación biométrica remota en tiempo real en espacios públicos. Además, el texto incluye una obligación de máximo esfuerzo para que todos los operadores desarrollen y utilicen cualquier sistema de IA siguiendo seis principios generales para una IA digna de confianza y ética (por ejemplo, transparencia, agencia humana y supervisión, privacidad y gobernanza de datos, diversidad y bienestar social y medioambiental), inspirados en las Directrices Éticas del Grupo de Expertos de Alto Nivel sobre IA.
Además, el texto adoptado impone amplias obligaciones a los proveedores de modelos fundacionales como el GPT-4, no incluidas ni en la propuesta de la Comisión ni en la del Consejo. Estas normas complementarán las impuestas a los sistemas de alto riesgo e incluyen la obligación de que los proveedores faciliten un resumen suficientemente detallado del uso de los datos de entrenamiento protegidos por la legislación sobre derechos de autor.
El texto aprobado también hace más hincapié en la gestión de la cadena de valor de la IA. Por ejemplo, se prohíbe el uso de cláusulas contractuales abusivas en la cadena de valor de la IA impuestas a PYME o startups, y la Comisión propondrá cláusulas modelo para orientar la contratación. Una mirada más atenta a la cadena de valor de la IA también se ha traducido en la imposición de nuevas obligaciones a los implantadores, como la de aplicar medidas técnicas y organizativas adecuadas y realizar una evaluación de impacto sobre los derechos fundamentales.
Por último, el Parlamento propone aumentar las sanciones máximas por infracción de la Ley de Inteligencia Artificial a 40 millones de euros o el 7% del volumen de negocios total mundial del ejercicio anterior.
Las respuestas han sido dispares: la sociedad civil parece más optimista que las empresas, y estas últimas expresan su preocupación por que se obstaculice la innovación.
En cualquier caso, el texto aprobado indica que la Ley de Inteligencia Artificial va tomando forma, lo que facilita a las empresas anticiparse al texto definitivo y empezar a prepararse para su aplicación. También ha puesto de manifiesto que todas las partes de la cadena de valor de los sistemas (potencialmente) de alto riesgo aún les podría quedar mucho trabajo por hacer, quizás más de lo esperado.