Un paso más hacia un Reglamento sobre Inteligencia Artificial: el Consejo de la Unión Europea ha publicado su orientación general

En la sesión nº3917/1 del Consejo de la Unión Europea de Transportes, Telecomunicaciones y Energía de los días 5 y 6 de diciembre, el Consejo ha adoptado su posición (también denominada “orientación general”) sobre la propuesta de Reglamento por el que se establecen normas armonizadas en el ámbito de la inteligencia artificial (Reglamento de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión.

En el Consejo, el estudio de la propuesta se ha llevado a cabo en el Grupo “TELECOM” que ha recogido los resultados de los debates en un texto transaccional.  En este sentido, los principales cambios de la propuesta transaccional elaborada (disponible aquí) que cabe destacar son los siguientes: 

 

  • Definición de un sistema de IA, prácticas de IA prohibidas, lista de supuestos de utilización de sistemas de IA de alto riesgo en el anexo III y clasificación de sistemas de IA como de alto riesgo

    Para garantizar que la definición de los sistemas de IA proporcione criterios suficientemente claros para distinguirlos de otros sistemas de software más clásicos, el Consejo, en su propuesta transaccional, restringe la definición de los sistemas desarrollados a través de estrategias de aprendizaje automático y estrategias basadas en la lógica y el conocimiento, incluyendo la posibilidad de que dichas definiciones se puedan especificar y actualizar en un segundo momento por medios de actos de ejecución.

    En lo que respecta a las prácticas de IA prohibidas, el texto transaccional amplía a los agentes privados la prohibición de utilizar la IA con fines de puntuación ciudadana (también conocido como social scoring). Por otro lado, en lo que respecta a la prohibición relativa al uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público, el texto transaccional incluye supuestos en los que se considera que dicho uso es estrictamente necesario con fines de aplicación de la ley (desaparición de menores, detección de personas que han cometido o se sospecha que hayan cometido los crimines mencionados en el artículo 2, apartado 2, de la Decisión Marco 2002/584/JAI del Consejo).

    Por lo que se refiere a la lista de supuestos de utilización de la IA de alto riesgo, se han suprimido tres de ellos (la detección de ultrafalsificaciones por parte de las autoridades encargadas de la aplicación de la ley, la realización de análisis penales y la comprobación de la autenticidad de los documentos de viaje), se han añadido dos nuevos (las infraestructuras digitales críticas y los seguros de vida y salud) y otros se han matizado. Asimismo, el Consejo ha incluido la posibilidad de añadir y suprimir de dicha lista supuestos de uso de alto riesgo mediante actos delegados cuando se cumplan las condiciones incluidas (es decir, que los sistemas de IA de alto riesgo en cuestión ya no planteen riesgos considerables para los derechos fundamentales, la salud o la seguridad y la supresión no reduzca el nivel general de protección de la salud, la seguridad y los derechos fundamentales con arreglo al Derecho de la Unión).

    En cuanto a la clasificación de los sistemas de IA como de alto riesgo, el Consejo propone incluir una serie de criterios de clasificación horizontales con el fin de garantizar que no se incluyan en la clasificación de sistemas de alto riesgo sistemas de IA que probablemente no provocarían violaciones graves de los derechos fundamentales u otros riesgos significativos (por ejemplo, cuando la información de salida del sistema de IA es meramente accesoria respecto de la acción o decisión que vaya a adoptarse y, por tanto, sea poco probable que dé lugar a un riesgo importante para la salud, la seguridad o los derechos fundamentales).

     

  • Requisitos de los sistemas de IA de alto riesgo y responsabilidades de diversos agentes de la cadena de valor de la IA

    Muchos de los requisitos para los sistemas de IA de alto riesgo como por ejemplo el sistema de gestión de riesgos han sido aclarados. Además, otros requisitos (como por ejemplo la documentación técnica a elaborar) se han ajustado de manera que sean más viables y supongan una carga menor para las partes interesadas y, en concreto, para las pymes (incluyendo las empresas emergentes).

    Asimismo, en aras de garantizar mayor seguridad jurídica y facilitar a la vez el cumplimiento con el Reglamento de Inteligencia Artificial, el Consejo ha considerado necesario establecer obligaciones especificas para los varios operadores dentro de la cadena de valor de la IA. Por tanto, el texto transaccional intenta definir con mayor claridad los supuestos en los que los sistemas de IA de alto riesgo puedan ser componentes de seguridad de otros productos y en los que, por tanto, el fabricante de tales productos estará sujeto a las obligaciones previstas en los artículos relevantes del Reglamento de Inteligencia Artificial.

     

  • Sistemas de IA de uso general

    Puesto que los sistemas de IA se pueden utilizar para muchos fines diferentes (IA de uso general), se han añadido nuevas disposiciones para reflejar aquellas situaciones en las que la tecnología de IA de uso general se integra posteriormente en otro sistema de alto riesgo. En este sentido, el texto transaccional especifica que determinados requisitos de los sistemas de IA de alto riesgo también se podrían aplicar a los sistemas de IA de uso general aunque no se directamente. A esos efectos, por tanto, el Consejo considera que sería necesario adoptar un acto de ejecución que especifique cómo los requisitos de los sistemas de IA de alto riesgo deberían aplicarse en relación con los sistemas de IA de uso general.

     

  • Aclaración del ámbito de aplicación de la propuesta de Reglamento de Inteligencia Artificial y disposiciones relativas a las autoridades encargadas de la aplicación de la ley

    Se propone excluir expresamente del ámbito de aplicación las actividades militares o las relacionadas con la defensa y la seguridad nacional, con independencia del tipo de entidad que lleve a cabo dichas actividades. Asimismo, se ha aclarado que el Reglamento de Inteligencia Artificial no debe aplicarse a los sistemas de IA, incluida su información de salida, que se utilicen únicamente con fines de investigación y desarrollo ni a las obligaciones de las personas que utilicen la IA con fines no profesionales, excepto por lo que respecta a las obligaciones de transparencia.

    Cabe destacar que la propuesta transaccional también contiene otras modificaciones que tienen como objetivo garantizar un nivel adecuado de flexibilidad en el uso de sistemas de IA de alto riesgo por parte de las autoridades encargadas de la aplicación de la ley o reflexionar sobre la necesidad de respetar la confidencialidad de los datos operativos delicados relativos a sus actividades. En este sentido, por ejemplo, el Consejo ha pulido algunas de las definiciones, con el fin de facilitar la aplicación de la ley y aclarar qué situaciones entrarían en el ámbito de aplicación de la prohibición correspondiente y constituirían supuestos de uso de alto riesgo y cuáles no.

     

  • Evaluaciones de conformidad, marco de gobernanza, vigilancia del mercado, aplicación y sanciones

    El Consejo ha intentado aclarar y simplificar de forma proporcional las disposiciones relativas a la vigilancia del mercado para que sean más eficaces y fáciles de aplicar. A su vez, también se ha propuesto limitar la discrecionalidad de la Comisión con respecto a la adopción de actos de ejecución que establezcan especificaciones técnicas comunes para los requisitos aplicables a los sistemas de IA de alto riesgo y los sistemas de IA de uso general.

    El texto también modifica sustancialmente las disposiciones relativas al Comité de IA, con el fin de atribuirle una mayor autonomía y reforzar su papel para prestar apoyo a los Estados miembros en la aplicación y el cumplimiento del Reglamento de Inteligencia Artificial. Asimismo, se propone la creación de dos subgrupos permanentes (uno para las autoridades de vigilancia del mercado y otro para las autoridades notificantes) a fin de garantizar la participación de las partes interesadas pertinentes y contar así con una plataforma de cooperación e intercambio entre las autoridades de vigilancia del mercado y las autoridades notificantes sobre cuestionas relacionadas, respectivamente, con la vigilancia del mercado y los organismos notificados.

    Además, cabe destacar que en el texto transaccional, el Consejo ha incluido la obligación de la Comisión de elaborar orientaciones sobre la aplicación del Reglamento de Inteligencia Artificial (prestando especial atención a las necesidades de las pymes, en particular de las empresas emergentes y de las autoridades públicas y locales y los sectores que más puedan verse afectados por el Reglamento de Inteligencia Artificial) a petición de los Estados Miembros, del Comité de IA, o a iniciativa propria.

    Por lo que se refiere a las sanciones por incumplimiento de lo establecido en el Reglamento de Inteligencia Artificial, el texto establece límites más proporcionados al importe de las multas administrativas que pueden imponerse a las pymes y a las empresas emergentes (las multas ascenderán hasta el 3% de su volumen anual mundial durante el ejercicio financiero anterior, en lugar del 6% o 30.000.000 EUR). Además, cabe destacar que el Consejo ha añadido cuatro criterios más para decidir el importe de las multas administrativas con el fin de proteger en aún mayor medida su proporcionalidad global (intencionalidad o negligencia de la infracción, medidas adoptadas por el operador para poner remedio a la infracción y mitigar los posibles efectos adversos de la infracción, si otras autoridades ya han impuesto multas administrativas al mismo operador por infracciones de otra legislación nacional o de la Unión, cuando dichas infracciones se deriven de la misma actividad u omisión que constituya una infracción pertinente del Reglamento de Inteligencia Artificial, el volumen de negocio anual y cualquier otro factor gravante o atenuante aplicable a las circunstancias del caso, como los beneficios financieros obtenidos o las pérdidas evitadas, directa o indirectamente, a través de la infracción).

     

  • Transparencia y otras disposiciones a favor de las personas afectadas

    La propuesta transaccional incluye varios cambios para reforzar la transparencia en relación con el uso de sistemas de IA de alto riesgo. En concreto, se ha indicado que determinados usuarios de sistemas de IA de alto riesgo que sean autoridades, agencias u organismos públicos, o entidades que actúen en su nombre también estarán obligados a registrarse en la base de datos de la UE de sistemas de IA de alto riesgo. Asimismo, en cuanto a las obligaciones de transparencias de los proveedores y usuarios de determinados sistemas de IA y, en concreto, en relación con los sistemas de reconocimiento de emociones, se ha incluido la obligación de que los usuarios de informen del funcionamiento del sistema a las personas físicas a las que se exponga a dicho sistema.

    Por último, la propuesta transaccional incluye la posibilidad de que cualquier persona física o jurídica que tenga motivos para considerar que se ha infringido lo dispuesto en el Reglamento de Inteligencia Artificial podrá presentar reclamaciones a la autoridad de vigilancia del mercado pertinente y que se tramitarán de conformidad con los procedimientos específicos establecidos.

     

  • Medidas de apoyo a la innovación

Con el objetivo de crear un marco jurídico más favorable a la innovación, se ha aclarado que las autoridades nacionales competentes podrán establecer los espacios controlados de pruebas para la IA (también conocidos como regulatory sandboxes) cuya finalidad es ofrecer un entorno controlado para desarrollar, probar y validar sistemas innovadores de IA bajo la supervisión y orientación directas de las autoridades nacionales competentes. Asimismo, se han añadido nuevas disposiciones que permiten probar los sistemas de IA en condiciones reales no supervisadas, siempre que se den determinadas circunstancias y se ofrezcan determinadas garantías. En ambos casos, el texto transaccional aclara cómo deben interpretarse las nuevas normas en relación con otras normativas sectoriales vigentes sobre los espacios controlados de pruebas.

 

En cuanto a los siguientes pasos, una vez que el Parlamento Europeo adopte su propia posición, el Consejo y el Parlamento entablarán negociaciones. Es de esperar que, gracias a esta orientación general, el procedimiento legislativo se acelere y sea más probable alcanzar un acuerdo entre el Parlamento Europeo y el Consejo en primera lectura.

Últimas noticias

Más noticias

¿Puede dejar el repartidor mi paquete a un vecino sin mi consentimiento? Cuidado, la AEPD dice que no.

nov. 15 2022

Mostrar más