jueves, 14 de marzo de 2024

Votación europea de la Ley de Inteligencia Artificial

Fuente de la imagen: mvc archivo propio
Finalmente, el Parlamento Europeo (PE) ha votado el Reglamento del PE y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial, conocido como Ley de Inteligencia Artificial (IA), modificándose determinados actos legislativos de la Unión Europea (UE)[1]. Como ya ha expresado en varias ocasiones el PE, la IA es una iniciativa legislativa emblemática que tiene el potencial de fomentar su desarrollo, siendo necesidad legislativa la adopción de una IA segura y fiable en todo el mercado único de la UE, tanto por parte de los agentes públicos como de los privados. La idea principal es regular la IA en la medida que ésta tenga la capacidad de dañar a la sociedad, siguiendo un enfoque basado en los riesgos: a mayor riesgo, normas más estrictas. Al ser la primera propuesta legislativa de este tipo en el mundo, se establece un referente mundial para regular la IA en otras jurisdicciones, como en su momento lo propició el RGPD[2]. Apunta el PE que la finalidad de esta ley es la protección de los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental frente a la IA de alto riesgo, al tiempo que impulsa la innovación y establece a Europa como líder en este campo. El reglamento registra obligaciones para la IA en función de sus riesgos potenciales y nivel de impacto. Las nuevas reglas prohíben ciertas aplicaciones de IA que amenazan los derechos de los ciudadanos, incluidos los sistemas de categorización biométrica basados ​​en características sensibles y la extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV[3] para crear bases de datos de reconocimiento facial. También, se prohíben el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social, la vigilancia policial predictiva[4] y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Si bien el uso de sistemas de identificación biométrica (RBI), por parte de las fuerzas del orden, está prohibido en principio, se exceptúan las situaciones enumeradas exhaustivamente y definidas de forma estricta. La RBI “en tiempo real” sólo se puede implementar si se cumplen estrictas salvaguardias, por ejemplo, su uso está limitado en el tiempo y el alcance geográfico y está sujeto a una autorización judicial o administrativa previa específica. Dichos usos pueden incluir, por ejemplo, la búsqueda selectiva de una persona desaparecida o la prevención de un ataque terrorista. El uso de dichos sistemas post-facto (“RBI post-remoto”) se considera un caso de uso de alto riesgo, que requiere autorización judicial vinculada a un delito penal. Asimismo, se prevén obligaciones claras para otros sistemas de IA de alto riesgo[5]. Describe el PE ejemplos de usos de IA de alto riesgo relacionados con infraestructura crítica, educación y capacitación vocacional, empleo, servicios públicos y privados esenciales[6], ciertos sistemas de aplicación de la ley, migración y gestión de fronteras, justicia y procesos democráticos[7]. Dichos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y garantizar la supervisión humana. La ciudadanía tendrá derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos. Los sistemas de IA de propósito general (GPAI)[8], deben cumplir ciertos requisitos de transparencia, incluido el cumplimiento de la ley de derechos de autor de la UE y la publicación de resúmenes detallados del contenido utilizado para la capacitación[9]. Además, las imágenes, el contenido de audio o de vídeo artificiales o manipulados[10] deben etiquetarse claramente como tales[11]. Fuente de la información: PE. Fuente de la imagen: mvc archivo propio.
_________________
[1] Fue respaldado por los eurodiputados con 523 votos a favor, 46 en contra y 49 abstenciones.
[2] Reglamento General de Protección de Datos.
[3] Circuito cerrado de televisión.
[4] Cuando se base únicamente en perfilar a una persona o evaluar sus características.
[5] Debido a su importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.
[6] Por ejemplo, atención médica, banca.
[7] Por ejemplo, influir en las elecciones.
[8] Y los modelos GPAI en los que se basan.
[9] Los modelos GPAI más potentes que podrían plantear riesgos sistémicos enfrentarán requisitos adicionales, incluida la realización de evaluaciones de modelos, la evaluación y mitigación de riesgos sistémicos y la presentación de informes sobre incidentes.
[10] Deepfakes.
[11] Será necesario establecer entornos de pruebas regulatorios y pruebas en el mundo real a nivel nacional, y hacerlos accesibles a las pymes y las empresas emergentes, para desarrollar y capacitar una IA innovadora antes de su comercialización.