inteligencia_artificial_ley

La Eurocámara aprueba una ley de inteligencia artificial – Parte 1

En diciembre saltaba la noticia del acuerdo provisional de la Ley de Inteligencia Artificial a nivel Europeo. Se trata de la Propuesta  de Reglamento Europeo por el que se establecen normas armonizadas en materia de Inteligencia Artificial, que la Comisión Europea hizo el 21 de abril de 2021. Ante la presentación de esta propuesta, el día 6 de diciembre de 2022, el Consejo acuerda su posición sobre el Reglamento. Para que finalmente el 9 de diciembre de 2023, el Consejo y Parlamento han alcanzado un acuerdo, respecto a este.

Este mes de marzo se aprobó  la Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación.

Entra en vigor 20 días después de su publicación y plena aplicación a los dos años. Para las practicas prohibidas (6 meses tras la entrada en vigor). Los códigos de buenas prácticas (9 meses). Las normas sobre la IA de uso general, incluida la gobernanza (12 meses). Y las obligaciones para los istemas de alto riesgo (36 meses).

Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Aplicaciones prohibidas inteligencia artificial

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía. Como lo son los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet. Así como grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Exenciones de las fuerzas de seguridad 

El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibidosalvo en situaciones muy concretas. Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias estrictas. Por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista.

Obligaciones para los sistemas de alto riesgo

También se prevén obligaciones claras para otros sistemas de IA de alto riesgo. Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional. El empleo, los servicios públicos y privados esenciales (la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos.

Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.