inteligencia_artificial_ley

La Eurocámara aprueba una ley de inteligencia artificial – Parte 1

En diciembre saltaba la noticia del acuerdo provisional de la Ley de Inteligencia Artificial a nivel Europeo. Se trata de la Propuesta  de Reglamento Europeo por el que se establecen normas armonizadas en materia de Inteligencia Artificial, que la Comisión Europea hizo el 21 de abril de 2021. Ante la presentación de esta propuesta, el día 6 de diciembre de 2022, el Consejo acuerda su posición sobre el Reglamento. Para que finalmente el 9 de diciembre de 2023, el Consejo y Parlamento han alcanzado un acuerdo, respecto a este.

Este mes de marzo se aprobó  la Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación.

Entra en vigor 20 días después de su publicación y plena aplicación a los dos años. Para las practicas prohibidas (6 meses tras la entrada en vigor). Los códigos de buenas prácticas (9 meses). Las normas sobre la IA de uso general, incluida la gobernanza (12 meses). Y las obligaciones para los istemas de alto riesgo (36 meses).

Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Aplicaciones prohibidas inteligencia artificial

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía. Como lo son los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet. Así como grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Exenciones de las fuerzas de seguridad 

El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibidosalvo en situaciones muy concretas. Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias estrictas. Por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista.

Obligaciones para los sistemas de alto riesgo

También se prevén obligaciones claras para otros sistemas de IA de alto riesgo. Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional. El empleo, los servicios públicos y privados esenciales (la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos.

Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

chatbots

Agencia española de supervisión de Inteligencia Artificial

Con la propuesta de Reglamento Europeo de Inteligencia Artificial, se hace un especial hincapié a la Gobernanza. Regulada en su título VI. En dicho título se constituyen una serie de organismos de control, uno de ellos, es la obligación de designación de Autoridades de Supervisión de Inteligencia Artificial en cada Estado miembro.

Por este motivo, como antecedentes a su creación, se ha ido citando en las siguientes leyes:

En la disposición adicional centésimo trigésima de la Ley 22/2021, de 28 de diciembre, de Presupuestos Generales del Estado, se establecía la creación de AESIA. La define como una Agencia con independencia plena orgánica y funcional que debe llevar a cabo medidas destinadas a la minimización de riesgos significativos sobre la seguridad y salud de las personas. Así como sobre sus derechos fundamentales, que puedan derivarse del uso de sistemas de inteligencia artificial.

La Ley 28/2022, de 21 de diciembre, de fomento del ecosistema de las empresas emergentes. Conocida como la Ley de startups, también prevé la creación de la Agencia Española de Supervisión de Inteligencia Artificial, en su Disposición adicional séptima.

Y por último, en el Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial. La cual prevé su efectiva puesta en funcionamiento con la constitución del consejo rector en un plazo máximo de la entrada en vigor de este real decreto.

Finalmente, el 7 de diciembre de 2023, La Secretaría de Estado de Digitalización e Inteligencia Artificial, publicó los nombres de los integrantes del Consejo Rector. Constituyéndose así esta Agencia pionera. Con la creación de esta Agencia, España se convierte en el primer país europeo en tener un órgano de estas características y se anticipa a la entrada en vigor del Reglamento Europeo de IA.

Esta Agencia, con sede en Galicia, no será la única autoridad en el ámbito nacional. Ya que la propuesta de Reglamento Europeo de Inteligencia Artificial establece que los Estados miembros tendrán que designar autoridades nacionales competentes.  Y entre ellas, seleccionar a una autoridad nacional de supervisión.

Funciones de la Agencia Española de Inteligencia Artificial:

  • Supervisar el cumplimiento de la normativa aplicable en el ámbito de la Inteligencia Artificial. Atribuyéndole una potestad sancionadora en las posibles vulneraciones de estas.
  • Promoción de entornos de prueba que permitan una correcta adaptación de los Sistemas de IA. Para reforzar la protección de los usuarios y evitar sesgos discriminatorios. Por ello, el 8 de noviembre de 2023, se publicó el Real Decreto 817/2013, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento Europeo de Inteligencia Artificial.
  • Fortalecer la confianza en la tecnología. A través de la creación de un marco de certificación voluntario para entidades privadas, que permita ofrecer garantías sobre el diseño responsable de soluciones digitales y garantizar los estándares técnicos.
  • La creación de conocimiento, formación y difusión en relación de la inteligencia artificial ética y humanista. Para mostrar tanto su potencial y oportunidades para el desarrollo socioeconómico, la innovación y la transformación del modelo productivo, como retos, riesgos e incertidumbres que plantea su desarrollo y adopción.
  • Dinamizar el mercado para potenciar iniciativas prácticas innovadoras y transformadoras en el ámbito de IA.
  • Ayudar a la ejecución de programas en el ámbito de la Inteligencia Artificial a través de acuerdos, convenios o cualquier otro instrumento legalmente previsto para apoyar en la ejecución de programas relacionados con la Inteligencia Artificial.

Comparaciones con la Agencia Española de Protección de datos

A grandes rasgos, estas dos autoridades plantean similitudes en sus funciones, aunque cada una en su materia. En Francia, la CNIL, su autoridad de protección de datos será quien asumirá las competencias de la Autoridad de Supervisión dentro de sus fronteras.

Aún así, AESIA y la AEPD no son comparables ya que la presidencia del Consejo Rector recae en la Secretaría de Estado de Digitalización e Inteligencia Artificial. Y será esta quien proponga directamente al director general de AESIA. Mientras que el Estatuto de la AEPD prevé un nombramiento de sus cargos mediante acuerdo parlamentario.

inteligencia_artificial

Un paso más para la regulación de la Inteligencia Artificial en Europa

Hace unos días, saltaba la noticia del acuerdo provisional de la Ley de Inteligencia Artificial a nivel Europeo. Tras las negociaciones llevadas a cabo entre el Consejo y el Parlamento Europeo.

Se trata de la Propuesta  de Reglamento Europeo por el que se establecen normas armonizadas en materia de Inteligencia Artificial, que la Comisión Europea hizo el 21 de abril de 2021.

Ante la presentación de esta propuesta, el día 6 de diciembre de 2022, el Consejo acuerda su posición sobre el Reglamento. Para que finalmente el 9 de diciembre de 2023, el Consejo y Parlamento han alcanzado un acuerdo, respecto a este.

1. Cronología

2. Objetivo del reglamento de Inteligencia Artificial

La nueva regulación, supone un cambio de paradigma en la UE, pero que también lo supondrá para el resto del mundo. Tal y como sucedió con el Reglamento de Protección de datos, ya que aplica a:

  • Proveedores que introduzcan en mercado o pongan en servicio Sistemas de IA en la Unión, independientemente de su ubicación.
  • Usuarios de sistemas de IA que se encuentren en la Unión.
  • Proveedores y usuarios de Sistemas de IA que se encuentren en un tercer país, cuando la información de salida generada por el sistema se utilice en la Unión.

Esta normativa tiene unos objetivos principales:

  • Crear normas armonizadas en toda la Unión para la Introducción en el mercado, puesta en servicio y utilización de sistemas de Inteligencia Artificial.
  • Prohibiciones de determinadas prácticas de IA.
  • Requisitos para los sistemas de Alto Riesgo y obligaciones para los operadores de dichos sistemas.
  • Requisitos de transparencia.
  • Normas sobre el control y la vigilancia en el mercado.

Estos objetivos, se centran en el riesgo y suponen desde una prohibición total hasta ciertas obligaciones.

Establece unas prácticas que quedan totalmente prohibidas para proteger los derechos y libertades de los ciudadanos, como son:

Siguiendo el enfoque de riesgo, tras las prácticas prohibidas, hace una clasificación de sistemas de alto riesgo y para los cuales establece unos requisitos, de manera que estos sistemas, sean más viables sede el punto de vista técnico y supongan una carga menor para las partes interesadas, los requisitos exigidos son los siguientes:

Otro aspecto a destacar, son los sistemas de IA generativa, los cuales tendrán que cumplir con criterios de transparencia, como por ejemplo: especificar de forma clara cuando un texto, canción o fotografía es realizado con IA.

 

3. Sanciones

Además, el texto viene a establecer una serie de sanciones por incumplimiento de las directrices, las cuales deben aplicar los Estados Miembros, es decir deben comunicar el régimen sancionador establecido. Pero estas pueden ascender:

  • Multas administrativas de hasta 30 M o 6% de volumen de negocio total anual mundial del ejercicio anterior (incumplimiento de la prohibición de prácticas prohibidas).
  • Multas administrativas de hasta 20 M o 4% del volumen de negocio total anual mundial del ejercicio anterior, para el incumplimiento de cualquier requisito establecido en el reglamento.

 

4. Inteligencia artificial y RGPD

Los Sistemas de Inteligencia Artificial, siempre que traten datos personales, deben cumplir con todo lo establecido en el Reglamento de Protección de datos personales: deber de información, base de legitimación, principios…

Uno de los problemas que pueden llegar a surgir, es que la IA suele llevarse a cabo con la explotación de gran cantidad de datos personales, hoy en día y para dar cumplimiento a lo estipulado en el RGPD, se hace con datos anonimizados.

Respecto a los datos anonimizados, hay que tener en cuenta que no aplica el RGPD pero teniendo en cuenta los grandes avances tecnológicos que suceden cada día, lo que hoy son datos anonimizados, pueden serlo seudonimizados mañana, lo que si exige cumplir con lo requerido en la normativa de protección de datos.

Otro requisito para los sistemas IA que traten datos personales, es la obligatoriedad de llevar a cabo, una Evaluación de Impacto de Protección de datos, ya que cumple con requisitos que obligan a su realización: como tecnología de uso innovador, tratamientos de datos a gran escala.

chatbots

Por qué usar chatbots con Inteligencia Artificial

La Inteligencia Artificial está revolucionando el mundo hasta tal punto que en muchos sectores se plantea como una opción de futuro no muy lejano a la mano de obra desarrollada por las personas. De hecho ya hace tiempo que es habitual hablar con chatbots con IA en multitud de empresas y servicios.  

Un chatbot con IA es un robot capaz de hablar con el cliente, casi, como si fuera un humano. La capacidad del chatbot online para proporcionar respuestas rápidasautomatizar tareas repetitivas y personalizar las interacciones con los clientes lo ha hecho muy popular.

Para que te hagas una idea, según un estudio de Accentur el 43% de las organizaciones informa que sus competidores ya están implementando bots conversacionales. El mismo estudio reveló que el 91% de las compañías que implementaron chatbot IA esperan ver un retorno de su inversión (ROI) de 1x a 5x en los primeros 12 meses. Y es que la implementación de chatbots como un recurso de atención al cliente tiene sus ventajas.

Ventajas de usar chatbots con Inteligencia Artificial

  • Reduce la carga de tareas repetitivas para los agentes y mejora la satisfacción del usuario.
  • Ofrecen soporte 24/7.
  • Capacidad multitarea.
  • Aumento de productividad.
  • Atención personalizada.
  • Mejora de la comunicación interna basada en datos.

Pero ¿cómo se configura un chatbot IA? Para ello hay que identificar problemas clave, establecer el contexto, diseñar un flujo de trabajo y personalizar mensajes. La optimización vendrá después, con la interacción en situaciones reales.

chatbots con inteligencia artificial

Cómo hacer chatbots IA

Si no estás muy familiarizado con la tecnología, no te preocupes. Muchos proveedores de soluciones conversacionales tienen chatbots IA listos para usar. Por otro lado, si ya tienes más experiencia y quieres adaptar por completo el chatbot online a tus necesidades, también es posible.

Cualquiera que sea tu caso, es importante seguir un flujo de cinco pasos:

  1. Identificar qué problemas quieres resolver: ¿Cuáles son las preguntas que más hacen los clientes? ¿A qué hora? ¿A través de qué canal? Necesitas tener esta información para configurar tu chatbot IA.
  2. Establecer el nivel de contexto necesario: ¿Cuántos y qué tipos de datos necesita el chatbot IA para responder estas preguntas? ¿Están actualizados? ¿Qué tipo de acceso o integración necesita el chatbot IA para funcionar completamente?
  3. Diseñar el flujo conversacional entre chatbots y agentes: Si un cliente tiene una solicitud más compleja, ¿cómo ocurrirá la desviación a un agente humano? ¿Cuáles son los criterios para distribuir la demanda entre el equipo?
  4. Escribir mensajes personalizados: Cuando un cliente usa tu chatbot IA, ¿cómo te aseguras de que se sienta especial? ¿El chatbot IA saludará a la persona por su nombre?
  5. Optimizar el chatbot según las interacciones: Después de algunas semanas de usar el chatbot online, ¿qué salió bien? ¿Qué puedes mejorar?

Conversa siempre de manera inteligente

Si pensabas que un chatbot es bueno, imagina uno integrado con inteligencia artificial. Como has podido ver, es muy sencillo contar con un bot inteligencia artificial. Además, es increíblemente útil, pues con su ayuda no tendrás la menor duda de que tus clientes están siendo atendidos de la mejor manera. Estas herramientas facilitan el trabajo de la empresa y los clientes se sienten mucho más felices.

Mejora la experiencia del cliente y su relación con tu empresa con un increíble asistente eficiente y disponible 24/7.

 

chatgpt_inteligenciaartificial

Peligros de privacidad: Chat GPT

Chat GPT es el desarrollo de inteligencia artificial más importante de los últimos años. El mes pasado hablábamos de su impacto en la protección de datos. Hoy profundizaremos en los peligros que supone para la privacidad. ¿Vamos a ello?

Partiendo de la base de que los chatbots se nutren de nuestros datos personales y cuantos más datos recopilen, más precisa es su capacidad, tanto para detectar patrones como para anticiparse y generar respuestas; los peligros de privacidad aumentan por enteros.

Si además tenemos en cuenta que la información que se usa para entrenar a productos de inteligencia artificial como Chat GPT, se obtiene de Internet y de datos personales que en su mayoría se recaban sin consentimiento de los usuarios, estamos ante un caso de incumplimiento de la normativa de privacidad.

 

Medidas que debería adoptar Chat GPT para cumplir con la normativa de privacidad

1. Informar sobre el tratamiento de datos. Qué datos se usan y para qué.

2. Informar sobre cómo los titulares se pueden oponer a que sus datos sean utilizados para entrenar los algoritmos e implementar mecanismos para ello.

3. Realizar campañas informativas en medios de comunicación

4. Establecer mecanismos para la exclusión del acceso al servicio a usuarios menores de 13 años.

Preceptos de la normativa de privacidad que no se cumplen

En primer lugar, se incumple el deber de información ya que, generalmente, no se proporciona información completa y transparente a los usuarios e interesados sobre el tratamiento que de sus datos hacen estos sistemas.

Además, el incumplimiento de los principios que deben regir el tratamiento de datos personales, entre ellos, el principio de exactitud. Dado que muchos de los datos introducidos en los sistemas son inexactos. Y en consecuencia se produce una desinformación a gran escala. En este sentido, una de las grandes preocupaciones derivadas del uso de sistemas como Chat GPT es la tendencia a “maquillar” la información y aumentar los sesgos en las respuestas proporcionadas al usuario.

Otra de las infracciones destacables es la ausencia de base legitimadora que ampare el tratamiento masivo de datos personales con la finalidad de entrenar los algoritmos que rigen el funcionamiento de los chatbots.

También se destaca la contravención del principio de confidencialidad y la falta de medidas de seguridad. Lo cual incrementa enormemente la posibilidad de brechas y ciberataques.

Por ello, podemos concluir que, aunque la IA tiene el potencial de transformar sectores, solucionar problemas, simplificar respuestas o ser una gran fuente de información. También puede representar grandes riesgos éticos y sociales.

Es importante resaltar que los sistemas de chatbots pueden reproducir, reforzar y amplificar patrones de discriminación y/o desigualdad. En consecuencia, la gestión irresponsable de los datos que pueden realizar estos sistemas, da resultados poco fiables. Que además pueden dañar el bienestar de la ciudadanía y la seguridad en el tráfico jurídico.

¿Se creará un marco regulatorio sólido a nivel mundial que regule los sistemas de inteligencia artifical como Chat GPT? En Bacaria lo seguiremos de cerca para mantenerte informado.

 

CHAT_GPT_OPENAI

Chat GPT y su impacto en la protección de datos

CHAT GPT es un producto de OPEN AI y es considerado el desarrollo de Inteligencia Artificial más importante de los últimos años. Se trata de un modelo de lenguaje entrenado (Generative Pretrained Transformer) para proporcionar respuestas coherentes y naturales a preguntas y comandos de texto. Se caracteriza principalmente por su capacidad para proporcionar respuestas coherentes a preguntas complejas y por su rápido aprendizaje y mejora de su rendimiento.

Entre sus principales tareas destacan las siguientes, traducir idiomas, escribir canciones, entradas de blogs, crear recetas de cocina, responder a preguntas de investigación, generar código e incluso ha llegado a aprobar exámenes en universidades.

¿Cómo funciona?

Cuando se le proporciona una entrada de texto, utiliza su modelo GPT para analizar el significado y el contexto de la entrada y generar una respuesta coherente, además CHAT GPT utiliza su conocimiento previo y su habilidad  para aprender continuamente para mejorar su rendimiento y proporcionar respuestas más precisas y relevantes a las preguntas de los usuarios.

¿Cómo utilizarlo?

Lo primero que hay que hacer es acceder a la página web Open AI https://openai.com/ y registrarse, una vez completado el proceso de registro, ya se accede a su programa de prueba gratuita, hay que tener en cuenta que es un producto que necesita subscrición de pago para acceder a todas sus funcionalidades.

En Bacaria, recomendamos que antes de usarlo se revisen sus políticas en https://openai.com/policies/usage-policies.

¿Cómo afecta CHAT GPT a la Protección de datos?

Hay que destacar que CHAT GPT en sí mismo no recopila datos personales, pero si el usuario los introduce en el chat, este los procesa y genera respuestas a partir de la información del usuario. Además puede acceder a la dirección IP, el tipo y la configuración del navegador, principalmente por temas de seguridad.

Es recomendable no introducir información personal, confidencial o datos sensibles, ya que el equipo responsable del desarrollo y mantenimiento de CHAT GPT puede revisar conversaciones para mejorar los sistemas y con fines de calidad.

Además, OPEN AI asegura que utiliza medidas de seguridad informática, como encriptación de datos, acceso limitado a servidores y la eliminación regular de datos de los usuarios para evitar cualquier riesgo de exposición y vulnerabilidades.

¿Qué debo tener en cuenta, en materia de protección de datos, si quiero implementar un chatbot con CHAT GPT en mi empresa?

Dicha empresa como responsable del tratamiento de los datos tratados a través del chatbot con CHAT GPT, debe tener en cuenta las siguientes implicaciones:

  1. Identificar los tratamientos de datos personales que se van a llevar a cabo con CHAT GPT en su Registro de actividades de tratamiento.
  2. Usar una base de legitimación de las recogidas en el artículo 6 del RGPD.
  3. Cumplir con el deber de informar sobre el tratamiento de datos de forma clara y sencilla al interesado/usuario del chatbot.
  4. En el caso, de que el chatbot con CHAT GPT, sea proporcionado por un proveedor de servicios, se debe llevar a cabo la firma de un contrato de encargo de tratamiento, por el caso contrario si es implementado directamente por la empresa se debe firmar un contrato de encargo con OPEN AI, para ello debes ponerte en contacto a través de su correo electrónico proporcionado en su página web e indicarle que necesitas firmar dicho contrato de encargo de tratamiento.
  5. Llevar a cabo una Evaluación de Impacto de protección de datos para analizar las características del Chatbot con CHAT GPT, como se recopilan y utilizan los datos personales, el impacto en los derechos y libertades y qué medidas se tomarán para proteger los datos personales y mitigar los riesgos de privacidad.

En resumen, como se puede apreciar la utilización de este tipo de tecnologías puede conllevar un riesgo en privacidad, por lo que debe tenerse en cuenta lo estipulado en el Reglamento de Protección de datos y otras normas complementarias, en Bacaria tenemos un equipo especializado en Inteligencia Artificial y privacidad y estaremos encantados de ayudarte.

 

 

 

ai-inteligencia-artificial-bacaria

Ingeligencia Artificial, privacidad y seguridad

El potencial de la Inteligencia Artificial (IA) y las oportunidades que aporta a los individuos y al conjunto de la sociedad, son innegables. Pero ello también conlleva un riesgo cuando las empresas o las entidades públicas utilizan esta tecnología inteligente. Las corporaciones deben ser conscientes de los riesgos y proteger los derechos y libertades de estos individuos a la hora de tratar estos datos personales.  

¿Cómo se utilizan los datos? ¿Se procesan de forma justa, transparente y legal? ¿Están a buen recaudo? ¿Los usuarios entienden cómo se usan y qué se hace con ellos? Estas son algunas de las cuestiones que más preocupan, ya que el tratamiento de esta información es, en muchas ocasiones, hermética y/u opaca. 

Y es que hace apenas dos décadas, la cantidad de información que se manejaba era muy limitada. Por lo que resultaba fácil tener un control sobre quienes trataban estos datos y qué hacían con ellos. Pero en la actualidad el tratamiento de información se dispara. Según un estudio elaborado por Domo Business Cloud, en 2020 se realizaron aproximadamente 1.388.889 llamadas de voz o videollamadas, se publicaron en Instagram 347.222 Stories, se subieron a Facebook 147.000 fotos o se enviaron por Whatsapp 41.666.667 mensajes. Y esto es solo un pequeño ejemplo. Según el Informe Cisco Visual Networking Index (VNI) el tráfico de datos móviles en nuestro país se va a situar en 2022 en los 6,3 exabytes, el equivalente a mil millones de gigabytes, mientras que el número de usuarios móviles será de 41 millones (el 88% de la población) y habrá 103 millones de dispositivos con conexión a Internet.

La AEPD publica un documento con los aspectos a tener en cuenta en materia de IA

Esto ha llevado a la Agencia Española de Protección de Datos (AEPD) a publicar un documento que aborda estas inquietudes y cita los aspectos fundamentales a tener en cuenta a la hora de diseñar y lanzar productos y servicios que precisen del tratamiento de datos personales con el uso tecnologías de Inteligencia Artificial. En el documento se presta especial atención a: la legitimación para el tratamiento, la información y transparencia, el ejercicio de derechos, las decisiones automatizadas, la exactitud, la minimización de datos, la evaluación de impacto y el análisis de la proporcionalidad del tratamiento, como exigencias que deben cumplir los tratamientos llevados a cabo con Inteligencia Artificial.

Además, cabe destacar dos problemáticas importantes, que aún necesitan más desarrollo:

  • La perspectiva ética de la IA, que persigue valores como la dignidad, la libertad, la democracia, la igualdad, la autonomía del individuo y la justicia frente al gobierno de un razonamiento automático.
  • La dificultad que conlleva el ejercicio de derecho de supresión, respecto a los datos obtenidos a través del machine learning, ya que a día de hoy no existe normativa que desarrolle este aspecto.

Pero como señala al final del documento en las principales conclusiones, esa guía trata de ser una “mera introducción a la adecuación de los tratamientos que incluyan componentes de IA y no cubre todas las posibilidades y riesgos que se pueden derivar del empleo de soluciones en IA en tratamientos de datos personales”.  

De momento, la Propuesta de Reglamento Europeo por el que se establecen normas armonizadas en materia de Inteligencia Artificial, como normativa más reciente nos guía sobre aspectos como el respeto a la intervención y supervisión humana, la responsabilidad civil para proteger a los ciudadanos de la unión y los derechos de propiedad intelectual, y con ello el registro de las patentes y los nuevos procesos creativos.

BACARIA, a la vanguardia en Big Data e Inteligencia Artificial

En la actualidad, si bien aún estamos en la fase inicial de desarrollo de la Inteligencia Artificial, es el “ahora o nunca”. El momento perfecto para trabajar en el cumplimiento de las normas y garantizar la privacidad de los usuarios. Sin duda es un reto al que nos sumamos desde BACARIA. Por eso, desde nuestro departamento especializado en Big Data e Inteligencia Artificial, trabajamos a fondo para comprender los cambios en esta materia. Y poder así proteger a los usuarios en esta nueva era tecnológica.

Desde hace años, ofrecemos asesoramiento sobre decisiones automatizadas y uso de inteligencia artificial o perfilados. Ayudamos a elaborar códigos de conducta ética. O trabajamos para la correcta implementación de normas, estándares y procedimientos de uso y funcionamiento de robots inteligentes.