La nueva Ley de IA: Un equilibrio entre riesgos y oportunidades

El 8 de diciembre de 2023, la Unión Europea (“UE”) llegó a un acuerdo para sacar adelante el reglamento que regule el uso de la inteligencia artificial (“IA”), con el objetivo de garantizar que la IA se desarrolle y se aplique de forma ética, segura y respetuosa con los derechos humanos. En este artículo, explicaremos los principales aspectos de esta norma (el “Reglamento de IA”) y cómo puede influir en nuestra vida cotidiana.

A efectos aclaratorios, la IA es la capacidad de las máquinas o los sistemas informáticos de realizar tareas que normalmente requieren inteligencia humana, como el reconocimiento de imágenes, el procesamiento del lenguaje natural, la toma de decisiones o el aprendizaje automático. Puede tener múltiples aplicaciones, desde la medicina hasta la educación, pasando por la seguridad, el transporte o el entretenimiento.

Si bien la IA tiene un gran potencial para mejorar nuestra calidad de vida, también plantea algunos riesgos y desafíos. Por ejemplo, la IA puede afectar a nuestra privacidad, a nuestra autonomía, a nuestra dignidad o a nuestra igualdad. Además, la IA puede ser utilizada con fines maliciosos o ilegales, como la manipulación, la discriminación o la vigilancia masiva. Por eso, es importante establecer unas reglas claras y comunes que garanticen que la IA se usa de forma responsable y que protejan a los ciudadanos y a las empresas frente a posibles abusos o daños.

El Reglamento de IA propone un enfoque basado en el riesgo, es decir, que establece diferentes niveles de exigencia según el grado de peligro que suponga una aplicación de IA para los derechos fundamentales o la seguridad. Así, se distinguen cuatro categorías:

  • IA de riesgo inaceptable: son aquellas aplicaciones que se consideran contrarias a los valores y principios de la UE y que se prohíben. Por ejemplo, la IA que manipule el comportamiento humano, que explote las vulnerabilidades de las personas o que permita la puntuación social por parte de las autoridades públicas.
  • IA de alto riesgo: son aquellas aplicaciones que pueden tener un impacto significativo en la vida o los derechos de las personas o en aspectos esenciales para la sociedad. Por ejemplo, la IA que se use en ámbitos como la salud, el transporte, la educación, el empleo o la justicia. Estas aplicaciones deberán cumplir una serie de requisitos obligatorios, como ser transparentes, precisas, supervisadas por humanos o tener sistemas de seguridad integrados.
  • IA de riesgo limitado: son aquellas aplicaciones que implican una cierta interacción con las personas y que deben garantizar una transparencia adecuada. Por ejemplo, los asistentes virtuales o los chatbots. Estas aplicaciones deberán informar a los usuarios de que están interactuando con una máquina y no con un humano.
  • IA de riesgo mínimo: son aquellas aplicaciones que tienen un impacto bajo o nulo en los derechos o la seguridad y que quedan fuera del ámbito de regulación. Por ejemplo, los videojuegos o los filtros de las redes sociales.

El reglamento tiene como objetivo fomentar el desarrollo y el uso de una IA confiable y humana en la UE, que respete los valores democráticos y el estado de derecho. Con esta normativa, se pretende:

  • Proteger a los ciudadanos y a las empresas frente a los riesgos y daños que pueda causar una IA no ética o defectuosa.
  • Aumentar la confianza y la aceptación social de la IA, al garantizar su transparencia, su rendimiento y su control humano.
  • Impulsar la innovación y la competitividad en el sector de la IA, al crear un mercado único con unas normas claras y armonizadas.
  • Reforzar el liderazgo y la influencia global de la UE en materia de IA, al promover un modelo basado en los derechos humanos y en el bien común.

Un Comité Europeo de Inteligencia Artificial, formado por representantes de los Estados miembros y de la Comisión Europea, será el encargado de facilitar la aplicación y la actualización del marco legal. Asimismo, cada Estado miembro deberá designar una o varias autoridades nacionales competentes para supervisar el cumplimiento del reglamento y sancionar las infracciones. En este sentido, España ha sido el primer país de la UE en constituir la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA).

El texto del Reglamento de IA aún debe ser ratificado por las instituciones europeas, por lo que previsiblemente entrará en vigor a finales de 2026. No obstante, las empresas que desarrollen, proporcionen o utilicen sistemas de IA deberán hacerse las siguientes preguntas clave para adaptarse a las nuevas obligaciones:

  • ¿Qué tipo de sistema de IA estoy desarrollando, proporcionando o utilizando? ¿Se trata de un sistema prohibido, de alto riesgo, de riesgo limitado o de riesgo mínimo?
  • ¿Qué requisitos y obligaciones se aplican a mi sistema de IA según su nivel de riesgo? ¿Cómo puedo demostrar que cumplo con ellos?
  • ¿Qué documentación tengo que elaborar y conservar sobre mi sistema de IA? ¿Qué información tengo que proporcionar a los usuarios y a las autoridades competentes?
  • ¿Qué medidas tengo que adoptar para garantizar la calidad y la seguridad de los datos utilizados por mi sistema de IA? ¿Cómo puedo evitar sesgos o discriminaciones injustas?
  • ¿Qué mecanismos tengo que implementar para supervisar, evaluar y corregir el funcionamiento de mi sistema de IA? ¿Cómo puedo garantizar la transparencia y la explicabilidad de las decisiones tomadas por el sistema?
  • ¿Qué responsabilidades tengo como proveedor o usuario de un sistema de IA? ¿Qué derechos tienen las personas afectadas por el sistema? ¿Cómo puedo garantizar el respeto a su dignidad, autonomía y privacidad?

En conclusión, el nuevo Reglamento de IA de la UE supone un hito histórico en la regulación de esta tecnología emergente, que tiene un gran potencial pero también plantea importantes desafíos éticos, sociales y jurídicos. Desde Vintert estamos a disposición de las empresas afectadas para informarles adecuadamente sobre el contenido y el alcance de la norma, así como para realizar una evaluación exhaustiva del impacto que tendrá en sus actividades.

¡Contacta con nosotros!

Los campos con asterisco (*) son obligatorios.

El responsable del tratamiento de los datos personales facilitados en el formulario de contacto es Vintert, quien los tratará con la finalidad de atender y dar respuesta a las consultas que nos plantees a través del mismo. En la Política de Privacidad se facilita información adicional y detallada sobre protección de datos y se indica cómo ejercer los derechos de acceso, rectificación y supresión, así como otros derechos.