
La inteligencia artificial (IA) ha transformado sectores clave como la medicina y la automoción, pero su rápido desarrollo también ha traído consigo importantes desafíos éticos y sociales. Para enfrentarlos, la Unión Europea ha establecido un marco legal destinado a regular su uso. En este contexto, la Ley de Inteligencia Artificial clasifica los sistemas según el nivel de riesgo que representan, abarcando desde aquellos prohibidos hasta los que no requieren regulación, con el objetivo de proteger los derechos y la seguridad de los ciudadanos sin frenar la innovación.
Con el fin de impulsar un desarrollo responsable y equilibrado de la tecnología, el 1 de agosto de 2024 entró en vigor el Reglamento Europeo de Inteligencia Artificial. Este reglamento tiene como objetivo mitigar los riesgos de la IA, proporcionar directrices claras a los desarrolladores e implementadores, y facilitar los trámites para las empresas.
A continuación, se describen las principales clasificaciones y las obligaciones asociadas a cada una.
Riesgo inaceptable
Sistemas de IA que representen una amenaza clara para la seguridad, los derechos o el bienestar de las personas. La ley prohíbe:
- Manipular o engañar a las personas de forma perjudicial.
- Clasificar a las personas según su comportamiento, situación económica o características personales, lo que puede afectar su acceso a servicios o derechos.
- Uso de cámaras para identificar a personas en lugares públicos sin su consentimiento.
- Recoger imágenes o videos de personas, como fotos de internet o cámaras, para crear una base de datos que se usa para identificarlas.
Riesgo alto
Sistemas que pueden afectar gravemente la salud, la seguridad o los derechos fundamentales. Esto incluye:
- IA integrada en productos regulados como coches, juguetes o dispositivos médicos.
- Herramientas de selección de personal o gestión de trabajadores.
- Sistemas usados en la educación para evaluar o clasificar estudiantes.
- Uso de IA en la justicia o procesos democráticos, como ayudar a redactar sentencias.
Riesgo de transparencia
Sistemas que requieren informar claramente a los usuarios sobre su uso.
- Chatbots o asistentes virtuales que deben indicar que son máquinas.
- Contenido generado por IA que debe estar claramente etiquetado.
- Deepfakes u otros materiales que podrían inducir a error deben identificarse como tales.
Riesgo mínimo o nulo
Sistemas que no presentan riesgos significativos y no requieren regulación.
- Filtros de spam en el correo electrónico.
- Videojuegos con funciones basadas en IA.
- Aplicaciones de entretenimiento sin impacto en derechos o seguridad.
En este contexto, la Unión Europea no solo busca regular el uso de la inteligencia artificial, sino también posicionarse como líder mundial en el desarrollo de una IA segura, ética y centrada en los derechos humanos. Su objetivo es que esta tecnología beneficie a toda la sociedad, mejorando servicios esenciales como la salud, el transporte o la educación. Además, promueve la innovación en sectores clave como la energía o la seguridad, ayudando a las empresas a ser más productivas y eficientes. Con un marco legal claro y centrado en los derechos fundamentales, la UE sienta las bases para que la IA contribuya al bienestar de las personas, al crecimiento económico y a una gestión pública más sostenible.