Resolvo
Regulación
10 min lectura
12 de mayo de 2026

AI Act 2026: qué deben hacer las empresas españolas para cumplirlo

El Reglamento Europeo de Inteligencia Artificial (AI Act) ya es una realidad. Con la entrada en vigor de sus primeras obligaciones desde febrero de 2025 y los plazos finales en agosto de 2026, muchas empresas españolas se preguntan qué les aplica exactamente y qué deben hacer. Esta guía lo explica sin tecnicismos.

Urgente: La obligación de formación en alfabetización IA para empleados que usen sistemas de IA ya está en vigor desde febrero de 2025. Las sanciones por incumplimiento pueden llegar al 3% de la facturación anual global.

AI Act regulación inteligencia artificial empresas España 2026

¿Qué es el AI Act y por qué afecta a las empresas?

El Reglamento (UE) 2024/1689 de Inteligencia Artificial, conocido como AI Act, es la primera regulación integral sobre IA del mundo y es directamente aplicable en todos los estados miembros de la UE, incluida España, sin necesidad de transposición nacional.

Su objetivo es garantizar que los sistemas de IA que se usan en Europa sean seguros, transparentes y respetuosos con los derechos fundamentales. Afecta a cualquier empresa que desarrolle, comercialice o use sistemas de IA en su actividad — lo que incluye a la mayoría de empresas que usan herramientas como chatbots, sistemas de recomendación, software de RRHH con IA o cualquier automatización inteligente.

El sistema de clasificación por riesgo

El AI Act clasifica los sistemas de IA en cuatro categorías según su riesgo:

Riesgo inaceptable — PROHIBIDO

Sistemas de puntuación social, manipulación subliminal, reconocimiento facial en espacios públicos en tiempo real. Las empresas normales no usan estos sistemas.

Alto riesgo — Obligaciones estrictas

IA en contratación de personal, evaluación crediticia, diagnóstico médico, sistemas educativos de evaluación. Si tu empresa usa IA en RRHH o concede créditos, esto te aplica.

Riesgo limitado — Transparencia obligatoria

Chatbots y agentes conversacionales. Obligación principal: informar al usuario de que está hablando con una IA.

Riesgo mínimo — Sin obligaciones específicas

Filtros de spam, recomendaciones de contenido, automatización de procesos administrativos. La mayoría de casos de uso en empresas caen aquí.

Las 4 obligaciones que SÍ aplican a la mayoría de empresas

1. Formación en alfabetización IA (ya en vigor)

Desde el 2 de febrero de 2025, el artículo 4 del AI Act obliga a cualquier empresa que use sistemas de IA a garantizar que el personal que trabaja con esos sistemas tenga un nivel suficiente de alfabetización en IA. Esto no significa formación técnica avanzada, sino comprensión básica de qué hace el sistema, sus limitaciones y riesgos.

Qué hacer: Documentar qué sistemas de IA usa cada departamento y proporcionar formación básica. En Resolvo incluimos esta formación en todos nuestros proyectos de implementación.

2. Transparencia con los usuarios finales

Si tu empresa usa chatbots o agentes IA para interactuar con clientes, estás obligado a informarles de que están hablando con una IA. Esta obligación ya aplica para sistemas de riesgo limitado.

Qué hacer: Añadir un mensaje claro al inicio de las conversaciones automatizadas: "Soy un asistente virtual de [Empresa]. ¿En qué puedo ayudarte?"

3. Supervisión humana

Para sistemas de IA que toman decisiones que afectan a personas (recomendaciones de precios, filtros de candidatos, evaluación de clientes), debe existir un mecanismo de supervisión humana que pueda revisar, corregir o anular las decisiones del sistema.

4. Documentación mínima

Las empresas deben mantener un registro básico de los sistemas de IA que utilizan: qué hacen, con qué datos operan y para qué propósito. No es un documento extenso, pero debe existir.

Calendario de obligaciones

FechaObligación¿Aplica a empresas?
Feb 2025Formación en alfabetización IA + prohibiciones
Ago 2025Obligaciones para sistemas de IA de propósito general (GPAI)Solo si usas/desarrollas GPAIs
Ago 2026Obligaciones completas para IA de alto riesgoSi usas IA en RRHH, crédito, salud
Ago 2027IA de alto riesgo en sistemas ya existentesSistemas legacy con IA

Plan de acción para empresas en 4 pasos

01

Inventariar los sistemas de IA que usas

Lista todas las herramientas con componentes de IA: CRM con scoring, chatbots, herramientas de marketing automatizado, software de RRHH, etc.

02

Clasificar por categoría de riesgo

Para cada sistema, determina si cae en riesgo mínimo, limitado o alto. La mayoría de empresas solo tendrá sistemas de riesgo mínimo y limitado.

03

Implementar transparencia y formación

Añade avisos de IA en chatbots e interfaces de usuario. Forma al equipo que usa sistemas de IA con una sesión básica documentada.

04

Crear la documentación mínima

Un documento sencillo que liste qué sistemas de IA usas, con qué propósito y qué salvaguardas existen.

Preguntas frecuentes sobre el AI Act y empresas

¿Hay sanciones para empresas que no cumplan?+

Sí. Las sanciones van desde el 1,5% hasta el 7% de la facturación anual global según la infracción. Para sistemas prohibidos, hasta 35 millones de euros o el 7% de la facturación. Las empresas tienen el mismo marco regulatorio que las grandes empresas, aunque las autoridades nacionales pueden considerar la capacidad económica al imponer sanciones.

¿Mi chatbot de atención al cliente está regulado?+

Sí, cae en la categoría de "riesgo limitado". La obligación principal es informar al usuario de que está interactuando con una IA. Es un requisito sencillo de implementar.

¿El AI Act afecta al uso de ChatGPT o Copilot en la empresa?+

El uso interno de herramientas como ChatGPT, Copilot o Claude para productividad interna está en la categoría de riesgo mínimo. La obligación principal es la formación básica del personal que los usa.

¿Necesitas ayuda para cumplir con el AI Act?

En Resolvo incluimos el cumplimiento del AI Act en todos nuestros proyectos de implementación de IA.

Hablar con un experto