IA de Riesgo Limitado y Mínimo
La Ley de Inteligencia Artificial (Reglamento (UE) 2024/1689) establece un marco legal que clasifica los sistemas de IA en función del riesgo que suponen para los ciudadanos.
Dependiendo del uso que hagas de la IA, la normativa divide los sistemas en cuatro niveles de riesgo que establecen las obligaciones y posibles infracciones de acuerdo a la normativa española y europea.
Estos niveles van desde el riesgo inaceptable, donde se prohíbe el uso de la IA de forma directa, pasando por el riesgo alto, donde su uso debe ser con mucho cuidado, hasta el riesgo Específico de Transparencia (riesgo limitado), donde prima la transparencia en su uso y el riesgo mínimo o nulo, que establece un uso más libre, pero con cabeza.
TODO LO QUE NECESITAS SABER PARA QUE TU EMPRESA CUMPLA CON LA LEY IA
Ahora te vamos a contar sobre los usos de riesgo Específico de Transparencia o mínimo o nulo.
Sobre los usos de IA, no todas las aplicaciones son iguales: mientras que algunas pueden afectar gravemente a derechos fundamentales, como el derecho a la dignidad, la mayoría de los usos que hacen las pymes y autónomos entrarían en lo que se conoce como IA de Riesgo Específico de Transparencia o mínimo o nulo.
Pero, ¿en qué consisten estos niveles?
Lo primero que debes entender, es que si tu negocio utiliza chatbots, asistentes virtuales o filtros de correo electrónico, es muy probable que tu sistema de inteligencia artificial se encuentre en estos niveles más "bajos", siempre que cumplas las obligaciones de transparencia y etiquetado para el primer caso.
Ahora, vamos al grano, ¿si uso una IA con obligaciones de transparencia, qué tengo que hacer? Aquí te contamos cómo trabajar la transparencia en tu trabajo con la inteligencia artificial.
¡Al lío!
Transparencia en los sistemas de IA: el pilar del Riesgo Específico de Transparencia o Riesgo Limitado
Los sistemas considerados de Riesgo Específico de Transparencia (riesgo limitado) son herramientas de IA que interactúan con los usuarios en tareas concretas, pero no toman decisiones críticas sobre su vida o derechos. En esta categoría entran, por ejemplo:
- Sistemas de interacción automatizada (Chatbots de atención al cliente en páginas web o aplicaciones de mensajería, asistentes virtuales).
- Sistemas de reconocimiento de emociones o categorización biométrica.
- Sistemas de IA que generan o manipulan contenidos (las llamadas ultrafalsificaciones o deepfakes).
En el uso de la IA con Riesgo Específico de Transparencia la clave está en eso, en la transparencia.
¿Qué nos pide la Ley IA en estos casos? La normativa exige que exista transparencia en la interacción y etiquetado de contenidos. Es decir:
- Interacción: El usuario sepa siempre que está interactuando con una máquina y no con un ser humano, salvo que esto sea obvio por el contexto. Un simple aviso como "Estás interactuando con un asistente virtual" cumple con este requisito.
- Contenidos: Si el sistema genera o manipula imágenes, audio o vídeo, el contenido debe estar etiquetado y revelado de forma perceptible como artificialmente creado o modificado.
Ejemplo en una pyme - Si una academia de idiomas emplea un chatbot que resuelve dudas de nuevos alumnos, es obligatorio informar al usuario de que el sistema está gestionado por IA y no por un profesor real. Si utiliza una IA para crear un vídeo con una presentadora virtual, ese vídeo debe llevar un etiquetado que informe de que es un deepfake.
En la IA de Riesgo Mínimo o Nulo, la clave está en la libertad controlada
Vamos, que se trata de usarla, pero sin abusos.
Estos usos de riesgo mínimo o nulo (la gran mayoría de las aplicaciones de IA) no están sujetos a requisitos obligatorios específicos en el Reglamento, salvo que caigan en las prácticas prohibidas (como manipular al usuario de forma dañina o recopilar datos biométricos sin consentimiento). En su lugar, el Reglamento fomenta la adhesión a códigos de conducta voluntarios.
En la IA de riesgo mínimo o nulo estarían usos como:
- Filtros de spam en correo electrónico.
- Videojuegos con IA en la jugabilidad (NPC inteligentes, ajustes de dificultad dinámica).
- Sistemas de recomendación de canciones o listas de reproducción (cuando no afecten significativamente a la elección de productos).
- Plugins de productividad en software de oficina.
Ejemplo en una pyme - Un gimnasio que utiliza una app de juegos de entrenamiento con IA para motivar a sus clientes no necesita más que asegurarse de que el sistema no incurra en usos engañosos o abusivos.
¿Cómo aplicar el etiquetado en la IA que se utiliza?
Siempre que una persona interactúe con un chatbot, un asistente de voz o generador de contenido (imágenes, audios, vídeos), debe quedar claro que la respuesta o el contenido procede de una inteligencia artificial.
La clave está en dejar claro que se trata de IA
- Informar al usuario: Es fundamental informar a las personas cuando interactúan con un sistema de IA, salvo que sea "evidente por las circunstancias y el contexto de uso".
- Las "ultrafalsificaciones" (deepfakes): Si tu sistema de IA genera o manipula imágenes, audios o vídeos que parecen reales y pueden engañar, es obligatorio "hacer público" que el contenido es artificial, etiquetando adecuadamente como contenido generado por IA.
¿Qué significa esta transparencia en el etiquetado de la IA si eres pyme o autónomo?
Se centra en dos conceptos: sencillez pero rigurosidad. Te explicamos.
Para la mayoría de los casos de uso común en pymes (chatbots, asistentes virtuales, herramientas de generación de contenido básico), la clave es la transparencia.
Es decir, saber qué se hace con IA y llevar un registro.
Un simple aviso o una etiqueta clara puede ser suficiente, pero es importante que sea inequívoco. "Este contenido ha sido creado a partir de resultados de IA", por ejemplo.
Evita sanciones por desconocimiento del Reglamento de inteligencia artificial
El incumplimiento de las obligaciones de transparencia y etiquetado puede acarrear multas. Asegúrate de que tus prácticas estén alineadas con estos requisitos y que identifiques el uso que haces de la IA en tu empresa.
Preguntas Frecuentes (FAQs) sobre la IA de Riesgo Específico de Transparencia y Mínimo o Nulo
- ¿Cómo saber si mi IA es de Riesgo Específico de Transparencia o Mínimo o Nulo?
Si tu sistema genera interacción con personas y no es de Alto Riesgo (chatbots, reconocimiento de emociones, sistemas de deepfake), es de Riesgo Específico de Transparencia y requiere el aviso correspondiente.
Si actúa en segundo plano sin interacción directa o impacto significativo (spam, videojuegos, sugerencias automáticas), probablemente sea de Riesgo Mínimo o Nulo y no tiene obligaciones legales, aunque se recomienda el Código de Conducta.
- ¿Necesito un abogado para revisar mis avisos de transparencia?
No es obligatorio, pero sí recomendable para usos que involucren datos personales o contextos sensibles (como recursos humanos, salud o biometría). Para usos básicos en pymes, bastará con un aviso claro de etiquetado.
- ¿Qué pasa si uso una IA para generar contenido que luego edito manualmente?
Si el contenido final incluye aportes relevantes de la IA, conviene avisar al usuario para cumplir con el requisito de transparencia. El hecho de que se haya revisado manualmente no elimina la obligación de transparencia en la autoría del contenido inicial.





