La Ley de Inteligencia Artificial de la UE (2024/1689) busca que los sistemas de IA sean seguros, transparentes y con supervisión humana.
Obliga a proveedores a gestionar riesgos, garantizar trazabilidad de datos, informar claramente a los usuarios y aplicar controles contra sesgos y discriminación.
Según la categoría de riesgo —inaceptable, alto, limitado o mínimo— impone obligaciones proporcionales, con énfasis en la responsabilidad y la protección de los derechos fundamentales.
Nuestros agentes IA cumplen exclusivamente funciones informativas y de asesoramiento, sin tomar decisiones automatizadas con efectos jurídicos o significativos para las personas.
Por su naturaleza, los agentes IA que desarrollamos se sitúan principalmente en la categoría de riesgo “mínimo” definida por la normativa y en pocos casos se sitúan en la categoría de riesgo “limitado.” Sin embargo, la categorización depende en última instancia del uso que el cliente le dé al agente.
Además, los proveedores de modelos de lenguaje OpenAI, Anthropic y Google han publicado compromisos de transparencia, documentación técnica y políticas de uso responsable en línea con las exigencias de la regulación (UE) 2024/1689.
Estos proveedores trabajan activamente en la mitigación de sesgos y alucinaciones, aunque reconocen que tales riesgos no pueden eliminarse por completo.