Aviso legal
El contenido de este artículo tiene fines exclusivamente informativos y no constituye asesoramiento jurídico. Aunque elaboramos la información con el mayor cuidado, no garantizamos su exactitud, integridad ni actualidad. Para un asesoramiento vinculante sobre tu situación específica, consulta a un abogado o abogada cualificado/a.
La pregunta más importante: ¿alto riesgo o no?
Al introducir un sistema de IA en la empresa, hay una pregunta más decisiva que todas las demás: ¿el sistema entra en la categoría de “alto riesgo”? La respuesta a esta pregunta determina el esfuerzo, los costes y tu riesgo legal. Un sistema de alto riesgo está sujeto a requisitos extremadamente estrictos y costosos. Un sistema de riesgo limitado, en cambio, solo tiene obligaciones de transparencia manejables.
Primero, la buena noticia: los asistentes de chat y voz sencillos, cuyo propósito principal es responder preguntas de clientes, son clasificados por el EU AI Act generalmente como “riesgo limitado”.
Sin embargo, la complejidad comienza cuando entran en juego funciones más avanzadas. ¿Podría un análisis de sentimiento o una detección automática de urgencia convertir tu asistente de IA en un sistema de alto riesgo?
¿Cuándo se convierte una herramienta de comunicación en un sistema de alto riesgo?
El AI Act enumera en su Anexo III las áreas en las que los sistemas de IA se consideran potencialmente de alto riesgo. Para la atención al cliente, son especialmente relevantes dos puntos: sistemas que deciden sobre el acceso a servicios esenciales, o sistemas que realizan un perfilado de personas físicas.
Aquí surgen las preocupaciones típicas:
- ¿Se considera un análisis de sentimiento (“el llamante suena enfadado”) como “reconocimiento de emociones” prohibido o “perfilado” de riesgo?
- Si la IA detecta una urgencia (“asunto urgente”), ¿está decidiendo sobre el acceso a un servicio esencial?
Estas preocupaciones son comprensibles, pero un análisis diferenciado muestra por qué en la mayoría de los casos son infundadas.
La clave: ¿la IA es solo un asistente para el ser humano?
El AI Act prevé excepciones específicas para cuando un sistema, a pesar de una posible inclusión en el Anexo III, no se considera de alto riesgo. Dos de estas excepciones son decisivas para la atención al cliente:
- La IA sirve para mejorar el resultado de una actividad humana previamente completada.
- La IA realiza una tarea preparatoria para una evaluación que, en última instancia, es realizada por una persona.
Aquí está la clave. Las funciones de un asistente de IA bien diseñado están orientadas exactamente a estas excepciones. El análisis de sentimiento no toma una decisión autónoma. Realiza una tarea preparatoria al proporcionar a un empleado humano un dato adicional (p. ej., “el llamante parece enfadado”). El empleado puede utilizar esta información para gestionar mejor la conversación. La IA mejora el resultado de la actividad humana sin asumir el control.
Este principio de “Human-in-the-Loop Augmentation” es el factor decisivo para evitar la clasificación de alto riesgo. Mientras la IA apoye al ser humano y no lo sustituya, generalmente permanece como un sistema de riesgo limitado.
Mantenerse conscientemente en el lado seguro
La conclusión para ti como empresario es clara: puedes utilizar funciones innovadoras de IA en la atención al cliente sin asumir la enorme carga del cumplimiento de alto riesgo.
El factor decisivo es elegir un proveedor cuyo producto esté diseñado desde la base como un sistema de asistencia para personas. Un asistente de IA como Safina, por ejemplo, que prepara la información y la presenta al ser humano para que tome la decisión, está conscientemente diseñado para no cumplir los criterios de un sistema de alto riesgo. Así puedes aprovechar las ventajas de la IA y mantenerte en el lado legalmente seguro.