Avis juridique
Le contenu de cet article est fourni à titre purement informatif et ne constitue pas un conseil juridique. Bien que nous rédigions ces informations avec le plus grand soin, nous ne garantissons pas leur exactitude, leur exhaustivité ni leur actualité. Pour un conseil juridique adapté à ta situation spécifique, adresse-toi à un avocat qualifié.
La question cruciale : haut risque ou pas ?
Lors de l’introduction d’un système d’IA en entreprise, une question est plus déterminante que toutes les autres : le système entre-t-il dans la catégorie « haut risque » ? La réponse à cette question détermine l’ampleur des efforts, les coûts et ton risque juridique. Un système à haut risque est soumis à des exigences extrêmement strictes et coûteuses. Un système à risque limité, en revanche, n’a que des obligations de transparence modérées.
La bonne nouvelle d’abord : les assistants de chat et vocaux simples, dont la fonction principale est de répondre aux questions des clients, sont fondamentalement classés comme « risque limité » par l’EU AI Act.
La complexité commence toutefois lorsque des fonctionnalités plus avancées entrent en jeu. Une analyse de sentiment ou une détection automatique de l’urgence pourraient-elles faire de ton assistant IA un système à haut risque ?
Quand un outil de communication devient-il un système à haut risque ?
L’AI Act énumère dans son annexe III les domaines dans lesquels les systèmes d’IA sont potentiellement considérés comme à haut risque. Pour le service client, deux points sont particulièrement pertinents : les systèmes qui décident de l’accès à des services essentiels, ou les systèmes qui effectuent un profilage de personnes physiques.
C’est là que naissent les inquiétudes typiques :
- Une analyse de sentiment (« l’appelant semble en colère ») est-elle considérée comme une « reconnaissance d’émotions » interdite ou un « profilage » risqué ?
- Si l’IA détecte une urgence (« demande urgente »), décide-t-elle alors de l’accès à un service essentiel ?
Ces craintes sont compréhensibles, mais une analyse nuancée montre pourquoi elles sont infondées dans la plupart des cas.
La clé : l’IA n’est-elle qu’un assistant pour l’humain ?
L’AI Act prévoit des exceptions ciblées pour lesquelles un système, malgré une inscription potentielle à l’annexe III, n’est pas considéré comme à haut risque. Deux de ces exceptions sont déterminantes pour le service client :
- L’IA sert à améliorer le résultat d’une activité humaine préalablement réalisée.
- L’IA effectue une tâche préparatoire pour une évaluation qui sera finalement réalisée par un humain.
C’est précisément là que réside la clé. Les fonctionnalités d’un assistant IA bien conçu sont exactement calibrées pour ces exceptions. L’analyse de sentiment ne prend pas de décision autonome. Elle effectue une tâche préparatoire en fournissant un point de données supplémentaire à un collaborateur humain (par ex. « l’appelant semble en colère »). Le collaborateur peut utiliser cette information pour mieux conduire la conversation. L’IA améliore donc le résultat de l’activité humaine sans en prendre le contrôle.
Ce principe de « Human-in-the-Loop Augmentation » est le facteur déterminant pour éviter la classification haut risque. Tant que l’IA soutient l’humain et ne le remplace pas, elle reste en règle générale un système à risque limité.
Rester consciemment du bon côté
La conclusion pour toi en tant qu’entrepreneur est claire : tu peux utiliser des fonctionnalités IA innovantes dans ton service client sans devoir supporter la charge massive de la conformité haut risque.
Le facteur déterminant est le choix d’un fournisseur dont le produit est conçu dès le départ comme un système d’assistance pour les humains. Un assistant IA comme Safina par exemple, qui prépare les informations et les soumet à la décision humaine, est délibérément conçu pour ne pas remplir les critères d’un système à haut risque. Ainsi, tu profites des avantages de l’IA tout en restant du bon côté de la loi.