Bon retour dans notre série « Plongée dans Safina AI ». Dans la Partie 1 : L’architecture centrale — IA en temps réel pour la voix, nous avons exploré le pipeline haute vitesse hautement intégré qui permet à Safina d’écouter, de réfléchir et de parler avec une latence minimale. Nous avons couvert le « système nerveux » de notre IA. Maintenant, penchons-nous sur son « cerveau » : Comment Safina sait-elle réellement des choses sur ton entreprise ?
La connaissance est la clé
Un assistant téléphonique IA n’est aussi bon que ses connaissances. Qu’il s’agisse de retrouver tes horaires d’ouverture ou de consulter l’historique de commandes d’un client — l’accès aux bonnes informations au bon moment est décisif. Safina utilise pour cela une approche hybride avec deux techniques puissantes :
- Mémoire en contexte — la mémoire à court terme de l’IA
- Retrieval-Augmented Generation (RAG) — la mémoire à long terme de l’IA
Méthode 1 : Mémoire en contexte — La mémoire à court terme
Le moyen le plus rapide pour un Large Language Model (LLM) d’accéder à des informations est lorsque celles-ci font déjà partie de ses « pensées » immédiates — la fameuse fenêtre de contexte. Tu peux te la représenter comme la mémoire de travail de l’IA. Lorsque tu configures ton assistant Safina, tu fournis les détails clés de ton entreprise. Ceux-ci sont chargés directement dans la fenêtre de contexte pour chaque appel. Parfaitement adaptés à la mémoire en contexte :
- Données clés de l’entreprise : Nom, adresse, numéro de téléphone, site web
- Horaires d’ouverture standards : « Nous sommes ouverts du lundi au vendredi de 9h à 17h. »
- FAQ : Réponses aux questions courantes comme « Proposez-vous la livraison gratuite ? »
- Instructions de base : « Tu es un assistant aimable pour [nom de l’entreprise]. Aide les appelants efficacement. »
Avantage : Des réponses ultra-rapides, car aucune requête externe n’est nécessaire — idéal pour les questions fréquentes et simples. Limitation : La fenêtre de contexte est limitée. Les grands catalogues de produits, les historiques clients complets ou des milliers de documents n’y trouvent pas leur place. Pour cela, il faut une solution de mémoire à long terme.
Méthode 2 : Retrieval-Augmented Generation (RAG) — La mémoire à long terme
Quand un appelant pose une question comme « Pouvez-vous vérifier le statut de ma commande de mardi dernier ? » ou « Quelles sont les spécifications techniques du produit X ? » — c’est là qu’intervient le RAG. Le RAG connecte le LLM à tes vastes bases de connaissances et permet de rechercher des informations en temps réel depuis pratiquement n’importe quelle source. Voici comment fonctionne le workflow RAG :
- Détection d’intention : Le LLM reconnaît que des données externes sont nécessaires.
- Formulation de requête : La question est convertie en une requête structurée pour la source de données appropriée.
- Récupération de données : Safina accède en toute sécurité à tes données — par ex. :
- Données structurées : MySQL, PostgreSQL, NoSQL (par ex. MongoDB)
- Données non structurées : Recherche sémantique dans des documents, PDFs, sites web, bases de données vectorielles ou stockage objet (Amazon S3, Google Cloud Storage)
- Injection dans le contexte : Les informations trouvées sont insérées dans la fenêtre de contexte.
- Génération de réponse : Le LLM formule une réponse naturelle, par ex. : « J’ai vérifié : ta commande de mardi dernier a été expédiée. Le numéro de suivi est… »
L’approche hybride de Safina : rapide + profonde
Safina ne te force pas à choisir une seule méthode — les deux sont combinées intelligemment :
- D’abord, Safina vérifie si la réponse se trouve dans la mémoire en contexte.
- Seulement si nécessaire, le pipeline RAG est activé.
Avantages :
- Réponses ultra-rapides aux questions fréquentes
- Réponses profondes et précises aux demandes complexes basées sur les données
En combinant mémoire de travail et mémoire à long terme, Safina offre une expérience conversationnelle à la fois rapide et fondée.
Prêt à donner un cerveau à ton IA ?
Connecte Safina à tes sources de connaissances — qu’il s’agisse de quelques faits importants ou d’une base de données complète. Découvre à quel point il est simple de créer un assistant IA véritablement compétent.
Prochaine partie : Partie 3 : Les sens — Reconnaissance vocale haute précision (STT) — Découvre comment Safina comprend la parole en temps réel, reconnaît les accents et filtre le bruit de fond.