DialOnce

Notre expertise en intelligence artificielle

Parce qu’une IA de confiance est avant tout une IA explicable, DialOnce conçoit des solutions performantes et transparentes, au service d’une intelligence artificielle utile, mesurable et maîtrisée.

Une IA au service de la relation client

Moteur conversationnel DialOnce utilisant une IA hybride pour analyser les émotions, comprendre les intentions et répondre naturellement aux clients

Chez DialOnce, l’intelligence artificielle (IA) permet de comprendre et d’orienter chaque demande client avec précision.

 

Nos moteurs conversationnels reposent sur une architecture hybride combinant la compréhension du langage naturel (NLU) et les modèles de langage (LLM) les plus performants du marché.

 

Cette approche propriétaire, que nous appelons Blend, associe la rigueur du NLU, pour identifier les intentions et les émotions, à la souplesse du LLM, pour formuler des réponses naturelles, précises et contextualisées.

Une IA adaptable et de confiance

Vers une IA multi-agents

Le principal chantier d’évolution de DialOnce repose sur le passage à une architecture multi-agents, fondée sur deux piliers : A2A (Agent-to-Agent) et MCP (Model Context Protocol).

 

Un système multi-agents permet à plusieurs agents autonomes et spécialisés de collaborer et d’échanger des informations pour accomplir ensemble des tâches complexes.

 

Grâce au protocole A2A, les agents peuvent collaborer et échanger des informations entre eux, coordonnant ainsi leurs actions pour offrir une expérience fluide à l’utilisateur.

 

Le protocole MCP, quant à lui, leur permet d’interagir de manière sécurisée avec des systèmes tiers (CRM, outils métiers), en garantissant que chaque agent n’accède qu’aux données strictement nécessaires.

 

Cette évolution permettra à chaque étape de la conversation d’être prise en charge par un agent dédié, capable d’identifier une intention, de traiter une demande ou d’activer un outil métier. Par exemple, lors d’une création de ticket SAV, la conversation pourra être automatiquement transférée à l’agent spécialisé concerné, garantissant précision et continuité.

 

Cette architecture renforcera la pertinence et la fiabilité des interactions, tout en posant les bases d’un écosystème d’IA inter-opérable, sécurisée et de confiance.

 

Architecture IA multi-agent avec coordination entre agents spécialisés (A2A) et interactions sécurisées avec les outils métier (MCP)
Supervision de l’IA par un agent juge : LLM as a Judge évaluant la qualité des conversations et générant des recommandations d’amélioration.

Une IA de confiance

L’IA de DialOnce repose sur trois principes essentiels : transparence, supervision humaine et conformité.

 

Notre solution intègre le concept du “LLM as a Judge” : un agent IA configuré en tant que juge, chargé d’évaluer a posteriori la qualité des interactions selon plusieurs indicateurs clés : taux de résolution, satisfaction utilisateur et exactitude des réponses.

 

Cet agent examine régulièrement un échantillon représentatif des conversations (environ 10 %) pour identifier celles qui n’ont pas atteint les résultats attendus ou ont généré de l’insatisfaction.

 

Mais son rôle ne se limite pas à l’analyse : il participe activement à l’amélioration continue de la solution. À partir des tendances observées, il génère des recommandations automatiques pour optimiser les parcours conversationnels, les formulations de réponse ou la logique de routage.

 

Les insights collectés alimentent ensuite une boucle d’amélioration conjointe, partagée entre nos équipes et celles de nos clients lors des retours d’expérience et comités de pilotage.

 

Ce travail collaboratif assure une IA évolutive et contextualisée, capable de s’adapter aux usages, aux environnements et aux objectifs métier réels.

FAQ - Directus

FAQ

L'ensemble des produits DialOnce (agent IA omnicanal, mailbot, conseiller augmenté), s'appuie sur une IA explicable, transparente et supervisée. Notre architecture hybride NLU et IA générative comprend finement les intentions et génère des réponses naturelles et fiables, appuyées par la technologie RAG pour éliminer les hallucinations, en s'appuyant sur votre corpus documentaire. La qualité est suivie en continu grâce à des contrôles automatiques et des indicateurs clés : sentiment perçu, taux de résolution, conformité de la réponse. L'IA précise toujours son rôle et ses limites et peut transférer la demande vers un conseiller humain pour les cas complexes ou sensibles. L'objectif est de proposer une IA performante, maîtrisable et prévisible, au service de vos équipes.
Chez DialOnce, la RAG (Retrieval-augmented generation - Génération Augmentée de Récupération) est intégrée directement au cœur du fonctionnement de l'agent IA. Avant de formuler une réponse, l'IA interroge vos bases de connaissance et vos documents internes pour récupérer les informations exactes à jour. Cela garantit que chaque réponse reflète votre référentiel métier sans nécessiter de réentraînement du modèle lors des évolutions. La RAG renforce ainsi la précision, la conformité et la pertinence des réponses.
Le LLM-as-a-Judge est intégré dans la plateforme DialOnce pour évaluer, contrôler et améliorer les réponses générées par l'IA. Ce second modèle évalue chaque réponse selon trois indicateurs : le sentiment perçu, la résolution, et la conformité des réponses. Ces indicateurs "IA de confiance" sont visibles directement dans la console DialOnce et remplacent des audits manuels lourds par une supervision continue et standardisée. Ils permettent d'ajuster les parcours, d'améliorer les réponses des agents IA et d'assurer une qualité constante dans le temps.
La compréhension fine des intentions est la première étape du fonctionnement des produits DialOnce. L'agent IA identifie précisément grâce à l'analyse sémantique ce que le client cherche à accomplir même lorsque la demande est floue ou émotionnelle. Il détecte, désambiguïse et collecte les informations nécessaires. Cette compréhension permet de déclencher la bonne action dès le premier contact et ainsi d'augmenter le First Contact Resolution Rate, de produire une réponse adaptée ou d'orienter vers le bon canal.
La désambiguïsation sémantique est intégrée de manière native dans les agents de DialOnce. Elle permet de traiter efficacement les demandes imprécises et fréquentes de la relation client. Lorsque l'intention n'est pas claire, l'IA pose les questions nécessaires pour compléter les informations, reformule si la demande est trop vague et s'appuie sur vos contenus métier pour clarifier la situation. Cela évite les erreurs de traitement, les allers-retours inutiles ou les transferts non nécessaires vers un conseiller. Le client gagne du temps, et les conseillers reçoivent des demandes déjà clarifiées.
Les outils de DialOnce (agent et chatbot IA, SVI visuel, mailbot et conseiller Augmenté) s'intègrent facilement à votre écosystème, qu'il s'agisse de votre CRM, de vos outils métiers, de vos API internes ou de vos plateformes de contact. Vous pouvez également utiliser le LLM de votre choix, souverain ou non, tout en conservant les mécanismes de sécurité, de désambiguïsation, de RAG et les indicateurs IA de confiance. Cette flexibilité garantit une continuité de fonctionnement, quel que soit votre environnement technique.
L'approche multi-agents est au cœur de la plateforme DialOnce. Plusieurs agents spécialisés collaborent en temps réel pour analyser l'intention, vérifier une information, récupérer des données dans votre SI, générer une réponse ou créer un ticket... Grâce au MCP (Model Context Protocol), ces agents peuvent échanger des informations structurées de manière standardisée, appeler des outils métier en toute sécurité et accéder uniquement aux données pertinentes pour leur tâche. L'orchestrateur coordonne ensuite ces agents (via MCP) pour offrir une prise en charge fluide, même lorsque la demande est complexe. Pour le client, l'échange reste continu et sans rupture. Pour vos équipes, cela se traduit par des actions plus précises, un traitement plus rapide et une meilleure maîtrise des parcours.
Découvrez nos agents IA en action
Demander une démo