« L’assistant d’IA n’est pas si intelligent en réalité »
Pourquoi c’est important: Les histoires sur les capacités de l’IA sont sur-typées deviennent de plus en plus courantes. Après avoir récemment appris que de nombreux projets d’IA agentiques ne répondent pas aux attentes, les représentants du service client dans un centre d’appels disent que même leurs assistants d’IA se révèlent plus un obstacle qu’une aide.
Une étude réalisée par des chercheurs de plusieurs universités chinoises et d’une compagnie d’électricité chinoise a examiné quel impact les assistants d’IA avaient sur les représentants du service client de l’usine (CSR). Les résultats n’ont pas peint l’IA en tant que technologie d’assistance miracle que ses créateurs le décrivent souvent.
L’une des plus grandes plaintes était que lors de la transcription des appels audio des clients, l’IA était remplie d’inexactitudes en raison des accents, de la prononciation et de la vitesse de la parole des appelants. L’IA a également lutté chaque fois qu’il devait transformer l’audio composé de séquences de nombres en texte, ce qui a souvent fait mal les numéros de téléphone.
Un RSE qui a participé à l’étude a déclaré: « L’assistant de l’IA n’est pas si intelligent en réalité, » ajoutant qu’il « il donne des numéros de téléphone en morceaux, donc je dois y entrer manuellement ».
Les homophones, les mots qui ont la même prononciation mais des significations différentes, telles que New et Savaient, étaient un autre problème pour l’assistant de l’IA.
La technologie de reconnaissance des émotions, quelque chose que nous avons vu plusieurs rapports – la plupart d’entre eux pas bons – sont également critiqués par les personnes interrogées. Il a souvent mal classé le discours normal comme étant une émotion négative, avait trop peu de catégories pour la gamme d’émotions que les gens ont exprimées, et ont souvent associé un niveau de volume élevé en tant que personne en colère ou bouleversée, même si ce n’était qu’une personne qui parle naturellement fort. En conséquence, la plupart des CSR ont ignoré les étiquettes émotionnelles que le système a attribuées aux appelants, affirmant qu’ils étaient capables de comprendre le ton d’un appelant et les émotions elles-mêmes.
En fin de compte, bien que l’assistant d’IA ait réduit la quantité de frappe de base requise par les CSR, le contenu qu’il a produit était souvent rempli d’erreurs et de redondances. Cela obligeait les travailleurs à passer par les résumés d’appel, à corriger les erreurs et à supprimer des sections. De plus, l’IA n’a souvent pas réussi à enregistrer les informations clés des clients.
« Bien que l’IA améliore l’efficacité du travail, il augmente simultanément les charges d’apprentissage des CSR en raison de la nécessité d’une adaptation et d’une correction supplémentaires », conclut le rapport. « L’inadéquation entre les attentes technologiques et la mise en œuvre réelle reflète une surveillance courante parmi les concepteurs de technologies, qui surestiment les gains d’efficacité tout en sous-estimant les charges d’apprentissage implicites de l’adaptation aux nouveaux systèmes. »
Le rapport met en évidence d’autres problèmes auxquels l’intégration de l’IA est confrontée, notamment le recul des employés contre l’utilisation de la technologie dans les centres d’appels et le stress qu’il provoque sur les pertes d’emplois redoutées. Il y a aussi le facteur client, de nombreuses personnes refusant d’utiliser une entreprise qui s’appuie si fortement sur l’IA pour le service client.
En juin, une enquête de Gartner a révélé que 50% des organisations qui avaient prévu de remplacer les CSR par l’IA devaient annuler leur décision. Plus récemment, le cabinet de recherche a prédit que plus de 40% des projets d’IA agentiques seront annulés d’ici 2027.