En dépit des taux de satisfaction élevés qu'affichent les pionniers, les inquiétudes exprimées par une majorité (64%) des plus de 5 000 personnes interrogées prolongent de toute évidence les irritations que génèrent parfois – souvent ? – les assistants virtuels et signalent une défiance manifeste à la fois vis-à-vis des technologies sous-jacentes – la familiarité avec des outils tels que ChatGPT ne suffit pas à rassurer (au contraire ?) – et des organisations qui envisagent de les mettre en œuvre.
Dans ce dernier registre, la préoccupation numéro un (pour 6 sondés sur 10) concerne l'accès à un interlocuteur humain. Les intéressés craignent en effet que ne redoublent les obstacles qu'ils rencontrent aujourd'hui avant d'obtenir une réponse à leurs interrogations les plus complexes, l'IA servant en quelque sorte de prétexte à retarder toujours plus le transfert des demandes vers un individu. Petite surprise, le deuxième motif de rejet (à 46%) porte sur un aspect social, à savoir les emplois sacrifiés.
Du côté des solutions, peut-être sous l'influence d'une certaine tendance médiatique à mettre en avant les hallucinations, une partie significative des futurs utilisateurs (42%) se soucient des risques de réponses fausses, susceptibles de les entraîner dans des erreurs plus ou moins dramatiques dont la responsabilité pourrait être difficile à déterminer. Un quart de l'échantillon cite en outre les possibles biais des modèles déployés et la menace qu'ils font peser sur le traitement équitable des clients.
Face à cette rébellion massive – qui, dans des déclarations extrêmes, conduirait plus de la moitié des personnes à changer de fournisseur si le leur décidait de recourir à l'intelligence artificielle dans le cadre de ses services d'assistance –, les analystes de Gartner recommandent instamment de prendre les devants afin de réduire les angoisses. Un exemple consisterait ainsi à expliquer dès le début d'une conversation les conditions dans lesquelles l'appel sera transmis à un représentant en chair et en os.