Des urgences et de l’intelligence artificielle

Publié le 11 mai 2018 par H16

La presse, friande de tragédies humaines, en aura amplement fait l’écho : une jeune femme est morte quelques heures après son appel au SAMU de Strasbourg, pendant lequel les deux opératrices s’étaient montrées très en dessous de ce qu’on aurait pu attendre d’un service de traitement téléphonique d’urgences.

La publication de l’appel aura nettement aidé les médias à montrer le décalage béant entre la situation de la jeune femme, très souffrante, et le détachement stupéfiant (et finalement mortel) des opératrices à l’autre bout du fil.

Depuis cette publication, il s’ensuit naturellement une tempête polémique où chacun cherche à savoir à la fois comment sanctionner les opératrices en question et très accessoirement (nous sommes en France) à éviter que ce genre de situations dramatiques ne se reproduise. D’autant que ce n’est pas la première fois que ce genre de cas tragique fait surface : on se souviendra de nombreux exemples où l’un ou l’autre appel pour une crise cardiaque ou un manque d’insuline se seront terminés par des prises en charge hospitalières trop tardives conduisant parfois au décès.

J’ai assez peu lu d’explications sur le détachement émotionnel manifesté par les opératrices. Pourtant, quelques éléments permettent d’expliquer (sans excuser) leurs réactions pour le moins peu empathiques.

D’une part, les services téléphoniques d’urgence sont trop souvent confrontés à des appels sans fondement. La multiplication de ces appels et l’usage un peu trop large des services d’urgence pour ce qui ressort très souvent de la bobologie entraîne un scepticisme automatique devant tous les appels reçus, ce qui rend les cas réellement graves plus difficiles à déceler et complexes à traiter. Si un trop grand nombre d’appels se révèle être sans objet pour les urgences, faire le tri devient plus compliqué et amènera statistiquement à plus de faux négatifs.

D’autre part, on doit tenir compte du phénomène logique de détachement émotionnel pour les personnes qui sont constamment au contact de situations potentiellement dramatiques : les pompiers, les policiers, les urgentistes sont régulièrement et constamment confrontés aux drames humains, à la mort, aux blessures de tous types et pour pouvoir fonctionner efficacement, doivent se forger un certain détachement psychologique et émotionnel. Le dosage de ce détachement est peu aisé et conduit parfois à l’absence d’empathie qu’on a pu observer dans l’échange qui fait actuellement polémique.

Ces deux éléments (un trop grand nombre de faux positifs et l’expérience nécessaire pour les traiter qui entraîne un détachement émotionnel potentiellement dangereux) constituent une base de réflexion pour chercher des pistes d’amélioration du service rendu.

On pourrait par exemple évoquer ici la nature, publique et collectivisée, du système de santé français qui entraîne inévitablement son engorgement bureaucratique, rendant ce genre d’erreurs plus fréquentes. De même, on peut aussi revenir à la responsabilisation des appelants : la gestion des urgences étant actuellement du domaine public, c’est-à-dire payée par tous et donc gratuite pour l’appelant lambda, réintroduire un tarif (avec remboursement par le biais de la sécurité sociale seulement lorsque l’urgence est avérée) permettrait sans doute de réduire les faux appels.

Mais on comprend que ce genre de solutions, outre l’évidente levée de bouclier qu’elles déclencheraient dans le pays où tout le monde croit au repas gratuit, aux soins offerts et au collectivisme efficace, ne permettrait pas de couvrir le second facteur évoqué précédemment : la gestion émotionnelle des appels représente un coût psychologique très important pour les opérateurs.

Cependant, alors que les technologies de gestion de l’information progressent à pas de géant, une solution semble se dessiner.

Oh, pour le moment, on n’en est qu’aux balbutiements et il y a encore beaucoup de chemin à parcourir pour adapter ce genre de solutions à ce cas précis (la gestion des appels d’urgence), mais les progrès que vient de présenter Google en la matière permettent d’y réfléchir très sérieusement.

Ici, je voudrais introduire Google Duplex dont on commence à évoquer l’existence dans la presse généraliste : il s’agit de la dernière prouesse technologique proposée par les équipes de Google et qui se place comme votre assistant personnel, capable de prendre vos rendez-vous en tenant une simple conversation avec le commerce ou le professionnel dont vous souhaitez les services.

La démonstration, réalisée par Sundar Pichai, l’actuel PDG de Google, donne une assez bonne idée de l’état d’avancement de l’intelligence artificielle dans le domaine. Je vous encourage à regarder la vidéo suivante, assez bluffante. S’il ne s’agit pas encore d’un test de Turing, on s’en rapproche néanmoins un peu tous les jours :

Comme je le mentionnais plus haut, il faut bien comprendre que cette technologie, relativement au point pour la prise d’un rendez-vous dans une situation assez conventionnelle, n’est évidemment pas encore adaptée à la gestion spécifique de toutes les urgences (mais pour certaines, c’est déjà en cours).

Mais on comprend qu’au rythme rapide des évolutions technologiques, il arrivera un moment où il sera effectivement plus efficace de réaliser les filtres de premier niveau par des assistants artificiels qui se chargeront de faire le tri entre les appels relevant effectivement des urgences de ceux qui ne nécessitent que des traitements standardisés.

Les implications de cette technologie sont énormes et comme on peut s’y attendre, il n’a pas fallu longtemps pour que de nombreux commentateurs pointent les dangers de son utilisation, du détournement d’usage en passant par la mainmise de ces assistants (et des firmes les proposant) sur nos données personnelles jusqu’à la dépendance qui à terme pourrait faire de nous des assistés permanents, incapables de régler nos affaires sans ces aides.

Ceci revient tout de même à oublier assez rapidement tous les bénéfices qu’on pourrait en retirer, par exemple pour ceux qui ne peuvent pas, pour différentes raisons, interagir directement avec d’autres humains (handicapés divers, typiquement) jusqu’à enlever des standards téléphoniques des humains dont les tâches pourront être nettement plus gratifiantes que gérer des clients mécontents, des colériques ou des petits farceurs inutiles voire dangereux.

Par extension, si un consommateur lambda pourra bientôt disposer d’un assistant prenant ses rendez-vous, on imagine aisément que les commerçants pourront disposer d’un standard téléphonique répondant « automatiquement » (et de façon « crédiblement » humaine) aux principales questions de leurs clients, à un coût très modéré pour l’entreprise.

Au passage, on comprend qu’à terme, il est probable que nos assistants automatiques prendront des rendez-vous auprès de standards téléphoniques automatiques, tout ce petit monde électronique gérant de façon aussi humaine que possible des conversations dans lesquelles plus aucun humain n’interviendra. Ces derniers pourront alors se consacrer à des tâches requérant leur capacité d’abstraction ou, justement, cette empathie que la machine ne peut pas (encore ?) imiter, posséder ou gérer pour améliorer la situation qu’on lui présente.

Mais, comme je le disais, il y a loin de la coupe aux lèvres et il faudra de nombreuses années pour qu’on puisse atteindre le niveau de performances suffisant pour que ces assistants soient déployés aux urgences. Peut-être alors pourra-t-on éviter les tragédies comme celle de Naomi ?

J'accepte les BCH !

qqefdljudc7c02jhs87f29yymerxpu0zfupuufgvz6

Vous aussi, foutez les banquiers centraux dehors, terrorisez l’État et les banques en utilisant les cryptomonnaies, en les promouvant et pourquoi pas, en faisant un don avec !
BCH : qqefdljudc7c02jhs87f29yymerxpu0zfupuufgvz6
 

Powered by Bitcoin Tips