Prédictions Gartner : IA et pessimisme

Publié le 27 octobre 2024 par Patriceb @cestpasmonidee
Comme chaque année à l'occasion de ses symposiums, Gartner livre sa fournée de prédictions pour les départements informatiques et leurs utilisateurs, en complément de ses tendances. Dans le prolongement de ces dernières, l'intelligence artificielle est au centre des attentions de cette édition et l'avenir qu'elle dessine n'est pas rose.
Sur les 10 que compte la liste, un seul pronostic n'a aucun lien direct avec l'IA… mais il n'est pas particulièrement réjouissant, puisqu'il concerne l'addiction « digitale » et ses effets néfastes sur la productivité, sur le stress et la santé mentale, sur les relations sociales, en particulier chez les jeunes. Pour fixer les idées, un milliard de personnes pourraient être affectées en 2028, engendrant la mise en place de véritables politiques de désintoxication, à base de travail « analogique », dans 70% des entreprises.
Passons rapidement en revue les impacts – peut-être – positifs de l'intelligence artificielle, dans deux domaines très différents. Pour les instances dirigeantes des organisations, tout d'abord, son utilisation commencera à émerger pour l'assistance à la prise de décision, lentement avec une adoption encore marginale en 2029. Dans le secteur de la santé, en revanche, elle sera largement déployée afin de soulager les difficultés croissantes des professionnels, notamment face aux exigences des patients.
Passons sur la tentation ridicule mais inoffensive des responsables de marketing – dont ceux de 30% des sociétés de l'indice S&P500 à horizon de 2028 – d'user et, probablement, d'abuser de l'étiquette GenAI ou quelque-chose-GPT afin de renouveler leurs catalogues ou leurs modèles d'affaires. En réalité, il me semble que le mouvement est déjà bien entamé… et pas toujours avec des approches très convaincantes. Ne serions-nous donc qu'au tout début d'une immense vague d'IA-washing ?

Les risques directs sont évidemment présents dans ce panorama, en particulier les détournements d'agents intelligents à des fins malveillantes, de la part de collaborateurs (mécontents, par exemple) ou d'agresseurs externes : voilà une nouvelle dimension d'exposition aux attaques, qui ne manquera pas d'être exploitée. Par ailleurs, les décideurs informatiques imposeront des « gardiens » chargés de surveiller et encadrer les résultats des actions exécutées par les agents intelligents dont ils se défient.
Il reste enfin une série de prédictions potentiellement dignes d'une dystopie, entre les clauses contractuelles des employés qui les contraindront à céder les droits sur leurs données personnelles ingérées par l'entraînement des modèles et le recours à l'IA pour la rationalisation des hiérarchies, conduisant à la disparition des managers intermédiaires, en passant par les outils – tels que l'analyse de sentiment – destinés à évaluer – voire manipuler – les comportements, au nom de la productivité.
Je garde le pire (à mon avis) pour la fin : les grands groupes consacreront 500 milliards de dollars d'ici 2027 à la création de micro-réseaux énergétiques qui leur garantissent autonomie et résilience face à une explosion de la consommation que tous perçoivent comme inéluctable, sans se préoccuper des enjeux climatiques… et sociaux à l'échelle globale. Les annonces de Google et Amazon autour du développement de petits réacteurs nucléaires montrent qu'il ne s'agit hélas pas d'une hypothèse en l'air.
Devant de telles perspectives, on ne peut que se poser la question : la course effrénée à l'intelligence artificielle est-elle raisonnable ? Même sans imaginer des scénarios (lointains) de prise de pouvoir par les machines, ne nous conduit-elle pas vers un monde qui n'a rien de désirable ? Mais sommes-nous capables de nous arrêter ?