Magazine Gadgets

L’informatique affective est-elle un pont trop loin ? Ce n’est pas comme si nous savions toujours ce que nous ressentons. Droite?

Publié le 29 mars 2023 par Mycamer
informatique affective.

Getty

Le pouvoir d’aspiration de l’intelligence artificielle (IA/ML) et de l’apprentissage automatique (IA/ML) est l’objectivité – et maintenant, de plus en plus, l’explicabilité, lorsque l’objectivité est remise en question. Nous sommes entourés de leaders émotionnels qui commettent toutes sortes d’erreurs – y compris l’intégration de biais algorithmiques – précisément parce qu’ils sont émotifs. La dernière chose dont nous avons besoin, ce sont des applications qui imitent les émotions humaines ou essaient d’interpréter ce que leurs partenaires humains ressentent pour réagir de manière préprogrammée. Bien plus, pourrons-nous jamais le faire avec la certitude de tuer les mauvaises herbes, d’accorder ou de refuser des prêts ou de cueillir des pommes mûres – des activités qui fonctionnent plutôt bien dans le monde bien délimité que nous appelons l’apprentissage supervisé ? En même temps, y a-t-il de « bonnes » applications ici ? Les désordres émotionnels peuvent-ils économiser et gagner de l’argent ?

Informatique affective

De quoi parle-t-on ici?

« L’informatique affective est l’étude et le développement de systèmes et d’appareils capables de reconnaître, d’interpréter, de traiter et de simuler des affects humains. Il s’agit d’un domaine interdisciplinaire couvrant l’informatique, la psychologie et les sciences cognitives… l’une des motivations de la recherche est la capacité de donner aux machines une intelligence émotionnelle, notamment pour simuler l’empathie. La machine devrait interpréter l’état émotionnel des humains et y adapter son comportement, en donnant une réponse appropriée à ces émotions.

Voyons si nous avons raison:

« La recherche en informatique affective, en reconnaissance des émotions et en analyse des sentiments vise à améliorer le bien-être des personnes en permettant aux ordinateurs et aux robots de mieux prendre des décisions et servir, grâce à la prise de conscience des émotions des personnes. Les émotions peuvent être reconnues, avec plus ou moins de précision, à partir de divers signaux, y compris les expressions faciales, les gestes et les voix, à l’aide de dispositifs portables ou de capteurs à distance (par exemple, la réponse galvanique de la peau, les interfaces cerveau-machine et les caméras).

Cela peut-il vraiment être fait? Je veux dire, est-ce que mes expressions faciales transmettent toujours des émotions définissables ? Qu’en est-il de toutes ces fois où quelqu’un me regarde et me demande, “A quoi penses-tu?,” et je réponds, “Je n’ai aucune idée», parce que je n’en ai vraiment pas. Est-ce un peu comme des détecteurs de mensonges, où si un réagit comportementalement à quelque chose en louchant ou en roulant des yeux, l’émotion derrière ces gestes sera interprétée par une machine affective ? Idem pour soupirer, transpirer, tousser ou prendre trop de respirations profondes dans ce la toileMD dit que la période de temps est trop courte ? Quel est l’expert du domaine qui détermine le lien entre les comportements, les émotions qu’ils représentent et la réponse « correcte » ? Puis-je établir une corrélation avec confiance ?

Pas si vite …

Quelqu’un – Lisa Feldman Barrett – a déjà suggéré que nous ne comprenons pas comment fonctionnent les émotions.” Elle explique pourquoi nous nous trompons souvent:

“Des centaines d’études concluent que les gens du monde entier expriment des émotions avec les mêmes mouvements faciaux, même si la plupart de ces études utilisent une méthode expérimentale fragile qui ne se reproduit pas lorsqu’elle est modifiée.

“Les entreprises prétendent avoir des algorithmes d’apprentissage automatique pour détecter les émotions des sourires et des grimaces, mais elles détectent les mouvements musculaires, pas la signification émotionnelle de ces mouvements dans leur contexte. Les données montrent, par exemple, que les personnes qui vivent dans des cultures urbaines à grande échelle se renfrognent de colère moins de 30 % du temps, donc pour les 70 % restants, elles font autre chose avec leur visage en colère.

« Et les gens se renfrognent pour de nombreuses raisons autres que la colère – ils peuvent être très concentrés ou avoir des gaz. Les preuves d’expressions universelles de l’émotion sont encore plus faibles dans les sociétés isolées à petite échelle. Par conséquent, le renfrognement n’est pas l’expression universelle de la colère, juste une expression parmi tant d’autres.

“Cette confusion se répercute dans la presse populaire, c’est pourquoi vous voyez des reportages selon lesquels les souris ont des expressions faciales émotionnelles (elles n’en ont pas), qu’une région du cerveau appelée l’amygdale est le lieu de la peur (ce n’est pas le cas) et que les systèmes d’IA peuvent lire vos émotions (ils ne le peuvent pas).

Elle suggère également que, par exemple, “nous ne faisons pas tous les mêmes expressions quand nous sommes tristes.” “Elle soutient que bon nombre des croyances clés que nous avons sur les émotions sont fausses. Ce n’est pas vrai que nous ressentons tous les mêmes choses, que n’importe qui peut “lire” le visage des autres, et ce n’est pas vrai que les émotions sont des choses qui nous arrivent.”

Lorsqu’on lui a demandé:

“Je suis curieux de savoir ce que tout cela signifie pour l’informatique affective, ou les startups qui essaient d’analyser votre expression faciale pour comprendre comment vous vous sentez. Cela signifie-t-il que leurs recherches sont vaines ? »

Le Dr Barrett a répondu:

“Comme ils le poursuivent actuellement, la plupart des entreprises vont échouer. Si les gens utilisent la vision classique pour guider le développement de leur technologie – si vous essayez de créer un logiciel ou une technologie pour identifier les froncements de sourcils ou les froncements de sourcils et ainsi de suite et que vous supposez que cela signifie de la colère, bonne chance.

“Mais si l’informatique affective et d’autres technologies dans ce domaine étaient légèrement ajustées dans leurs objectifs, elles ont le potentiel de révolutionner la science de l’émotion. Nous devons être en mesure de suivre avec précision les mouvements des personnes, et il serait très utile de mesurer leurs mouvements et autant que possible le contexte externe et interne.

Peut-être de « bonnes » applications ?

Bernard Marr décrit quelques « bons » résultats:

« Les programmes d’apprentissage en ligne pourraient détecter automatiquement les difficultés de l’apprenant et proposer des explications ou des informations supplémentaires.

“Testez l’efficacité des publicités et comment les téléspectateurs réagissent aux bandes-annonces de films et aux émissions de télévision.

« Une technologie embarquée qui peut détecter quand vous êtes somnolent ou distrait, et peut contacter les services d’urgence ou un ami ou un membre de la famille en cas d’urgence.

« Aider les personnes autistes à interagir avec les autres. Les personnes autistes ont généralement du mal à reconnaître les émotions des autres, et de petits appareils portables peuvent aider à les alerter des émotions d’une autre personne pour les aider à réagir et à interagir dans des situations sociales.

“Le dispositif médical peut alerter le porteur des changements de ses données biométriques (fréquence cardiaque, température, etc.) dans les instants avant, pendant et après une crise d’épilepsie dangereuse.”

conclusion

L’informatique affective est-elle susceptible de réussir ou d’échouer ? La vraie question devrait se concentrer sur la contribution que l’informatique affective peut apporter à l’interaction homme-ordinateur alors que l’écart entre les humains et les machines se rétrécit. Les wearables avec IoT effectuent déjà des tâches affectives avec des moniteurs de santé de toutes sortes. Entreprises informatiques affectives – et il y en a beaucoup – attendez-vous à générer des affaires en observant et en ressentant, mais les plus avertis le feront sur un continuum de complexité et de fiabilité. Certaines applications d’informatique affective donneront des résultats utiles, en particulier lorsque plusieurs « capteurs » sont combinés, et surtout lorsque les corrélations peuvent être validées. Le marketing, la santé, le service client, le transport et d’autres applications peuvent être utiles. La collecte de données de capteur en temps réel est la meilleure solution, en particulier pour les domaines d’application répertoriés ci-dessus. Certaines de ces applications nécessiteront des ajustements – et des autorisations – car l’informatique affective envahit la vie privée de chaque partenaire de trop nombreuses façons pour être comptées.

Nous sommes donc arrivés au début. Comme toujours avec les technologies émergentes, cela dépend de la façon dont vous voyez les choses et des applications ciblées. Ceux qui contrôlent les définitions, cependant, pourraient vouloir diluer la définition de l’informatique affective juste pour être sûr qu’elle ne semble pas trop bizarre.

Vérifier mon site Internet.

Je suis professeur Thomas G. Labrecque de technologie d’entreprise à la Villanova School of Business de l’Université Villanova où j’enseigne la technologie stratégique, l’innovation et l’entrepreneuriat. Je mène des recherches sur les meilleures pratiques de gestion de la technologie, les médias sociaux, l’analyse, le cloud computing et l’adoption de la technologie. Je suis l’auteur/co-auteur/éditeur de 35 livres sur les technologies de l’information, les tendances technologiques et la gestion des technologies d’entreprise. Mes livres les plus récents – Ready Technology : Fast-Tracking New Business Technologies (CRC Press) – ont été publiés à l’automne 2014 ; The Innovator’s Imperative: Rapid Technology Adoption for Digital Transformation sera publié en 2017 par CRC Press. Je consulte l’industrie et le gouvernement sur tous les aspects de la technologie numérique. J’étais le directeur de Cybernetics Technology @ DARPA et j’ai fondé et cofondé plusieurs entreprises technologiques. J’ai obtenu ma maîtrise et mon doctorat à l’Université du Maryland et j’ai reçu un doctorat honorifique de l’Université LaSalle pour mes réalisations en technologie de l’information. Pour plus d’informations sur mon parcours, rendez-vous sur www.andriole.com.

En savoir plusLire moins

to www.forbes.com


Abonnez-vous à notre page Facebook: https://www.facebook.com/mycamer.net
Pour recevoir l’actualité sur vos téléphones à partir de l’application Telegram cliquez ici: https://t.me/+KMdLTc0qS6ZkMGI0
Nous ecrire par Whatsapp : Whatsapp +44 7476844931



Retour à La Une de Logo Paperblog

A propos de l’auteur


Mycamer Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Magazines