DERRIÈRE le faste et la promesse de IA, la transformation numérique que nous vivons est fondamentalement une question de pouvoir – et le pouvoir est préservé en excluant les gens. Dans le christianisme, les théologies de la libération donnent la priorité aux luttes et aux histoires de ceux qui sont privés du pouvoir. Historiquement, cela inclut les femmes et les personnes queer, les minorités raciales et ethniques, les personnes vivant sous le régime colonial, les personnes handicapées et bien d’autres encore.
Ce sont ces mêmes personnes qui sont si mal représentées non seulement dans le développement de l’IA, mais aussi dans nos conversations théologiques et éthiques à ce sujet. Lorsque nous prenons une pause et réfléchissons aux personnes disparues, nous faisons un premier pas essentiel pour donner vie à un monde où l’IA est une force de transformation sociale et écologique positive.
La diversité au sein du vaste paysage de l’IA s’améliore. Parallèlement à la prolifération de l’IA et des technologies associées les technologieson retrouve un développement similaire de éthique et des voix théologiques proposant une critique du rôle qu’elle joue dans les sociétés.
Il existe néanmoins des déséquilibres. FemmesPopulations indigènes, réfugiéset enfants sont largement absentes du développement de l’IA et sont souvent les plus exposées aux dommages qui en découlent.
Les divisions numériques affectent les femmes dès la naissance. Les filles, en particulier dans les pays dits en développement, sont moins susceptibles que les garçons d’avoir accès aux smartphones et aux l’Internet, sans parler de la scolarité de base. Cela se traduit par une faible culture numérique et entrave leur participation à l’école et au travail, tant en ligne que hors ligne.
Dans l’IA, les préjugés sexistes apparaissent à travers des assistantes virtuelles serviles, des logiciels de ressources humaines qui préfèrent les candidats masculins et des algorithmes bancaires qui évaluent injustement les demandes de crédit des femmes. Au lieu d’ajouter une bonne dose d’objectivité à la prise de décision humaine, l’IA peut simplement rendre des systèmes déjà injustes encore plus oppressifs.
Les femmes, en particulier les femmes de couleur, sont faiblement représentées dans les institutions universitaires et les entreprises technologiques chargées de développer l’IA. Lorsqu’il s’agit de « Big Tech », les chiffres sont sombres. Les femmes ne représentent que 15 pour cent des chercheurs en IA à Facebooket encore moins chez Google.
Dans le même temps, les femmes sont souvent la voix de la conscience, risquant leurs moyens de subsistance pour proclamer les dangers de l’IA. Un ancien employé de Google, Timnit Gebru, a protesté contre la vente de technologies de reconnaissance faciale aux forces de police, puis a quitté Google dans des circonstances controversées. Elle dirige désormais son propre centre de recherche, hors de l’influence des « Big Tech ».
TOUTE PERSONNE connaissant ne serait-ce qu’un petit peu l’IA a entendu parler des biais algorithmiques. Le terme est un nom aseptisé pour désigner les failles systémiques profondes qui apparaissent dans l’IA et la recherche connexe. Les biais algorithmiques ne sont que des préjugés humains qui se frayent un chemin dans nos technologies, que ce soit par accident ou par conception. Le manque de diversité, tant dans la conception de l’IA que dans les données utilisées pour la former, conduit à des résultats désastreux pour les personnes de couleur.
Pendant le pandémie, l’essor de la « surveillance en ligne » a été une source de détresse pour de nombreux étudiants coincés chez eux, essayant d’apprendre dans des circonstances déjà stressantes. Les étudiants noirs ont rencontré à plusieurs reprises des problèmes lors des tests en ligne, car le logiciel ne pouvait pas vérifier leur identité car il avait été développé pour les peaux claires.
La santé est un secteur particulièrement vulnérable, compte tenu du volume et de la valeur des données qu’il traite. L’IA formée sur les données historiques peut perpétuer Préjugé racial, avec pour conséquence que les minorités raciales reçoivent à nouveau un traitement de moins bonne qualité. Par exemple, l’IA s’appuie sur de vastes ensembles de données pour détecter les cancers de la peau, mais celles-ci proviennent principalement de personnes à la peau plus claire, ce qui risque d’être diagnostiqué tardivement ou erronément chez les minorités raciales du Royaume-Uni.
À la fin de l’année 2022, il y avait plus de 108 millions de personnes déplacées de force dans le monde. Plus de 400 000 personnes naissent réfugiés chaque année, et ce nombre ne cesse de croître. Lorsque l’on considère les besoins des réfugiés, les choses matérielles viennent à l’esprit : la nourriture, le logement et les vêtements. Nous pouvons également nous préoccuper de leur bien-être social et de leur intégration dans les pays d’accueil. Il est cependant rare que l’on fasse un lien entre les droits des réfugiés et l’essor de l’IA.
De plus en plus, l’IA est utilisée pour la surveillance et le contrôle des frontières, ainsi que pour prédire les mouvements de personnes en réponse au déclenchement d’un conflit violent, à l’instabilité politique ou à la famine. L’IA est également utilisée comme outil de traitement des demandes d’asile, notamment pour la détection de documents frauduleux et le tri préalable des demandes.
Malgré les enjeux élevés, les réfugiés et les migrants sont souvent oubliés dans les politiques et la législation en matière d’IA. La récente loi de l’Union européenne sur l’IA, par exemple, n’a pas réussi à protéger les migrants spécifiquement de la portée lointaine – et potentiellement biaisée – de l’IA dans les décisions affectant leur vie même.
L’IA reproduit souvent d’anciens schémas de préjugés et de discrimination qui nous entourent. Les problèmes commencent par la recherche, les questions mêmes que nous posons à l’IA, et se poursuivent à travers le développement et l’utilisation de ces technologies. De la même manière, les tentatives visant à réglementer et à contrôler l’IA sont dominées par des personnes très puissantes – généralement des hommes blancs, originaires des États-Unis. En conséquence, le monde majoritaire est confronté à de nouvelles formes de colonialisme à travers les technologies numériques.
Le colonialisme NUMÉRIQUE se manifeste de plusieurs manières. Il s’agit notamment de la course à la récolte et à la possession de données, de la domination de la langue anglaise en ligne et du recours aux modérateurs de contenu des réseaux sociaux qui vivent dans une extrême pauvreté. Pour les communautés autochtones, l’IA présente de nouvelles menaces pour leurs langues et leur culture, déjà rendues vulnérables par des siècles de colonialisme violent et de génocide.
Les communautés autochtones ont réagi de manière convaincante à l’IA. Les chercheurs autochtones mettent souvent l’accent sur les relations, la communauté et la tutelle lorsqu’ils parlent de l’IA. Cela conduit à une compréhension remarquablement différente des données et des algorithmes par rapport à ce qui est largement observé dans la plupart des recherches sur l’IA.
Par exemple, le Dr Karaitiana Taiuru, une chercheuse maorie d’Aotearoa (Nouvelle-Zélande), a rédigé un traité d’entrée en matière d’IA qui s’inspire de la sagesse et des coutumes autochtones. Le traité révèle une profonde préoccupation pour les générations futures, le bien commun et la souveraineté sur ses données, ce qui est rarement visible dans les discussions dominantes sur la réglementation de l’IA.
Les ENFANTS d’aujourd’hui participent involontairement à la grande expérience de l’IA. Leurs vies sont excessivement documentées, publiées et marchandisées à des fins commerciales. Une étude après l’autre affirme des liens étroits entre les pauvres santé mentale et l’utilisation des médias sociaux chez les enfants et les adolescents. Et la manière dont les enfants apprennent et socialisent est de plus en plus médiatisée par les appareils numériques.
Les droits des enfants nécessitent une attention particulière, car ils ne sont pas capables, ou n’ont pas la possibilité, de prendre eux-mêmes des décisions concernant leurs données et leur vie numérique. L’UNICEF, par exemple, a appelé les entreprises et les régulateurs à développer une IA centrée sur l’enfant. Cela implique de mettre fortement l’accent sur la sécurité en ligne, la protection de leur vie privée et de les préparer à un monde dans lequel leur vie professionnelle sera radicalement différente de celle de leurs parents.
Les femmes, les réfugiés, les peuples autochtones et les enfants font partie des absents des technologies de l’IA et des débats éthiques plus larges sur son développement et son utilisation. Mais ce ne sont pas seulement les gens qui sont exclus de nos inquiétudes et de nos interrogations concernant l’IA. Notre planète souffre dans notre course à la construction d’un monde numérique.
Le monde est littéralement en feu. La planète souffre de vagues de chaleur brutales, d’incendies de forêt, de grêle et de la menace d’un effondrement du Gulf Stream.
Son développement étant dominé par les entreprises commerciales, l’IA est indissociable de l’avidité et de la consommation. Ensemble, Google et Facebook génèrent environ la moitié des revenus publicitaires en ligne dans le monde, avec l’aide de l’IA.
L’IA contribue à catastrophe climatique de plusieurs manières. Il alimente un consumérisme inutile grâce à la publicité en ligne ciblée, aux robots d’usine et aux drones de livraison. L’IA est également utilisée dans l’extraction des ressources, car les pratiques minières d’exploitation soutiennent la production d’un milliard de nouveaux téléphones mobiles chaque année. La demande d’énergie électrique de l’IA est également astronomique. On rapporte que d’ici la fin de la décennie, « l’apprentissage automatique et le stockage de données pourraient représenter 3,5 % de la consommation mondiale totale d’électricité ». Il est peut-être temps d’envisager un nouvel avertissement en plus de « Pensez à l’environnement avant d’imprimer cet e-mail ».
AVEC la domination de l’IA et tout le pessimisme qui l’accompagne, on peut avoir l’impression qu’il n’y a que peu de bonnes nouvelles ; mais je pense qu’il y en a beaucoup, vraiment. Pour chaque Mark Zuckerberg qui veut « aller vite et casser les choses » (comme le proclamait l’une des premières devises de Facebook), il y a des milliers de Timnit Gebrus qui font un travail créatif, libérateur et puissant pour le bien de l’IA et de tous ceux qui sont touchés par elle. .
Les travailleurs technologiques dans Afrique ont récemment décidé de se syndiquer ; le Vatican a déployé d’énormes efforts pour rapprocher la foi et la technologie dans le cadre de l’Appel de Rome pour l’éthique de l’IA ; et la Campagne contre les robots tueurs rassemble la société civile, y compris les organisations religieuses, pour faire campagne en faveur d’une interdiction des systèmes d’armes létaux autonomes. Si vous le cherchez, il y a une multitude de bonnes nouvelles.
Le sujet de l’IA reviendra sans cesse – dans les sermons, les gros titres et peut-être même les conversations à table. Lorsque cela se produit, la chose la plus puissante que chacun d’entre nous puisse faire est de s’arrêter et de se demander : « Qui manque-t-il ? En répondant à cette question, nous trouverons la voie à suivre.
Le Dr Erin Green est une théologienne qui fait des recherches sur l’intelligence artificielle et la justice numérique.
to www.churchtimes.co.uk
Abonnez-vous à notre page Facebook: https://www.facebook.com/mycamer.net
Pour recevoir l’actualité sur vos téléphones à partir de l’application Telegram cliquez ici: https://t.me/+KMdLTc0qS6ZkMGI0
Nous ecrire par Whatsapp : Whatsapp +44 7476844931