Harvard a « cruellement besoin » de cours qui aident à orienter la technologie dans la bonne direction, m’a dit Nikola Jurkovic ’25 dans une interview.
“Il y a tellement d’énergie consacrée à rendre la technologie plus puissante – et très peu de ressources consacrées à la façonner de manière positive”, a déclaré Jurkovic.
Les risques sociaux liés aux technologies émergentes sont désormais plus importants que jamais et, plus important encore, ils sont souvent imprévisibles. Les dirigeants de l’industrie sont conscients de ce dilemme, et de grands noms de la technologie – parmi eux Elon Musk et Steve Wozniak – appellent à un pause complète dans la recherche sur l’IA en mars.
Primaire de Harvard (et auto- vanté) pour résoudre ce problème jusqu’à présent a été le développement d’Embedded EthiCS — un programme collaboratif entre les départements de philosophie et d’informatique dans le but « d’introduire le raisonnement éthique dans le programme d’études en informatique ».
J’ai passé les dernières semaines à parler à des étudiants en technologie de leurs impressions sur le programme Embedded EthiCS. J’ai essayé de répondre à la question : Harvard prépare-t-elle adéquatement ses étudiants à cet avenir technique dangereux et incertain ?
À l’heure actuelle, la responsabilité sociale semble être une réflexion secondaire par rapport aux initiatives d’innovation technologique éclatantes de l’Université. Même Embedded EthiCS est gêné par sa portée limitée et son statut secondaire par rapport au contenu des cours, selon de nombreux étudiants avec lesquels j’ai parlé.
Embedded EthiCS est confronté à des défis découlant directement de sa mise en œuvre. Au lieu de cours autonomes, qui « envoient le message que l’éthique est une chose à laquelle on réfléchit après avoir effectué son « vrai » travail en informatique », selon le co-fondateur de l’initiative — le programme amène chaque semestre des conférenciers invités dans certaines sciences informatiques. Cependant, cette stratégie dépend de la volonté des professeurs d’informatique de collaborer sur des études de cas pertinentes et d’étendre la discussion au-delà d’une seule conférence, m’a expliqué Matt C. Kopec, directeur du programme Embedded EthiCS, dans une interview.
Dans le même ordre d’idées, Teresa Lu-Romeo ’25 m’a dit que les interactions positives qu’elle a eues avec le programme étaient dues à la « bonne volonté » des professeurs accueillant les conférenciers invités.
Lu-Romeo a déclaré qu’idéalement, l’éthique devrait être traitée comme « étroitement liée, en quelque sorte, inextricablement, aux choses techniques ».
D’après son expérience avec Embedded EthiCS, cela n’a été possible que lorsque « les professeurs ont clairement travaillé pour l’intégrer dans un sujet », a déclaré Lu-Romeo.
Swathi Goel ’25 m’a dit que, d’après son expérience avec Embedded EthiCS, « l’intentionnalité est bonne », mais que dans la mise en œuvre, « il y a un petit décalage ». Elle a rappelé son expérience en ignorant le module Embedded EthiCS alors qu’elle était simultanément inscrite au cours Informatique 121 : « Introduction à l’informatique théorique ». Comme le devoir n’a pas été noté, elle dit que, comme beaucoup de ses camarades de classe, elle n’était tout simplement pas incitée à le faire.
Dans toutes mes interviews, j’ai trouvé ce sentiment commun. Rares sont ceux qui étaient en désaccord avec la mission d’Embedded EthiCS, mais le format intégré des interventions conduit souvent à un sentiment de marginalisation de l’éthique, ce qui, à son tour, jette le doute sur l’importance de l’éthique dans le programme d’études en informatique.
Conan Lu ’26 m’a parlé de son expérience en informatique 51 : « Abstraction et conception en informatique », où il a déclaré qu’un manque d’engagement sérieux avec le module Embedded EthiCS « indique une dé-priorisation globale de la part du personnel du cours ».
Son devoir pour le module, un essai, n’a jamais été noté.
« Le professeur, je ne sais pas ce qu’il en a fait », m’a-t-il dit.
J’ai fait part de certaines de ces préoccupations à Kopec, le directeur du programme. Tout en soulignant la structure du programme consistant à travailler avec des experts en philosophie et en informatique pour générer un programme techniquement pertinent, il a également reconnu les limites de l’approche Embedded EthiCS.
« Nous sommes malheureusement soumis à des restrictions et avons besoin de l’aide du professeur d’informatique pour pouvoir intégrer le matériel éthique de manière plus transparente. Et ils ont juste un temps limité », a-t-il déclaré.
La structure du programme Embedded EthiCS, selon Kopec, est en grande partie destinée à conserver les ressources. La structure modulaire d’Embedded EthiCS permet « beaucoup de contenu » avec « une plus petite quantité de ressources », a-t-il déclaré. À cette fin, l’équipe du laboratoire d’enseignement du programme est composée de boursiers postdoctoraux, sans professeur permanent.
“S’ils nous donnaient une ligne de professeurs d’informatique et une ligne de professeurs de philosophie, et l’une des idées est qu’ils vont enseigner des cours comme des cours interdisciplinaires et l’éthique informatique, cela résoudrait beaucoup de problèmes”, m’a dit Kopec.
Mais même lorsqu’Embedded EthiCS remplit efficacement sa mission, sa portée reste étroitement axée sur les interventions éthiques destinées aux informaticiens, selon Kopec. Pour créer des leaders – de toutes disciplines – capables de gérer les effets transformateurs des technologies émergentes, Harvard doit faire davantage.
L’EthiCS intégré, bien qu’il s’agisse d’un développement louable, doit être complété par d’autres programmes – tels que des cours d’informatique accessibles aux étudiants en politiques, des séminaires réunissant ingénieurs et spécialistes des sciences sociales, ou même une nouvelle concentration interdisciplinaire – pour offrir des opportunités complètes pour l’étude cruciale de la technologie et de la société. .
À l’Université, de nombreux étudiants abordent la question de l’impact social de la technologie selon leur propre perspective. Malheureusement, ceux à qui j’ai parlé m’ont fait savoir que le soutien apporté par le Collège aux programmes scolaires échoue souvent, laissant ces étudiants tracer leur propre chemin sur une question de plus en plus vitale.
Le manque de cours techniques accessibles, par exemple, signifie que les spécialistes des sciences sociales et de la technologie se retrouvent souvent sans possibilité d’acquérir des perspectives techniques qui pourraient améliorer leur compréhension du sujet. Allegra Wong ’26 m’a dit que cela mène souvent à des cours qui « vous apprennent le côté des mots à la mode, comment parler à la manière d’un politicien » sur des questions de technologie.
“Il y a le CS 50 ou le CS 32 – et puis ça devient très difficile, très vite”, a déclaré Wong. “Donc, je pense presque qu’il y a une limite au niveau de compétences techniques que je peux acquérir.”
Sophia C. Weng ’24 a fait écho à ce sentiment.
«J’ai eu tellement de conversations stupides en classe sur ChatGPT qui me tirent les cheveux, avec des gens qui ne comprennent pas vraiment la technologie», m’a-t-elle dit.
“Pas vraiment, mais je sais suffisamment ce que je sais pour savoir ce que je ne sais pas”, a ajouté Weng.
Alors, que devrait faire Harvard ? Proposer des cours expliquant les mécanismes de l’IA et de l’apprentissage automatique permettrait de faire la lumière auprès des étudiants plus orientés politiquement sur ce qui est techniquement possible en termes de transparence et d’équité. Ces cours iraient au-delà des nouvelles offres de formation générale dans ce domaine – des cours qui, bien que louables, sont trop vastes pour offrir une formation rigoureuse.
En outre, Harvard devrait s’appuyer sur des espaces universitaires interdisciplinaires, où les ingénieurs et les spécialistes des sciences sociales peuvent apprendre les uns des autres. Sherry X. Liu ’24, enseignante en informatique 105 : « Confidentialité et technologie », voit le potentiel de cours comme celui qu’elle enseigne, qui est un séminaire de discussion limité à 48 étudiants. La force de la classe, selon elle, est de rassembler des étudiants qui ont « consacré beaucoup de temps à en apprendre davantage dans leurs disciplines respectives ».
Enfin, Harvard devrait envisager une concentration de premier cycle dédiée à la fois à la technologie et aux sciences sociales, semblable au programme Science, technologie et société du MIT ou à la spécialisation en systèmes symboliques de Stanford. Presque tous les étudiants à qui j’ai parlé ont déclaré connaître des personnes qui seraient intéressées par un programme d’études similaire. En fait, Jurkovic a déclaré qu’il explorait actuellement une concentration particulière sur « la garantie que l’IA ait un impact positif ».
Pendant ce temps, Julia High ’26 m’a dit qu’à sa connaissance, certains professeurs faisaient pression pour des programmes d’études similaires, notamment Latanya A. Sweeney, professeur Daniel Paul de pratique du gouvernement et de la technologie à la Harvard Kennedy School et à la Faculté des Arts et des Sciences de Harvard.
“Ils ont parlé d’essayer de faire de la technologie d’intérêt public davantage une affaire académique et d’en faire sa propre discipline universitaire interdisciplinaire”, a déclaré High.
Quelle que soit sa manifestation ultime, Harvard doit consacrer des ressources importantes pour doter les étudiants de premier cycle des compétences et des connaissances nécessaires pour faire face aux effets de grande envergure de la technologie. En effet, comme le comité de rédaction du Crimson a déjà notél’éthique ne peut pas être une réflexion après coup de l’innovation, de peur que nous n’en payions tous les conséquences.
Andy Z. Wang ’23, rédacteur en chef associé, est un concentrateur d’études sociales et de philosophie à Winthrop House. Sa chronique, « Cogito, Clicko Sum », paraît tous les mercredis trois fois par semaine.
to www.thecrimson.com
Abonnez-vous à notre page Facebook: https://www.facebook.com/mycamer.net
Pour recevoir l’actualité sur vos téléphones à partir de l’application Telegram cliquez ici: https://t.me/+KMdLTc0qS6ZkMGI0
Nous ecrire par Whatsapp : Whatsapp +44 7476844931