OpenAI dévoile le niveau de danger de son dernier modèle d’IA : le voici

Publié le 11 août 2024 par Fabrice Rault @fabrice_rault

Cette déclaration vise à rassurer et à démontrer la capacité de la startup à évaluer les risques futurs.

La question des dangers de l'intelligence artificielle est sur toutes les lèvres. Pourtant, selon les entreprises qui les développent, il n'y a pas lieu de s'inquiéter pour le moment. OpenAI a publié un document de recherche expliquant les mesures de sécurité et d'évaluation des risques mises en place avant de lancer GPT-4o. Le bilan est que ce modèle ne comporte qu'un risque " moyen ".

Un site présente uniquement des produits innovants

Les risques évalués par OpenAI

OpenAI a catégorisé les risques de son IA en quatre domaines : cybersécurité, menaces biologiques, persuasion et autonomie sans contrôle humain. Ces catégories visent principalement les risques existentiels et financiers, en négligeant d'autres risques potentiels.

Les experts ont constaté que le modèle présente des risques faibles, sauf en matière de persuasion. GPT-4o peut générer des textes influents, parfois plus performants que ceux écrits par des humains, bien que cela soit limité à certains contextes.

C'est peut-être l'innovation technologique dont Apple a besoin pour créer un iPhone pliable

Des risques de détournement existants

Pour évaluer les risques, OpenAI a employé des " red teams " chargées de tester le modèle à des fins malveillantes. Ces équipes ont tenté de détourner GPT-4o pour générer du contenu violent ou érotique, ou pour cloner des voix, entre autres.

Malgré ces précautions, les détournements réussis sont courants. L'IA de Google, Gemini, avait généré des contenus problématiques peu après son lancement, illustrant les défis de la robustesse des IA génératives.

La NASA déploie cette voile solaire immense : une prouesse spatiale visible depuis la Terre

Les regards tournés vers l'avenir

OpenAI, en tant que pionnier du secteur, est sous l'œil attentif des régulateurs. Si les IA actuelles ne sont pas perçues comme des menaces existentielles, des experts s'inquiètent des développements futurs, tant la technologie évolue rapidement.

Certains " doomers " appellent à une pause dans la recherche pour développer des garde-fous. Cependant, les entreprises de l'IA poursuivent une course à la performance, soutenue par des financements considérables.

💡 ÉvaluationLes risques de l'IA GPT-4o sont jugés " moyens "

🔍 Catégories

Cybersécurité, menaces biologiques, persuasion, autonomie

🚨 Détournements

Tests de red teams révèlent des risques de détournement

🔮 Futur

Les régulateurs et experts s'inquiètent des développements rapides

Les régulateurs exigent de plus en plus de garanties de la part des créateurs d'IA. Cette pression sur les entreprises de l'IA pourrait les obliger à prouver rapidement leur capacité à contrôler efficacement leurs technologies.

  • Évaluation des risques en quatre catégories principales
  • Utilisation de " red teams " pour tester les détournements
  • Des préoccupations croissantes des régulateurs et du public

Les entreprises d'IA comme OpenAI doivent démontrer leur sérieux en matière de sécurité et de robustesse. À l'heure où les modèles se multiplient, comment peuvent-elles garantir un usage sécurisé de leurs technologies ?