Les déclarations répétées des grandes entreprises d’IA, telles qu’Anthropic et OpenAI, ont suscité un vaste débat sur leurs motivations, en particulier leurs mises en garde constantes contre les risques de « fin du monde », alors même qu’elles poursuivent le développement et la commercialisation de ces technologies.
L’alarmisme : stratégie ou responsabilité ?
Anthropic a récemment annoncé que son nouveau modèle « Claude Mythos » possédait des capacités de détection des vulnérabilités très avancées, surpassant celles des experts humains, et a mis en garde contre de graves répercussions en cas d’utilisation abusive de la technologie.
Ce langage n’est pas nouveau : les dirigeants des entreprises d’IA ont l’habitude de lancer des avertissements grandioses sur l’avenir de la technologie. Certains critiques affirment que cette tactique sert à des fins de marketing, en exagérant les capacités de la technologie et en attirant l’attention et les investissements.
Entre mise en garde et exagération
Les critiques soulignent que le fait de se concentrer sur des scénarios catastrophiques peut avoir pour but de détourner l’attention des problèmes actuels, tels que la pauvreté, l’exclusion sociale, l’inégalité des chances, etc :
- Impact environnemental des centres de données
- Exploiter la main-d’œuvre pour former des modèles
- Les erreurs techniques et leur impact sur les utilisateurs
Selon la chercheuse Shannon Valor, la présentation de l’IA comme une superpuissance donne au public un sentiment d’impuissance, comme si ces entreprises étaient les seules à pouvoir contrôler l’avenir.
Un schéma récurrent dans l’industrie
Ce n’était pas la première fois que des technologies étaient retenues en raison des risques. En 2019, lorsque Dario Amodei travaillait chez OpenAI, l’entreprise a annoncé qu’elle retardait la publication du modèle GPT-2 par crainte d’une utilisation abusive, avant de le publier plus tard.
Sam Altman a exprimé à plusieurs reprises ses inquiétudes quant à l’impact de l’IA, dont il a pourtant dirigé le développement. Dans le même temps, il a critiqué ce qu’il qualifie de « marketing basé sur la peur » de ses concurrents.
Remise en question des affirmations techniques
Bien qu’Anthropic affirme que son modèle a trouvé des milliers de vulnérabilités critiques, des experts comme Heidi Khallaf sont sceptiques quant à ces affirmations, citant l’absence d’indicateurs clés tels que le taux d’erreur, et l’absence de comparaison des performances avec les outils existants.
Mme Khalaf pense que l’IA peut effectivement être utile dans la cryptanalyse, mais elle met en garde contre l’exagération de son potentiel en tant que super outil sans preuves suffisantes.
Entre ambition et intérêts
Les observateurs soulignent que ces entreprises, malgré leur discours sur la sécurité, cherchent à étendre leur influence commerciale, notamment en vue de leur cotation en bourse et de la maximisation de leurs profits.
Les avertissements importants peuvent être utilisés pour justifier une surveillance réglementaire réduite, en faisant valoir que ces entreprises sont mieux à même de gérer les risques.
Un avenir entre promesses et craintes
En revanche, les leaders technologiques offrent des visions optimistes, évoquant le potentiel de l’IA pour résoudre des crises majeures telles que le changement climatique et le développement de la science.
Mais les experts estiment que cette contradiction entre « apocalypse » et « utopie » crée un état d’ambiguïté, laissant le public entre deux options extrêmes, sans une compréhension réaliste des véritables défis.
En fin de compte, la question reste ouverte : Les avertissements des entreprises du secteur de l’IA reflètent-ils une véritable responsabilité ou font-ils partie d’une stratégie d’influence dans la course mondiale à la technologie ?