Entre déclarations alarmistes et concepts parfois nébuleux, le double discours du PDG d’OpenAI interroge.
Depuis un an, Sam Altman est véritablement devenu un nom incontournable du secteur de la tech pour une raison en particulier, et pas des moindres : il est à la tête d’OpenAI, l’entreprise à l’origine de ChatGPT. L’intelligence artificielle, présentée comme aussi révolutionnaire que destructrice, pourrait faire de Sam Altman une espèce de prophète du monde technologique en devenir, à l’image d’Elon Musk. Cependant, comme le patron de X (Twitter), il a la fâcheuse tendance à alterner course imprudente à l’innovation et discours méfiant envers ces mêmes technologies. De quoi se demander : à quoi joue Sam Altman ?
Une figure majeure de l’IA qui s’inquiète de ses dérives…
ChatGPT est devenu connu du grand public fin 2022 pour devenir viral à l’échelle planétaire dans les semaines qui ont suivi. Il n’a pas fallu attendre beaucoup plus longtemps pour que Sam Altman commence à instiller la peur sur la technologie qu’il a lui même lâchée dans la nature. Fin mars 2023, il confiait lors d’une interview à ABC News qu’il a « un peu peur de l’IA », tout en affirmant qu’elle est « la meilleure technologie que l’humanité ait jamais conçue ».
Alors que ChatGPT est de plus en plus utilisé dans le monde – avec plus ou moins de succès –, même dans le cadre des services publics et de la justice, rebelote, Sam Altman signe fin mai une déclaration aussi courte qu’alarmiste : « Réduire le risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires ».
Il continue son double-discours entre promotion des progrès de son IA et méfiance en juillet dernier. GPT-4 peut désormais analyser des images, par exemple les décrire pour aider une personne aveugle, mais, aussitôt, OpenAI s’inquiète des potentielles dérives en termes de reconnaissance faciale. La prudence est bienvenue, mais, dans ce cas, pourquoi laisser la fonctionnalité accessible et même en faire la promotion sur le site d’OpenAI ?
… pour mieux nous vendre sa solution ?
Une partie de la réponse peut se trouver sur son compte X : quand il s’inquiète de l’impact de l’intelligence artificielle générative sur les élections, il ajoute simplement que « bien que ça ne soit pas une solution complète, sensibiliser vaut mieux que rien ». Il veut simplement que les autres se posent des questions, même s’il avoue ne pas avoir de réponse. Cela ne l’empêche pas, quelques jours plus tard, de reposter un tweet enthousiaste à propos de la supposée arrivée prochaine de l’intelligence artificielle générale, qualifiée d’« événement le plus important de l’histoire du monde ». Entre prudence et curiosité avide, son cœur balance.
Se limiter à une question de curiosité serait cependant oublier que Sam Altman n’est pas un simple geek ou savant fou, mais un millionnaire et homme d’affaires chevronné. Il avait donc une idée derrière la tête, une idée vieille comme le monde : créer le problème pour vendre la solution. Le problème, ça serait que l’intelligence artificielle évolue suffisamment pour pouvoir nous remplacer. La solution de Sam Altman, c’est Worldcoin.
Pour faire simple, Worldcoin est une plateforme de cryptomonnaie qui veut répondre à deux possibles conséquences de l’intelligence artificielle : si une grande partie de la population perd son travail, Worldcoin leur fournira un revenu universel ; s’il devient difficile de différencier une vraie personne d’une IA, scanner son iris dans Worldcoin permettra de confirmer son identité.
Seulement, un an après la popularisation de ChatGPT, la révolution apocalyptique annoncée n’a finalement pas changé nos vies tant que ça. Worldcoin n’est donc pas vu comme la solution miracle mais est lui-même source d’inquiétude, par exemple de la part de la Cnil, quant à l’utilisation des données personnelles. Un manque d’intérêt qui s’est traduit, à la fin du mois d’août, par une dégringolade de 67 % de la valeur de sa cryptomonnaie.