1 000 experts sont unanimes et lancent un appel : il faut interrompre (temporairement) l'intelligence artificielle !
Le 22 mars 2023, une lettre ouverte intitulée ''Interrompre les expériences géantes en matière d'IA'' a été diffusée sur le site de l'organisation Future of Life Institute. Depuis cette publication, la missive a été signée par plus de 1 000 dirigeants d'entreprises et de sociétés technologiques. Mais en quoi ça consiste au juste ?
La lettre invite les laboratoires à suspendre immédiatement (et de manière temporaire) la formation des systèmes d'intelligence artificielle plus avancés que GPT-4. Selon les nombreux scientifiques et spécialistes du milieu, l'IA se développerait bien trop vite.
Ainsi, on peut lire au début de la lettre que ''les systèmes d’IA dotés d’une intelligence compétitive avec celle des humains peuvent présenter des risques profonds pour la société et l’humanité.''
Les signataires affirment que "les développeurs d'IA sont engagés dans une course incontrôlée pour développer et déployer des esprits numériques de plus en plus puissants".
Le problème de cette évolution est que, selon la missive, "même ses créateurs ne peuvent pas comprendre, prédire ou même contrôler de manière fiable" la direction qu'elle est en train de prendre.
Parmi les signataires figurent des noms illustres comme Elon Musk, Steve Wozniak (cofondateur d'Apple, sur la photo) et Craig Peters (le président directeur général de Getty Images).
Parmi les propositions formulées dans la lettre ouverte figure "l'introduction de protocoles de sécurité".
"Si une telle pause ne peut être adoptée rapidement, les gouvernements devraient intervenir et instaurer un moratoire", affirment-ils.
Photo : Unsplash - Andy Kelly
Selon les signataires, les chatbots tels que ChatGPT, Bing et Bard sont rendus à un tel niveau de développement qu'ils sont en mesure de déterminer qui seront les prochains leaders de l'industrie technologique.
Photo : Unsplash - Boitumelo Phetla
Pour rendre les choses un peu plus difficiles, ils soulignent que ces outils ont été défectueux à certains niveaux de détail et qu'ils ont une énorme capacité à diffuser des informations erronées.
Photo : Unsplash - Drew Dizzy Graham
Parmi les risques identifiés dans la lettre ouverte figurent les "hallucinations". En réalité, ce sont des informations et des données fournies par l'IA qui semblent fiables, mais qui sont en fait erronées.
Photo : Unsplash - Maximalfocus
En substance, les signataires appellent à un développement durable et organique de l'IA, en la développant "uniquement lorsque nous sommes sûrs que ses effets seront positifs et que ses risques seront gérables".
Photo : Unsplash - Jonathan Kemper
"L'humanité peut bénéficier d'un avenir florissant grâce aux systèmes d'IA puissants et nous pouvons tous en profiter", remarquent les experts.
Photo : Unsplash - Lukas
Les experts font référence à la période au cours de laquelle leurs efforts sont récompensés. "Ces systèmes ont été conçus dans l'intérêt de tous et ils donnent à la société la possibilité de s'adapter".
Photo : Unsplash - Markus Spiske
Évidemment, certains n'ont pas voulu signer la lettre, comme Sam Altman (en photo), le directeur général de l'entreprise OpenAI.
Ce refus amène les signataires à penser que la communauté technologique n'acceptera pas un tel moratoire, ni l'option compliquée de voir les gouvernements légiférer sur l'intelligence artificielle.
Photo : Unsplash - Nguyen Dang Hoang Nhu
En attendant de voir l'impact de cette lettre, il est probable que le nombre de signataires augmentera dans les semaines à venir, et que les opposants seront également plus nombreux.
Photo : Unsplash - Possessed Photography
Lire aussi : Que se passerait-il si un astéroïde frappait la Terre ?
Et aussi
À ne pas manquer
![](https://feed.zeleb.es/wp-content/themes/Zeleb/design/promo02.png)
![](https://feed.zeleb.es/wp-content/themes/Zeleb/design/promo02.png)