1 000 experts sont unanimes et lancent un appel : il faut interrompre (temporairement) l'intelligence artificielle !

Future of Life Institute
Un risque pour l'humanité ?
Une course incontrôlée ?
Un avenir imprévisible
Les signataires célèbres
Protocoles de sécurité
Une intervention des gouvernements sera-t-elle nécessaire ?
Un outil efficace
Trop d'erreurs (pour l'instant)
Le problème de l'hallucination
Limiter les risques
'Le boom de l'IA'
Maîtriser le temps
Tout le monde n'est pas d'accord
Une mise en œuvre compliquée
Quelle est la prochaine étape ?
"Interrompre les expériences géantes en matière d'IA"

Le 22 mars 2023, une lettre ouverte intitulée ''Interrompre les expériences géantes en matière d'IA'' a été diffusée sur le site de l'organisation Future of Life Institute. Depuis cette publication, la missive a été signée par plus de 1 000 dirigeants d'entreprises et de sociétés technologiques. Mais en quoi ça consiste au juste ?

Future of Life Institute

La lettre invite les laboratoires à suspendre immédiatement (et de manière temporaire) la formation des systèmes d'intelligence artificielle plus avancés que GPT-4. Selon les nombreux scientifiques et spécialistes du milieu, l'IA se développerait bien trop vite.

Un risque pour l'humanité ?

Ainsi, on peut lire au début de la lettre que ''les systèmes d’IA dotés d’une intelligence compétitive avec celle des humains peuvent présenter des risques profonds pour la société et l’humanité.''

Une course incontrôlée ?

Les signataires affirment que "les développeurs d'IA sont engagés dans une course incontrôlée pour développer et déployer des esprits numériques de plus en plus puissants".

Un avenir imprévisible

Le problème de cette évolution est que, selon la missive, "même ses créateurs ne peuvent pas comprendre, prédire ou même contrôler de manière fiable" la direction qu'elle est en train de prendre.

Les signataires célèbres

Parmi les signataires figurent des noms illustres comme Elon Musk, Steve Wozniak (cofondateur d'Apple, sur la photo) et Craig Peters (le président directeur général de Getty Images).

Protocoles de sécurité

Parmi les propositions formulées dans la lettre ouverte figure "l'introduction de protocoles de sécurité".

Une intervention des gouvernements sera-t-elle nécessaire ?

"Si une telle pause ne peut être adoptée rapidement, les gouvernements devraient intervenir et instaurer un moratoire", affirment-ils.

Photo : Unsplash - Andy Kelly

Un outil efficace

Selon les signataires, les chatbots tels que ChatGPT, Bing et Bard sont rendus à un tel niveau de développement qu'ils sont en mesure de déterminer qui seront les prochains leaders de l'industrie technologique.

Photo : Unsplash - Boitumelo Phetla

Lire aussi : Nokia, Blackberry, Samsung Galaxy, iPhone X... voici les téléphones portables les plus emblématiques de tous les temps

Trop d'erreurs (pour l'instant)

Pour rendre les choses un peu plus difficiles, ils soulignent que ces outils ont été défectueux à certains niveaux de détail et qu'ils ont une énorme capacité à diffuser des informations erronées.

Photo : Unsplash - Drew Dizzy Graham

Le problème de l'hallucination

Parmi les risques identifiés dans la lettre ouverte figurent les "hallucinations". En réalité, ce sont des informations et des données fournies par l'IA qui semblent fiables, mais qui sont en fait erronées.

Photo : Unsplash - Maximalfocus

Limiter les risques

En substance, les signataires appellent à un développement durable et organique de l'IA, en la développant "uniquement lorsque nous sommes sûrs que ses effets seront positifs et que ses risques seront gérables".

Photo : Unsplash - Jonathan Kemper

'Le boom de l'IA'

"L'humanité peut bénéficier d'un avenir florissant grâce aux systèmes d'IA puissants et nous pouvons tous en profiter", remarquent les experts.

Photo : Unsplash - Lukas

Maîtriser le temps

Les experts font référence à la période au cours de laquelle leurs efforts sont récompensés. "Ces systèmes ont été conçus dans l'intérêt de tous et ils donnent à la société la possibilité de s'adapter".

Photo : Unsplash - Markus Spiske

Tout le monde n'est pas d'accord

Évidemment, certains n'ont pas voulu signer la lettre, comme Sam Altman (en photo), le directeur général de l'entreprise OpenAI.

Une mise en œuvre compliquée

Ce refus amène les signataires à penser que la communauté technologique n'acceptera pas un tel moratoire, ni l'option compliquée de voir les gouvernements légiférer sur l'intelligence artificielle.

Photo : Unsplash - Nguyen Dang Hoang Nhu

Quelle est la prochaine étape ?

En attendant de voir l'impact de cette lettre, il est probable que le nombre de signataires augmentera dans les semaines à venir, et que les opposants seront également plus nombreux.

Photo : Unsplash - Possessed Photography

Lire aussi : Que se passerait-il si un astéroïde frappait la Terre ?

Et aussi