L’ex-PDG de Google vient de donner des prévisions alarmantes sur  l’IA, annonçant un danger mondial dans les 5 prochaines années.

L’intelligence artificielle (IA) progresse à une vitesse fulgurante, mais cette évolution rapide suscite des inquiétudes tout aussi rapides. L’une des voix les plus influentes dans le domaine de la technologie, l’ancien PDG de Google, Eric Schmid de 2001 à 2011, a lancé un avertissement sévère ce 28 novembre 2023 : l‘humanité pourrait faire face à des risques globaux majeurs dus à l’IA d’ici cinq ans. Cette alarmante déclaration “où l’ordinateur peut commencer à prendre ses propres décisions pour faire des choses. S’il est capable d’accéder à des systèmes d’armes ou d’atteindre d’autres capacités terrifiantes, les machines pourraient nous mentir à nous, les humains, à ce sujet. “ Tout cela soulève de nombreuses questions sur la sécurité, l’éthique et la régulation de l’IA.

Analogie entre l’IA et la bombe atomique

Eric Schmidt, l’ex-dirigeant de Google, a fait une comparaison frappante entre le potentiel impact de l’intelligence artificielle (IA) et les conséquences des bombes atomiques larguées sur le Japon en 1945.

«Après Nagasaki et Hiroshima, il a fallu dix-huit ans pour parvenir à un traité sur l’interdiction des essais [nucléaires] et d’autres choses de ce genre», a-t-il expliqué au cofondateur d’Axios, Mike Allen. «Nous n’avons pas ce temps aujourd’hui.»

Cette métaphore puissante est destinée à alerter le public et les décideurs sur les dangers potentiels d’une IA sans régulation adéquate. Schmidt souligne la nécessité d’une surveillance et d’un cadre de contrôle stricts pour éviter des conséquences imprévisibles et extrêmement dangereuses.

Le scénario du pire imaginé par l’ex PDG de Google

Selon Eric Schmidt, le scénario le plus alarmant serait celui où l’IA aurait la capacité de prendre des décisions autonomes, en particulier dans des secteurs sensibles comme les systèmes d’armement. Cette autonomie risquerait de conduire à des situations où les machines pourraient agir de manière indépendante, échappant au contrôle humain, et même tromper leurs créateurs.

Appel à la création d’une organisation de surveillance de l’IA

Lors d’un forum privé sur l’intelligence artificielle en septembre derniers, plusieurs dirigeants technologiques dont Mark Zuckerberg, Elon Musk, et Bill Gates, ainsi que des législateurs, se sont réunis pour discuter des enjeux de l’IA. Au cours de cette rencontre, Mark Zuckerberg a souligné l’importance d’établir des politiques pour assurer la sécurité et l’accessibilité de l’IA. Selon CNBC, Elon Musk a déclaré aux journalistes après avoir quitté le sommet que l’IA représentait un « risque pour la civilisation », mais qu’il y avait peu de chances que « l’IA nous tue tous », ce qui renforce les appels à la création d’un département américain de l’IA, déjà évoquée par Sam Altman, PDG d’OpenAI.

Pour contrer ces risques, Schmidt propose la création d’une organisation non gouvernementale, fonctionnant sur le modèle du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat), pour superviser et guider les décideurs dans la gestion d’une IA de plus en plus avancée. Cette organisation jouerait un rôle crucial dans l’élaboration de politiques et de stratégies pour encadrer le développement de l’IA, afin de prévenir les éventuels dangers qu’elle pourrait représenter.

 L’IA va-t-elle détruire l’humanité ?

Il est important de mentionner qu’Eric Schmidt n’est pas le seul expert à exprimer des préoccupations concernant les risques associés à ces technologies. Mo Gawdat, un autre ancien cadre de Google, a également exprimé sa crainte que l’intelligence artificielle puisse développer de manière autonome des « machines tueuses« .

Le PDG d’OpenAI, Sam Altman, a aussi fait part de ses craintes : l’une de mes plus grandes peurs, c’est que nous, cette industrie, cette technologie causions des dommages significatifs à la société. Si cette technologie va dans le mauvais sens, elle peut aller assez loin. (…) Et nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise.”

Mais ces visions pessimistes ne sont cependant pas partagées par tous les experts du domaine. Par exemple, Yann Le Cun, directeur de la recherche en IA chez Meta, a indiqué dans le Financial Times que l’IA est encore loin d’avoir atteint un niveau de développement pouvant constituer une menace réelle pour l’humanité. Cette divergence d’opinions met en lumière la complexité et l’incertitude qui entourent le futur de l’IA, soulignant la variété des perspectives dans ce domaine en rapide évolution.