Intelligence artificielle : l'avertissement d'un pionnier

Les craintes relatives à l'IA se font de plus en plus vives : l'un des pionniers de cette technologie, Geoffrey Hinton, s'est joint aux critiques. Redoutant une perte de contrôle de l'humanité, et désireux de mettre en garde face à ce danger, il a démissionné de Google. Nombreux sont ceux, selon lui, qui ne "distinguent plus le vrai du faux". Les commentateurs font eux aussi part de leurs inquiétudes.

Ouvrir/fermer tous les articles
La Repubblica (IT) /

Les pionniers savent de quoi il retourne

Geoffrey Hinton succède à Yoshua Bengio, l'un des signataires de la pétition appelant à marquer une pause dans le développement de l'IA, souligne La Repubblica :

«Bengio et Hinton sont considérés comme les pères de l'IA. Et s'ils sont inquiets, alors nous devrions peut-être l'être aussi. ... Ce qui est en jeu, ce n'est pas seulement le primat de notre intelligence. C'est aussi et surtout le futur des démocraties, menacées par la désinformation et les photos 'fake' que l'IA générative est capable de produire. Robert Oppenheimer, le physicien qui avait contribué à la création de la bombe atomique, disait : 'Quand on fait une belle trouvaille technique, il ne faut pas hésiter à se lancer. C'est après seulement qu'on peut se demander quelle sera sa finalité.' C'était aussi le crédo de Hinton. Et c'est devenu sa croix.»

El País (ES) /

Pas de retour en arrière possible

Il faut se préparer à ces développements inévitables, estime El País :

«Ceux qui expérimentent ces technologies sont fascinés par l'éventail des possibilités. Mais ceux qui les conçoient entrevoient clairement le chaos qu'elles sont susceptibles de déclencher. ... Tom Siebel, PDG d'un grand groupe d'IA, a qualifié les risques de terrifiants. ... L'histoire enseigne que les efforts visant à stopper la propagation et les excès des nouvelles technologies s'avèrent infructueux : les armes nucléaires sont toujours là. ... La récente initiative d'un groupe d'experts, qui préconise un moratoire, montre que même les spécialistes de la question pensent la même chose que ce que nous sommes nombreux à redouter : nous ne sommes pas prêts. ... Il faut donc en tirer des conclusions rapides, car on ne peut revenir en arrière.»

Le Temps (CH) /

Le danger d'une application militaire

L'entreprise technologique américaine Palantir a publié sur YouTube une vidéo présentant l'application Artificial Intelligence Platform (AIP), conçue à des fins militaires. Une technologie inquiétante, juge Le Temps :

«[C]'est très proche de la réalité et Palantir semble très avancé avec des systèmes paraissant prêts à être commercialisés. Ces systèmes 'doivent être contrôlés dans ce contexte hautement réglementé et sensible afin de s'assurer qu'ils sont utilisés de manière légale et éthique', promet la société américaine dans sa vidéo. Il n'est pourtant pas certain que tout cela soit respecté à la lettre dans la réalité. On peut ainsi s'attendre à de plus en plus de décisions prises par des IA sur le terrain militaire, ou tout du moins prises sur la base de scénarios établis par des IA. Avec un danger bien réel de perte de contrôle de la situation.»