(© picture alliance / CHROMORANGE / Christian Ohde)

  Intelligence artificielle

  20 Débats

C'est la première loi contraignante au monde sur l'intelligence artificielle (IA) : le Parlement européen a adopté mercredi la version de l'AI Act négociée avec les Etats membres. Des pratiques comme le "crédit social" ou l'IA émotionnelle sur le lieu de travail ont été interdites. En matière de reconnaissance faciale, des exceptions ont été aménagées pour les forces de l'ordre. Si certains commentateurs évoquent un projet précurseur, d'autres fustigent un texte final édulcoré.

Les négociateurs du Parlement européen et les Etats membres se sont entendus sur les grandes lignes de l'AI Act, un projet de loi sur les rails depuis 2021. Celui-ci doit garantir la transparence dans l'utilisation de l'IA, assurer la qualité élevée des données utilisées pour développer les applications et protéger les droits d'auteur. En outre, une gestion humaine des risques sera exigée pour les applications sensibles du point de vue de la protection des données ou de la sécurité.

Après plusieurs rebondissements, Sam Altman a été rétabli à la tête de l'entreprise OpenAI. Le conseil d'administration l'avait limogé vendredi dernier, à la surprise générale. Après son licenciement, il avait annoncé rejoindre les rangs de Microsoft. Un grand nombre d'employés avaient alors menacé de quitter OpenAI. Pour la presse, cette affaire est inquiétante pour l'avenir de de l'IA.

Sam Altman n'est plus le PDG d'OpenAI, la société à l'origine de la plate-forme d'IA générative ChatGPT. Après son licenciement surprise, l'entrepreneur de 38 ans, l'un des protagonistes de l'essor de l'IA, a été recruté par Microsoft. La majorité des employés d'OpenAI demandent désormais son retour et menacent de démissionner. Les chroniqueurs y voient une affaire riche en enseignements.

Lors d'un sommet international organisé au Royaume-Uni, 28 Etats de cinq continents - incluant la Chine - on fait part de leur volonté de coopérer pour réguler l'intelligence artificielle (IA). Dans une déclaration, ils ont souligné leur volonté de mieux comprendre et de gérer collectivement les risques liés à l'IA. Le Premier ministre britannique, Rishi Sunak, a évoqué un "jalon". Les chroniqueurs discutent des premières mesures susceptibles d'être adoptées.

Les progrès de l'intelligence artificielle (IA) dans de nombreux domaines essentiels suscitent de vifs débats et chez certains des angoisses quant à l'avenir. L'encadrement de cette technologie a encore un long chemin devant elle. Les commentateurs se demandent si nous devons craindre que l'IA nous prive de travail et si l'art va perdre de sa valeur.

L'intelligence artificielle (IA), que ce soit sous la forme d'applications ou de programmes de pilotage de machines, s'immisce de plus en plus dans nos vies et soulève de nombreuses questions : pourrait-elle devenir incontrôlable ? Risque-t-elle de détruire un nombre considérable d'emplois ? Quid des risques dans les domaines de l'armement et de la recherche ? Les chroniqueurs cherchent des réponses et s'interrogent sur les possibilités de régulation.

Le Parlement européen a adopté hier la première législation mondiale visant à réguler l'intelligence artificielle (IA). Celle-ci classe les applications concernées en différentes catégories de risque. Celles jugées particulièrement dangereuses, comme les applications de reconnaissance faciale, doivent être interdites, tandis que d'autres seront autorisées sous condition. Si certains chroniqueurs saluent la décision, d'autres redoutent une régulation excessive.

Dans une prise de position, un groupe de spécialistes a mis en garde mardi contre les risques liés à l'IA, les comparant au péril que représentent les pandémies ou la prolifération nucléaire. Parmi les signataires, on trouve Sam Altman, le patron de l'entreprise OpenAI, qui a conçu ChatGPT. Il propose la création d'une instance internationale, sur le modèle de l'Agence internationale de l'énergie atomique (AIEA). Une annonce que la plupart des chroniqueurs accueillent avec scepticisme.

L'UE, qui entend être aux avant-postes de la régulation de l'intelligence artificielle (IA), approche du but : les commissions parlementaires compétentes ont adopté, sous une forme modifiée, l'Artificial Intelligence Act de la Commission, comprenant notamment l'interdiction de la reconnaissance faciale et émotionnelle. Le projet sera débattu à partir de la semaine prochaine au Parlement.

Les craintes relatives à l'IA se font de plus en plus vives : l'un des pionniers de cette technologie, Geoffrey Hinton, s'est joint aux critiques. Redoutant une perte de contrôle de l'humanité, et désireux de mettre en garde face à ce danger, il a démissionné de Google. Nombreux sont ceux, selon lui, qui ne "distinguent plus le vrai du faux". Les commentateurs font eux aussi part de leurs inquiétudes.

Dans une lettre ouverte, plus de 1 000 experts de la tech et de la recherche, dont Elon Musk et le cofondateur d'Apple Steve Wozniak, ont mis en garde contre les "risques majeurs" que l'intelligence artificielle (IA) fait encourir à l'humanité. Ils préconisent la suspension de la recherche sur l'IA pour une période de six mois et la mise en place de normes de sécurité. Les chroniqueurs se demandent si le progrès technique peut - et devrait - être stoppé.

Le logiciel de conversation ChatGPT, qui s'appuie sur l'intelligence artificielle (IA), été mis en ligne en novembre 2022. Il est capable de répondre à presque toutes les questions dans un langage clair et fluide. Difficile encore de dire, selon les thématiques abordées, si les textes générés peuvent rivaliser avec ceux produits par des humains. Les chroniqueurs se demandent comment réguler convenablement son utilisation.

ChatGPT, un nouveau robot conversationnel basé sur l'intelligence artificielle, est en accès libre sur le site Internet de son concepteur, OpenAI, depuis une semaine. En l'espace de quelques jours, plus d'un million d'utilisateurs s'y sont connectés pour lui poser des questions et dialoguer. Les chroniqueurs se penchent sur ce nouveau type de générateur de textes et d'énoncés en langage naturel et analysent ses limites.

La Commission européenne a présenté le premier texte juridique au niveau mondial visant à encadrer l'intelligence artificielle (IA). Elle prévoit de soumettre à un cahier des charges plus stricts les systèmes basés sur l'IA dont l'utilisation peut entraîner un risque pour la sécurité ou les droits des personnes. Les applications présentant des risques flagrants, notamment de manipulation du libre arbitre, devront être interdites. Autant de mesures qui visent à conforter la confiance dans l'IA.

La Commission européenne doit présenter ce mercredi un Livre blanc sur l'intelligence artificielle (IA), son deuxième grand projet après le 'green deal' européen'. Bruxelles y explique notamment comment elle entend réguler et promouvoir cette technologie. Il était temps, soulignent les médias du continent.

L'UE a présenté des principes éthiques relatifs à l'intelligence artificielle. Dans une phase pilote allant jusqu'à 2020, les entreprises, les instituts de recherche et les autorités pourront mettre à l'épreuve ces directives éthiques. A l'issue de cette phase préliminaire, des propositions de loi seront élaborées. Les éditorialistes reprochent à la classe politique son effacement sur ce dossier d'avenir.

La technologie de l'intelligence artificielle suscite des attentes considérables quant à l'avenir de l'administration, l'emploi, la mobilité et la vie quotidienne. Elle génère également des craintes : celle de voir les robots remplacer les humains, ou celles relatives à la protection des données et à la cybersécurité. Les chroniqueurs européens se demandent comment faire en sorte que l'IA profite à tout le monde.