Boom de l'intelligence artificielle


De haut en bas et de gauche à droite : Théâtre D'opéra Spatial ; Image DALL-E ; Gratte-ciel dans Stable Diffusion XL 1.0 ; Colombe mécanique créée dans Midjourney ; Image Stable Diffusion ; AlphaFold 2 performances, expériences et architecture ; et couverture de Time Magazine avec une conversation de ChatGPT.


Le boom de l'IA[1],[2], ou printemps de l'IA[3],[4], est la période actuelle de progrès rapides dans le domaine de l'intelligence artificielle. Les exemples marquants incluent la prédiction du repliement des protéines et l'IA générative, dirigés par des laboratoires tels que Google DeepMind et OpenAI.

Le boom de l’IA devrait avoir un profond impact culturel, philosophique[5], religieux[6], économique[7], et social[8], car des questions telles que l'alignement de l’IA[9], les qualiaInterprétation abusive ? [5], et le développement de l'intelligence artificielle générale[9] sont devenues un sujet de discussion populaire très important[10].

Histoire

En 2012, une équipe de recherche de l'Université de Toronto a utilisé pour la première fois des réseaux de neurones artificiels et des techniques d'apprentissage profond pour réduire leur taux d'erreur en dessous de 25 % lors du défi ImageNet pour la reconnaissance d'objets en vision par ordinateur. L'événement a catalysé le boom de l'IA plus tard au cours de cette décennie, lorsque les anciens participants au défi ImageNet sont devenus des leaders dans l'industrie technologique[11],[12]. La course à l'IA générative a véritablement commencé en 2016 ou 2017 après la création d'OpenAI et les progrès antérieurs réalisés en matière de processeurs graphiques, de quantité et de qualité des données d'entraînement, de réseaux antagonistes génératifs, de modèles de diffusion et avec l'architecture transformeur[13],[14]. En 2018, l’Artificial Intelligence Index, une initiative de l'Université Stanford, a fait état d’une explosion mondiale des efforts commerciaux et de recherche en matière d’IA. L'Europe a publié le plus grand nombre d'articles dans ce domaine cette année-là, suivie par la Chine et l'Amérique du Nord[15]. Des technologies telles qu'AlphaFold ont permis de prédire plus précisément le repliement des protéines et d'améliorer le développement de médicaments[16]. Les chercheurs en économie et les législateurs ont commencé à s'interroger plus fréquemment sur l’impact de l’IA[12],[17]. En 2022, les grands modèles de langage ont vu leur utilisation augmenter dans les applications de chatbot ; les modèles texte-image peuvent générer des images qui semblent avoir été créées par l'Homme[18] ; et un logiciel de synthèse vocale est capable de reproduire efficacement le langage humain[19].

Selon les mesures de 2017 à 2021, les États-Unis surpassent le reste du monde en termes de financement par capital-risque, de nombre de startups et de brevets accordés dans le domaine de l'IA[20],[21]. Les scientifiques qui ont immigré aux États-Unis jouent un rôle considérable dans le développement de la technologie de l’IA dans le pays[22],[23]. Beaucoup d’entre eux ont été éduqués en Chine, suscitant des débats sur les problèmes de sécurité nationale dans un contexte de détérioration des relations entre les deux pays[24]. Lauren Kahn, analyste au Center for Security and Emerging Technology, a expliqué comment les États-Unis pourraient maintenir leur position malgré les progrès réalisés par la Chine[25]. En 2023, un analyste du Centre d'études stratégiques et internationales a préconisé que les États-Unis utilisent leur domination dans la technologie de l'IA pour piloter leur politique étrangère au lieu de s'appuyer sur des accords commerciaux[20]. De nombreux experts ont présenté le développement de l’IA comme une lutte pour la primauté technologique entre les États-Unis et la Chine. Le vainqueur de cette compétition, disent-ils, obtiendra un avantage à la fois économique et géopolitique[26]. À l’instar d’autres nouvelles technologies, l’UE a ouvert la voie à la création de réglementations telles que l'AI Act pour façonner l’espace et contrôler les dommages.

Avancées

Scientifiques

Il y a eu des propositions visant à utiliser l’IA pour promouvoir des formes radicales de prolongation de la vie humaine[27].

Un score AlphaFold 2 de plus de 90 au test de distance global du CASP est considéré comme une réalisation importante en biologie computationnelle[28] et un grand progrès vers un grand défi de la biologie vieux de plusieurs décennies[29]. Le lauréat du prix Nobel et biologiste structural Venki Ramakrishnan a qualifié le résultat d'« avancée stupéfiante sur le problème du repliement des protéines »[28], ajoutant que « cela s'est produit des décennies avant que de nombreuses personnes dans le domaine ne l'aient prédit. Il sera passionnant de voir les nombreuses façons par lesquelles cela changera fondamentalement la recherche biologique »[30]. Le succès d'AlphaFold 2 a reçu une large attention médiatique[31].

La capacité de prédire avec précision les structures des protéines sur la base de la séquence d’acides aminés constitutives devrait avoir de nombreux avantages dans le domaine des sciences de la vie, notamment en accélérant la découverte avancée de médicaments et en permettant une meilleure compréhension des maladies[29],[32]. À propos de l'événement, le MIT Technology Review a noté que l'IA avait « résolu un grand défi de la biologie vieux de cinquante ans »[33]. Il a ensuite noté que l'algorithme d'IA pouvait « prédire la forme des protéines de la taille d'un atome »[33].

Grands modèles de langage

GPT-3 est un grand modèle de langage publié en 2020 par OpenAI et est capable de générer un texte de haute qualité ressemblant à celui d'un Homme et dont il peut être difficile de déterminer s'il a été écrit par un humain[34]. Une version améliorée appelée GPT-3.5 a été utilisée dans ChatGPT, qui a ensuite attiré l'attention pour ses réponses détaillées et ses réponses articulées dans de nombreux domaines de connaissances[35]. Une nouvelle version appelée GPT-4 a été publiée le 14 mars 2023 et a été utilisée dans le moteur de recherche Microsoft Bing[36],[37]. D'autres modèles de langage ont été publiés tels que PaLM et Gemini par Google et LLaMA par Meta Platforms.

En janvier 2023, DeepL Write, un outil basé sur l'IA pour améliorer les textes monolingues, a été lancé[38]. En décembre 2023, Gemini, le dernier modèle de Google, a été dévoilé, affirmant battre le précédent modèle de pointe GPT-4 sur la plupart des benchmarks[39].

Modèles de conversion texte-image

Une image générée par Stable Diffusion basée sur l'invite de texte « une photographie d'un astronaute montant à cheval »

L'un des premiers modèles de conversion texte-image à attirer l'attention du grand public a été le DALL-E d'OpenAI, un système de transformation annoncé en janvier 2021[40]. Un successeur capable de générer des images complexes et réalistes, DALL-E 2, a été dévoilé en avril 2022[41]. Un modèle alternatif de conversion texte-image, Midjourney, a été publié en juillet 2022[42]. Un autre modèle alternatif, open source, Stable Diffusion, sorti en août 2022[43].

À la suite d'autres modèles de texte en image, les plates-formes de texte en vidéo basées sur des modèles de langage telles que DAMO[44], Make-A-Video[45], Imagen Video[46] et Phenaki[47] peuvent générer des vidéos à partir de texte et/ou des invites texte/image[48].

Synthèse de discours

15.ai a été l'un des premiers logiciels de synthèse vocale accessibles au public qui permettait aux utilisateurs de générer des voix de haute qualité, émotionnelles et naturelles, à partir d'un assortiment de personnages fictifs provenant de diverses sources médiatiques. Il a été publié pour la première fois en mars 2020[49],[50]. ElevenLabs a dévoilé un site Web sur lequel les utilisateurs peuvent télécharger des échantillons de voix, ce qui lui permet de générer des voix à partir de ceux-ci. La société a été critiquée après que des utilisateurs ont pu abuser de son logiciel pour générer des déclarations controversées dans le style vocal de célébrités, de fonctionnaires et d'autres personnalités célèbres[51] et a fait part de ses inquiétudes quant au fait qu'il pourrait être utilisé pour générer des deepfakes plus convaincants[52]. Une chanson non officielle créée en utilisant les voix des musiciens Drake et The Weeknd dans un logiciel de synthèse vocale a soulevé des questions sur l'éthique et la légalité d'un logiciel similaire[53].

Impact

Culturel

Durant le boom de l’IA, différentes factions ont émergé. Celles-ci incluent les accélérationnistes efficaces, les altruistes efficaces et les catastrophistes[54].

Dominance des géants de la technologie

La scène commerciale de l'IA est dominée par les grandes sociétés américaines de technologie telles que Alphabet Inc., Amazon, Apple Inc., Meta Platforms et Microsoft, dont les investissements dans ce domaine ont dépassé ceux des sociétés de capital-risque basées aux États-Unis[55],[56],[57]. Certains de ces acteurs possèdent déjà la grande majorité de l’infrastructure de cloud computing existante, ce qui pourrait les aider à s’implanter davantage sur le marché[58].

Propriété intellectuelle

Des entreprises technologiques ont été poursuivies en justice par des artistes et des développeurs de logiciels pour avoir utilisé leur travail pour entraîner des modèles d’IA[59].

Préoccupations

Perturbation économique

Certains craignent qu’à mesure que l’IA devient plus sophistiquée, elle soit plus performante et rentable que les travailleurs humains[60],[12].

Des risques pour l'humanité

De nombreux experts ont déclaré que le boom de l’IA a déclenché une course aux armements dans laquelle les grandes entreprises se font concurrence pour disposer du modèle d’IA le plus puissant du marché, sans se soucier de la sécurité[61]. Lors du boom de l’IA, de nombreuses préoccupations en matière de sécurité ont été exprimées par les experts[62]. En particulier, des inquiétudes ont été exprimées quant au développement de modèles puissants dont la rapidité et le profit donnent la priorité à la sécurité et à la protection des utilisateurs[61]. Il y a déjà eu un nombre important de rapports sur des discriminations racistes, sexistes, homophobes et autres de la part de ChatGPT, de Tay de Microsoft et des principaux modèles de reconnaissance faciale d'IA[63]. Faute d’une compréhension complète du fonctionnement de l’IA[63], de nombreux chercheurs du monde entier ont exprimé leurs inquiétudes quant aux implications futures potentielles du boom de l’IA[62]. La réaction du public face au boom de l'IA a été mitigée, certains partis saluant les nouvelles possibilités créées par l'IA[64], son potentiel bénéfique à l'humanité et sa sophistication, tandis que d'autres partis l'ont dénoncé pour menacer la sécurité de l'emploi et pour donner des résultats « étranges » ou réponses erronées[65],[66],[67],[68].

La mentalité dominante de course à l’IA augmente les risques associés au développement de l'intelligence artificielle générale[61]. L'enthousiasme et la pression générés par la fascination du public pour l'IA peuvent pousser les développeurs à accélérer la création et le déploiement de systèmes d'IA. Cette précipitation peut conduire à l’omission de procédures de sécurité cruciales, ce qui pourrait entraîner de graves risques existentiels. Comme l’a souligné Holden Karnofsky, la concurrence impérative pour répondre aux attentes des consommateurs pourrait inciter les organisations à privilégier la rapidité plutôt que les contrôles de sécurité approfondis, mettant ainsi en péril le développement responsable de l’IA[69].

Si la concurrence peut favoriser l’innovation et le progrès, une course intense pour surpasser ses concurrents peut encourager à donner la priorité aux gains à court terme plutôt qu’à la sécurité à long terme[70]. Une mentalité selon laquelle « le gagnant remporte tout » peut inciter davantage à prendre des raccourcis, créant potentiellement un nivellement par le bas et compromettant les considérations éthiques dans le développement responsable de l'IA[70].

Des voix éminentes de la communauté de l’IA ont plaidé en faveur d’une approche prudente, exhortant les entreprises d’IA à éviter tout battage médiatique et toute accélération inutiles[69]. Les inquiétudes proviennent de la conviction qu’injecter trop rapidement de l’argent dans le secteur de l’IA pourrait conduire à l’imprudence des entreprises, alors qu’elles se précipitent pour développer une IA transformatrice sans tenir dûment compte des principaux risques[70],[69]. Malgré le battage médiatique et les investissements dans l’IA, certains affirment qu’il n’est pas trop tard pour atténuer les risques associés à l’accélération. Les partisans de la prudence soulignent l’importance de sensibiliser aux principaux risques, de mettre en place des procédures de sécurité solides et d’investir dans des mesures de sécurité en matière d’IA, telles que la recherche d’alignement, les normes et la surveillance[69].

Voir également

Notes et références

  1. (en) Will Knight, « Google’s Gemini Is the Real Start of the Generative AI Boom », Wired,‎ (ISSN 1059-1028, lire en ligne, consulté le )
  2. (en) Sam Meredith, « A ‘thirsty’ generative AI boom poses a growing problem for Big Tech », sur CNBC, (consulté le )
  3. (en) Rishi Bommasani, « AI Spring? Four Takeaways from Major Releases in Foundation Models » [archive du ], Stanford Institute for Human-Centered Artificial Intelligence, (consulté le )
  4. (en) « The coming of AI Spring », sur www.mckinsey.com (consulté le )
  5. a et b (en) Grace Huckins, « Minds of machines: The great AI consciousness conundrum », sur MIT Technology Review, (consulté le )
  6. (en) Derek Robertson, « The religious mystery of AI », sur POLITICO, (consulté le )
  7. (en) Yiwen Lu, « Generative A.I. Can Add $4.4 Trillion in Value to Global Economy, Study Says », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le )
  8. (en) Nenad Tomašev, Julien Cornebise, Frank Hutter et Shakir Mohamed, « AI for social good: unlocking the opportunity for positive impact », Nature Communications, vol. 11, no 1,‎ , p. 2468 (ISSN 2041-1723, PMCID 7235077, DOI 10.1038/s41467-020-15871-z, lire en ligne)
  9. a et b Anna Tong, Jeffrey Dastin et Krystal Hu, « OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say », sur Reuters, (consulté le )
  10. (en) Dan Milmo, « Hope or horror? The great AI debate dividing its pioneers », The Guardian,‎ (ISSN 0261-3077, lire en ligne, consulté le )
  11. (en) Dave Gershgorn, « The data that transformed AI research—and possibly the world », sur Quartz,
  12. a b et c (en) Steve Lohr, « A.I. Will Transform the Economy. But How Much, and How Soon? », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le )
  13. (en) « Everything You Need To Know About The Artificial Intelligence Boom », sur Nasdaq.com, Investing Daily,
  14. (en) Scott Aaronson, « Why am I not terrified of AI? » [archive du ], Shtetl-Optimized, (consulté le )
  15. (en) Nick Statt, « The AI boom is happening all over the world, and it’s accelerating quickly », sur The Verge,
  16. (en) Matteo Wong, « Science Is Becoming Less Human », sur The Atlantic, (consulté le )
  17. (en) Will Knight, « Nine charts that really bring home just how fast AI is growing », sur MIT Technology Review, (consulté le )
  18. (en) James Vincent, « All these images were generated by Google's latest text-to-image AI » [archive du ], sur The Verge, (consulté le )
  19. (en) Joseph Cox, « AI-Generated Voice Firm Clamps Down After 4chan Makes Celebrity Voices for Abuse » [archive du ], sur Vice, (consulté le )
  20. a et b (en) Michael Frank, « US Leadership in Artificial Intelligence Can Shape the 21st Century Global Order », sur The Diplomat, (consulté le )
  21. (en) « Global AI Vibrancy Tool », Artificial Intelligence Index, Stanford University
  22. (en) Ashley Gold, « Exclusive: Immigrants play outsize role in the AI game », sur Axios, (consulté le )
  23. (en) Lindsay Ellis, « Dropping Out of College to Join the AI Gold Rush », sur The Wall Street Journal, (consulté le )
  24. (en) Paul Mozur et Cade Metz, « A U.S. Secret Weapon in A.I.: Chinese Talent », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le )
  25. (en) Lauren Kahn, « U.S. Leadership in Artificial Intelligence Is Still Possible », sur Council on Foreign Relations,
  26. (en) « What Is Artificial Intelligence (AI)? », sur Council on Foreign Relations (consulté le )
  27. (en) Michael Batin, Alexey Turchin, Sergey Markov et Alisa Zhila, « Artificial intelligence in life extension: From deep learning to superintelligence », Informatica,‎ (lire en ligne)
  28. a et b (en) Robert F. Service, « ‘The game has changed.' AI triumphs at solving protein structures », Science,‎ (lire en ligne)
  29. a et b (en) Ewen Callaway, « 'It will change everything': DeepMind's AI makes gigantic leap in solving protein structures », Nature, vol. 588, no 7837,‎ , p. 203–204 (PMID 33257889, DOI 10.1038/d41586-020-03348-4, Bibcode 2020Natur.588..203C, S2CID 227243204)
  30. (en) « AlphaFold: a solution to a 50-year-old grand challenge in biology », sur Google Deepmind, (consulté le )
  31. (en) Brigitte Nerlich, « Protein folding and science communication: Between hype and humility », sur Making Science Public, (consulté le )
  32. (en) Tim Hubbard, « The secret of life, part 2: the solution of the protein folding problem. », sur Medium, (consulté le )
  33. a et b (en) Will Douglas Heaven, « DeepMind's protein-folding AI has solved a 50-year-old grand challenge of biology », sur MIT Technology Review, (consulté le )
  34. (en) Ram Sagar, « OpenAI Releases GPT-3, The Largest Model So Far » [archive du ], sur Analytics India Magazine, (consulté le )
  35. (en) Samantha Lock, « What is AI chatbot phenomenon ChatGPT and could it replace humans? », The Guardian,‎ (ISSN 0261-3077, lire en ligne, consulté le )
  36. (en) Frederic Lardinois, « Microsoft's new Bing was using GPT-4 all along » [archive du ], sur TechCrunch, (consulté le )
  37. (en) Ben Derico et Zoe Kleinman, « OpenAI announces ChatGPT successor GPT-4 », BBC,‎ (lire en ligne, consulté le )
  38. (de) Daniel Ziegener, « DeepL Write: Brauchen wir jetzt noch eine menschliche Lektorin? » [archive du ], sur Golem.de, (consulté le )
  39. « Gemini », sur Google DeepMind (consulté le )
  40. (en) Devin Coldewey, « OpenAI's DALL-E creates plausible images of literally anything you ask it to » [archive du ], sur TechCrunch, (consulté le )
  41. (en) Devin Coldewey, « New OpenAI tool draws anything, bigger and better than ever » [archive du ], sur TechCrunch, (consulté le )
  42. (en) Mohit Pandey, « One Year of Midjourney: A Psychedelic Image Generator to Realistic Photo Album », sur Analytics India Magazine, (consulté le )
  43. (en) « Stable Diffusion Public Release » [archive du ], sur Stability AI (consulté le )
  44. (zh) « ModelScope 魔搭社区 » [archive du ], sur modelscope.cn (consulté le )
  45. (en) Ashish Kumar, « Meta AI Introduces 'Make-A-Video': An Artificial Intelligence System That Generates Videos From Text » [archive du ], sur MarkTechPost, (consulté le )
  46. (en) Benj Edwards, « Google's newest AI generator creates HD video from text prompts » [archive du ], sur Ars Technica, (consulté le )
  47. (en) « Phenaki » [archive du ], sur phenaki.video (consulté le )
  48. (en) Benj Edwards, « Runway teases AI-powered text-to-video editing using written prompts », Arts Technica,‎ (lire en ligne [archive du ], consulté le )
  49. (en) Zack Zwiezen, « Website Lets You Make GLaDOS Say Whatever You Want » [archive du ], sur Kotaku, (consulté le )
  50. (en) Liana Ruppert, « Make Portal's GLaDOS And Other Beloved Characters Say The Weirdest Things With This App », Game Informer,‎ (lire en ligne)
  51. (en) Jorge Jimenez published, « AI company promises changes after 'voice cloning' tool used to make celebrities say awful things », PC Gamer,‎ (lire en ligne, consulté le )
  52. (en) « Seeing is believing? Global scramble to tackle deepfakes » [archive du ], sur Yahoo News (consulté le )
  53. (en) Joe Coscarelli, « An A.I. Hit of Fake ‘Drake’ and ‘The Weeknd’ Rattles the Music World », The New York Times,‎ (lire en ligne)
  54. (en) Kevin Roose, « This A.I. Subculture’s Motto: Go, Go, Go », The New York Times,‎ (lire en ligne Accès payant, consulté le )
  55. (en) George Hammond, « Big Tech is spending more than VC firms on AI startups », sur Ars Technica,
  56. (en) Matteo Wong, « The Future of AI Is GOMA » Accès limité, sur The Atlantic, (consulté le )
  57. (en) « Big tech and the pursuit of AI dominance » Inscription nécessaire, sur The Economist, (consulté le )
  58. (en) Brian Fung, « Where the battle to dominate AI may be won », sur CNN, (consulté le )
  59. (en) Peter Kafka, « The AI boom is here, and so are the lawsuits » [archive du ], sur Vox, (consulté le )
  60. (en) « The AI boom: lessons from history », The Economist,‎ (ISSN 0013-0613, lire en ligne, consulté le )
  61. a b et c (en) Andrew R. Chow et Billy Perrigo, « The AI Arms Race Is Changing Everything », sur TIME, (consulté le )
  62. a et b (en) « Frontier AI regulation: Managing emerging risks to public safety », sur Openai, (arXiv 2307.03718, consulté le )
  63. a et b (en) Paul Scharre, « Killer Apps », Foreign Affairs,‎ (ISSN 0015-7120, lire en ligne, consulté le )
  64. (en) « How Generative AI Can Augment Human Creativity », Harvard Business Review,‎ (lire en ligne, consulté le )
  65. (en) Joe McKendrick, « No matter how sophisticated, artificial intelligence systems still need human oversight » [archive du ], sur ZDNET, (consulté le )
  66. (en) Ashish Sukhadeve, « Council Post: Artificial Intelligence For Good: How AI Is Helping Humanity » [archive du ] Accès payant, sur Forbes, (consulté le )
  67. (en) « Could AI advancements be a threat to your job security? » [archive du ], Learning People (consulté le )
  68. (en) Jacob Zinkula et Aaron Mok, « ChatGPT may be coming for our jobs. Here are the 10 roles that AI is most likely to replace. » [archive du ], sur Business Insider, (consulté le )
  69. a b c et d (en) Holden Karnofsky, « What AI companies can do today to help with the most important century », sur Cold Takes, (consulté le )
  70. a b et c (en) « Avoiding Extreme Global Vulnerability as a Core AI Governance Problem », sur AI Safety Fundamentals, (consulté le )