Explosion d'intelligence

L'explosion d'intelligence est une prédiction qui postule que l'amélioration de l'intelligence (par manipulation génétique, par intelligence artificielle (IA)) aura pour résultat des améliorations ultérieures à intervalles de temps toujours plus courts et une augmentation de l’intelligence exponentielle dont le résultat hypothétique est parfois nommé « la singularité technologique ».

La notion d'« explosion d'intelligence » a été décrite par Irving John Good, qui a traité des effets des machines surhumaines, si elles étaient inventés:

« Soit une machine ultra-intelligente définie comme une machine qui peut dépasser de loin toutes les activités intellectuelles de n'importe quel homme, quel que soit son quotient intellectuel. Comme la conception des machines est l'une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures. Il y aurait dès lors une « explosion d'intelligence », et l'intelligence de l'homme serait laissée loin derrière. Ainsi, la première machine ultra-intelligente est la dernière invention que l'homme doit faire, à condition que la machine soit assez lucide pour nous dire comment la garder sous contrôle. »

Bien que le progrès technologique ait été accéléré, il a été limité par l'intelligence fondamentale du cerveau humain, qui n'a pas, selon Paul Ehrlich, changé de façon significative pendant des millénaires[1]. Cependant, avec la puissance croissante des ordinateurs et d'autres technologies, il pourrait éventuellement être possible de construire une machine qui est plus intelligente que les humains[2]. Si une intelligence surhumaine devait être inventée—soit par l'amplification de l'intelligence humaine, soit par l'intelligence artificielle—elle apportait des capacités de résolution de problèmes et de créativités supérieures à celles dont les humains actuels sont capables[3],[4]. Car si une IA était créée avec des capacités d'ingénierie qui correspondaient ou surpassaient celles de ses créateurs humains, elle aurait le potentiel d'améliorer de façon autonome ses propres logiciels et matériels ou de concevoir une machine encore plus puissante. Cette machine plus capable pourrait alors continuer à concevoir une machine de capacité encore plus grande. Ces itérations de l'auto-amélioration récursive pourraient s'accélérer, permettant potentiellement d'énormes changements qualitatifs avant toute limite supérieure imposée par les lois de la physique ou le calcul théorique imposés. Il est supposé qu'une telle IA dépasserait de loin les capacités cognitives humaines.

Nick Bostrom dans son livre Superintelligence : Paths, Dangers, Strategies montre que différentes voies peuvent mener à l'explosion de l’intelligence et pas seulement l’intelligence artificielle.

Plausibilité

La plupart des méthodes proposées pour créer des esprits surhumains ou trans-humains entrent dans une de deux catégories : l'amplification de l'intelligence du cerveau humain et l'intelligence artificielle. Les moyens spéculés pour la première sont nombreux, et incluent le génie biologique, génie génétiquedrogues nootropes, assistants d'IA, les interfaces neuronales directes et le téléchargement de l'esprit. L'existence de destins multiples à l'explosion d'intelligence rend une singularité plus probable; Pour qu'une singularité ne se produise pas, ils auraient tous à échouer[5]. Robin Hanson est sceptique vis-à-vis de l'augmentation de l'intelligence humaine, écrivant que, une fois que l'on a épuisé le « fruit faible » des méthodes faciles pour augmenter l'intelligence humaine, d'autres améliorations deviendront de plus en plus difficiles à trouver. Malgré les nombreux moyens énoncés pour amplifier l'intelligence humaine, l'intelligence artificielle non humaine est l'option la plus citée par les organisations qui avancent cette singularité technologique.[réf. nécessaire]

Que l'explosion d'intelligence survienne ou non dépend de trois facteurs[6]. Le premier facteur, accélérant, est les nouvelles améliorations de l'intelligence rendues possibles par chaque amélioration précédente. Au contraire, à mesure que les intelligences deviennent plus avancées, de nouvelles avancées deviendront de plus en plus compliquées, dépassant peut-être l'avantage d'une intelligence accrue. Chaque amélioration doit pouvoir engendrer au moins une amélioration supplémentaire en moyenne, pour que la singularité continue. Au bout d'un certain moment, les lois de la physique finiront par empêcher d'autres améliorations.

Il y a deux effets accélérants, logiquement indépendants, mais se renforçant mutuellement : d'une part, l'augmentation de la vitesse de calcul et d'autre part, l'amélioration des algorithmes utilisés[7]. Le premier est prévu par la loi de Moore et les améliorations prévues dans le matériel, et est comparativement similaire à l'avance technologique précédente[8]. D'autre part, la plupart des chercheurs en IA[Qui ?] croient que le software est plus important que l'hardware.[réf. nécessaire]

Amélioration de la vitesse

Que ce soit à propos de l'intelligence humaine ou artificielle, les améliorations matérielles augmentent le taux d'améliorations matérielles futures. Simplement[9], La loi de Moore suggère que si le premier doublement de vitesse prenait 18 mois, le second prendrait 9 mois, après quoi, quatre mois, deux mois, et ainsi de suite convergent vers une singularité[10]. Une limite supérieure peut éventuellement être atteinte, bien qu'elle soit difficile à mesurer. Stephen Hawkings[réf. nécessaire], a soutenu que la limite supérieure était relativement faible ;

« La croyance en cette idée repose sur une compréhension naïve de ce qu'est l'intelligence. Par analogie, imaginez-nous avoir un ordinateur qui pourrait concevoir de nouveaux ordinateurs (puces, systèmes et logiciels) plus rapidement que lui-même. Un tel ordinateur conduirait-il à des ordinateurs infiniment rapides? Non. Cela pourrait accélérer le taux d'amélioration pendant un certain temps, mais à la fin, il existe des limites à la taille des ordinateurs puissants et rapides. Nous finirions au même endroit ; Nous allons juste y arriver un peu plus vite. Il n'y aurait aucune singularité. Alors que si elle était beaucoup plus élevée que les niveaux d'intelligence humains actuels, les effets de la singularité seraient assez grands pour être indiscernables (pour les humains) d'une singularité avec une limite supérieure. Par exemple, si la vitesse de la pensée pouvait être augmentée d'un million, une année subjective passerait 30 secondes physiques. »

Il est difficile de comparer directement le silicium avec les neurones. Mais Anthony Berglas note que l'ordinateur à  reconnaissance vocale est à l'approche des capacités humaines, et que cette capacité semble occuper 0,01% du volume du cerveau. Cette analogie suggère que le matériel informatique moderne est à quelques ordres de grandeur d'être aussi puissant que le cerveau humain.

Amélioration de l'intelligence

Certaines technologies de l'intelligence peuvent également avoir le potentiel pour se rendre plus intelligent, en modifiant leur code source[3],[4]. Ces améliorations devraient apporter d'autres améliorations possibles, ce qui permettrait de procéder à d'autres améliorations possibles, et ainsi de suite.

Ce mécanisme d'explosion d'intelligence diffère d'une augmentation de la vitesse de deux façons. Tout d'abord, il ne nécessite pas d'effet externe : les machines auront encore besoin des humains pour créer du matériel, ou de programmer des usines de manière appropriée.

Deuxièmement, comme avec la conception de la singularité de Vernor Vinge, c'est beaucoup plus difficile de prédire le résultat. Eliezer Yudkowsky compare les changements de l'intelligence humaine : l'homme a changé le monde des milliers de fois plus rapidement que l'évolution ne l'a fait, et de manière totalement différente[11].

Il y a des dangers associés à une singularité de l'explosion d'intelligence. Tout d'abord, l'objectif de la structure de l'IA ne peut pas être invariante sous l'auto-amélioration, ce qui peut causer l'amélioration de quelque chose qui n'était pas prévu[12],[13]. Deuxièmement, Les intelligences artificielles pourraient être en compétition pour les ressources vitales que l'humanité utilise pour survivre[14],[15].

Bien qu'elles ne soient pas malveillantes, il n'y a aucune raison de penser que les IA pourraient favoriser l'atteinte des objectifs humains, à moins qu'elles ne puissent être programmées comme telles[16],[17].

Impact

Des changements dramatiques des taux de croissance économique se sont produits dans le passé en raison de l'avancement technologique. En se basant sur  la croissance démographique, l'économie a doublé tous les 250 000 ans de l'époque paléolithique jusqu'à la Révolution néolithique. La nouvelle économie agricole a doublé tous les 900 ans, une augmentation remarquable. Dans l'ère actuelle, à partir de la révolution industrielle, la production économique mondiale double tous les quinze ans, soit soixante fois plus vite que pendant l'ère agricole. Si la montée de l'intelligence surhumaine provoque une révolution similaire, affirme Robin Hanson, on s'attendrait à ce que l'économie double au moins tous les trois mois[18].

Super-intelligence

Une super-intelligence, (hyper-intelligence ou encore intelligence surhumaine) est un agent hypothétique qui possède une intelligence qui dépasse de loin celle des esprits humains les plus brillants et les plus talentueux. La « super-intelligence » peut également se référer à la forme ou au degré d'intelligence possédé par un tel agent.

Les prévisionnistes et les chercheurs de la technologie sont en désaccord quant au dépassement de l'intelligence humaine. Certains font valoir que les progrès de l'intelligence artificielle (IA) entraîneront probablement des raisonnements qui manquent de limitations cognitives humaines. D'autres pensent que les humains évolueront ou modifieront directement leur biologie afin d'obtenir une intelligence radicalement plus grande. Un certain nombre de scénarios d'études à terme combinent des éléments de ces deux possibilités, ce qui suggère que les humains sont susceptibles d'interagir avec les ordinateurs[19],[20],[21].

Risque existentiel

Berlgas note qu'il n'existe pas de motivation directe pour une IA à être amicale avec les humains. L'évolution n'a pas de tendance inhérente à produire des résultats valorisés par les humains, et il y a peu de raisons de s'attendre à un processus d'optimisation arbitraire, afin de promouvoir un résultat souhaité par l'humanité. Le chercheur en intelligence artificielle, Hugo de Garis, suggère que les intelligences artificielles peuvent simplement éliminer la race humaine pour avoir accès à des ressources limitées, et les humains seraient impuissants à les arrêter[22],[23],[24].

Eliezer Yudkowsky a proposé que des recherches soient entreprises pour produire une intelligence artificielle amicale afin de remédier aux possibles dangers. Il a noté que la première IA réelle à avoir une bonne conception de l'amélioration de soi, pourrait empêcher les IA hostiles de se développer, tout en offrant d'énormes avantages à l'humanité[25].

Bill Hibbard (2014) propose une conception de l'IA qui évite plusieurs dangers, y compris l'auto-illusion, ou la corruption. Il a également traité des impacts sociaux de l'IA. Son livre de 2001 Super-Intelligent Machines préconise le besoin d'éducation publique concernant l'IA et le contrôle public sur l'IA[26].

Une approche hypothétique pour tenter de contrôler une intelligence artificielle est une IA box[27],[28],[29], où l'intelligence artificielle est restreinte dans un monde simulé et ne peut pas affecter le monde extérieur. Cependant, une IA suffisamment intelligente peut tout simplement y échapper.

Voir aussi

Références

  1. Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment
  2. Superbrains born of silicon will change everything. « https://web.archive.org/web/20100801074729/http://www.businessweek.com/1999/99_35/b3644021.htm »(Archive.orgWikiwixArchive.isGoogleQue faire ?),
  3. a et b Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.
  4. a et b Eliezer Yudkowsky. General Intelligence and Seed AI-Creating Complete Minds Capable of Open-Ended Self-Improvement, 2001
  5. (en) « What is the Singularity? | Singularity Institute for Artificial Intelligence » [archive du ], Singinst.org (consulté le )
  6. David Chalmers John Locke Lecture, 10 May, Exam Schools, Oxford, Presenting a philosophical analysis of the possibility of a technological singularity or "intelligence explosion" resulting from recursively self-improving AI.
  7. The Singularity: A Philosophical Analysis, David J. Chalmers
  8. (en) « ITRS » [PDF] (consulté le )
  9. (en) John Siracusa, « Mac OS X 10.6 Snow Leopard: the Ars Technica review », Arstechnica.com, (consulté le ).
  10. Eliezer Yudkowsky, 1996 "Staring into the Singularity".
  11. (en) Eliezer S. Yudkowsky, « Power of Intelligence », Yudkowsky (consulté le ).
  12. Omohundro, Stephen M., "The Basic AI Drives." Artificial General Intelligence, 2008 proceedings of the First AGI Conference, eds. Pei Wang, Ben Goertzel, and Stan Franklin. Vol. 171. Amsterdam: IOS, 2008 .
  13. (en) « Artificial General Intelligence: Now Is the Time »(Archive.orgWikiwixArchive.isGoogleQue faire ?), KurzweilAI (consulté le )
  14. Omohundro, Stephen M., "The Nature of Self-Improving Artificial Intelligence." Self-Aware Systems. 21 Jan. 2008. Web. 07 Jan. 2010.
  15. (en) James Barrat, Our Final Invention, New York, St. Martin's Press, , 1re éd., 322 p. (ISBN 978-0-312-62237-4), « 6, "Four Basic Drives" ».
  16. (en) Carl Shulman, Anders Sandberg et Klaus Mainzer (dir.), « Implications of a Software-Limited Singularity », ECAP10: VIII European Conference on Computing and Philosophy,‎ (lire en ligne, consulté le ).
  17. (en) Luke Muehlhauser et Anna Salamon, « Intelligence Explosion: Evidence and Import », dans Amnon Eden, Johnny Søraker, James H. Moor et Eric Steinhart, Singularity Hypotheses: A Scientific and Philosophical Assessment, Springer, (lire en ligne).
  18. Robin Hanson, « Economics Of The Singularity », IEEE Spectrum Special Report: The Singularity,‎ (lire en ligne, consulté le ) & Long-Term Growth As A Sequence of Exponential Modes
  19. (en) « Max More and Ray Kurzweil on the Singularity », KurzweilAI (consulté le )
  20. (en) « Concise Summary | Singularity Institute for Artificial Intelligence »(Archive.orgWikiwixArchive.isGoogleQue faire ?), Singinst.org (consulté le )
  21. Bostrom, Nick, The Future of Human Evolution, Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy, p. 339–371, 2004, Ria University Press.
  22. Ethical Issues in Advanced Artificial Intelligence, Nick Bostrom, in Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, Vol. 2, ed. I. Smit et al., Int. Institute of Advanced Studies in Systems Research and Cybernetics, 2003, p. 12–17
  23. Eliezer Yudkowsky: Artificial Intelligence as a Positive and Negative Factor in Global Risk. Draft for a publication in Global Catastrophic Risk from August 31, 2006, retrieved July 18, 2011 (PDF file)
  24. « The Stamp Collecting Device, Nick Hay »(Archive.orgWikiwixArchive.isGoogleQue faire ?) (consulté le )
  25. de Garis, Hugo. "The Coming Artilect War", Forbes.com, 22 June 2009.
  26. « Coherent Extrapolated Volition, Eliezer S. Yudkowsky, May 2004 »(Archive.orgWikiwixArchive.isGoogleQue faire ?) (consulté le )
  27. (en) Eliezer Yudkowsky, Nick Bostrom (dir.) et Milan Cirkovic (dir.), « Artificial Intelligence as a Positive and Negative Factor in Global Risk », Global Catastrophic Risks, New York, Oxford University Press,‎ , p. 303 (ISBN 978-0-19-857050-9, Bibcode 2008gcr..book..303Y, lire en ligne [archive du ])
  28. Artificial Intelligence Will Kill Our Grandchildren (Singularity), Dr Anthony Berglas
  29. The Singularity: A Philosophical Analysis David J. Chalmers

Vernor Vinge, « The Coming Technological Singularity: How to Survive in the Post-Human Era », (consulté le )

Bibliographie

Liens externes