La convergence instrumentale est la tendance hypothétique de la plupart agents suffisamment intelligents (humains ou non) à poursuivre des objectifs instrumentaux similaires (par exemple survivre ou acquérir des ressources), même si leurs objectifs ultimes sont différents. Plus précisément, les agents intelligents peuvent poursuivre des objectifs instrumentaux (des objectifs qui n'ont pas de valeur , mais qui aident à atteindre des objectifs ultimes) sans fin, si leurs objectifs ultimes ne soient jamais pleinement satisfaits.
La convergence instrumentale suggère qu'un agent intelligent avec des objectifs ultimes apparemment inoffensifs peut agir de manière étonnamment nuisible. Par exemple, un ordinateur dont le seul objectif est de résoudre un problème mathématique incroyablement difficile comme l'hypothèse de Riemann pourrait tenter de transformer la Terre entière en ordinateur géant afin d'augmenter sa puissance de calcul et donc ses chances de parvenir à une démonstration. La convergence instrumentale a alimenté en particulier la peur des intelligences artificielles avancées. Les objectifs instrumentaux convergents proposés incluent la préservation de soi, la conservation de ses objectifs actuels, l'auto-amélioration, l'acquisition insatiable de ressources.
Les objectifs ultimes (aussi appelés objectifs , ou encore ), sont intrinsèquement précieux pour un agent intelligent en tant que fin en soi, que l'agent soit une intelligence artificielle ou d'un être humain. En revanche, les objectifs instrumentaux n'ont de valeur pour un agent que comme un moyen d'atteindre ses objectifs ultimes. Ces notions peuvent être modélisés avec une « fonction d'utilité ». Plus une situation sera jugée bonne par l'agent, plus cette fonction d'utilité retournera un score élevé. La fonction d'utilité n'est souvent pas explicitement programmée, mais sert d'abstraction pour analyser le comportement d'un agent intelligent ayant des préférences cohérentes.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Les risque existentiel ou risque de catastrophe planétaire lié à l'intelligence artificielle générale est un risque d'extinction humaine ou autre catastrophe mondiale irréversible hypothétiquement associé à des progrès substantiels dans l'intelligence artificielle générale (IAG). alt=Source: mikemacmarketing|vignette|290x290px Un argument avancé est que l'espèce humaine domine actuellement les autres espèces parce que le cerveau humain a des capacités qui manquent aux autres animaux.
Eliezer Shlomo Yudkowsky (né le ) est un blogueur et écrivain américain, créateur et promoteur du concept d'intelligence artificielle « amicale ». Il doit sa notoriété mondiale au grand succès de sa fanfiction Harry Potter et les Méthodes de la rationalité, inspirée de l'univers de Harry Potter, qui illustre des concepts venus des sciences cognitives et des théories de la rationalité. Eliezer Yudkowsky est né en 1979 dans une famille juive orthodoxe. Il ne va pas au lycée et se forme en autodidacte.
vignette|redresse=1.75|La frise chronologique de Ray Kurzweil (2005) date le moment où un superordinateur sera plus puissant qu'un cerveau humain, et pourra alors le simuler : il s'agit d'une méthode envisagée pour créer une intelligence artificielle, utilisée notamment dans le projet Blue Brain. La singularité technologique (ou simplement la Singularité) est l'hypothèse selon laquelle l'invention de l'intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine.
Non-convex constrained optimization problems have become a powerful framework for modeling a wide range of machine learning problems, with applications in k-means clustering, large- scale semidefinite programs (SDPs), and various other tasks. As the perfor ...
This article reports on the current state of the OBI DICT project, a bilingual e-dictionary of oracle-bone inscriptions (OBI), incorporating artificial intelligence (AI) image recognition technology. It first provides a brief overview of the development of ...
Deciding on a course of action requires both an accurate estimation of option values and the right amount of effort invested in deliberation to reach suf fi cient con fi dence in the fi nal choice. In a previous study, we have provided evidence, across a s ...