L'intelligence artificielle plonge ses racines dans l'Antiquité, mais c'est surtout dans la deuxième partie du qu'elle prit son essor, et qu'une lecture historique devient envisageable.
Les premiers jalons historiques de l'intelligence artificielle (ou IA) datent de la Protohistoire, où mythes, légendes et rumeurs dotent des êtres artificiels, réalisés par des maîtres-artisans, d'une intelligence ou d'une conscience ; comme l'écrit , l'intelligence artificielle commence avec « le vieux souhait de jouer à Dieu ».
L'intelligence artificielle comme nous l'entendons aujourd'hui a été initiée par les philosophes classiques, dont Gottfried Wilhelm Leibniz avec son calculus ratiocinator, qui essaient de décrire le processus de la pensée humaine comme la manipulation mécanique de symboles, sans pour autant vouloir fabriquer des spécimens. Cette réflexion s'est concrétisée avec l'invention de l'ordinateur programmable dans les années 1940. Cet instrument et les idées qu'il sous-tend ont inspiré les scientifiques qui ont commencé à évoquer sérieusement la faisabilité d'un « cerveau électronique ».
La recherche en intelligence artificielle a vraiment commencé après une conférence tenue sur le campus de Dartmouth College pendant l'été 1956. À la suite de cette réunion, certains participants se sont investis dans une recherche sur l'intelligence artificielle. Certains utopistes ont pronostiqué qu'une machine aussi intelligente qu'un être humain existerait en moins d'une génération et des millions de dollars ont alors été investis pour réifier cette prédiction. Avec le temps, il est apparu que les difficultés inhérentes à cette annonce avaient été grossièrement sous-estimées. En 1973, en réponse aux critiques des scientifiques, notamment de James Lighthill et aux pressions continuelles des parlementaires, les gouvernements britannique et américain stoppent les subventions à la recherche en intelligence artificielle sans orientation.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Le paradoxe de Moravec peut se résumer à l'idée que « le plus difficile en robotique est souvent ce qui est le plus facile pour l'homme ». Révélé par des chercheurs en intelligence artificielle et en robotique, notamment Hans Moravec, Rodney Brooks et Marvin Minsky, ce paradoxe indique que le raisonnement de haut niveau est beaucoup plus facile à reproduire et simuler par un programme informatique que les aptitudes sensorimotrices humaines.
Subsumption architecture is a reactive robotic architecture heavily associated with behavior-based robotics which was very popular in the 1980s and 90s. The term was introduced by Rodney Brooks and colleagues in 1986. Subsumption has been widely influential in autonomous robotics and elsewhere in real-time AI. Subsumption architecture is a control architecture that was proposed in opposition to traditional symbolic AI.
L'intelligence synthétique (IS, issu de l'anglais synthetic intelligence) est un terme alternatif pour désigner l'intelligence artificielle en soulignant que l'intelligence des machines n'a pas besoin d'être une imitation ou artificielle de quelque manière ; il peut s'agir d'une véritable forme d'intelligence. John Haugeland propose une analogie avec les diamants simulés et les diamants synthétiques - seul le diamant synthétique est vraiment un diamant. Synthétique signifie ce qui est produit par synthèse, combinant des parties pour former un tout.
Couvre l'histoire et les concepts fondamentaux des réseaux neuronaux, y compris le modèle mathématique d'un neurone, la descente de gradient et le perceptron multicouche.
Explore l'impact de l'apprentissage profond sur les humanités numériques, en se concentrant sur les systèmes de connaissances non conceptuels et les progrès récents de l'IA.
We highlight two alternative, yet complementary, solutions for har-nessing available neural resources for improving integration of artificial limbs (ALs) through embodiment. 'Hard' embodiment exploits neural and cognitive body mechanisms by closely mimicki ...
ELSEVIER SCIENCE LONDON2020
,
Machine Learning (ML) is an attractive application of Non-Volatile Memory (NVM) arrays [1,2]. However, achieving speedup over GPUs will require minimal neuron circuit sharing and thus highly area-efficient peripheral circuitry, so that ML reads and writes ...
Evolutionary algorithms are heuristic methods that operate on a population of individuals, which represent candidate solutions to optimization problems. Individuals with better quality, or fitness, are reproduced at a higher rate than less fit individuals ...