ComputationA computation is any type of arithmetic or non-arithmetic calculation that is well-defined. Common examples of computations are mathematical equations and computer algorithms. Mechanical or electronic devices (or, historically, people) that perform computations are known as computers. The study of computation is the field of computability, itself a sub-field of computer science. The notion that mathematical statements should be ‘well-defined’ had been argued by mathematicians since at least the 1600s, but agreement on a suitable definition proved elusive.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Complexité en tempsEn algorithmique, la complexité en temps est une mesure du temps utilisé par un algorithme, exprimé comme fonction de la taille de l'entrée. Le temps compte le nombre d'étapes de calcul avant d'arriver à un résultat. Habituellement, le temps correspondant à des entrées de taille n est le temps le plus long parmi les temps d’exécution des entrées de cette taille ; on parle de complexité dans le pire cas. Les études de complexité portent dans la majorité des cas sur le comportement asymptotique, lorsque la taille des entrées tend vers l'infini, et l'on utilise couramment les notations grand O de Landau.
Theory of computationIn theoretical computer science and mathematics, the theory of computation is the branch that deals with what problems can be solved on a model of computation, using an algorithm, how efficiently they can be solved or to what degree (e.g., approximate solutions versus precise ones). The field is divided into three major branches: automata theory and formal languages, computability theory, and computational complexity theory, which are linked by the question: "What are the fundamental capabilities and limitations of computers?".
Cerveau humainLe 'cerveau humain' a la même structure générale que le cerveau des autres mammifères, mais il est celui dont la taille relative par rapport au reste du corps est devenue la plus grande au cours de l'évolution. Si la baleine bleue a le cerveau le plus lourd avec contre environ pour celui de l'homme, le coefficient d'encéphalisation humain est le plus élevé et est sept fois supérieur à celui de la moyenne des mammifères.
Syndrome du cerveau scindéLe syndrome du cerveau scindé ou divisé ou callosum (en anglais split-brain) est un syndrome résultant de la déconnexion des deux hémisphères. La raison est l'absence de corps calleux à la naissance (malformation congénitale) ou la conséquence de sa destruction accidentelle ou chirurgicale. Le corps calleux relie les deux hémisphères du cerveau. L'association de symptômes est produite par la perturbation ou l'interférence de la connexion entre les hémisphères du cerveau.
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.
Left-brain interpreterThe left-brain interpreter is a neuropsychological concept developed by the psychologist Michael S. Gazzaniga and the neuroscientist Joseph E. LeDoux. It refers to the construction of explanations by the left brain hemisphere in order to make sense of the world by reconciling new information with what was known before. The left-brain interpreter attempts to rationalize, reason and generalize new information it receives in order to relate the past to the present.
Implant cérébralLes implants cérébraux, également appelés « BrainChips » ou « Brain implant » en anglais, sont des systèmes électroniques implantés dans le cerveau, afin de lire ou contrôler certains signaux cérébraux. Ils sont également connus sous le nom de « puce électronique cérébrale ». Les implants cérébraux sont des implants électroniques constitués d'électrodes ou de grilles d'électrodes, permettant de lire et contrôler des signaux cérébraux. Les électrodes peuvent être placées de façon très précises à l'aide de bras robotisés.
HypercalculLe terme hypercalcul désigne les différentes méthodes proposées pour le calcul de fonctions non-Turing-calculables. Il a été initialement introduit par Jack Copeland. On emploie également le terme de calcul super-Turing, bien que celui d'hypercalcul puisse être connoté de la séduisante possibilité qu'une telle machine soit physiquement réalisable. Certains modèles ont été proposés, comme des réseaux de neurones avec des nombres réels en guise de poids, la capacité de conduire une infinité de calculs simultanément ou encore l'aptitude à effectuer des opérations non Turing-calculables, telles que des limites ou des intégrations.