Self-assembly of nanoparticlesNanoparticles are classified as having at least one of three dimensions be in the range of 1-100 nm. The small size of nanoparticles allows them to have unique characteristics which may not be possible on the macro-scale. Self-assembly is the spontaneous organization of smaller subunits to form larger, well-organized patterns. For nanoparticles, this spontaneous assembly is a consequence of interactions between the particles aimed at achieving a thermodynamic equilibrium and reducing the system’s free energy.
Sciences numériquesLes sciences numériques (traduction de l'anglais computational sciences), autrement dénommées calcul scientifique ou informatique scientifique, ont pour objet la construction de modèles mathématiques et de méthodes d'analyse quantitative, en se basant sur l'utilisation des sciences du numérique, pour analyser et résoudre des problèmes scientifiques. Cette approche scientifique basée sur un recours massif aux modélisations informatiques et mathématiques et à la simulation se décline en : médecine numérique, biologie numérique, archéologie numérique, mécanique numérique, par exemple.
Complexité en tempsEn algorithmique, la complexité en temps est une mesure du temps utilisé par un algorithme, exprimé comme fonction de la taille de l'entrée. Le temps compte le nombre d'étapes de calcul avant d'arriver à un résultat. Habituellement, le temps correspondant à des entrées de taille n est le temps le plus long parmi les temps d’exécution des entrées de cette taille ; on parle de complexité dans le pire cas. Les études de complexité portent dans la majorité des cas sur le comportement asymptotique, lorsque la taille des entrées tend vers l'infini, et l'on utilise couramment les notations grand O de Landau.
HeuristiqueL'heuristique ou euristique (du grec ancien εὑρίσκω, heuriskô, « je trouve ») est en résolvant des problèmes à partir de connaissances incomplètes. Ce type d'analyse permet d'aboutir en un temps limité à des solutions acceptables. Celles-ci peuvent s'écarter de la solution optimale. Pour Daniel Kahneman, c'est une procédure qui aide à trouver des réponses adéquates, bien que souvent imparfaites à des questions difficiles. Ce système empirique inclut notamment la méthode essai-erreur ou l'analyse statistique des échantillons aléatoires.
MétaheuristiqueUne métaheuristique est un algorithme d’optimisation visant à résoudre des problèmes d’optimisation difficile (souvent issus des domaines de la recherche opérationnelle, de l'ingénierie ou de l'intelligence artificielle) pour lesquels on ne connaît pas de méthode classique plus efficace. Les métaheuristiques sont généralement des algorithmes stochastiques itératifs, qui progressent vers un optimum global (c'est-à-dire l'extremum global d'une fonction), par échantillonnage d’une fonction objectif.
Energy Starvignette|droite|220px|Logo Energy Star. thumb|right|Le logo Energy Star apposé sur certains équipements. Energy Star est un programme gouvernemental américain chargé de promouvoir les économies d'énergie aux États-Unis et utilisé au Canada, en Australie et en Union européenne. Il a été initié par l'Environmental Protection Agency en 1992 pour réduire les émissions de gaz à effet de serre. Il prend la forme d'un label apposé sur différents produits qui respectent les normes environnementales, tels que les ordinateurs ou encore les éclairages.
Méthode de l'ellipsoïdeEn optimisation mathématique, la méthode de l'ellipsoïde est une méthode itérative utilisée pour minimiser des fonctions convexes. En informatique théorique, cette méthode est connue comme étant le premier algorithme de complexité polynomiale découvert pour résoudre les problèmes d'optimisation linéaire. L'algorithme construit une suite d'ellipsoïdes de plus en plus petits, qui enserrent à chaque étape le minimum de la fonction objectif.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Neurosciences computationnellesLes neurosciences computationnelles (NSC) sont un champ de recherche des neurosciences qui s'applique à découvrir les principes computationnels des fonctions cérébrales et de l'activité neuronale, c'est-à-dire des algorithmes génériques qui permettent de comprendre l'implémentation dans notre système nerveux central du traitement de l'information associé à nos fonctions cognitives. Ce but a été défini en premier lieu par David Marr dans une série d'articles fondateurs.