Problème de bin packingEn recherche opérationnelle et en optimisation combinatoire, le bin packing est un problème algorithmique. Il s'agit de ranger des objets dans un nombre minimum de boîtes. Le problème classique se définit en une dimension, mais il existe de nombreuses variantes en deux ou trois dimensions. Le problème de bin packing peut s'appliquer à un grand nombre de secteurs industriels ou informatiques. Pour la version classique en une dimension : rangement de fichiers sur un support informatique ; découpe de câbles ; remplissage de camions ou de containers avec comme seule contrainte le poids ou le volume des articles.
Optimisation linéaire en nombres entiersL'optimisation linéaire en nombres entiers (OLNE) (ou programmation linéaire en nombres entiers (PLNE) ou integer programming (IP) ou Integer Linear Programming (ILP)) est un domaine des mathématiques et de l'informatique théorique dans lequel on considère des problèmes d'optimisation d'une forme particulière. Ces problèmes sont décrits par une fonction de coût et des contraintes linéaires, et par des variables entières.
Algorithme d'approximationEn informatique théorique, un algorithme d'approximation est une méthode permettant de calculer une solution approchée à un problème algorithmique d'optimisation. Plus précisément, c'est une heuristique garantissant à la qualité de la solution qui fournit un rapport inférieur (si l'on minimise) à une constante, par rapport à la qualité optimale d'une solution, pour toutes les instances possibles du problème.
Optimisation SDPEn mathématiques et en informatique théorique, l'optimisation SDP ou semi-définie positive, est un type d'optimisation convexe, qui étend l'optimisation linéaire. Dans un problème d'optimisation SDP, l'inconnue est une matrice symétrique que l'on impose d'être semi-définie positive. Comme en optimisation linéaire, le critère à minimiser est linéaire et l'inconnue doit également satisfaire une contrainte affine. L'optimisation SDP se généralise par l'optimisation conique, qui s'intéresse aux problèmes de minimisation d'une fonction linéaire sur l'intersection d'un cône et d'un sous-espace affine.
Intégration (mathématiques)En mathématiques, l'intégration ou calcul intégral est l'une des deux branches du calcul infinitésimal, l'autre étant le calcul différentiel. Les intégrales sont utilisées dans de multiples disciplines scientifiques notamment en physique pour des opérations de mesure de grandeurs (longueur d'une courbe, aire, volume, flux) ou en probabilités. Ses utilités pluridisciplinaires en font un outil scientifique fondamental. C'est la raison pour laquelle l'intégration est souvent abordée dès l'enseignement secondaire.
Équation intégraleUne équation intégrale est une équation où la fonction inconnue est à l'intérieur d'une intégrale. Elles sont importantes dans plusieurs domaines physiques. Les équations de Maxwell sont probablement leurs plus célèbres représentantes. Elles apparaissent dans des problèmes des transferts d'énergie radiative et des problèmes d'oscillations d'une corde, d'une membrane ou d'un axe. Les problèmes d'oscillation peuvent aussi être résolus à l'aide d'équations différentielles.
Problème du sac à dosEn algorithmique, le problème du sac à dos, parfois noté (KP) (de l'anglais Knapsack Problem) est un problème d'optimisation combinatoire. Ce problème classique en informatique et en mathématiques modélise une situation analogue au remplissage d'un sac à dos. Il consiste à trouver la combinaison d'éléments la plus précieuse à inclure dans un sac à dos, étant donné un ensemble d'éléments décrits par leurs poids et valeurs.
Branch and cutBranch and cut est une méthode d'optimisation combinatoire pour résoudre des problèmes d'optimisation linéaire en nombres entiers. Cette méthode utilise la méthode de séparation et évaluation et la méthode des plans sécants. Le principe est de résoudre la relaxation continue du programme linéaire en nombres entiers à l'aide de l'algorithme du simplexe. Lorsqu'une solution optimale est trouvée, et que l'une des variables qu'on souhaite entières a une valeur non entière, on utilise un algorithme de plan sécant pour trouver une contrainte linéaire satisfaite par toutes les valeurs entières de la solution mais violée par la valeur fractionnaire.
Randomized roundingWithin computer science and operations research, many combinatorial optimization problems are computationally intractable to solve exactly (to optimality). Many such problems do admit fast (polynomial time) approximation algorithms—that is, algorithms that are guaranteed to return an approximately optimal solution given any input. Randomized rounding is a widely used approach for designing and analyzing such approximation algorithms.
Équation intégrale de FredholmEn mathématiques, l'équation intégrale de Fredholm est une équation intégrale étudiée par Ivar Fredholm. La caractéristique principale d'une équation de Fredholm est que les bornes d'intégration sont constantes. Son étude donne naissance à la , à l'étude des et des opérateurs de Fredholm. Il s'agit d'une équation intégrale de la forme : La notation est celle d'Arfken et Weber. Ici la fonction inconnue est Φ, tandis que f et K sont des fonctions connues. La fonction de deux variables K est souvent appelée la fonction opérateur intégral du noyau.