En mathématiques, la dérivée partielle d'une fonction de plusieurs variables est sa dérivée par rapport à l'une de ses variables, les autres étant gardées constantes. C'est une notion de base de l'analyse en dimension , de la géométrie différentielle et de l'analyse vectorielle. La dérivée partielle de la fonction par rapport à la variable est souvent notée . Si est une fonction de et sont les accroissements infinitésimaux de respectivement, alors l'accroissement infinitésimal correspondant de est : Cette expression est la « différentielle totale » de , chaque terme dans la somme étant une « différentielle partielle » de .
En mathématiques, la dérivée d'une fonction d'une variable réelle mesure l'ampleur du changement de la valeur de la fonction (valeur de sortie) par rapport à un petit changement de son argument (valeur d'entrée). Les calculs de dérivées sont un outil fondamental du calcul infinitésimal. Par exemple, la dérivée de la position d'un objet en mouvement par rapport au temps est la vitesse (instantanée) de l'objet. La dérivée d'une fonction est une fonction qui, à tout nombre pour lequel admet un nombre dérivé, associe ce nombre dérivé.
Une fonction réelle d'une variable réelle est dérivable en un point a quand elle admet une dérivée finie en a, c'est-à-dire, intuitivement, quand elle peut être approchée de manière assez fine par une fonction affine au voisinage de a. Elle est dérivable sur un intervalle réel ouvert non vide si elle est dérivable en chaque point de cet intervalle. Elle est dérivable sur un intervalle réel fermé et borné (c'est-à-dire sur un segment réel) non réduit à un point si elle est dérivable sur l'intérieur de cet intervalle et dérivable à droite en sa borne gauche, et dérivable à gauche en sa borne droite.
En mathématiques et plus spécialement en analyse vectorielle, une fonction numérique à plusieurs variables réelles est une fonction dont l'ensemble de départ E est une partie du produit cartésien . L'ensemble d'arrivée F peut être ou . Le second cas peut se ramener au premier cas en considérant qu'il s'agit en réalité de p fonctions de dans appelées fonctions coordonnées. La fonction est donc une relation associant à chaque n-uplet x = (x, x, ...
Le théorème de Schwarz, de Clairaut ou de Young est un théorème d'analyse portant sur les dérivées partielles secondes d'une fonction de plusieurs variables. Il apparaît pour la première fois dans un cours de calcul différentiel donné par Weierstrass en 1861 auquel assistait alors Hermann Schwarz à Berlin. La symétrie de la hessienne signifie que le résultat d'une dérivation partielle à l'ordre 2 par rapport à deux variables ne dépend pas de l'ordre dans lequel se fait la dérivation par rapport à ces deux variables : Ce théorème est parfois appelé par les anglophones (théorème de Young), nom qui désigne également une extension aux dérivées d'ordre supérieur.