In mathematics, the Romanovski polynomials are one of three finite subsets of real orthogonal polynomials discovered by Vsevolod Romanovsky (Romanovski in French transcription) within the context of probability distribution functions in statistics. They form an orthogonal subset of a more general family of little-known Routh polynomials introduced by Edward John Routh in 1884. The term Romanovski polynomials was put forward by Raposo, with reference to the so-called 'pseudo-Jacobi polynomials in Lesky's classification scheme. It seems more consistent to refer to them as Romanovski–Routh polynomials, by analogy with the terms Romanovski–Bessel and Romanovski–Jacobi used by Lesky for two other sets of orthogonal polynomials.
In some contrast to the standard classical orthogonal polynomials, the polynomials under consideration differ, in so far as for arbitrary parameters only a finite number of them are orthogonal, as discussed in more detail below.
The Romanovski polynomials solve the following version of the hypergeometric differential equation
Curiously, they have been omitted from the standard textbooks on special functions in mathematical physics and in mathematics and have only a relatively scarce presence elsewhere in the mathematical literature.
The weight functions are
they solve Pearson's differential equation
that assures the self-adjointness of the differential operator of the hypergeometric
ordinary differential equation.
For α = 0 and β < 0, the weight function of the Romanovski polynomials takes the shape of the Cauchy distribution, whence the associated polynomials are also denoted as Cauchy polynomials in their applications in random matrix theory.
The Rodrigues formula specifies the polynomial R(x) as
where Nn is a normalization constant. This constant is related to the coefficient cn of the term of degree n in the polynomial R(x) by the expression
which holds for n ≥ 1.
As shown by Askey this finite sequence of real orthogonal polynomials can be expressed in terms of Jacobi polynomials of imaginary argument and thereby is frequently referred to as complexified Jacobi polynomials.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
En mathématiques, un polynôme de Tchebychev est un terme de l'une des deux suites de polynômes orthogonaux particulières reliées à la formule de Moivre. Les polynômes de Tchebychev sont nommés ainsi en l'honneur du mathématicien russe Pafnouti Lvovitch Tchebychev. Il existe deux suites de polynômes de Tchebychev, l'une nommée polynômes de Tchebychev de première espèce et notée T et l'autre nommée polynômes de Tchebychev de seconde espèce et notée U (dans les deux cas, l'entier naturel n correspond au degré).
thumb|right|320px|Tracé du polynôme de Gegenbauer C(x) pour n=10 et m=1 sur le plan complexe entre -2-2i et 2+2i En mathématiques, les polynômes de Gegenbauer ou polynômes ultrasphériques sont une classe de polynômes orthogonaux. Ils sont nommés ainsi en l'honneur de Leopold Gegenbauer (1849-1903). Ils sont obtenus à partir des séries hypergéométriques dans les cas où la série est en fait finie : où est la factorielle décroissante.
vignette|Graphe d'une fonction hypergéométrique dans le plan complexe. En mathématiques, le terme de fonction hypergéométrique, parfois sous le nom « fonction hypergéométrique de Gauss », désigne généralement une fonction spéciale particulière, dépendant de trois paramètres a, b, c, notée F(a, b, c ; z), parfois notée sans indice quand il n'y a pas d'ambigüité, et qui s'exprime sous la forme de la série hypergéométrique (lorsque celle-ci converge).
The goal of this paper is to characterize function distributions that general neural networks trained by descent algorithms (GD/SGD), can or cannot learn in polytime. The results are: (1) The paradigm of general neural networks trained by SGD is poly-time ...
WILEY2023
, , ,
Polynomial neural networks (PNNs) have been recently shown to be particularly effective at image generation and face recognition, where high-frequency information is critical. Previous studies have revealed that neural networks demonstrate a spectral bias ...
We study three convolutions of polynomials in the context of free probability theory. We prove that these convolutions can be written as the expected characteristic polynomials of sums and products of unitarily invariant random matrices. The symmetric addi ...