Propiedades de las raíces polinómicas

características de la localización de las raíces de un polinomio

En matemáticas, un polinomio de grado con coeficientes reales o complejos siempre posee raíces complejas (sin olvidar que los números reales forman parte de los complejos), y teniendo en cuenta su posible multiplicidad. Forman un conjunto de puntos en el plano complejo. Este artículo se refiere a las propiedades geométricas de estos puntos en el plano complejo que se pueden deducir del grado y de los coeficientes del polinomio.

Ejemplo de polinomio de tercer grado con coeficientes enteros y tres raíces enteras (-1, 1 y 2)

Algunas de estas propiedades geométricas, como los límites superiores de los valores absolutos de las raíces, que definen un disco que contiene todas las raíces, o los límites inferiores de la distancia entre dos raíces, se utilizan ampliamente en la resolución numérica de ecuaciones no lineales para polinomios, ya sea para ajustarlos o para calcular su complejidad computacional. Otras propiedades son probabilísticas, como el número esperado de raíces reales de un polinomio aleatorio de grado con coeficientes reales, que es menor que para suficientemente grande.

En este artículo, un polinomio siempre se denota como:

donde son números reales o complejos y ; y por lo tanto, es el grado del polinomio.

Dependencia continua de los coeficientes editar

Las raíces n de un polinomio de grado n dependen de forma continua de los coeficientes. Para raíces simples, esto se deduce directamente del teorema de la función implícita. Esto también es cierto para múltiples raíces, pero se necesita cierto cuidado para demostrarlo.

Un pequeño cambio de coeficientes puede inducir un cambio drástico de las raíces, incluido el cambio de una raíz real a una raíz compleja con una parte imaginaria bastante grande (véase polinomio de Wilkinson). Una consecuencia es que, para los algoritmos de búsqueda de raíces numéricos clásicos, el problema de aproximar las raíces dados los coeficientes es un problema mal condicionado.

Conjugación editar

El teorema de la raíz conjugada compleja establece que si los coeficientes de un polinomio son reales, entonces las raíces no reales aparecen en pares de la forma (a + ib, aib).

De ello se deduce que las raíces de un polinomio con coeficientes reales son especularmente simétricas con respecto al eje real.

Esto se puede extender a la conjugación algebraica: las raíces de un polinomio con coeficientes racionales son conjugadas (es decir, invariantes) bajo la acción del grupo de Galois del polinomio. Sin embargo, esta simetría rara vez se puede interpretar geométricamente.

Acotación de todas las raíces editar

Los límites superiores de los valores absolutos de las raíces polinomiales se utilizan ampliamente para la resolución numérica de ecuaciones no lineales, ya sea para delimitar las regiones donde se deben buscar las raíces o para calcular la complejidad computacional de estos algoritmos.

Se han dado muchos de estos límites, y su precisión depende generalmente de la secuencia específica de coeficientes que se considere. La mayoría de los límites son mayores o iguales a uno y, por lo tanto, no son eficientes para un polinomio que solo tenga raíces de valores absolutos inferiores a uno. Sin embargo, tales polinomios son muy raros, como se muestra a continuación.

Cualquier límite superior de los valores absolutos de las raíces proporciona un límite inferior correspondiente. De hecho, si   y U es un límite superior de los valores absolutos de las raíces de

 

entonces 1/U es un límite inferior de los valores absolutos de

 

ya que las raíces de cualquiera de los polinomios son las inversas multiplicativas de las raíces del otro. Por lo tanto, en el resto del artículo no se darán límites inferiores explícitamente.

Límites de Lagrange y de Cauchy editar

Joseph-Louis Lagrange y Augustin Louis Cauchy fueron los primeros en proporcionar límites superiores para todas las raíces complejas.[1]​ La cota superior de Lagrange es[2]

 

y la de Cauchy es[3]

 

El límite de Lagrange es más fino (más preciso) que el límite de Cauchy solo cuando la suma de todos los   es menor que 1 (aunque es mayor que el más grande de estos sumandos). Esta condición es relativamente rara en la práctica, lo que explica que la cota de Cauchy se use más ampliamente que la de Lagrange.

Ambos límites resultan del teorema de Gerschgorin aplicado a la matriz compañera del polinomio y a su matriz transpuesta. También pueden probarse mediante métodos elementales.

Demostración de las cotas de Lagrange y de Cauchy
Si z es una raíz del polinomio y |z| ≥ 1, se tiene que
 

Dividiendo por   se obtiene

 

que es la cota superior de Lagrange cuando hay al menos una raíz de valor absoluto mayor que 1. De lo contrario, 1 es un límite de las raíces y no es mayor que la cota superior de Lagrange.

De manera similar, para la cota de Cauchy, se tiene que si |z| ≥ 1,

 

Por lo tanto

 

Resolviendo en |z|, se obtiene la cota superior de Cauchy si hay una raíz de valor absoluto mayor que 1. De lo contrario, el límite también es correcto, ya que la cota superior de Cauchy es mayor que 1.

Estas cotas superiores no son invariantes respecto a la escala. Es decir, las raíces del polinomio p(sx) son el cociente de las raíces de p por s, pero los límites dados para las raíces de p(sx) no son el cociente por s de las cotas superiores de p. Por lo tanto, se pueden obtener límites más nítidos minimizando las posibles escalas. De aquí se deducen las expresiones

 

y

 

para las cotas de Lagrange y de Cauchy respectivamente.

Otro límite, originalmente dado por Lagrange, pero atribuido a Zassenhaus por Donald Knuth, es:[4]

 

Esta acotación es invariante ante la escala.

Demostración de la acotación precedente
Sea A el   más grande para 0 ≤ i < n. Así, se tiene que
 

para   Si z es una raíz de p, entonces

 

y así, después de dividir por  

 

Como se quiere probar que |z| ≤ 2A, se puede suponer que |z| > A (de lo contrario, no hay nada que probar). Por lo tanto

 

que da el resultado, ya que  

Lagrange mejoró esta última acotación en la suma de los dos valores más grandes (que pueden ser iguales) en la secuencia:[4]

 

También proporcionó el resultado relacionado

 

donde   denota el coeficiente i-ésimo distinto de cero cuando los términos de los polinomios se ordenan por grados crecientes.

Usando la desigualdad de Hölder editar

La desigualdad de Hölder permite la extensión de las cotas superiores de Lagrange y de Cauchy a cada norma-h. La norma h de una secuencia

 

es

 

para cualquier número real h ≥ 1, y

 

Si   con 1 ≤ h, k ≤ ∞ y 1 / ∞ = 0, un límite superior en los valores absolutos de las raíces de p es

 

Para k = 1 y k = ∞, se obtienen los límites de Cauchy y Lagrange, respectivamente.

Para h = k = 1/2, se obtiene el límite

 

Esto no es solo una cota de los valores absolutos de las raíces, sino también una cota del producto de sus valores absolutos mayores que 1; véase la desigualdad de Landau a continuación.

Demostración
Sea z una raíz del polinomio
 

Con la con figuración

 

se tiene que demostrar que cada raíz z de p satisface que

 

Si   la desigualdad es verdadera; entonces, se puede suponer que   para el resto de la demostración.

Escribiendo la ecuación como

 

la desigualdad de Hölder implica que

 

Si k = 1, esto es

 

Por lo tanto

 

En el caso de que 1 < k ≤ ∞, la fórmula de suma para una progresión geométrica, da

 

Por lo tanto

 

que se simplifica a

 

Así, en todos los casos

 

con lo que termina la demostración.

Otros límites editar

Se han dado muchos otros límites superiores para las magnitudes de todas las raíces.[5]

La acotación de Fujiwara es:[6]

 

mejora ligeramente la cota anterior, dividiendo por dos el último argumento del máximo.

La acotación de Kojima es:[7]

 

donde   denota el coeficiente i-ésimo distinto de cero cuando los términos de los polinomios se ordenan por grados crecientes. Si todos los coeficientes son distintos de cero, la cota de Fujiwara es más fina, ya que cada elemento en la cota de Fujiwara es la media geométrica de los primeros elementos en la cota de Kojima.

Sun y Hsieh obtuvieron otra mejora en la cota de Cauchy.[8]​ Supóngase que el polinomio es monico con el término general aixi. Sun y Hsieh demostraron que los límites superiores 1 + d1 y 1 + d2 se pueden obtener a partir de las siguientes ecuaciones:

 

d2 es la raíz positiva de la ecuación cúbica

 

También señalaron que d2d1.

Desigualdad de Landau editar

Los límites anteriores son acotaciones superiores para cada raíz por separado. La desigualdad de Landau proporciona un límite superior para el producto de las raíces que tienen un valor absoluto mayor que uno. Esta desigualdad, descubierta en 1905 por Edmund Landau,[9]​ ha sido olvidada y redescubierta al menos tres veces durante el siglo XX.[10][11][12]

Este límite del producto de raíces no es mucho mayor que los mejores límites precedentes de cada raíz por separado.[13]​ Sea   las raíces   del polinomio p. Si

 

es la medida de Mahler de p, entonces

 

Sorprendentemente, este límite del producto de los valores absolutos mayores que 1 de las raíces no es mucho mayor que los mejores límites de "una" raíz que se han dado anteriormente. Este límite es incluso exactamente igual a uno de los límites que se obtienen usando la desigualdad de Holder.

Esta cota también es útil para limitar los coeficientes de un divisor de un polinomio con coeficientes enteros:[14]​ Si

 

es un divisor de p, entonces

 

y, por las relaciones de Cardano-Vieta,

 

para i = 0, ..., m, donde   es un coeficiente binomial. Por lo tanto

 

y

 

Discos que contienen algunas raíces editar

Del teorema de Rouché editar

El teorema de Rouché permite definir discos centrados en cero y que contienen un número determinado de raíces. Más precisamente, si existen un número real positivo R y un entero 0 ≤ kn tales que

 

entonces hay exactamente k raíces, contadas con multiplicidad, de valor absoluto menor que R.

Demostración
Si   entonces
 

Según el teorema de Rouché, esto implica directamente que   y   tienen el mismo número de raíces de valores absolutos menores que R, contados con multiplicidades. Como este número es k, queda probado el resultado.

El resultado anterior se puede aplicar si el polinomio

 

toma un valor negativo para algún valor real positivo de x.

En el resto de la sección, se supone que a0 ≠ 0. Si no es el caso, cero es una raíz, y la localización de las otras raíces se puede estudiar dividiendo el polinomio por una potencia de la variable, para obtener un polinomio con un término constante distinto de cero.

Para k = 0 y k = n, la regla de los signos de Descartes muestra que el polinomio tiene exactamente una raíz real positiva. Si   y   son estas raíces, el resultado anterior muestra que todas las raíces verifican que

 

Estas desigualdades se aplican también a   y  . Estos límites son óptimos para polinomios con una secuencia dada de los valores absolutos de sus coeficientes. Por lo tanto, son más nítidos que todos los límites dados en las secciones anteriores.

Para 0 < k < n, la regla de los signos de Descartes implica que   tiene dos raíces reales positivas que no son múltiples o no son negativas para cada valor positivo de x. Por lo tanto, el resultado anterior se puede aplicar solo en el primer caso. Si   son estas dos raíces, el resultado anterior implica que

 

para las raíces k de p, y que

 

para las nk otras raíces.

En lugar de calcular explícitamente   y  , generalmente es suficiente calcular un valor   tal que   (necesariamente  ). Estos   tienen la propiedad de separar raíces en términos de sus valores absolutos: si, para h < k, existen tanto   como  , hay exactamente kh raíces z tales que  

Para calcular   se puede usar que   es una función convexa (su segunda derivada es positiva). Por lo tanto,   existe si y solo si   es negativo en su mínimo único. Para calcular este mínimo, se puede usar cualquier método de optimización o, alternativamente, el método de Newton para calcular el cero positivo único de la derivada de   (converge rápidamente, ya que la derivada es una función monótona).

Se puede aumentar el número de   existentes aplicando la operación de cuadratura de la raíz de la iteración de Dandelin-Graeffe. Si las raíces tienen valores absolutos distintos, entonces se pueden separar completamente las raíces en términos de sus valores absolutos, es decir, calcular n + 1 números positivos   de manera que haya exactamente una raíz con un valor absoluto en el intervalo abierto   para k = 1, ..., n.

Del teorema del círculo de Gershgorin editar

El teorema de Gerschgorin aplica la matriz compañera del polinomio sobre una base relacionada con la interpolación polinómica de Lagrange. Proporciona discos centrados en los puntos de interpolación y cada uno contiene una raíz del polinomio; consúltese el método de Durand-Kerner para obtener más detalles.

Si los puntos de interpolación están cerca de las raíces del polinomio, los radios de los discos son pequeños, y este es un elemento clave del método Durand-Kerner para calcular las raíces polinómicas.

Límites de raíces reales editar

Para polinomios con coeficientes reales, a menudo es útil delimitar solo las raíces reales. Basta con unir las raíces positivas, ya que las raíces negativas de p(x) son las raíces positivas de p(–x).

Claramente, cada límite de todas las raíces se aplica también a las raíces reales. Pero en algunos contextos, son útiles los límites más estrictos de las raíces reales. Por ejemplo, la eficiencia del método de fracciones continuas para el aislamiento de raíces reales depende en gran medida de la rigidez del límite de las raíces positivas. Esto ha llevado a establecer nuevas acotaciones más estrictas que los límites generales de todas las raíces. Estos límites generalmente se expresan no solo en términos de los valores absolutos de los coeficientes, sino también en términos de sus signos.

Otros límites se aplican solo a polinomios cuyas raíces son reales (véase más adelante).

Acotación de raíces reales positivas editar

Para dar una cota superior de las raíces positivas, se puede suponer que   sin pérdida de generalidad, ya que cambiar los signos de todos los coeficientes no cambia las raíces.

Cada límite superior de las raíces positivas de

 

es también un límite para los ceros reales de

 .

De hecho, si B es tal límite, para todo x > B, se tiene que p(x) ≥ q(x) > 0.

Aplicando el límite de Cauchy, se obtiene la cota superior

 

para las raíces reales de un polinomio con coeficientes reales. Si este límite no es mayor que 1, esto significa que todos los coeficientes distintos de cero tienen el mismo signo y que no hay raíces positivas.

De manera similar, otro límite superior de las raíces positivas es

 

Si todos los coeficientes distintos de cero tienen el mismo signo, no hay raíces positivas y el máximo debe definirse como cero.

Posteriormente se han desarrollado otros límites, principalmente para servir como base del método de fracciones continuas para el aislamiento de raíces reales.[15][16]

Polinomios cuyas raíces son todas reales editar

Si todas las raíces de un polinomio son reales, Laguerre demostró los siguientes límites superior e inferior de las raíces, utilizando lo que ahora se llama desigualdad de Samuelson.[17]

Sea   un polinomio con todas las raíces reales. Entonces sus raíces se ubican en el intervalo con los puntos finales:

 

Por ejemplo, las raíces del polinomio   satisfacen que

 

Separación de raíces editar

La separación de raíces de un polinomio es la distancia mínima entre dos raíces, que es el mínimo de los valores absolutos de la diferencia de dos raíces:

 

La separación de raíces es un parámetro fundamental de la complejidad computacional de la resolución numérica de ecuaciones no lineales para polinomios. De hecho, la separación de raíces determina la precisión de la representación numérica que se necesita para estar seguro de distinguir diferentes raíces. Además, para el aislamiento de raíces reales, permite delimitar el número de divisiones de intervalo que se necesitan para aislar todas las raíces.

Para polinomios con coeficientes reales o complejos no es posible expresar un límite inferior de la separación de raíces en términos del grado y los valores absolutos de los coeficientes únicamente, porque un pequeño cambio en un coeficiente único transforma un polinomio con múltiples raíces en un polinomio libre de cuadrados, con una pequeña separación de raíces y esencialmente los mismos valores absolutos de los coeficientes. Sin embargo, la participación del discriminante del polinomio permite establecer una acotación inferior.

Para polinomios libres de cuadrados con coeficientes enteros, el discriminante es un número entero y, por lo tanto, tiene un valor absoluto que no es menor que 1. Esto permite límites inferiores para la separación de raíces que son independientes del discriminante.

El límite de separación de Mignotte es[18][19]

 

donde   es el discriminante, y  

Para un polinomio libre de cuadrados con coeficientes enteros, esto implica que

 

donde s es el tamaño en bits de p, que es la suma del tamaño en bits de sus coeficientes.

Teorema de Gauss-Lucas editar

El teorema de Gauss-Lucas establece que la envolvente convexa de las raíces de un polinomio contiene las raíces de la derivada del polinomio.

Un corolario a veces útil es que, si todas las raíces de un polinomio tienen una parte real positiva, también las tienen las raíces de todas las derivadas del polinomio.

Un resultado relacionado es la desigualdad de Bernstein. Establece que para un polinomio P de grado n con derivada P′, se tiene que

 

Distribución estadística de las raíces editar

Si los coeficientes ai de un polinomio aleatorio se distribuyen de forma independiente e idéntica con una media de cero, la mayoría de las raíces complejas están en el círculo unitario o cerca de él. En particular, las raíces reales se encuentran principalmente cerca de ±1 y, además, su número esperado es, en gran medida, menor que el logaritmo natural del grado.

Si los coeficientes poseen una distribución normal con una media de cero y varianza de σ, entonces la densidad media de raíces reales viene dada por la fórmula Kac[20][21]

 

donde

 

Cuando los coeficientes tienen una distribución normal con una media distinta de cero y una varianza de σ, se conoce una fórmula similar pero más compleja.

Raíces reales editar

Para n grande, la densidad media de raíces reales cerca de x es asintóticamente

 

si   y

 

De ello se deduce que el número esperado de raíces reales es, utilizando la notación gran O

 

donde C es una constante aproximadamente igual a 0,6 257 358 072.[22]

En otras palabras, "el número esperable de raíces reales de un polinomio aleatorio de alto grado es menor que el logaritmo natural de su grado".

Kac, Erdös y otros demostraron que estos resultados son insensibles a la distribución de los coeficientes, si son independientes y a si tienen la misma distribución con media cero. Sin embargo, si la varianza del coeficiente i-ésimo es igual a  , el número esperable de raíces reales es de  [22]

Véase también editar

Notas editar

  1. Hirst, Holly P.; Macey, Wade T. (1997). «Bounding the Roots of Polynomials». The College Mathematics Journal 28 (4): 292-295. JSTOR 2687152. 
  2. Lagrange J–L (1798) Traité de la résolution des équations numériques. Paris.
  3. Cauchy Augustin-Louis (1829). Exercices de mathématique. Œuvres 2 (9) p.122
  4. a b Yap, 2000, §VI.2
  5. Marden, M. (1966). Geometry of Polynomials. Amer. Math. Soc. ISBN 0-8218-1503-2. 
  6. Fujiwara, M. (1916). «Über die obere Schranke des absoluten Betrages der Wurzeln einer algebraischen Gleichung». Tohoku Mathematical Journal. First series 10: 167-171. 
  7. Kojima, T. (1917). «On the limits of the roots of an algebraic equation». Tohoku Mathematical Journal. First series 11: 119-127. 
  8. Sun, Y. J.; Hsieh, J. G. (1996). «A note on circular bound of polynomial zeros». IEEE Trans Circuits Syst. I 43 (6): 476-478. doi:10.1109/81.503258. 
  9. E. Landeau, Sur quelques th&or&mes de M. Petrovic relatifs aux zéros des fonctions analytiques, Bull. Sot. Math. France 33 (1905), 251-261.
  10. M. Mignotte. An inequality about factors of polynomials, Math. Comp. 28 (1974). 1153-1157.
  11. W. Specht, Abschätzungen der Wurzeln algebraischer Gleichungen, Math. Z. 52 (1949). 310-321.
  12. J. Vincente Gonçalves, L’inégalité de W. Specht. Univ. Lisboa Revista Fac. Ci A. Ci. Mat. 1 (195O), 167-171.
  13. Mignotte, Maurice (1983). «Some useful bounds». Computer Algebra : Symbolic and Algebraic Computation. Vienna: Springer. pp. 259-263. ISBN 0-387-81776-X. 
  14. Mignotte, M. (1988). An inequality about irreducible factors of integer polynomials. Journal of number theory, 30(2), 156-166.
  15. Akritas, Alkiviadis G.; Strzeboński, A. W.; Vigklas, P. S. (2008). «Improving the performance of the continued fractions method using new bounds of positive roots». Nonlinear Analysis: Modelling and Control 13: 265-279. Archivado desde el original el 24 de diciembre de 2013. Consultado el 10 de marzo de 2019. 
  16. Ştefănescu, D. Bounds for Real Roots and Applications to Orthogonal Polynomials. In: V. G. Ganzha, E. W. Mayr and E. V. Vorozhtsov (Editors): Proceedings of the 10th International Workshop on Computer Algebra in Scientific Computing, CASC 2007, pp. 377 – 391, Bonn, Germany, September 16-20, 2007. LNCS 4770, Springer Verlag, Berlin, Heidelberg.
  17. Laguerre E (1880). «Sur une méthode pour obtenir par approximation les racines d'une équation algébrique qui a toutes ses racines réelles». Nouvelles Annales de Mathématiques. 2 19: 161-172, 193-202. .
  18. Yap, 2000, § VI.7, Proposition 29
  19. Collins, George E. (2001). «Polynomial minimum root separation». Journal of Symbolic Computation 32: 467-473. doi:10.1006/jsco.2001.0481. 
  20. Kac, M. (1943). «On the average number of real roots of a random algebraic equation». Bulletin of the American Mathematical Society 49 (4): 314-320. doi:10.1090/S0002-9904-1943-07912-8. 
  21. Kac, M. (1948). «On the Average Number of Real Roots of a Random Algebraic Equation (II)». London Mathematical Society. Second Series 50 (1): 390-408. doi:10.1112/plms/s2-50.5.390. 
  22. a b Edelman, Alan; Kostlan, Eric (1995). «How many zeros of a random polynomial are real?». Bulletin of the American Mathematical Society 32 (1): 1-37. doi:10.1090/S0273-0979-1995-00571-9. 

Referencias editar

Enlaces externos editar

  • La belleza de las raíces, una visualización de la distribución de todas las raíces de todos los polinomios con grados y coeficientes enteros en algún rango.