Suma de cuadrados (SOS) Polinomial

En matemáticas, una forma (i.e. un polinomio homogéneo) h(x) de grado 2m en el vector real n-dimensional x es una suma de cuadrados de formas (SOS, por sus siglas en inglés) si y sólo si existen formas de grado m tales que

Cada forma que es SOS es también un polinomio positivo, y a pesar de que el converso no es siempre cierto, Hilbert probó que para n = 2, 2m = 2 o n = 3 y 2m = 4, una forma es SOS si y sólo si esta es positiva.[1]​ Lo mismo es cierto también para el problema análogo en formas positivas simétricas.[2][3]

A pesar de que no toda forma puede ser representada como una suma de cuadrados (SOS), ya se han encontrado condiciones suficientes explícitas que una forma sea SOS.[4][5]​ Además, toda forma real no negativa puede ser aproximada arbitrariamente bien (según la -norma de su vector de coeficientes) por una secuencia de formas que son SOS.[6]

Representación Cuadrada matricial (SMR)

editar

Establecer si una forma h(x) es SOS, corresponde a solucionar un problema de optimización convexa. De hecho, cualquier h(x) puede ser escrito como

 

donde   es un vector que contiene una base para las formas de grado m en x (tal como todos los monomios de grado m en x), El símbolo ′ denota que tomamos la matrix transpuesta, y H es cualquier matriz simétrica que satisface lo siguiente

 

y   es una parameterización lineal del espacio lineal

 

La dimensión del vector   está dada por

 

mientras que la dimensión del vector   está dada por

 

Entonces, h(x) es SOS sí y sólo si existe un vector   tal que

 

significando que la matriz   es positiva-semidefinida. Esto es una prueba de viabilidad por medio de desigualdad matricial lineal (LMI, por sus siglas en inglés), lo cual es un problema de optimización convexa. La expresión   fue introducida en[7]​ con el nombre representación matricial cuadrada (SMR) para establecer si una forma es SOS por medio de una LMI. Esta representación es también conocida como la matriz de Gram.[8]

Ejemplos

editar
  • Considera la forma de grado 4 en dos variables .  Tenemos
 
ya que existe un α tal que  , es decir  , de donde sale que h(x) es SOS.
  • Considera la forma de grado 4 en tres variables  . Tenemos que
 
Ya que   para  , tenemos entonces que h(x) es SOS.

Generalizaciones

editar

Matricies SOS

editar

Una forma matricial F(x) (i.e., una matriz cuyas entradas son formas) de dimensión r y grado 2m en el vector real n-dimensional x es SOS sí y sólo si existen formas matriciales   de grado m tales que

 

SMR Matricial

editar

Establecer si una forma matricial F(x) es SOS consiste en resolver un problema de optimización convexa. De hecho, de modo parecido al caso escalar, cualquier F(x) puede ser escrita según el SMR como

 

donde   es el producto de Kronecker de matrices, H es cualquier matriz simétrica tal que

 

y es   un parameterización lineal del espacio lineal dado por

 

La dimensión del vector   está dada por

 

Entonces, F(x) es SOS sí y sólo si existe un vector   tal que la siguiente LMI se cumple:

 

La expresión  fue introducida en[9]​ para establecer si una forma matricial es SOS vía un LMI.

Polinomio SOS no conmutativo

editar

Consideremos el álgebra libre R⟨X⟩ generada por las n letras X = (X1, ..., Xn)) que no conmutan, y equipada con la involución T, tal que T fija R y X1, ..., Xn y reversa aquellas palabras formadas por X1, ..., Xn. Por analogía con el caso conmutativo, lospolinomios simétricos no conmutativos f son los polinomios no commutativos y de la forma f = fT. Cuando la evaluación de cualquier matriz real de cualquier dimensión r × r en el polinomio simétrico no conmutativo f resulta en una matriz positivo semidefinida, decimos que f es matricial-positivo.

Un polinomio no conmutativo es SOS si existen polinomios no conmutativos   tales que

 

Sorprendentemente, en el escenario no conmutativo, un polinomio no conmutativo es SOS sí y sólo si éste es matricial-positivo.[10]​ Además, existen algoritmos capaces de descomponer polinomios matriciales-positivos en polinomios no conmutativos que son sumas de cuadrados.[11]

Referencias

editar
  1. Hilbert, David (September 1888). «Ueber die Darstellung definiter Formen als Summe von Formenquadraten». Mathematische Annalen 32 (3): 342-350. doi:10.1007/bf01443605. 
  2. Choi, M. D.; Lam, T. Y. (1977). «An old question of Hilbert». Queen's Papers in Pure and Applied Mathematics 46: 385-405. 
  3. Goel, Charu; Kuhlmann, Salma; Reznick, Bruce (May 2016). «On the Choi–Lam analogue of Hilbert's 1888 theorem for symmetric forms». Linear Algebra and Its Applications 496: 114-120. arXiv:1505.08145. doi:10.1016/j.laa.2016.01.024. 
  4. Lasserre, Jean B. (2007). «Sufficient conditions for a real polynomial to be a sum of squares». Archiv der Mathematik 89 (5): 390-398. arXiv:math/0612358. doi:10.1007/s00013-007-2251-y. 
  5. Powers, Victoria; Wörmann, Thorsten (1998). «An algorithm for sums of squares of real polynomials». Journal of Pure and Applied Algebra 127 (1): 99-104. doi:10.1016/S0022-4049(97)83827-3. Archivado desde el original el 16 de junio de 2010. Consultado el 21 de enero de 2022. 
  6. Lasserre, Jean B. (2007). «A Sum of Squares Approximation of Nonnegative Polynomials». SIAM Review 49 (4): 651-669. Bibcode:2007SIAMR..49..651L. arXiv:math/0412398. doi:10.1137/070693709. 
  7. . 1999. pp. 1446-1451.  Falta el |título= (ayuda)
  8. . 1995. pp. 103-125.  Falta el |título= (ayuda)
  9. . 2003. pp. 4670-4675. doi:10.1109/CDC.2003.1272307.  Falta el |título= (ayuda)
  10. Helton, J. William (September 2002). «"Positive" Noncommutative Polynomials Are Sums of Squares». The Annals of Mathematics 156 (2): 675-694. doi:10.2307/3597203. 
  11. Burgdorf, Sabine; Cafuta, Kristijan; Klep, Igor; Povh, Janez (25 de octubre de 2012). «Algorithmic aspects of sums of Hermitian squares of noncommutative polynomials». Computational Optimization and Applications 55 (1): 137-153. doi:10.1007/s10589-012-9513-8. 

 

Véase también

editar