Diferencia entre revisiones de «Relación de indeterminación de Heisenberg»

Contenido eliminado Contenido añadido
Etiquetas: Edición desde móvil Edición vía web móvil
SeroBOT (discusión · contribs.)
m Revertidos los cambios de 217.127.199.181 (disc.) a la última edición de SeroBOT
Etiqueta: Reversión
Línea 1:
[[Archivo:Gamma-ray-microscope.svg|thumb|Gráfico del Principio de Indeterminación de Heisenberg.|289x289px]]
En [[mecánica cuántica]], la '''relación de indeterminación de la madre de Heisenberg''' o '''principio de incertidumbre''' establece la imposibilidad de que determinados pares de magnitudes físicas observables y complementarias sean conocidas con precisión arbitraria. Sucintamente, afirma que no se puede determinar, en términos de la física cuántica, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas, como son, la posición y el momento lineal ([[cantidad de movimiento]]) de un objeto dado. En otras palabras, cuanta mayor certeza se busca en determinar la posición de una partícula, menos se conoce su momento lineal y, por tanto, su masa y velocidad. Este principio fue enunciado por [[Werner Heisenberg]] en [[1925]].
 
El principio de indeterminación no tiene un análogo clásico y define una de las diferencias fundamentales entre [[física clásica]] y [[mecánica cuántica|física cuántica]]. Desde un punto de vista lógico es una consecuencia de [[Postulados de la mecánica cuántica|axiomas corrientes de la mecánica cuántica]] y por tanto estrictamente se deduce de los mismos.
Línea 7:
La explicación «divulgativa» del principio de incertidumbre afirma que las variables dinámicas como [[posición]], [[momento angular]], [[momento lineal]], etc. se definen de manera ''operacional'', esto es, en términos relativos al procedimiento experimental por medio del cual son medidas: la posición se definirá con respecto a un sistema de referencia determinado, definiendo el instrumento de medida empleado y el modo en que tal instrumento se usa (por ejemplo, midiendo con una regla la distancia que hay de tal punto a las referencias).
 
Sin embargo, cuando se examinan los procedimientos experimentales por medio de los cuales podrían medirse tales variables resulta que la medida siempre acabará perturbada en ambito fenomenico. En efecto, si por ejemplo pensamos en lo que sería la medida de la posición relativas y velocidad de un [[electrón]], para realizar la medida (para poder «ver» de algún modo el electrón) es necesario que un [[fotón]] de luz choque con el electrón, con lo cual está modificando su posición y velocidad relativas; es decir, por el mismo hecho de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos.
 
Esta descripción cualitativa del principio, sin ser totalmente incorrecta, es engañosa en tanto que omite el principal aspecto del principio de incertidumbre: el principio de incertidumbre establece el límite de aplicabilidad de la [[física clásica]]. La física clásica concibe sistemas físicos descritos por medio de variables perfectamente definidas en el tiempo (velocidad, posición,...) y que en principio pueden conocerse con la precisión que se desee. Aunque en la práctica resultara imposible determinar la posición de una partícula con una [[precisión]] infinitesimal, la física clásica concibe tal precisión como alcanzable: es posible y perfectamente concebible afirmar que tal o cual partícula, en el instante de tiempo exacto 2 s, estaba en la posición exacta 1,57 m. En cambio, el principio de incertidumbre, al afirmar que existe un límite fundamental a la precisión de la medida, en realidad está indicando que si un sistema físico real se describe en términos de la física clásica, entonces se está haciendo una aproximación, y la relación de incertidumbre nos indica la calidad de esa aproximación.