Definición


En mecánica cuántica, principio de incertidumbre establece la imposibilidad de que determinados pares de magnitud física observables y complementarias sean conocidas por precisión arbitraria

Esta relacionada por una transformada de Fourier, veamos un ejemplo, donde tenemos una señal que representa la distribución de una magnitud física observable a partir de una distribución normal con donde su transformada de Fourier

donde notemos que también es una distribución normal escalada

Demostrando que mientras más localizado uno, más deslocalizado en el otro, y viceversa.