Definición
En mecánica cuántica, principio de incertidumbre establece la imposibilidad de que determinados pares de magnitud física observables y complementarias sean conocidas por precisión arbitraria
Esta relacionada por una transformada de Fourier, veamos un ejemplo, donde tenemos una señal que representa la distribución de una magnitud física observable a partir de una distribución normal
donde notemos que también es una distribución normal escalada
Demostrando que mientras más localizado uno, más deslocalizado en el otro, y viceversa.