Definición


Teoría del derecho positivo en general procura determinar qué es y cómo se forma el derecho sin preguntarse cómo debería ser