DROIT POSITIF

Dr. Ensemble des législations, lois et règlements officiels qui établissent les normes de conduite dans une société. Ant. droits naturels.

» Dictionnaire