Vai al contenuto

diritto positivo

Da Wikizionario, il dizionario a contenuto aperto.

diritto positivo (Wikipedia approfondimento)

  1. (storia) (filosofia) (politica) (diritto) insieme di norme legislative in vigore in una data epoca in un dato stato, stabilite dal potere sovrano di quest'ultimo

da diritto e positivo

Vedi le traduzioni