legitymizm co to znaczy

Czy przydatne?

Co znaczy Legitymizm

Definicja Legitymizm: przyjęta na kongresie wiedeńskim (1815) doktryna polit. głosząca, Iż prawa hist. dynastii są nienaruszalne, monarchowie gdyż sprawują własną władzę z woli Boga. L. łamał zasadę suwerenności ludu. L. służył przywróceniu tronu obalonym w momencie wojen napoleońskich (1803-15) dynastiom i restauracji absolutyzmu najpierw XIX w

Czym jest legitymizm znaczenie w Słownik L .