La Germania dalle origini alla fine del Nazismo

Si può datare la nascita della moderna Germania al 1871, quando i vari stati della Confederazione Tedesca diedero forma ad una nazione unitaria. In precedenza, la Germania era piuttosto una "regione culturale" con molti territori, ognuno indipendente, sia da un punto di vista politico che storico.

La storia della nazione tedesca, in quanto tale, è intimamente collegata con quella del ventesimo secolo. A partire dal 1871, lo stato tedesco, al motto di Drang nach Osten ("spinta verso l'est", in seguito ripreso dai Nazisti) mirò ad ampliare i propri confini.

L’espansione militaristica terminò con la prima guerra mondiale e il trattato di Versallies, nel quale grosse fette di territorio tedesco furono assegnate agli stati confinanti. Nel primo dopoguerra, con la Repubblica di Weimar vi fu un primo tentativo di instaurare un regime liberale e democratico. Ma le condizioni economiche, a seguito della iperinflazione del 1923 e la conseguente Grande Depressione del 1930, spianarono la strada all’ascesa del partito nazionalsocialista guidato da Hitler che venne eletto Cancelliere nel 1932.

L’era Nazista ha lasciato tracce indelebili nella vita sociale e nella coscienza del popolo tedesco. L’olocausto e le devastazioni della Seconda Guerra Mondiale hanno fatto crescere, in Germania come nel resto dell’Europa, la consapevolezza di dover impedire il ripetersi di tali conflitti. La nazione tedesca, infatti, negli anni ’50, è stato uno dei membri fondatori della Unione Europea, e ancora tutt’ora ricopre un ruolo cardine, sia nella politica che nell’economia comunitaria.

[Nell'immagine: Il nazismo è stata una delle pagine più oscure della storia europea]

Condividi questa pagina