Il Trattato di Versailles ha portato la pace in Europa?
No, il Trattato di Versailles non ha portato la pace in Europa. La Germania rimase umiliata e impoverita dal trattato, che creò le condizioni che consentirono l’ascesa del partito nazista. Il trattato imponeva pesanti riparazioni alla Germania e limitava fortemente le dimensioni delle sue forze armate.
Europa
- Tedesco abitudini di acquisto dei consumatori
- Quali personaggi famosi vivono oggi in Germania?
- Come mettere in valigia per un viaggio a Mosca
- Viaggio a Aarhus , Danimarca
- Monumenti romani in Tarraconensis
- German Carrelli elevatori Formazione
- Borse di studio per costruzione in Ucraina
- Hotel nel cuore del centro di Vienna , Austria
- Castelli medievali in Polonia
- Gite turistiche a Parigi