Il Trattato di Versailles ha portato la pace in Europa?
No, il Trattato di Versailles non ha portato la pace in Europa. La Germania rimase umiliata e impoverita dal trattato, che creò le condizioni che consentirono l’ascesa del partito nazista. Il trattato imponeva pesanti riparazioni alla Germania e limitava fortemente le dimensioni delle sue forze armate.
Europa
- Chi sono gli attuali re e regina d'Austria?
- Come trovare una spiaggia nudista in Norway
- In cosa è specializzata la Russia?
- Luoghi da vedere a Ramstein , Germania
- Chi Kaprun
- Capri, Italia Negozi
- Perché l'Italia era importante per l'Europa nel 1800?
- Cosa hanno fatto i Normanni all’Europa?
- Interessanti Cose da fare a Roma
