Viaggi       https://it.bhlyqj.com

Il Trattato di Versailles ha portato la pace in Europa?

No, il Trattato di Versailles non ha portato la pace in Europa. La Germania rimase umiliata e impoverita dal trattato, che creò le condizioni che consentirono l’ascesa del partito nazista. Il trattato imponeva pesanti riparazioni alla Germania e limitava fortemente le dimensioni delle sue forze armate.