La fin de la guerre (1917-1918) :
En 1917, les États-Unis d’Amérique entrèrent en guerre aux côtés de la France et de ses alliés : la guerre devint mondiale. En 1918, la France et ses alliés remportèrent la victoire et contraignirent l’Allemagne à signer l’armistice le 11 novembre 1918.
Le bilan (...)