L'impérialisme français

Dans le monde...

Message par Surgut » 30 Jan 2007, 13:02

Je suis en train de lire un bouquin sur la colonisation de l'Algérie en 1830-1848. Durant ces temps barbares, la France s'est très mal comportée. Mais quand on regarde maintenant, il y a de quoi vomir devant le fossé entre les belles paroles "démocratiques" devant les journalistes, et les actes.
Surgut
 
Message(s) : 0
Inscription : 30 Jan 2007, 11:33


Retour vers Actualités internationales

Qui est en ligne ?

Utilisateur(s) parcourant ce forum : Aucun utilisateur inscrit et 13 invité(s)