Les français sont plutôt de gauche…
Les français sont plutôt de gauche… mais ils ne veulent pas le savoir.
La formation des chômeurs, la démocratisation de l’union Européenne et la construction de la francophonie ; tous les discours des dirigeants et des observateurs politiques expliquent doctement que la France est passée à droite et que l’idéologie libérale domine désormais le pays ; certains vont même jusqu’à affirmer que la gauche est définitivement morte.