"Wokisme": d'où vient ce terme né dans les années 2010 aux États-Unis?
par BFMTV
Aux États-Unis, le terme "woke" a émergé dans les années 2010. Le concept s'est élargi à tous les activistes qui dénoncent les injustices subies par tout type de minorités.
Vidéo suivante dans 5 secondes
Autres vidéos
Tous publics
Paris : un septuagénaire tué par balle dans un McDonald’s du XVIIIe
22 novembre 2024 - leparisien