Faut-il (vraiment) mettre de la crème solaire même en hiver ?
par leparisien
De nombreux influenceurs beauté l'affirment : il faut mettre de la crème solaire en hiver. Alors, vrai ou faux ? On a posé la question à une dermatologue.
Vidéo suivante dans 5 secondes
Autres vidéos
Tous publics
Ligue 1 : La VAR refuse un but lensois pour une faute !
23 novembre 2024 - Beinsports-FR