Faut-il (vraiment) mettre de la crème solaire même en hiver ?

par leparisien

De nombreux influenceurs beauté l'affirment : il faut mettre de la crème solaire en hiver. Alors, vrai ou faux ? On a posé la question à une dermatologue.

Vidéo suivante dans 5 secondes

Autres vidéos

Liens commerciaux