La verdad sobre tomar sol: “Si la piel está bronceada, está dañada”
En esta época, tomar sol es uno de nuestros pasatiempos favoritos, pero ¿lo hacemos con el cuidado debido? A continuación, derribamos el mito que indica que las pieles bronceadas se ven más sanas. Sigue leyendo»