Pegar sol nas partes íntimas virou moda, mas tem benefícios? Quais os riscos?
Vocês já ouviram falar que expor lugares inusitados do corpo ao sol é algo que faz bem? Sim, a ideia de expor as partes íntimas à luz solar parece um tanto bizarra, mas a prática tem ganhado adeptos, graças a influenciadores.
Segundo essas pessoas, fazer isso ajuda a aumentar a libido, melhorar o bem-estar e a imunidade. Mas será que isso é verdade?
Veja no vídeo acima.
Fontes: Lilian Fiorelli, uroginecologista e colaboradora da plataforma Sexo sem Dúvida; Ana Célia Xavier, dermatologista da Rede de Hospitais São Camilo de SP; Karine Dall'Oglio Tolazzi, dermatologista do Hospital Policlínica Cascavel, que integra a Hospital Care.