Scusate ma essendo novo ho una domanda.... Ho notato, frequentando le spiagge della mia zona, che la maggior parte degli uomini e donne sono completamente depilati. E' una prerogativa dei naturisti oppure é una scelta estetica? Non vorrei essere frainteso non vivo la cosa in maniera discriminante o cosa ma é una mia semplice considerazione. Penso che il corpo "privo di peli" sia decisamente migliore e sicuramente é più facile spalmarsi creme varie. ciao