Le naturisme, vos avis
Hello à tous et toutes,
Je suis allée cette année en vacances dans un beau domaine de vacances en France, le seul hic un peu dérangeant pour moi est le côté naturiste.
Même si on prétend que les gens ne regardent pas, je n'y crois pas une seconde.
Personnellement, en tant que femme, je resens un côté discriminant envers la gente féminine. Je trouve qu'on montre déjà tellement de femmes nues ou à moitié dévếtues un peu partout que j'ai l'impression que l' on est en quelque sorte es culs sur pattes. Voir des cours d'aquagym dans le centre avec la prof nue au bord de la pisine qui écarte grand les jambes pour faire les gestes, au point qu'on en devine presque le diamètre de son vagin, d'autres qui se mettent à quatre pattes et qui exposer leur panorama... Ca me semble trop et je n'en comprends pas du tout l'intérêt. Peut-être le fait de ne pas supporter le contact avec les tissus et vêtements sur soi ou d'avoir grandi dans ce monde- là.
Je connais plusieurs personnes adeptes du naturisme, et je respecte, mais de mon côté je n'arrive pas à chasser ce côté voyeur et dégradant de l'esprit quand je vais dans des endroits naturistes . On est des êtres humains, on regarde, on a des pulsions... J'ai besoin d'arguments vraiment solides pour changer ma façon de concevoir la chose.
Quelqu'un a des opinions à partager?


ma perception du corps nue et ni plus ni moins, qu'un blocage dans la tête
un exemple, ont est "bombardée" de "code" d'obligation civique quand au final le corps nue à toujours exister.
avant qu'ont soient ici, ont était autours d'un feu nue, donc est-ce qu'ont n'a vraiment évoluer?
Je pense pas, le corps est naturel et les complexes qu'ont développes (chaque personne à ces complexes) sont lier à nôtre société. donc, si tu as l'occassion de lâcher prise avec ces obligations et vivre "autrement" pourquoi pas.
Je pense pas, que les naturistes aient le regard voyeur, car c'est comme tout dans la vie, ont s'y habitues !