UNA DEFINICIÓN
Que es el naturismo?
La Federación Naturista Internacional, con motivo del XIV Congreso Naturista Mundial, celebrado en 1974 en Francia, definió el NATURISMO:
"Una forma de vivir en armonía con la naturaleza caracterizada por la práctica de la desnudez en común que tiene como objetivo fomentar el respeto por uno mismo, el respeto por los demás y el respeto por el medio ambiente"
https://fenait.org/
No hay comentarios:
Publicar un comentario