Chica naturista pintando en la playa
UNA DEFINICIÓN
Qué es el naturismo?
La Federación Naturista Internacional, con motivo del 14º Congreso Mundial Naturista, celebrado en 1974 en Francia, definió el NATURISMO como
"Una forma de vivir en armonía con la naturaleza caracterizada por la práctica de la desnudez en común que pretende fomentar el respeto a uno mismo, a los demás y al medio ambiente"
https://fenait.org/
No hay comentarios:
Publicar un comentario