Le naturisme est un mode de vie impliquant une pratique collective du nudisme, et basé sur l'idée de retour à l'état naturel.
Au fil des années, le terme de « naturisme » a évolué. Il fut d'abord présenté, vers le XVIIIe siècle comme une doctrine médicale basée sur les travaux d'Hippocrate. À partir du XXe siècle, le naturisme est décrit comme une approche vers le nudisme et le végétarisme, dans un désir de se rapprocher de la nature.