Il termine americanesimo[1][2] o americanismo descrive una posizione favorevole nei confronti della politica, della cultura e della società degli Stati Uniti d'America.[3][4][5]