Hollywood règne sur les salles de cinéma, tant aux États-Unis qu’ailleurs dans le monde. Bien qu’ils vendent du rêve et du divertissement, les films hollywoodiens traitent aussi de questions sociales et politiques. Comment décoder les messages politiques...