Como o Brasil é visto lá fora

Há alguns meses um movimento de respeitáveis proporções surgiu no Brasil, em função do lançamento do filme norte-americano “Turistas”. Parece que o público brasileiro não gostou de ver seu país retratado como uma “república das bananas” onde pessoas são seqüestradas com facilidade e atrocidades como estupro e tráfico de órgãos acontecem como rotina (algo realmente muito longe da realidade…).

O que mais me impressionou no tal movimento, foi o nível de indignação que surgiu a partir de um filme bobo e sem credibilidade nenhuma junto á crítica especializada; me causou espanto a capacidade do nosso povo de reagir diante de algo tão sem importância e ao mesmo tempo fechar os olhos para as injustiças que acontecem diariamente em nosso país.

Parece que nós até podemos falar mal do Brasil, mas quando alguém de outro país faz o mesmo, ainda que tenha razão na maioria das vezes, nos sentimos atingidos e desonrados. Quem me dera tivéssemos a mesma reação diante de das constantes noticias de corrupção dos nossos políticos e coisas do gênero.

Fiquei então pensando em sobre qual deve ser a imagem que os outros países tem do Brasil, já que a nossa auto-imagem normalmente é um pouco distorcida e exagerada; quando estamos em época de copa do mundo, o país inteiro vira patriota e achamos que o Brasil é o melhor lugar do mundo; mas no restante do tempo adoramos fazer piada de nossos problemas sociais e políticos e dizer que esse país é assim mesmo e que nunca vai ter jeito.

Mas, afinal, como o Brasil é visto lá fora? Através de filmes norte-americanos e europeus que de alguma forma tem alguma ligação ou são ambientados em nosso país, podemos ter uma idéia da visão que os outros povos tem de nós. Aliás, podemos até mesmo analisar se ao longo da historia do cinema houve algum tipo de mudança na forma como o Brasil tem sido retratado nas telas de cinema.

Nas décadas de 40 e 50 o Brasil era visto como lugar exótico e como paraíso tropical, como podemos ver claramente nos filmes em que Carmen Miranda aparece. Especialmente em “Uma Noite no Rio” (1941) e “Romance carioca” (1950), vemos que naquela época pouca diferença se fazia entre Brasil, Cuba ou qualquer outro país do caribe; para os americanos dos anos 50, samba, rumba e salsa eram a mesma coisa e o Brasil, um lugar apenas para passar as férias e curtir praias e frutas tropicais.

Os musicais e comédias de Carmen Miranda invariavelmente eram bastante ingênuos e sem profundidade, apenas diversão. Ninguém estava preocupado em melhorar o senso geográfico e político da população norte- americana e talvez por isso mesmo tenham feito tanto sucesso e catapultado a “Brazilian Bombshell” a um patamar de celebridade até hoje jamais alcançado por nenhum outro artista brasileiro.

Já nos anos 60 e 70 o Brasil passa a ser visto como roteiro obrigatório para assaltantes de banco procurando refúgio. Talvez motivada pela fuga espetacular do famoso ladrão inglês Ronald Biggs, que no final de sua epopéia termina indo para o Brasil e sendo não só admitido no país, mas até protegido pela legislação brasileira, as produções da época passaram a ver nosso país como colônia de férias de criminosos e foragidos. Era muito comum ver em filmes produzidos naquelas décadas, o Brasil sendo citado como rota de escape e como lugar para gastar o fruto dos assaltos e cambalachos e até mesmo como esconderijo de nazistas, como retrata o filme “Os Meninos do Brasil” (1978).

Os anos 80 passaram a associar o Brasil a erotismo e turismo sexual. Talvez motivados pela nossa própria vasta produção de pornochanchadas, e por filmes como “Emanuelle” que motivaram produções de filmes eróticos em locações exóticas, alguns filmes como “Feitiço do Rio” (!984), com Demi Moore ainda bem jovem e até mesmo uma continuação do infame “Emanuelle” filmado inteiramente no Brasil, contribuíram bastante para essa imagem.

Dos anos 90 em diante, parece que fomos gradualmente caminhando para o que acho ser a imagem que temos atualmente no mercado externo. E nem precisamos de nenhum filme americano para descortinar a imagem de um país violento, desestruturado socialmente e com políticos corruptos. Nossos próprios filmes, agora mais respeitados pela industria internacional trataram de fazer isso por nós. Basta lembrar de “Central do Brasil”, “Cidade de Deus” e “Carandiru” por exemplo.

O resultado é que o Brasil hoje é visto como um lugar perigoso e não recomendável para férias, e não mais como o paraíso tropical de outrora. Somos vistos como povo mal educado e que não perde nenhuma oportunidade de imigrar ilegalmente para países desenvolvidos e lá se envolver com a criminalidade local. Somos vistos como traficantes de drogas e como país que não tem o menor cuidado com suas crianças, permitindo que milhões vivam nas ruas sem acesso a saúde e educação.

Em filmes e mesmo em seriados de televisão somos retratados dessa forma. Injusto? Talvez um pouco de exagero, mas certamente não muito distante da realidade; na minha opinião, parte do papel de criticar as injustiças e distorções é em grande parte da nossa própria cultura, e do cinema conseqüentemente. Por isso nenhuma crítica aos filme nacionais que trazem à tona nossos problemas. Muito pelo contrário, eles muito têm ajudado a suscitar discussões e debates e até mesmo a iniciar ações mais concretas.

Portanto, se a imagem do nosso país lá fora lhe causa incômodo, lembre-se que o papel de mudar a nossa imagem é meu , seu e dos políticos que tanto criticamos. Não em forma de protestos ou boicotes descabidos, mas fazendo as mudanças que são necessárias e que já estão passando da hora…

Um abraço,

Leon Neto

Comentários