É possível justificar filosoficamente o ateísmo?

Não tenho dúvida de que a resposta à questão do título é afirmativa – e que a defesa pode ser feita em diversos níveis.

Vou abordar a questão apenas do ângulo da veracidade da pedra angular do teísmo – a existência de deus. Essa forma de abordagem, basicamente epistêmica, vai ao cerne da questão e indaga sobre as evidências e os argumentos de que deus – um deus – exista. Que há argumentos apresentados para tentar provar que deus existe não há dúvida. Que haja evidência da existência de um deus compatível com o que se atribui a ele e dele se espera já é bem mais questionável, mas os crentes em deus têm alegado que sim.

A adoção dessa abordagem tipicamente epistêmica significa que não vou abordar a questão a partir das conseqüências nefastas e indesejáveis, no plano histórico e social, que a crença em deus – ou o cristianismo ou o islamismo, como versões especialmente bem sucedidas da crença em deus – tem produzido ao longo da história: convicção de que se é um povo escolhido e eleito, intolerância, perseguição dos que adotam outras crenças religiosas ou que são ateus ou agnósticos, guerras de religião (inclusive cruzadas para libertar lugares supostamente sagrados sob posse de defensores de outras religiões e jihads de vários tipos), fatwas (éditos de morte contra herejes), fogueiras inquisicionais, caças às bruxas de vários tipos, etc.

Essa abordagem (que freqüentemente se intitula científica e não filosófica, embora faça uso da filosofia) tem recebido munição de nomes conhecidos. Basta ler os seguintes livros, todos eles recentes: The God Delusion, de Richard Dawkins, God is not Great: How Religion Poisons Everything, de Christopher Hitchens, God: The Failed Hypothesis. How Science Shows That God Does Not Exist, de Victor J. Stenger, etc. Também tem recebido críticas severas, como, por exemplo, a Dinesh D’Souza, o liberal-conservador ex-assessor de Ronald Reagan, em What’s so Great about Christianity?

O leitor que desejar se enfronhar sobre esse interessante debate, leia esses livros (e outros que a Amazon Books imediatamente sugere quando se procura um desses).

O foco de atenção meu, aqui, estará numa abordagem que é muito mais típica do século XVIII do que do século XXI. A questão da existência de deus – das evidências e dos argumentos que supostamente justificam essa crença – foi uma questão “quente” entre os filósofos do Iluminismo. Continua a ser “quente”, porque, apesar de basicamente decidida a favor dos ateus (na minha opinião), os “teus” continuam a fazer de conta que não foi.

o O o

A defesa filosófica mais simples do ateísmo começa com a distinção entre a existência do conceito de deus e a existência (ou realidade) do referente desse conceito.

Começo com a questão do conceito de deus. Evidentemente o conceito de deus existe – na realidade, existem vários conceitos de deus.

Povos primitivos entendem que deus é o sol, ou a lua, ou o trovão. Evidentemente esses conceitos de deus são primitivos (como os povos que os defendem), mas não há como negar a existência dos referentes desses conceitos de deus (o sol, a lua, e o trovão inegavelmente existem, fazem parte da realidade).

Na linguagem comum de povos nem tão primitivos, como é o nosso caso hoje, freqüentemente se diz que, para alguém, deus é o dinheiro. Talvez aqui se faça uso metafórico do conceito de deus, mas não resta dúvida de que o referente desse conceito de deus existe na realidade. Nenhum problema quanto a isso.

A responsabilidade por definir o conceito de deus está em cima dos ombros de quem opta por fazer uso desse conceito.

Os cristãos (entre outros) têm proposto vários conceitos de deus.

O conceito que me parece mais difundido é de que deus é uma pessoa (a idéia de que deus é um ser pessoal e não um ser impessoal como o sol, a lua e o trovão parece ser importante para os cristãos), embora, diferentemente das pessoas que conhecemos, que têm princípio e fim (nascem e morrem), deus seja eterno: não tem princípio nem fim, sendo eterno (o que parece dizer que transcende até mesmo o tempo). Além disso, deus, para os cristãos, apesar de ser pessoal, é puramente espiritual, e por conseguinte, imaterial, incorpóreo e invisível (o que parece dizer que transcende não só o tempo, mas também o espaço). Além disso, os cristãos atribuem a deus a responsabilidade pela criação do mundo, ou seja, de tudo o que existe (além dele próprio, naturalmente, que, sendo eterno, não foi criado), incluindo a nós, seres humanos. Na verdade, os cristãos acreditam que deus não só criou o mundo mas o sustenta pela sua providência, algo que aparentemente quer dizer que, se deus retirar sua sustentação do mundo, este simplesmente desaparece, deixa de existir. Entre os diversos atributos de deus estão, segundo os cristãos, a onisciência (ele tudo sabe – na verdade, por transcender o tempo, tudo se passa, para ele, como se fosse no presente), a onipotência (ele tudo pode – na verdade, segundo os cristãos, nem um cabelo cai da cabeça de um ser humano sem que ele permita, ou até mesmo o queira) e onibenevolência (ele deseja o bem supremo daqueles que ele criou – qualquer coisa em contrário pareceria indicar que ele seria algo sadista). Virtualmente todo esse conceito de deus os cristãos tomaram emprestado dos judeus. Deixarei de fora, aqui, a contribuição tipicamente cristã de deus: a idéia de que deus é trino, três pessoas em uma só, incorporando não só o deus dos judeus, agora redefinido como o deus-pai, mas incluindo também Jesus, o deus-filho, devidamente espiritualizado e desmaterializado, e o espírito santo.

Está aí o conceito. Talvez ajustes possam ser feitos aqui ou ali no conceito, mas tenho pouca dúvida de que o conceito de deus do cristianismo tradicional é esse.

(Vou deixar de lado o deus dos teólogos que são ateus em relação a esse deus dos cristãos tradicionais. Paul Tillich, por exemplo, que ganhou a vida como teólogo no Union Theological Seminary de New York, era um ateu de marca maior, em relação a esse deus dos cristãos tradicionais. Para ele deus era “the ground of being”. Vou ignorar, aqui, a Tillich e ao seu deus).

o O o

Definido o conceito, a questão seguinte é: existe um ser que corresponda ao conceito de deus, assim definido?

Novamente, como no caso do conceito, no caso da existência do referente do conceito o onus probandi cabe a quem afirma.

É sabido e notório que é impossível sustentar a tese negativa em relação à existência de seres definidos conceitualmente. Se eu crio o conceito de um cavalo alado (digamos, pégaso), e, em seguida, afirmo que Pégaso existe, cabe a mim provar que meu conceito tem um referente na realidade. É totalmente descabido eu retrucar que cabe ao meu interlocutor provar que pégasos não existem. No caso das chamadas “existential assertions” (afirmações de que algo existe, de que um determinado conceito tem referente na realidade), o onus probandi é de quem faz a afirmação.

Os cristãos têm, ao longo da história, usado duas estratégias para provar, ou pelo menos tentar defender, a crença na existência de seu deus. Uma invoca a f
; a outra, a razão.

o O o

Uma estratégia é dizer, kierkegaardianamente, que se trata de uma questão de fé, não de razão, e que a fé não seria fé se pudesse ser justificada racionalmente – sendo, literalmente, um salto no escuro. Lutero, muito antes de Kierkegaard, chamou a razão de puta sem-vergonha, e, mais de um milênio antes dele, Tertuliano disse que ele cria em deus e no que ele considerava o mistério da morte expiatória de Jesus na cruz exatamente porque isso tudo era absurdo (credo quia absurdum). Sou de opinião pessoal de que não valha a pena perder tempo com essa posição fideísta (que Hume parece ter adotado em alguns momentos, para se livrar da fogueira da inquisição protestante na Grã-Bretanha).

o O o

Outra estratégia é pretender que não se trata de questão meramente de fé, mas, sim de questão que pode se demonstrada racionalmente.

Essa estratégia se divide um duas.

Primeiro, os cristãos tentaram argumentar que a existência de deus era revelada nas escrituras sagradas do cristianismo, e que a veracidade dessas escrituras era atestada pelo fato de que os seus autores foram capazes de realizar milagres diversos que para sempre calaram a boca dos que ousavam negar a veracidade do que diziam. O próprio John Locke, admirável em sua epistemologia e em sua filosofia política, parece ter acreditado nisso (vide The Reasonableness of Christianity).

Essa posição é fácil rebater, porque os milagres que supostamente comprovariam a veracidade das escrituras cristãs estão relatados nelas próprias, não se tratando, portanto, de comprovação externa e independente. (Como ironicamente disse Hume um dia, e quase pegou fogueira por isso, “ninguém nega que nossa mui santa religião cristã não só foi acompanhada de inúmeros milagres quando de seu surgimento mas que, até hoje, é impossível acreditar nela sem um outro…”.)

Segundo, tentou-se argumentar que a existência de deus era provada por argumentos que independiam totalmente da revelação. Aqui estão incluídos os diversos argumentos da existência de Deus: o ontológico, primeiro proposto por Anselmo, depois por Descartes; o cosmológico; e, o mais famoso, o do desígnio. (Tomás de Aquino transformou esses três em cinco, as Quinque Viae, mediante desdobramentos, em a Summa Contra Gentiles).

Poucos são, hoje em dia, mesmo entre os cristãos, os que aceitam que esses argumentos. Não cabe aqui analisá-los todos. Basta dizer que o ateu nega, depois de analisá-los e mostrar-lhes as falhas lógicas e factuais, que esses argumentos provem que exista um referente na realidade para o conceito de deus dos cristãos.

Ao ateu basta dizer: “Não provado”. Se o cristão não conseguir provar que existe um referente para o seu conceito de deus, o ateu encerra o seu caso (“rests his case”), porque o onus probandi não era dele. (A situação é semelhante, e não por acaso, à de um tribunal: se a promotoria não provou que o acusado cometeu o crime, a defesa não tem de provar que ele não cometeu).

o O o

Alguns têm questionado se o argumento, até aqui, justifica o ateísmo ou apenas o agnosticismo. Minha tese é de que o argumento justifica o ateísmo, e não o agnosticismo. E essa tese se sustenta num princípio que alguns (Antony Flew, por exemplo) chamam de “a presunção do ateísmo”.

Eis no que consiste a referida presunção. Se alguém, para explicar alguma característica de nosso universo ou de nosso planeta particular (digamos, o fato de que, em regiões distantes do Equador o clima se divide em estações), invocar a existência de um ser qualquer que criou esse sistema e o controla, porque (por exemplo) acha bonito o verão seguir-se do outono, época em que as folhas se colorem antes de cair, e este seguir-se do inverno, quando tudo se cobre de neve, para, em seguida, na primavera, tudo começar de novo… – se, repito, isso acontecer, e, depois de examinar a alegação durante anos, não encontrarmos evidência alguma da existência desse ser nem argumentação que se justifique a favor de sua existência, temos todo direito (filosófica ou epistemicamente falando) de afirmar que esse ser não existe. Pretender que devamos ser agnósticos sobre sua existência, nesse caso, é uma postulação gratuita, injustificada.

O caso, segundo o ateu, é totalmente análogo ao da existência de deus. Não havendo evidência e argumentação que a justifique, presume-se o ateísmo (como se presume a inocência no tribunal).

o O o

No caso do deus dos cristãos, porém, os ateus têm mais armas e munições à sua disposição.

Hume, em Dialogues Concerning Natural Religion, usando, em sua maioria, argumentos dos antigos, mas agregando a eles os seus próprios, demonstrou que é impossível provar que existe um referente ao conceito cristão de deus porque esse conceito é contraditório para qualquer pessoa que admite que existe, no mundo que deus supostamente criou, sofrimento que é causado por causas naturais (e não por causas humanas, que os cristãos poderiam tentar rebater apelando ao “livre arbítrio”).

Considero o argumento de Hume irrespondível – a menos que os cristãos estejam abertos à possibilidade de admitir um deus que não seja onisciente, ou onipotente, ou onibenevolente. Mas daí estaremos lidando com outro conceito de deus, não o do cristianismo tradicional.

o O o

A tarefa do filósofo que não crê em deus é sempre dependente de um conceito de deus específico. Se os cristãos se dispuserem a crer num deus limitado em conhecimentos, ou não tão poderoso assim, ou meio sadista (que gosta de ver os outros sofrer), pode ser mais difícil refutar a existência dele – mas nem nessa hipótese cabe ao ateu refutá-la: cabe, em primeiro lugar, a ele, cristão, defendê-la. Isso feito, o ateu irá criticar e, se puder, destruir os argumentos apresentados.

o O o

Examino, rapidamente, para concluir, um argumento (?) invocado por muitos defensores da crença em deus: o do “consensus gentium”, o fato de que em quase qualquer lugar do mundo as pessoas acreditam em deus, ou em um deus, ou até mesmo em muitos deuses.

Tomo a liberdade de mais uma vez invocar Hume. Em um livrinho muito interessante, mas pouco lido, The Natural History of Religion, Hume se propôs explicar por que é que, se as evidências e os argumentos a favor da existência de deus são tão pobres, tanta gente continua a acreditar que ele exista. Hume vai mostrar que não é preciso invocar a existência de deus para explicar esse “consensus gentium”.

O argumento de Hume aqui apela para a experiência exatamente contrária daqueles que vêm ordem no universo. Ele invoca o mundo vivido da experiência das pessoas. Para a maior parte das pessoas, diz ele, o mundo parece ser um ambiente extremamente arbitrário. Chove na plantação do vizinho, na minha não – ou vice-versa. Cai um raio na minha casa, e não na do vizinho. Uns morrem cedo, vítimas de doenças inexplicáveis, outros chegam a celebrar um centenário de vida com relativa saúde. Uns enriquecem, outros permanecem pobres. A explicação mais fácil para essas arbitrariedade
s é que existem deuses, que nos abençoam a ajudam, e outros, que abençoam e ajudam outras pessoas. Os deuses a quem servimos procuram, ao tentar nos ajudar, prejudicar os outros. Se os outros estão se saindo melhor do que nós, talvez seja porque não estamos servindo nossos deuses o suficiente, não lhes estamos fazendo sacrifícios ou oferendas bastantes, ou não estamos nos comportando tão bem quanto eles o desejariam…

A crença em deus – inicialmente, em deuses – se origina, segundo Hume, dos nossos medos (especialmente sobre o nosso futuro) e de nossas esperanças, de nosso desejo de as coisas melhorem para nós (e, quem sabe, piorem para os vizinhos de que não gostamos…).

Basta ler o Velho Testamento das escrituras cristãs para ver que, histórica e antropologicamente, Hume provavelmente estava em terreno seguro em sua “explicação natural” da crença em deus.

o O o

Contrário ao que imaginam alguns, o pai do ateísmo moderno não é Kant, mas, sim, Hume. Não é à toa que Kant admitiu que foi a leitura de Hume que o despertou de sua sonolência dogmática. Oxalá outros lhe seguissem o exemplo e se despertassem também.

o O o

Estão os ateus, ao se recusar a acreditar em deus, se sujeitando “ao deus razão”, como pretendem alguns, ou demonstrando a “soberba” de sua razão?

Minha resposta é um retumbante “não”.

Nossa razão é tudo o de que dispomos para imprimir um certo sentido ao mundo e à nossa vida. Nós a usamos em todas as áreas – por que deixar de usá-la quando se trata da existência de deus ou de outras doutrinas religiosas?

É interessante que Hume, o pai do ateísmo moderno, era cético acerca do poder da nossa razão. Apesar de, por vezes, invocar a natureza ou a sociedade como um guia mais confiável (o “instinto”, o “habito”, o “costume”), e de dizer coisas muito negativas sobre a razão (ficando longe, porém, de chamá-la de puta sem-vergonha, como Lutero), Hume era uma pessoa extremamente racional – ou “razoável”, como ele preferia. Usava sua razão sempre com certa dose de ceticismo moderado (ou “mitigado”, como ele preferia). Uma pessoa racional, ou razoável, ou sábia, segundo ele, “proporciona suas crenças à evidência disponível para elas”.

Não há soberba, aí… nem tentativa de hipostasiar a razão e erigi-la em ser supremo. (“Hipostasiar” é termo técnico: consiste em presumir que um conceito ou uma faculdade se constitui em substância e, com base nisso, atribuir a ela identidade real).

[Meu primeiro artigo publicado no Brasil foi sobre "Hume: O Crítico da Religião". Apareceu, mais de trinta anos atrás, no Suplemento Cultural de O Estado de S. Paulo de 17 de Outubro de 1976. Vou transcrevê-lo aqui em seguida.]

Em Seoul, 25 de Janeiro de 2008 (revisto em 26 de Janeiro)

O desafio de uma linguagem objetiva

Não me parece difícil — muito menos impossível — usar linguagem objetiva: chamar as coisas pelo devido nome.

Quando vinha para São Paulo, hoje cedo, ouvi na CBN, no carro, uma entrevista do Heródoto Barbeiro com um juiz de direito do Rio Grande do Norte que andou escrevendo um artigo sobre o sistema prisional brasileiro.

A entrevista foi uma graça.

Primeiro, o juiz não chama preso de preso ou detento: preso, para ele, é sistematicamente "reeducando". Até o pobre do Heródoto entrou na dança se referindo aos presos.

Segundo, o juiz afirma peremptoriamente que não faltam vagas no nosso sistema prisional: há, isto sim, "excesso de reeducandos".

Terceiro, a causa da existência de "excesso de reeducandos" é que o sistema educacional está falhando na educação da população: por isso, os indivíduos cometem delitos e precisam ser reeducados.

Está certo que nosso sistema educacional (em especial o público) é ruim. Mas que sua ruindade seja a causa de tanto criminoso é algo que precisa ser provado.

Fiquei me lembrando das distorções que as ideologias políticas esquerdizantes — comprovando a tese de George Orwell de que, se se quer dominar a população, é preciso inventar uma nova língua ("Newspeak", Novilíngua).

Na Novilíngua da esquerda social-democrata americana, liberalismo não é o que os Pais Fundadores defendiam: liberais são eles, seguidores do "New Deal" de Franklin Delano Roosevelt. (Os liberais à antiga tiveram de se renomear de libertários).

Pouco se fala em justiça, propriamente dita, hoje. Fala-se em "justiça social" (que nada mais é do que injustiça que favorece os pobres).

Durante a Guerra Fria, os governos comunistas da Europa do Leste se denominavam "democráticos" — que era exatamente o que não eram.

Hoje, aqui no Brasil, o Lulla fala em "democratizar" a imprensa — que quer dizer exatamente o contrário: desdemocratizar a imprensa, retirar-lhe a liberdade de criticar o governo, colocá-la sob controle rígido. (Ela até pode ser livre para puxar o saco do governo e dos petistas).

E assim vai. É uma pouca vergonha.

Em São Paulo, 14 de Janeiro de 2008

Discutir Por Quê?

Transcrevo abaixo uma crônica de Nelson Motta, publicada na Folha de hoje.

Há momentos em que me sinto exatamente como ele se sente ao dizer:

“Há muito tempo me esforço para desistir da idéia de convencer alguém de qualquer coisa. Com minha intuição, experiência e convicções, ofereço minhas opiniões com sinceridade, apresento meus argumentos, me empenho em ser claro e objetivo. Se forem aceitas, ótimo, se não, ótimo também.”

Penso exatamente desse jeito. Ao chegar aos 64 anos, sinto um certo desânimo com discussões que têm por objetivo convencer os outros. Parece-me um empreendimento totalmente fútil. 

Acredito que as pessoas em geral não querem ser convencidas de nada – muito menos de que estão erradas em pontos de vista que consideram importantes e fundamentais. Querem, isto sim, ouvir reiterações daquilo em que já acreditam. Por isso, as discussões que têm como objetivo o convencimento dos outros mediante argumentos e evidências em geral são um fracasso.

Os antigos diziam: “De gustibus et coloribus non est disputandum” — Gostos e cores não se discutem. Mais recentemente se tornou lugar comum dizer que política, religião e futebol não se discutem. A razão pela qual não se discutem essas coisas é que ninguém consegue convencer o outro de que ele está errado, de que sua opção é inferior a outras.

Por um tempo, julgou-se possível discutir frutiferamente questões científicas. Neste caso, evidência e argumento são relevantes, e o objetivo da discussão é encontrar a verdade — ou, pelo menos, chegar mais perto dela.

Karl Popper, o maior filósofo da ciência que já viveu, reconheceu que o argumento de Hume contra a indução era irrefutável. Reconheceu ainda que, se aceito, o argumento de Hume fatalmente leva à conclusão de que é impossível provar a veracidade de uma lei científica, que é um enunciado geral, universal, do tipo “Todo x é y”. Hume se tornou um cético ao chegar a essa conclusão.

Popper concordou com o ceticismo Humeano, mas achou que há uma forma diferente de fazer ciência, a saber: fazendo conjeturas acerca da realidade e, depois, tentando sistematicamente refutá-las. Submetidas a tentativas sérias e prolongadas de refutação, essas conjeturas, caso sobrevivessem (i.e., não fossem falsificadas ou refutadas no processo), mereceriam ser consideradas com alguma seriedade (embora nada garantisse que não seriam falsificadas ou refutadas no teste seguinte).

Assim sendo, somos eternos buscadores da verdade, condenados, entretanto, a nunca ter certeza de que a alcançamos (embora possamos definir critérios que nos permitam dizer que estamos chegando mais próximos dela…

A epistemologia popperiana é bastante interessante. Ela parece sugerir que, se nos sentimos tentados a adotar um ponto de vista qualquer, devemos seriamente buscar argumentos que, se sólidos, refutarão esse ponto de vista. E esses argumentos a gente normalmente encontra em quem discorda do nosso ponto de vista. Conclusão: não devemos ler autores com os quais concordamos, mas, sim, aqueles dos quais discordamos frontal e profundamente, pois é lá que temos alguma chance de encontrar evidências e argumentos que podem refutar os pontos de vista que nos sentimos tentados a adotar.

Acho linda essa epistemologia. Mas ela não se assenta numa visão realista da natureza humana. O próprio Popper se irritava profundamente com críticas – em especial com as críticas de seus amigos e discípulos (entre os quais o meu orientador de doutorado, William W. Bartley, III), que ele considerava especialmente ofensivas. Tomava críticas de seus amigos e discípulos como ataques pessoais, como evidência de deslealdade — não como evidência prima facie de que poderia haver algo errado com alguns de seus pontos de vista… E chamou sua filosofia de “racionalismo crítico”!

Considero-me um racionalista e um objetivista. Acredito na razão e na objetividade. Não sou cético, nem relativista. Acredito que a verdade existe e que podemos chegar até ela.

Mas essa busca pela verdade é uma busca muito pessoal. Podemos nos convencer de que a encontramos, ou de que estamos chegando mais perto dela — mas dificilmente conseguiremos convencer os que discordam de nós de que estão errados e devem dar a mão à palmatória…

Se isso é assim, por que discutimos?

Há várias razões, além da tentativa de convencer os outros. Podemos, naturalmente, nos envolver com discussões porque elas em geral são divertidas (quando conduzidas por pessoas inteligentes, que conhecem bem determinado assunto e são competentes lingüística e logicamente). Ou, então, para exibir nossa capacidade de argumentar e de nos defender dos argumentos alheios. Ou por algum outro motivo.

Sou conscientemente liberal e ateu há cerca de 35 anos. Mas não sou proselitista no sentido de ter expectativa de granjear adeptos para meus pontos de vista. Como o Motta, ofereço minhas opiniões, defendo-as, critico as alternativas. “Se forem aceitas, ótimo, se não, ótimo também”.

Tenho bons amigos que são cristãos convictos. Eu não sou cristão nem crente em Deus (embora já tenha sido). Não tenho esperança ou expectativa de convencer meus amigos cristãos, por argumentos e evidências, de que dedicam suas vidas a uma ilusão. E, em geral, não os deixo acreditar que sejam capazes de me convencer de que o iludido sou eu. Mas discuto a questão, mais por amor à arte do que por achar que a questão esteja aberta.

Com socialistas em geral não tenho tanta paciência ou tolerância, porque tenho evidência de que muitos deles são mal-intencionados, mentem se isso ajuda a promover sua causa (o fim, para eles, justifica os meios), e tergiversam o tempo quase todo.

Mas já participei de grupos de discussão de socialistas. Minha razão para participar, entretanto, erra arrumar munição para atacá-los. Mas em geral não os atacava no grupo: escrevia artigos e os colocava nos meus blogs e sites. E isso porque seria pura perda de tempo tentar convencê-los de que o socialismo é uma opção desastrosa, moral e pragmaticamente.

A seguir, a crônica de Nelson Motta.

—–

Folha de S. Paulo
14 de Dezembro de 2007

NELSON MOTTA

Ter razão ou ser feliz?

BELO HORIZONTE – Em tempo de radicalização e de guerra de opiniões, quando cada um quer provar que tem razão, mesmo à custa da verdade, com a clareza e sinceridade que caracterizam nosso grande poeta, Ferreira Gullar foi ao fundo da questão: “o importante não é ter razão, é ser feliz”. E abriu o coração inteligente: quando discute com a namorada e acabam brigando, ele sempre tem razão, mas ela vai embora furiosa e passa três dias sem ligar. Ele fica sozinho em casa, cheio de razão, mas numa tristeza infinita, infelicíssimo.

Há muito tempo me esforço para desistir da idéia de convencer alguém de qualquer coisa. Com minha intuição, experiência e convicções, ofereço minhas opiniões com sinceridade, apresento meus argumentos, me empenho em ser claro e objetivo. Se forem aceitas, ótimo, se não, ótimo também.

Gosto de aprender, não tenho problemas para admitir meus erros e equívocos, não me sinto inferior por não ter razão. Nem culpado por me sentir feliz. Gullar, comunista histórico, sabe que nenhum sistema político, econômico ou filosófico gerado pela razão humana é capaz de fazer o indivíduo feliz, que é o que interessa. Cada pessoa é um mundo complexo, insondável e imprevisível, e a sensação de felicidade ou o seu avesso atingem ricos e pobres, burros e sábios, religiosos e ateus, desde que o mundo é mundo. Não bastam diversão e arte, além de comida, para fazer o homem e a mulher felizes. O buraco é mais embaixo e muito mais fundo.

Passeando pelos blogs, especialmente os políticos, e lendo as torrentes de ódio, ressentimento e vitupérios que as falanges digitais de militantes trocam o dia inteiro (essa gente não trabalha?), não se pode deixar de notar que, quanto mais razão eles acham que têm, mais infelizes se sentem.

Em Campinas, 14 de Dezembro de 2007

Greenspan, Ayn Rand e Elio Gaspari

Transcrevo abaixo parte da coluna de Elio Gaspari na Folha de hoje (23 de Setembro de 2007) que tem o título de "Greenspan e o triunfo dee Ayn Rand". Ao final ele menciona que "há mais informações sobre Ayn Rand na página aynrand.com.br, do professor Eduardo Chaves, da Unicamp"

Que bom que há gente visitando o site (é bem mais do que uma página).

Erra, porém, Elio Gaspari ao chamar Ayn Rand de conservadora. Ela foi a pensadora mais radical que os Estados Unidos tiveram durante o século XX. Quem lê Atlas Shrugged (Quem É John Galt?) não tem como concluir que haja alguma coisa na sociedade americana de hoje que ela queira conservar. Ela é uma liberal, sim — a mais radical dos liberais. Mas não é conservadora. Ela queria "refundar" os Estados Unidos (para usar um termo em moda). Ao final do livro, quando os Estados Unidos entram em total colapso, o campo fica finalmente livre para a refundação.

Em Salto, 23 de Setembro de 2007

—–

Folha de S. Paulo
23 de setembro de 2007

Greenspan e o triunfo de Ayn Rand

Elio Gaspari

————————————————————————–

Russos querem saber mais a respeito da mulher que pisou fundo na defesa do egoísmo como fator de progresso

————————————————————————–

TRÊS DIAS depois do seu lançamento nos Estados Unidos, o livro de memórias de Alan Greenspan chegou ao primeiro lugar em diversas listas de mais vendidos. Chama-se "A Era da Turbulência – Aventuras num Novo Mundo". Ele presidiu o Federal Reserve Board (o banco central americano) de 1987 a 2006. Quem leu não achou grande coisa. O doutor confirmou sua condição de ser um chato interessante.

Tocou saxofone em banda de jazz e houve uma época em que teve a dúvida filosófica de que não existia. Contudo, um pequeno trecho dessas memórias lavará a alma de ultraconservadores politicamente incorretos.

Greenspan contou que, num encontro com sábios da ekipekonômica russa, um assessor de Vladimir Putin pediu-lhe para falar um pouco sobre as idéias de Ayn Rand. Foi o triunfo de uma mulher que escapuliu de São Petersburgo em 1926, aos 21 anos, e passou o resto da vida (até 1982) exaltando as formas mais radicais de individualismo.

Ela teve uma forte influência intelectual no jovem Greenspan. Quando ele entrou para o círculo de seus adoradores tinha 26 anos, e ela 47. ("Parece um agente funerário", disse a escritora.) Nos anos 70, quando ele ganhou um escritório na Casa Branca de Gerald Ford, levou-a para uma visita. Rand escreveu dois romances de enorme sucesso ("A Nascente" e "Quem é John Galt?", editados no Brasil há mais de 50 anos). Como literata, seu negócio era filosofia. No projeto de "A Nascente", anotou: "O principal objetivo deste livro é a defesa do egoísmo e do seu verdadeiro significado". O indivíduo é a divindade, e o capitalismo, sua profecia.

Daí em diante, pisou no acelerador. O patrão pode discriminar empregados, os índios não têm direitos sobre suas terras, a caridade não é uma grande virtude e os programas sociais dos governos são uma construção hipócrita a serviço da indolência: "Não podemos lutar contra o coletivismo, a menos que lutemos contra sua base moral: o altruísmo". Ou: "Todo homem é um fim em si próprio, e não um meio para satisfazer as necessidades dos outros".

Não se fazem mais conservadores sinceros como antigamente.

Há mais informações sobre Ayn Rand na página aynrand.com.br, do professor Eduardo Chaves, da Unicamp.

Somos todos cartesianos?

Sou fã da música de Madeleine Peyroux. Gosto de seu estilo à la Billie Hoilday. Tenho todos os seus discos.

Li ontem (11/9/2007) uma entrevista dela a um órgão de imprensa brasileiro (acho que foi a Playboy que tem a Barbara Paz na capa — que, é bom que se registre, li no engraxate). (Há uma outra boa entrevista dela no site da Globo, em http://jg.globo.com/JGlobo/0,19125,VBH0-2927-62-123711,00.html, mas não é esta a entrevista a que me refiro).

Na entrevista que me interessa uma das perguntas foi:

"Você se acha bonita?"

A resposta dela:

"Me sinto bem no meu corpo. Mas não foi sempre assim".

(Cito de cór — as palavras podem não ser exatamente essas, mas, se não é isso, é quase isso).

Li também ontem, numa das revistas semanais que li, Veja ou Época, que um número significativo de adolescentes brasileiros (mais de 50%) simplesmente não está contente com seu corpo.

Será que somos todos cartesianos? Nós somos uma mente, um self, uma coisa pensante (res cogitans), e o corpo, que é uma res extensa, é algo que nós simplesmente temos (mas que não é parte necessária de nosso ser essencial)?

A resposta de Madeleine Peyroux mostra que ela acredita ser algo diferente de seu corpo. Ela diz que se sente bem nele — mas ao dizer isso reconhece que apenas está no seu corpo, não é o seu corpo…

Os adolescentes, também, afirmam não estar contentes com seu corpo — não dizem que não estão contentes consigo mesmos… O corpo deles é uma coisa, eles próprios, outra.

O pressuposto é de que no corpo eventualmente se pode dar um jeito (malhação, plástica) — ou, mesmo que não se dê um jeito nele, é possível aprender a viver bem nele.

Em Francês há uma expressão interessante: "Je me sens bien (mal) dans ma peau" — Sinto-me bem (mal) na minha pele. Na verdade, essa expressão é eufemística: o que ela quer dizer é "eu me sinto bem (mal) é no meu corpo".

Por que é que temos essa convicção, aparentemente tão enraizada, inarredável mesmo, de que não somos o nosso corpo — apenas o habitamos. e que aquilo que essencialmente somos é algo imaterial, incorpóreo e, portanto, intangível?

Não é preciso ser religioso e acreditar na imortalidade da alma para achar razoável a tese de que nós somos algo diferente de nosso corpo. É possível acreditar que, apesar não sermos o nosso corpo, estamos inseparavelmente ligados a ele, de tal modo que, quando ele morre, nós também cessamos de existir.

Em São Paulo, 12 de Setembro de 2007

VMC – Visão, Motivação e Competência

A chave do sucesso está contida nestas três palavras:

  • Visão
  • Motivação
  • Competência

VMC.

Visão é a descrição daquilo que se deseja alcançar – na vida pessoal ou profissional ou no plano institucional. A visão começa com uma idéia mestra que vai sendo elaborada. A elaboração da idéia a torna mais precisa e detalhada. Para se tornar uma visão, contudo, a idéia, uma vez elaborada, precisa se tornar visualizável.

Motivação é a força motriz que impele uma pessoa a realizar sua visão. Para mover uma pessoa a agir, e a continuar a agir na face de obstáculos e resistências (persistência, resiliência), sua visão tem de se tornar uma verdadeira paixão,

Competência, por fim, é o conjunto de capacidades que permitem transformar uma visão em realidade. Competência não se esgota numa capacidade: é um conjunto delas, como, por exemplo, a capacidade de planejar, organizar-se, buscar recursos (materiais, financeiros, pessoais), administrar o tempo e as prioridades, avaliar o processo, fazer correções de rumo, etc.

Sem visão, não saberemos para onde ir.

Sem motivação, mesmo que saibamos para onde queremos ir, não conseguiremos nos mover para chegar lá.

Sem competência, porém, não adiante ter visão e motivação. Mas a competência, sem a visão e a motivação, é uma ferramenta que fica encostada, sem uso.

Acabei de registrar o domínio mvc.vc na Internet. A extensão "vc" é de Saint Vincent and the Grenadines. Espero colocar no site que ficará hospedado nesse domínio materiais referentes a essa tríade: visão, motivação e competência.

Em Tokyo, 5 de Setembro de 2007  

Os pequenos roubos de cada dia no emprego (e nas viagens?)

Interessante o artigo de Lisa Belkin, transcrito abaixo, publicado, primeiro no The New York Times, depois no International Herald Tribune, onde eu o encontrei. O artigo trata de pequenos roubos (“pilfering”) que empregados e funcionários fazem regularmente no emprego (especialmente no escritório – no chão da fábrica é, aparentemente, mais difícil, havendo, em alguns casos, revista ou detetor de mercadorias retiradas sem autorização). Nada muito valioso ou grande: geralmente pequenos materiais de consumo, como caixinhas de clips ou de grampos, post-its, cadernos, lápis, canetas, cartuchos de tinta para a impressora, etc. Aquele que estiver sem pecado atire a primeira pedra, disse Jesus, em situação não exatamente idêntica mas comparável.

O artigo de Lisa Belkin chama a atenção para vários aspectos curiosos, dos quais destaco cinco.

1) Antes, quando a gente era obrigado a manter horas de trabalho relativamente rígidas, pegar algo do trabalho em vez de sair e comprar poderia significar um ganho para a companhia: o que ela perdia com o material era compensado pela não ausência do empregado do local do trabalho. Lisa Belkin menciona um caso dela mesma (verdadeiro ou criado para dar efeito ao artigo). Um dia, estava sem papel higiênico em casa. Mercadoria essencial, convenhamos. Ela tinha um trabalho importante a fazer. Se saísse para comprar o papel higiênico antes de fechar-se a loja em que comprava essas coisas, não terminaria o trabalho. Logo, surripiar um rolo de papel higiênico era no interesse da firma, não era? Embora o ato pudesse ter um componente moral questionável, do ponto da racionalidade administrativa ele representava um investimento correto do tempo dela, não é verdade? Clever.

2) Hoje, quando boa parte dos funcionários dos escritórios trabalha em regime de “flextime” ou mesmo de “home office” parcial, a coisa muda um pouco de figura. Se eu estou em minha casa, fazendo serviço da firma, uso o meu telefone residencial ou o celular cuja a conta a firma paga? Se imprimo um relatório grande na minha impressora pessoal, não tenho eu o direito de trazer o papel e o toner do escritório? Afinal de contas, estou trabalhando para a firma — e o estou fazendo sem comprar aluguel de meu escritório doméstico, sem cobrar o gasto proporcionalmente maior com eletricidade, água, e telefone, sem cobrar uma parcela do acesso em banda larga à Internet que é pago por mim… As coisas ficaram um pouco mais complicadas, do ponto de vista, digamos, gerencial — embora do ponto de vista moral elas talvez não sejam muito diferentes do caso anteriormente descrito (no item 1).

De qualquer maneira, é forçoso reconhecer que o raciocínio descrito no item 2, se legítimo, pode ser estendido. Se o trabalho que faço em casa é para a empresa, e por isso posso levar para casa papel e toner de impressora para imprimir os relatórios, o que é que me impede de levar o notebook e a impressora da empresa para casa também? Note-se que algumas empresas cedem, hoje em dia, aos empregados, para uso profissional, um notebook, e admitem que eles os levam para casa à noite e nos fins de semana, no pressuposto de que continuarão a trabalhar para a companhia. Quando saem da empresa, porém, têm a obrigação de devolvê-lo. (A menos que, como relata Lisa Belkin, eles façam um Boletim de Ocorrência de que o equipamento foi roubado ou perdido, sem que isso realmente tenha acontecido. Neste caso, porém, comprovada a fraude, o resultado pode ser cadeia).

Mas o que é que distingue, do ponto de vista moral e mesmo legal, o caso descrito no item 2 do sua aplicação “mais ampla”? É apenas o valor da coisa roubada?

3) As instituições empregadoras (não são só empresas: ONGs e órgãos governamentais sofrem do mesmo problema) sabem que os empregados levam para casa um monte de miudezas. Intervêm, em geral, apenas quando o objeto surripiado é material permanente, patrimoniado, e, portanto, uma providência se torna mandatória. (No Brasil, porém, uma tesoura é material permanente…). Em relação ao resto, fazem de conta que não vêem. O problema é que essas coisinhas pequenas, quando levadas para casa regularmente por milhões de empregados ou funcionários, passam a adquirir significado financeiro. Lisa Belkin relata um relatório relativo à NASA que mostra que, durante uma década, seus empregados surripiaram bens no valor total de nada menos do que 94 milhões de dólares. A estimativa é de que, em todas as instituições empregadoras, nos Estados Unidos, o valor total dos bens “pilferados” chega a 14 bilhões de dólares anuais!

E o problema não é só financeiro: ele afeta a cultura organizacional. Ao não agir contra os pequenos roubos, o empregador passa a mensagem aos empregados de que a empresa é tolerante com esses pecadilhos — mas os empregados recebem a mensagem de que, se tolerante nestes, talvez também nos maiores, e o resultado é a institucionalização de uma cultura organizacional em que o roubo, em geral, é tolerado. Todos nós temos visto no que dá isso.

4) O artigo destaca, por fim, que os roubos acontecem, não porque as pessoas têm grande necessidade dos produtos ou não os podem adquirir com seus recursos. Eles acontecem porque a coisa está ali, é uma coisa necessária ou gostosa de ter, e — por que não? — a empresa tem tanto daquilo e não vai sentir falta.

Muitas vezes são os executivos da empresa que dão à luz verdade para esse procedimento. Muitos compram livros com recursos da empresa e os levam para casa. Outros assinam revistas de interesse com recursos da empresa e indicam que devem ser entregues em casa… (Há pouco tempo estive no governo do Estado de São Paulo e a Imprensa Oficial prepara, para os executivos do governo, um excelente clipping diário, que inclui o fim de semana e um volume especial por semana com as revistas semanais. Custa caro. Como os Secretários de Estado e outros executivos do governo estadual em geral chegam meio tarde ao serviço, e gostam de chegar lá já tendo lido as notícias relevantes, a Imprensa Oficial se dispõe a enviar o clipping para a casa deles, por serviço de entrega. Isso é legítimo ou não? Vide item 5).

Aqui entra o famoso cartão de crédito corporativo, tão abusado pelos mais altos escalões de nosso governo. O cartão de crédito pode ser usado para pagar um almoço com um cliente, naturalmente, ou para cobrir despesas de alimentação quando o executivo está viajando. Mas e se o executivo não está viajando nem está almoçando com cliente — está almoçando sozinho ou com a mulher (namorada, seja o que for)? Será que ele se lembra de que aquele almoço não deve ser pago com o cartão de crédito corporativo?

E os gastos com o automóvel cedido pela empresa? Ele deve ser usado em contextos relacionados ao trabalho, não é? Mas e uma saída à noite, para jantar com os amigos? Vale ir com o carro, a empresa pagando o combustível? E quando o carro vem acompanhado de um chofer?

5) Diante dessas complexidades, tem-se sugerido, como mostra o artigo, que mais necessárias do que medidas que impeçam esses procedimentos são medidas que criem um ambiente de transparência: é preciso ficar muitíssimo claro o que os empregados ou funcionários podem ou não podem fazer e quais são as penalidades por não cumprirem as normas.

No caso da Imprensa Oficial do Estado de São Paulo, mencionado por mim atrás, há transparência: é o próprio órgão oficial do Estado que prepara o clipping que pergunta se o recipiente quer recebê-lo no trabalho ou, sem custo adicional, em casa. Ao permitir isso, é evidente que o governo sanciona o procedimento de receber em casa algo que é pago com seus recursos.

o O o

Por fim, quero tratar, até por força das circunstâncias, de uma situação semelhante.

Hotéis de qualidade disponibilizam no quartos, para uso de seus clientes, um monte de “amenidades”. Antigamente eram apenas sabonetes e vidrinhos de shampoo e condicionador. Hoje em dia há loção para as mãos e para o corpo (Occitane, aqui no Four Seasons de Tokyo), escovas de dente (duas), aparelho de barbear, pente e escova de cabelo, material para lustrar os sapatos, touca de banho, cotonetes, lixa de unha, algodão para tirar maquiagem, e até fivelas para o cabelo e elásticos para rabos-de-cavalo e marias-chiquinhas. É lícito botar na mala e levar para casa o material que você não usa no quarto? A maior parte dos visitantes ocasionais a esses hotéis não tem o menor escrúpulo em fazer isso: o hotel colocou as coisas lá para eu usar, argumentam, eu não usei ali mas tenho o direito de levar para casa… (Os viajantes regulares e freqüentes raramente fazem isso — precisariam de um armário especial em casa para estocar todo o material).

É verdade que levar um vidrinho de loção Occitane é diferente de levar uma toalha de banho ou um roupão. No caso da toalha e do roupão o hotel claramente os fornece para uso no quarto, e a maioria dos hotéis até tem aviso de que, caso você tenha ficado tão atraído pelas toalhas e roupões que resolva ficar com eles, o hotel os vende, por um preço razoável (evitando, assim, que você enfrente a situação constrangedora de ser pego com material alheio ao fazer o checkout).

Há material nessas questões para um interessante curso de ética pessoal e corporativa, não há?

A seguir, o artigo que provocou essas considerações.

Em Tokyo, 4 de Setembro de 2007

—–

http://www.iht.com/articles/2007/09/03/business/workcol04.php

 

http://www.iht.com/articles/2007/09/03/business/workcol04.php?page=2

International Herald Tribune

September 3, 2007

THE WORKPLACE

Corporate pilfering leads to reassessment of company values

By Lisa Belkin

NEW YORK: Years ago, back before children and bulk shopping, back when running out of something meant a separate errand, I stole a roll of toilet tissue from the office restroom. It was in the company’s interest that I stay longer rather than race out before the shops closed, I reasoned. It wasn’t stealing. It was a strategic investment of my time.

I have periodically thought of that moment with embarrassment. Who on earth steals toilet paper? Then, last month, the Government Accountability Office released a report estimating that NASA employees had stolen $94 million in office supplies and equipment over the last decade. One thief appropriated an office laptop as his own by declaring the machine lost. It had been thrown from the International Space Station, he explained, apparently with a straight face, and burned up in the Earth’s atmosphere.

In any workplace in America, at any moment of the day, someone is probably “borrowing” something, a loss to business of about $14 billion a year, according to the National Retail Federation. Studies find that 20 percent to 65 percent of employees admit to various degrees of supply theft at work, depending upon how the question is asked, and that those who earn the most money are most likely to be the culprits, meaning this is not really about need.

“Employees have been dipping into supplies for years,” said Vicki Donlan, a writer who specializes in the subject of business leadership. What has changed, she said, is that there is a new rationalization out there for the dipping: the portable nature of work. Home has become an extension of work, and we spend more time at work than we do at home. So if I am finishing that report on my home computer, doesn’t it make sense that my employer provide the paper for the printer? The Aeron chair?

One of the favorite stories I have collected on this subject over the years was about the office manager who filled his car with the five-gallon jugs from the water cooler, to care for his tropical fish. He then returned the empty containers.

The new laxity about what’s mine and what’s not creates a need for businesses to clarify the rules and “give employees an opportunity to be honest about their pilfering,” Donlan said.

Her belief that what is needed is transparency, not cabinet padlocks, is shared by Dov Seidman, the chief executive and founder of LRN, a company that helps employers create ethical business environments. Seidman is the author of “How: Why How We Do Anything Means Everything … in Business (and in Life),” and he is less concerned that employees are taking supplies than that they are doing it surreptitiously.

Small transgressions are like broken windows, he said, in that not paying attention to the little things sends a message that the company will tolerate larger missteps. The solution may be as simple as not classifying minor thefts as transgressions in the first place, he said. Being open about paper clips and pencils can create an atmosphere that is open in other ways, he said.

How much borrowing is too much borrowing is one of those “shared values” that come to shape a corporate culture, Seidman said. (For the record, no one I interviewed for this article suggested that taking laptops or furniture was in remotely the same realm as taking everyday office supplies.)

The poisonous potential of pilfering is underlined by the fact that it is so often a result of anger. Even if employees don’t think they’re angry, said Armand DiMele, who runs the DiMele Center for Psychotherapy and Counseling in Manhattan, they probably are.

“Anybody who’s in a position of being an employee has some sense that somebody up there is more powerful,” he said, “and that breeds resentment.”

Theft certainly seems to increase during times of tension. Angela Hult watched it happen at First Interstate Bank in Portland, Oregon, after it was acquired by Wells Fargo a decade ago.

The merger brought layoffs, said Hult, who is no longer with the bank, and “as executives received their pink slips, a lot of artwork, office supplies, computers and even small pieces of furniture began to disappear.

DiMele said that a little stealing can be good for a workplace.

“There is an advantage to being stolen from,” he said. “If you steal from me, I own you. Unconsciously, if I’m using a Post-it that I stole from my boss, I someh
ow still have my boss on my mind.”

Which puts my toilet tissue caper in a whole new light. Believe me, I will never do that again.

Altruísmo como problema

Estou lendo um livro muito interessante, comprado na livraria Eslite, aqui em Taipei: No Two Alike: Human Nature and Human Individuality, de Judith Rich Harris. Estou gostando tanto que comprei, na Barnes & Noble online, o livro anterior dela: The Nurture Assumption: Why Children Turn out the Way they Do.

A psicologia evolucionária se baseia no princípio de que nossas características psíquicas se devem à luta pela sobrevivência e, em última instância, à sobrevivência do mais apto.

Se isso é verdade, há um problema a ser resolvido: o de ações aparentemente altruístas, a saber, ações em que alguém arrisca a sua vida, e, muitas vezes, a perde, para salvar a vida de outra pessoa ou ajudar outra pessoa. Morrer para salver a vida de outrem é, evidentemente, a coisa menos apta que se pode imaginar na luta pela sobrevivência. Como explicá-la, em termos do princípio básico da psicologia evolucionária?

Uma primeira tentativa de explicação é de que os atos aparentemente altruístas acontecem especialmente em relação a parentes, em especial aos filhos, e que eles, portanto, são explicáveis egoisticamente — no caso dos filhos, o egoísmo está (além dos aspectos afetivos) no interesse em preservar a continuidade do processo de transmissão de nossos genes.

Mas há muitos exemplos de pessoas que morrem tentando salvar totais estranhos. Como explicar esses casos?

A tentativa aqui precisa ser um pouco mais sofisticada. Mas o ponto básico é de que, ao ajudar estranhos em situações extremas, quem ajuda nunca espera perder a vida — embora deva contar com essa possibilidade. Esperando sobreviver, quem ajuda conta com a possibilidade de que, estando ele um dia em situação semelhante, alguém também se disporá a ajudá-lo… O ato aparentemente altruísta, assim, também se revela egoísta: ao ajudar os outros, ainda que estranhos, espero estar acumulando créditos que, um dia, se necessário, possam ser cobrados da conta corrente de boa vontade estabelecida junto aos semelhantes…

Clever.

Vale a pena ler o livro.

Em Taipei, 31 de Agosto de 2007

São todas as culturas iguais?

No artigo anterior fiz umas referências meio desairosas a alguns traços culturais (menos importantes) da cultura chinesa que tive o desprazer de presenciar ontem — em especial na hora de comer. Isso me fez pensar mais uma vez na questão a que sempre volto: o relativismo cultural.

Pretendem os relativistas que não existem valores universais (isto é, universalmente válidos), irrespectivamente do contexto. Valores, para eles, são definidos dentro de um contexto cultural e, portanto, não há como dizer (de um ponto arquimédico supra-cultural) que uma cultura é superior a outra (i.e., melhor do que a outra).

Eu sempre combati esse relativismo. Nunca defendi a tese de que tudo numa cultura é melhor do que na outra. O que defendo é que é possível dizer, em relação a determinados traços culturais, que uns são melhores do que os outros, e é possível dizer isso porque há valores que são inegavelmente universais.

Estou disposto a admitir que regras sobre como interagir com os alimentos não sejam valores, não passando de simples costumes (regras de etiqueta) com os quais não se deve perder muito tempo. Se uns se recusam a trazer pés de galinha fritos à mesa, ou até mesmo a servir outras partes da galinha que seja meio difícil comer sem segurá-las com a mão, e outros se sentem bem e à vontade para, sem o menor pudor, chupar os pés das penosas em público, por que dizer que um costume é melhor do que outro?

Minha resposta está no fato de que o hábito do relativismo (mesmo nos costumes) deve ser desincentivado — e isso porque, por mais inócuo que possa parecer um costume, ele traz, embutido em si, um certo valor… Andar pelo meio do trem com um pé de galinha frito na boca e com as mãos livres reflete uma falta de sensibilidade pelo menos estética que quase causa dor física.

Lembro-me, no contexto, de que, mais de uma vez, já pensei sobre o seguinte. Quase toda cultura faz uma distinção (relativamente clara, nos casos limites) entre o que pode ou deve ser feito em público e o que deve ser feito em privado. Por que é que as funções excretoras são, via de regra, realizadas em privado, e, no entanto, a sua contrapartida natural, as funções ingestoras de alimento, são em geral prestigiadas socialmente, realizadas em público e, boa parte das vezes, em companhia?

A pergunta merece reflexão. Se comemos em público e em companhia, sem o menor pudor, mesmo sendo o ato de ingerir alimentos por vezes deselegante (como no caso dos malditos pés de galinha fritos), por que não defecamos e urinamos em público e em companhia?

Encontro duas respostas possíveis a essa questão.

Primeiro, há a questão do fato de que as funções secretoras são executadas por órgãos que ficam muito próximos dos órgãos sexuais que, em geral, é tabu exibir e, mais ainda, utilizar em público. É difícil imaginar como defecar ou urinar em público ou em companhia sem exibir as "partes pudendas" de que fala nosso Direito (e, assim, cometer "atentado ao pudor").

Segundo, há a questão do cheiro… Fezes e urina em geral têm um odor considerado universalmente como desagradável (embora, a julgar pelos contos eróticos que de vez em quando se encontram na Internet, haja quem goste) — e, assim, o que é objetável no ato de defecar e urinar em público, ou em companhia, é o mal-cheiro que acompanha o ato (fato que contamina também a inofensiva flatulência). 

Estão vendo como mesmo os costumes mais elementares no fundo têm um fundo de valor? No caso, um valor estético — um cheiro desgradável, mais corretamente, sem eufemismos, um fedor.

Na verdade, minha sensibilidade estética está tão aguçada atualmente que estaria disposto a tornar o ato de ingestão de alimentos um ato privado (e não o oposto, isto é, a tornar os atos excretores públicos). Tenho prestado atenção às pessoas comendo, e minha estética — vale dizer, meus valores estéticos — fica constantemente ofendida! Ver um americano gordo, segurando-o com as duas mãos, atacar um Big Mac no aeroporto de Chicago revolta o meu estômago tanto quanto o cara chupando despudoradamente os pezinhos da galinha (chupar os dedos do pé da mulher amada é corretamente considerado um fetiche — algo desusado, quase tanto como a chamada "chuva dourada"). E o ataque ao Big Mac não seria menos ofensivo, do ponto de vista dos valores estéticos, se estivesse sendo perpetrado pela segunda Martha Rocha — a atual Miss Brasil, a (pela segunda vez) injustiçada segunda colocada no concurso de Miss Universo. (Por ela ter sido injustiçada, não menciono aqui a Miss Japão, que ganhou o concurso).

Por falar no concurso de Miss Universo, acho que há critérios objetivos que nos permitem dizer que a brasileira foi injustiçada: não é simples bairrismo ou chauvinismo — até porque eu, em geral, sou, em regra, anti-bairrista e chauvinista, tendendo a acreditar que os bairristas e chauvinistas estão em geral errados (embora não neste caso).

Mas estou me afastando do tema — e queria voltar a ele.

Hoje o relativismo cultural está disfarçado de roupagens multiculturalistas. O multiculturalismo é relativista no sentido de que propõe a tese de que todas as culturas são igualmente válidas — a cultura ocidental feminista e a cultura africana que remove o clitóris das meninas púberes (clitoridectomia) e costura sua vagina, só deixando um espacinho para a urina e o sangue menstrual, para ela não ser tentada a transar antes que seu marido a desvirgine, rompendo a carne que foi costurada.

Mas o multiculturalismo tem ido além: tem sugerido (quando não dito explicitamente) que qualquer cultura, por mais primitiva (eu não hesito em usar esse termo, que os politicamente corretos procuram nos proibir de usar) que seja, é melhor do que a cultura ocidental. Só isso pode justificar o Prêmio Nobel a Rigoberta Manchú — e o fato de que algumas universidades americanas que, antigamente, eram de qualidade, incluam a dita cuja no currículo de literatura universal e deixem William Sheakespeare de fora (porque, afinal de contas, ele era ocidental — e, além disso, homem, branco e, pelo que consta, heterossexual — enquanto a Rigoberta era guatemalteca (que, segundo os PCs, não a qualifica como ocidental — o Terceiro Mundo, para eles, ainda que nas Américas, não é Ocidente). Além de guatemalteca, a Rigoberta era pelo menos mulher e marronzinha (indígena latinoamericano não é pele vermelha para os americanos politicamente corretos: é pele marrom).

Em outras palavras: o multiculturalismo vai além do relativismo cultural e procura mostrar que a cultura ocidental (que tem os seus problemas, ninguém nega) é inferior à cultura de qualquer povo primitivo que se encontre ao sul do Equador.

Vejam, a respeito, o Open-Ed do Ayn Rand Institute, com o qual estou de pleno acordo:

—–

Op-Ed from the Ayn Rand Institute

Multiculturalism’s War on Education

By Elan Journo

Back to school nowadays means back to classrooms, lessons and textbooks permeated by multiculturalism and its championing of "diversity." Many parents and teachers regard multiculturalism as an indispensable educational supplement, a salutary influence that &q
uot;enriches" the curriculum. But is it?

With the world’s continents bridged by the Internet and global commerce, multiculturalism claims to offer a real value: a cosmopolitan, rather than provincial, understanding of the world beyond the student’s immediate surroundings. But it is a peculiar kind of "broadening." Multiculturalists would rather have students admire the primitive patterns of Navajo blankets, say, than learn why Islam’s medieval golden age of scientific progress was replaced by fervent piety and centuries of stagnation.

Leaf through a school textbook and you’ll find that there is a definite pattern behind multiculturalism’s reshaping of the curriculum. What multiculturalists seek is not the goal they advertise, but something else entirely. Consider, for instance, the teaching of history.

One text acclaims the inhabitants of West Africa in pre-Columbian times for having prosperous economies and for establishing a university in Timbuktu; but it ignores their brutal trade in slaves and the proliferation of far more consequential institutions of learning in Paris, Oxford and elsewhere in Europe. Some books routinely lionize the architecture of the Aztecs, but purposely overlook or underplay the fact that they practiced human sacrifices. A few textbooks seek to portray Islam as peaceful in part by presenting the concept of "jihad" ("sacred war") to mean an internal struggle to surmount temptation and evil, while playing down Islam’s actual wars of religious conquest.

What these textbooks reveal is a concerted effort to portray the most backward, impoverished and murderous cultures as advanced, prosperous and life-enhancing. Multiculturalism’s goal is not to teach about other cultures, but to promote–by means of distortions and half-truths–the notion that non-Western cultures are as good as, if not better than, Western culture. Far from "broadening" the curriculum, what multiculturalism seeks is to diminish the value of Western culture in the minds of students. But, given all the facts, the objective superiority of Western culture is apparent, so multiculturalists must artificially elevate other cultures and depreciate the West.

If students were to learn the truth of the hardscrabble life of primitive farming in, say, India, they would recognize that subsistence living is far inferior to life on any mechanized farm in Kansas, which demands so little manpower, yet yields so much. An informed, rational student would not swallow the "politically correct" conclusions he is fed by multiculturalism. If he were given the actual facts, he could recognize that where men are politically free, as in the West, they can prosper economically; that science and technology are superior to superstition; that man’s life is far longer, happier and safer in the West today than in any other culture in history.

The ideals, achievements and history of Western culture in general–and of America in particular–are therefore purposely given short-shrift by multiculturalism. That the Industrial Revolution and the Information Age were born and flourished in Western nations; that the preponderance of Nobel prizes in science have been awarded to people in the West–such facts, if they are noted, are passed over with little elaboration.

The "history" that students do learn is rewritten to fit multiculturalism’s agenda. Consider the birth of the United States. Some texts would have children believe the baseless claim that America’s Founders modeled the Constitution on a confederation of Indian tribes. This is part of a wider drive to portray the United States as a product of the "convergence" of three traditions–native Indian, African and European. But the American republic, with an elected government limited by individual rights, was born not of stone-age peoples, but primarily of the European Enlightenment. It is a product of the ideas of thinkers like John Locke, a British philosopher, and his intellectual heirs in colonial America, such as Thomas Jefferson. 

It is a gross misconception to view multiculturalism as an effort to enrich education. By reshaping the curriculum, the purveyors of "diversity" in the classroom calculatedly seek to prevent students from grasping the objective value to human life of Western culture–a culture whose magnificent achievements have brought man from mud huts to moon landings. 

Multiculturalism is no boon to education, but an agent of anti-Western ideology.

Elan Journo is a junior fellow at the Ayn Rand Institute (http://www.aynrand.org/) in Irvine, Calif. The Institute promotes Objectivism, the philosophy of Ayn Rand–author of "Atlas Shrugged" and "The Fountainhead." Contact the writer at media@aynrand.org.

—–

Comecei com pés de galinha frita e acabei chegando em assuntos que são da maior importância. Mas uma coisa leva à outra.

Em Hualien, TW, 25 de Agosto de 2007

A mentira

Embora haja, em nossa sociedade, uma presunção de que mentir é algo (moralmente) errado, em vários contextos não só admitimos a mentira mas até mesmo a vemos como um imperativo moral. 

Textos de ética estão cheios de exemplos de "dilemas" em que um dever mais alto se sobrepõe ao presumido dever de dizer a verdade. Por exemplo. Durante a Segunda Guerra, nos territórios ocupados pela Alemanha Nazista, uma família abriga e esconde um casal de judeus. Depois de algum tempo chega a Gestapo e pergunta se a família viu um casal assim e assado. O imperativo moral, aqui, não seria dizer a verdade, mas, sim, mentir e salvar a vida dos injustamente perseguidos.

Mas não precisamos ir tão longe e tão profundo. No dia-a-dia dizemos mentiras o tempo todo, sem que elas se revistam de condenabilidade moral. "Como está? Tudo bem?" "Tudo bem", respondemos, mesmo quando estamos nos sentindo um lixo. "Nossa, querida, você ficou linda com esse vestido!", dizemos para alguém que está inaugurando uma roupa — quando no íntimo nossa inclinação seria dizer que a roupa ficou ridícula, que salienta exatamente as características menos favoráveis da pessoa, etc.

Entre os casos imaginados nos dois últimos parágrafos poderiam imaginar alguns mais sérios. Da pessoa de idade, que está muito doente, escondemos, freqüentemente, a gravidade da doença, para evitar que ela se deprima e, assim, apresse o fim. Acreditamos, certo ou errado, que a esperança de viver pode colaborar com o adiamento da hora fatal. Intenção absolutamente louvável, mas não deixa de ser mentira.

A própria legislação brasileira, ao introduzir a noção de "falsidade ideológica" reconhece que há contextos em que, do ponto de vista estritamente legal, não precisamos sempre dizer a verdade. Falsidade ideológica é a mentira dita em contextos em que a lei exige que se diga a verdade. Mas aqui estamos lidando com a lei, não com a moralidade.

E assim vai. Das falhas de conduta que podemos cometer a mentira, exceto em contextos amparados pela lei (em que mentir é cometer falsidade ideológica) ou em contextos em que se presume extrema confiança e veracidade entre os envolvidos como os relacionamentos afetivos (em que mentir significa trair um laço de confiança), é vista de forma altamente tolerante.

Talvez seja por isso que nossos políticos mintam de forma deslavada. Dizem, com a maior cara de pau, que não sabiam de coisas que era virtualmente impossível que não soubessem. Ou que não fizeram coisas que está mais do que evidente que fizeram.

É nas pequenas coisas que se aprende a dizer a verdade.

Em Campinas, 5 de agosto de 2007.