Uma outra crônica antiga: sobre avós, pais e netos…
Educação da sensibilidade — de novo
Emoção e razão na arte
A questão da arte “engagée” e “partisane”
Em resposta a alguns dos comentários, vou tentar esclarecer um pouco o que estava na minha cabeça ao fazer a observação que o Antonio Morales cita, a saber:
“Discordo dos críticos que afirmam que o cinema e a literatura desengajados politicamente, ‘inorgânicos’, alienam, quando eles assumem que essa alienação é ruim. Eu acho que sem ela a vida seria muito mais pobre e muito mais difícil de viver”.
Note-se que eu disse: “Discordo dos críticos que afirmam que o cinema e a literatura desengajados politicamente, alienam“
Esse enunciado citado claramente não é um enunciado artístico (literário) – enunciado, digamos, de primeira ordem lógica. Nem é um enunciado metaliterário, como os que fazem os críticos de arte, isto é, um enunciado, de segunda ordem lógica, sobre obras de arte, em geral, e a literatura, em particular. O enunciado é de terceira ordem lógica. Seu objeto não é a obra de arte, mas, sim, o que dizem os críticos de arte sobre as obras de arte. Essa terceira ordem lógica é o domínio da filosofia: no caso, da filosofia da arte — um ramo da filosofia que alguns chamam de estética.
Não tenho maiores problemas com quem faz arte “engagée”, “partisane”, etc. Pelo contrário. Adoro os romances de Ayn Rand , que, no meu julgamento, estão entre as melhores obras de ficção jamais produzidos pela literatura universal. No entanto, dificilmente vai haver uma literatura mais “engagée” e “partisane” do que a dela (engajada e tomando partido em favor da liberdade individual e do liberalismo mais radical do século XX). Também não tenho maiores problemas com críticos literários que avaliam esse tipo de arte, quer eles a elogiem, quer eles a critiquem, por qualquer razão que hajam por bem invocar.
Tenho sérios problemas, entretanto, com quem defende uma filosofia da arte que afirma, por razões puramente ideológicas, que a literatura (ou a arte) não “engagée” e “partisane” — leia-se: não engajada e partidária em geralmente em favor do comunismo ou do socialismo, ou da revolução social, ou do igualitarismo, etc. — é “alienante”. Esses filósofos da arte, se confrontados com uma literatura como a de Ayn Rand, que certamente é “engagée” e “partisane”, questionariam o engajamento e a tomada de posição dela, afirmando que engajamento e tomada de posição “do lado errado” não contam… — assim mostrando que o que criticam não é a falta de engajamento e de tomada de posição, mas a ausência de um engajamento e de uma tomada de posição que eles favorecem e privilegiam.
Ao mesmo tempo em que gosto de uma literatura como a de Ayn Rand, engajada e compromissada com a causa liberal, nunca defendi a tese de que toda literatura, ou toda arte, deva necessariamente ser engajada e comprometida para ser boa. De modo algum. Muita arte “engagée” e “partisane” eu acho um lixo. E, por outro lado, há arte, como a manifestada nos filmes Scent of a Woman e The Bridges of Madison County, que não é “engagée” e “partisane” em nenhum sentido válido desses dois termos. Esses filmes lidam com problemas humanos, com problemas da condição humana, como diria André Malraux, sem dúvida alguma — mas são, em grande medida, problemas pessoais, individuais, não algo que se pudesse qualificar de problema social, quanto mais político. Há, num e noutro filme, leves pinceladas de crítica social, ou melhor, crítica dos costumes (quando, por exemplo, em Scent of a Woman, se ridiculariza as escolas privadas americanas que tentam imitar as britânicas, ou, em The Bridges of Madison County, se ridiculariza a bisbilhotagem e a fofoquice da sociedade rural de Iowa). Mas isso não permite qualificar os filmes como exemplos de engajamento e comprometimento com causas políticas. No entanto, apesar dessa sua natureza totalmente a-política, os dois filmes são geniais, enquanto arte.
Espero que isso esclareça o que eu penso.
Em Campinas, já em 28 de agosto de 2006
Literatura, cinema… Alienação?
Filmes… Literatura…
Como seria nossa vida sem eles? Sem as histórias que nos trazem? Certamente muito mais pobre.
[Volto a esse tema em decorrência de algumas mensagens trocadas com meu amigo Julio de Angeli, a quem agradeço não só por ter me provocado a refletir, mas por ter me autorizado a dizer que foram seus e-mails que me fizeram voltar ao tema. As citações feitas a partir de roteiros de filmes são de uma chamada primeira versão do roteiro encontrada na Internet, em vários sites. Ela pode não corresponder exatamente à última versão. Algumas partes do roteiro original evidentemente acabam fora da versão final — seja do próprio roteiro, seja da versão editada do filme.]
Escrevo enquanto ouço “Por Una Cabeza”, o tango de Scent of a Woman / Perfume de Mulher, que Al Pacino (Coronel Frank Slade) e Gabrielle Anwar (simplesmente Donna, na história) dançaram no que talvez seja a cena mais tocante do filme (a competição entre essa cena e o discurso de Pacino / Slade diante da assembléia estudantil é dura).
Um dos detalhes que me chamou a atenção naquela cena é que Gabrielle / Donna havia acabado de atravessar um furacão emocional nos braços de Pacino / Slade. O namorado dela, David Lansbury (simplesmente Michael, na história), chega, logo a seguir, para levá-la a outro local. Ele nem nota que a namorada está em estado de graça, que parece ter tido uma ‘visio beatifica’… Quando estão saindo, ele nem percebe que ela olha desesperadamente para trás, aparentemente esperando, em vão, que Pacino / Slade ou, quem sabe, Chris O’Donnel (Charlie Sims), fizesse algo que a ajudasse a tornar aquele um momento perpétuo… ela tinha vivido, como lhe prometera Pacino / Slade, uma vida inteira em poucos minutos. Mas a decisão de não ir com o namorado, e ficar com Pacino / Slade, teria de ser dela, e ela não teve coragem de tomá-la. Assim, ela vai para o que, em comparação com o momento vivido, será inevitavelmente a mediocridade do encontro que o namorado preparou para ela.
Michael está junto da namorada — e, evidentemente, não é cego. Mas não enxerga. Ele não percebe coisas que o cego coronel enxerga sem precisar ver… Sensibilidade é isso. Em poucos minutos, o Coronel Slade decodificou, por assim dizer, aquela alma feminina na sua frente. Primeiro, pelo olfato refinado: de longe percebeu que ela havia tomado banho com Ogilvy Sister’s Soap. Depois, pela conversa, com a qual a convenceu a dançar com ele, mesmo ele sendo cego e ela não sabendo dançar direito. Por fim, pelo tato e pelo movimento na pista de dança. Seu namorado a via todo dia, certamente transava com ela — mas não a conhecia como aquele cego a ficou conhecendo em poucos minutos de interação…
Há dias escrevi algo aqui sobre o destino de meus hard disks e, na crônica, mencionei que nossos parentes (cônjuges, filhos, etc.) em geral não conhecem a gente. Mencionei, naquela crônica, o filme The Bridges of Madison County / As Pontes de Madison, outro filme magnífico, repleto de detalhes cheios de sensibilidade. O filme foi dirigido (e interpretado) por Clint Eastwood – ex-“Dirty Harry” e ex-prefeito de Carmel, CA, EUA.
No filme, na carta que Francesca Johnson (Meryl Streep) deixou para seus filhos, contando a eles de seu "affair" extra-conjugal, até então desconhecido deles (e de todo mundo), ela diz:
"Primeiro, e acima de tudo, eu amo vocês dois muito. Embora eu esteja me sentindo bem, cheguei à conclusão de que chegou a hora de colocar os meus negócios (‘affairs’) em ordem — se vocês podem me perdoar o trocadilho. . ." [O filho, aqui, ouvindo a irmã ler isso, revoltado afirma: "Não posso acreditar que ela esteja fazendo piada sobre isso…"]. . . É duro escrever de coisas assim para meus próprios filhos. Eu poderia decidir deixar que esse segredo morresse com o resto de mim, suponho. Mas, quando a gente vai ficando velho, a gente perde os medos, ou resolve ignorá-los. O que se torna mais importante é se deixar conhecer — ser conhecido por tudo aquilo que você fez durante essa curta vida. Quão triste me parece deixar esta vida sem que aqueles que você mais ama realmente saibam quem você foi… É fácil para uma mãe amar seus filhos, não importa o que aconteça — isto é algo que simplesmente acontece assim. Vocês estão sempre tão bravos por causa da maneira errada com que nós os criamos. Mas eu achei que era importante lhes dar uma chance: a oportunidade de me amar por aquilo que eu realmente fui… O nome dele era Robert Kincaid. . . Está tudo lá nos três cadernos. Leiam os cadernos em ordem. Se vocês não quiserem ler, suponho que essa decisão seja okay também. Mas, nessa hipótese, quero que vocês saibam de uma coisa: nunca deixei de amar seu pai. Ele era um homem muito bom. Só que meu amor por Robert era diferente. Ele foi capaz de descobrir em mim coisas que ninguém, nem eu mesma, sabia que estavam lá, e que ninguém mais soube desde então. Ele me fez sentir como uma mulher de um jeito que muito poucas mulheres jamais têm condição de experimentar. . ."
Eu me emociono com os inúmeros detalhes sensíveis do filme. É difícil imaginar o “Dirty Harry” Clint Eastwood tendo tanta sensibilidade. Mas ela está lá — é verdade que de certo modo comandada pelo bom roteiro de Richard LaGravenese, que melhorou muito (na minha opinião) o livro em que se baseou o roteiro, de autoria de Robert James Waller. Mas nenhum bom roteiro substitui uma direção competente. Como diz Sean Pflueger, “Okay, o roteiro de Richard LaGravenese para ‘As Pontes de Madison” é um ‘salto gigantesco para a humanidade’ em relação às poças de lama que é o romance de Robert James Waller. Mas é a direção de Clint Eastwood e os desempenhos de Eastwood e Meryl Streep que torna a canção para banjo que Waller escreveu em uma ópera”. [Em Entertainment Weekly, http://www.ew.com/ew/article/commentary/0,6115,525659_1%7C8273%7C%7C0_0_,00.html%5D.
O detalhe da “screen door” da cozinha, que todos (marido e filhos) deixavam bater, e que feria as emoções de Francesca mais do que os seus ouvidos – mas que Robert Kincaid (Clint Eastwood) segurou, impedindo que batesse, provocando um sorriso leve nos lábios de Francesca, como se ela dissesse, pra si mesma: “Finalmente alguém sensível, que, como eu, não gosta de ouvir barulhos desnecessários…”
Diz o roteiro: "Michael [o filho] entra na cozinha, vindo do quintal, e deixa a screen door bater forte, com um barulho. Francesca lhe diz: ‘Michael, o que foi que eu lhe falei sobre essa porta?’ Em seguinda entra Richard [o marido], deixando a screen door bater de novo, do mesmo jeito. Francesca quase diz algo, mas desiste".
O detalhe do rádio… seja na cozinha, seja no carro. Ela procurava sintonizá-lo em estações de música leve, geralmente clássica ligeira, baixinho, agradável. Havia aprendido a gostar desse tipo de música na sua Itália nativa. Os filhos e o marido, desrespeitando a sua preferência, sempre mudavam a estação, colocando o rádio em estações que tocavam estridentes músicas country, certamente apreciadas na região de Iowa. Quando Kincaid sintonizou o rádio e o colocou em uma estação de Chicago que tocava um blue suave com Dinah Washington, acompanhada por saxfone, Francesca ficou convicta de que estava tratando com alguém diferente…
Como a screen door, o rádio era uma fonte de irritação constante para ela, que ninguém ao seu redor parecia perceber — ou que, se percebia, não parecia se importar.
Depois, Francesca tomando banho e imaginando que ali, momentos antes, ele, Kincaid, havia tomado o seu… Na banheira dela. A água que acariciava seu corpo devia sentir como mais tarde iria sentir a mão dele…
A dança dos dois. O dilema de Francesca diante da tensão emocional que aumentava e tornava inevitável uma tomada rápida de decisão: fazer amor com ele? A não tomada de uma decisão ali seria uma decisão. Era o “either-or” kierkegaardiano. Radical. Agora, ou nunca mais.
Mais tarde, uma decisão ainda mais difícil. Deixar a família e ir embora com Robert Kincaid ou continuar na mesma vidinha de sempre… A mão na maçaneta de camioneta, querendo abrir a porta, mas, também, ao mesmo tempo, lutando para não abri-la…
E mais um sem número de detalhes.
Ao começar a relatar o seu "affair" aos filhos, Francesca afirma que, pouco antes de encontrar Kincaid, andava inquieta, sem saber exatamente por quê.
"Suponho que sua entrada em minha vida foi, de muitas maneiras, preparada, durante semanas, talvez meses, antes de nos encontrarmos. Havia em mim uma inquietação, um sentimento inquieto. Vinha, como se fosse, do nada, sem nenhuma causa aparente. Nada causa mais medo a uma mulher que tem estado ‘assentada’ por quase vinte anos do que, subitamente, se sentir ‘desassentada’… Não sei quando começou."
Foi só retrospectivamente que ela percebeu esse sentimento de inquietação em seus sentimentos, essa forma de sentir-se "desassentada", fora de lugar…
O que fica evidente no filme é que, apesar do amor que sentia pelo marido e pelos filhos, e da rotina que a vida em uma fazenda em Iowa havia estabelecido, ela odiava aquele lugar e a sua gentinha medíocre.
Robert Kincaid percebeu isso à primeira vista.
Sentindo a dimensão do problema, ele pergunta a ela como era o seu marido (que ela havia encontrado durante a Segunda Guerra na Itália, conforme acabara de lhe contar). Tudo o que ela consegue dizer é: "Muito trabalhador. Muito honesto. Se preocupa com a gente. É gentil. Um bom pai". (Isso me faz lembrar um conto de Monteiro Lobato: "Coitada da das Dores… Tão boazinha!" Boazinha era tudo o que se conseguia dizer de bom a respeito dela).
Ele vai adiante. Pergunta como é a vida em um lugar pequeno em Iowa: "Então você deve gostar aqui de Iowa, eu suponho…" Ela hesita. Ele diz, como se soubesse o que ela vai confessar: "Pode dizer: fica comigo, eu não conto pra ninguém…" Ela se surpreende. Não só ele sabe o que ela vai dizer, mas ele de antemão lhe assegura que ele entende o que ela sente, e que sabe que aquele sentimento tem sua razão de ser e é justificado. Ele valida o que ela sente. Ela hesita mais uma vez, ele lhe sorri e faz que sim com a cabeça — e ela explode: "Eu odeio isso aqui…"
Ao acabar sua explosão, ela se sente esgotada, totalmente exposta — mas aliviada. Alguém sabe o que ela sente, e o percebeu antes mesmo de ela tomar consciência do fato e ser capaz de verbalizá-lo. E, acima de tudo, não a criticou por se sentir assim, referendou e validou o que ela sentia, sem precisar dizer uma palavra.
Mesmo assim, ela sentiu que devia dizer que estava com vergonha de dizer tudo aquilo… Ele responde com humor, aliviando a tensão e o embaraço dela: "Por quê? Você tirou a rolha da garrafa. Pelo que posso perceber, eu cheguei aqui na hora certa. Tivesse demorado um pouco mais e você teria sido manchete de primeira página, correndo nua pela Main Street. . ." Ela ri… "Mas nós nem nos conhecemos!" Ele, desta vez, não referenda e valida o que ela sente, mas diz a ela que ela está errada em sentir o qe sente: "Você não tem razão de se sentir envergonhada. Você não disse nada que você não tivesse o direito de dizer. E se alguém discorda — mande falar comigo!".
O mais assustador do filme é que, no caso de Francesca, o marido e os filhos nunca haviam notado que ela era infeliz — infeliz no seu âmago, no mais fundo do seu ser, e profundamente infeliz… Na verdade, nem ela mesma havia se dado conta de todo o ressentimento que se acumulava dentro de si em virtude de tudo aquilo a que havia renunciado para ter, o que agora ficava claro, aquela vidinha pobre de sentimento no interior de Iowa – até que o contato com Roberto Kincaid, viajante de muitas plagas (que conhecia até mesmo a pequenina Bari, cidade em que ela nasceu na Itália), quem sabe amante de muitas mulheres sofisticadas, sem querer, lhe revelou… E ela, que estava traindo o marido, sentiu ciúmes dos amores que o amante deveria ter tido antes de conhecê-la!!! Só percebe e consegue expressar esse fato alguém que tem profunda sensibilidade…
Que conflito deve ter sofrido Francesca. Ali, naqueles poucos dias com Kincaid, ela se apaixonou, eles se amaram, e tudo foi lindo — mas os dois sabiam que havia uma decisão que ela deveria tomar – ela, mais do que ele, porque era ela que tinha mais a perder (a despeito de tudo o que sentia sobre Iowa). A decisão dele era fácil: era solteiro (divorciado), sem compromissos, e queria Francesca, sem dilemas e sem conflitos. Mas a decisão dela era difícil: abandonar uma vida, medíocre é verdade, sem paixão, aparentemente até mesmo sem um amor que tocasse fundo no seu ser (apesar da afirmação feita aos filhos), mas sabida e conhecida, na qual possuía pelo menos um certo carinho do marido e dos filhos e a certeza do hábito e da rotina, por uma paixão que muito promete mas, no fundo, leva ao desconhecido.
E a tragicidade da coisa é que, mesmo que Francesca tivesse tomado a decisão oposta, teria sofrido muito. Talvez até mais. Tal é a condição humana. Francesca tomou sua decisão — e viveu com ela. Ela termina, porém, sua "carta testamento" aos filhos dizendo: "Façam o que vocês têm de fazer, e sejam felizes nesta vida. Há tanta beleza nela!" Felicidade, beleza…
Filmes… Literatura… Ficção… Histórias inventadas… Na verdade, não totalmente inventadas, mas aproveitadas da vida vivida, da experiência, própria ou dos outros, e reunidas em personagens e acontecimentos que, como tais, nunca viveram ou aconteceram. O cinema e a literatura nos permitem viver, vicariamente, experiências que muitas vezes não nos é dado viver na vida real. E, assim, enriquecem a nossa vida, refinam e aprofundam a nossa sensibilidade. (Já discutimos aqui a questão da educação da sensibilidade). Ou, então, nos preparam para viver essas experiências, se e quando elas nos forem dadas.
Alguns, pouco preocupados com a sensibilidade, dizem que esse tipo de filme e literatura alienam. Até certo ponto é verdade. Eles nos alienam, isto é, afastam, temporariamente, do dia-a-dia, com seus vales e suas planícies, que em geral ficam no pé da montanha, e muitas vezes não têm muita graça, porque não permitem que se aviste longe, e nos levam para os picos e cumes da experiência humana, daquilo que nossa vida, de certo modo, poderia, quem sabe, ter sido, se a gente tivesse registrado as oportunidades que apareceram e feito escolhas diferentes…
Discordo dos críticos que afirmam que o cinema e a literatura desengajados poltiicamente, “inorgânicos”, alienam quando eles assumem que essa alienação é ruim. Eu acho que sem ela a vida seria muito mais pobre e muito mais difícil de viver.
Em Salto, 25 de agosto de 2006
Mais um aniversário do suicídio de Getúlio Vargas
Ontem se comemorou mais um aniversário da morte de Getúlio Vargas. Na madrugada de 24 de agosto de 1954, ele se suicidou com um tiro no coração. Lembro-me data ainda hoje. Estava a duas semanas de fazer onze anos. Morava em Santo André, com meus pais, numa casinha geminada na Av. Santos Dumont, 256. A casa tinha um quarto só, onde ficavam a cama de meus pais e o beliche em que eu e meu irmão mais novo dormíamos. Como moradia, era melhor do que a dos cubanos hoje — mas não tanto… Pastor protestante ganhava pouco naquela época. Meu pai tinha o hábito de ligar o rádio às 7 horas da manhã, na Tupi, para ouvir o "jornal falado" de Corifeu de Azevedo Marques. Quando ouviu que Getúlio estava morto, que havia se suicidado, desandou a chorar. Meu pai tinha 42 anos na época. Nunca o havia visto chorar antes — nem nunca vi depois, até a sua morte, em 1991. Mais do que o suicídio do presidente, cuja importância não conseguia compreender muito bem, ficou marcada na minha memória a experiência de ver o meu pai, pego com a guarda-baixa, na primeira hora da manhã, chorar.
Transcrevo abaixo a carta em que Getúlio apresentava os motivos de sua atitude. É uma bela peça de retórica política. Foi retirada da Wikipedia: http://pt.wikipedia.org/wiki/Carta_Testamento_de_Getúlio_Vargas.
"Mais uma vez, as forças e os interesses contra o povo coordenaram-se novamente e se desencadeiam sobre mim.
Não me acusam, insultam; não me combatem, caluniam e não me dão o direito de defesa. Precisam sufocar a minha voz e impedir a minha ação, para que eu não continue a defender, como sempre defendi, o povo e principalmente os humildes. Sigo o destino que me é imposto. Depois de decênios de domínio e espoliação dos grupos econômicos e financeiros internacionais, fiz-me chefe de uma revolução e venci. Iniciei o trabalho de libertação e instaurei o regime de liberdade social. Tive de renunciar. Voltei ao governo nos braços do povo. A campanha subterrânea dos grupos internacionais aliou-se às dos grupos nacionais revoltados contra o regime de garantia do trabalho. A lei de lucros extraordinários foi detida no Congresso. Contra a Justiça da revisão do salário mínimo se desencadearam os ódios. Quis criar liberdade nacional na potencialização das nossas riquezas através da Petrobrás; mal começa esta a funcionar, a onda de agitação se avoluma. A Eletrobrás foi obstaculada até o desespero. Não querem que o trabalhador seja livre. Não querem que o povo seja independente.
Assumi o Governo dentro da espiral inflacionária que destruía os valores do trabalho. Os lucros das empresas estrangeiras alcançavam até 500% ao ano. Nas declarações de valores do que importávamos existiam fraudes constatadas de mais de 100 milhões de dólares por ano. Veio a crise do café, valorizou-se o nosso produto. Tentamos defender seu preço e a resposta foi uma violenta pressão sobre a nossa economia, a ponto de sermos obrigados a ceder.
Tenho lutado mês a mês, dia a dia, hora a hora, resistindo a uma pressão constante, incessante, tudo suportando em silêncio, tudo esquecendo, renunciando a mim mesmo, para defender o povo que agora se queda desamparado. Nada mais vos posso dar a não ser meu sangue. Se as aves de rapina querem o sangue de alguém, querem continuar sugando o povo brasileiro, eu ofereço em holocausto a minha vida. Escolho este meio de estar sempre ao vosso lado. Quando a fome bater à vossa porta, sentireis em vosso peito a energia para a luta por vós e vossos filhos. Quando vos vilipendiarem, sentireis no meu pensamento a força para a reação. Meu sacrifício vos manterá unidos e meu nome será a vossa bandeira de luta. Cada gota de meu sangue será uma chama imortal na vossa consciência e manterá a vibração sagrada para a resistência. Ao ódio respondo com o perdão. E aos que pensam que me derrotaram, respondo com a minha vitória. Era escravo do povo e hoje me liberto para a vida eterna. Mas esse povo de quem fui escravo não mais será escravo de ninguém. Meu sacrifício ficará para sempre em sua alma e meu sangue terá o preço do seu resgate.
Lutei contra a espoliação do Brasil. Lutei contra a espoliação do povo. Tenho lutado de peito aberto. O ódio, as infâmias, a calúnia, não abateram meu ânimo. Eu vos dei a minha vida. Agora ofereço a minha morte. Nada receio. Serenamente dou o primeiro passo no caminho da eternidade e saio da vida para entrar na História."
Em Salto, 25 de agosto de 2006
45 anos sem Jânio Quadros no cenário político nacional
Hoje, 25 de agosto de 2006, faz 45 anos que Jânio da Silva Quadros renunciou ao seu mandato de Presidente do Brasil, poucos meses depois de uma acachapante vitória nas urnas. Não vou entrar aqui nos méritos e deméritos do político. Achava o homem bastante interessante.
Tive o privilégio de me encontrar pessoalmente uma vez com ele, no final de 1988, quando ele terminava o seu mandato como Prefeito de São Paulo — e, doente, concluía, relutantemente, sua participação na vida política. Jânio havia mandado pendurar umas chuteiras de futebol na porta de seu gabinete para indicar sua intenção de se aposentar como político. Fui visitá-lo com o então Secretário de Saúde do Governo Quércia, hoje Deputado Federal pelo PFL, José Aristodemo Pinotti, que, além de meu chefe na Secretaria (eu era Diretor do Centro de Informações e Informática em Saúde), era, e continua sendo, amigo meu. Éramos colegas na UNICAMP desde 1974, quando eu entrei na Universidade. Não que eu seja amigo de todos os meus colegas da UNICAMP… Os economistas de lá, Paulo Renato Costa Souza, José Serra, e alguns outros, prefiro ver só de longe…
Para entender o que aconteceu no final da reunião com o Jânio, preciso retroceder um pouco no tempo.
Depois de ter renunciado, Jânio Quadros continuou no cenário político até que foi cassado pelo regime militar. Recuperou, porém, seu direitos políticos em 1974, mas, por bom tempo, limitou-se a pronunciamentos, permanecendo afastado das eleições. Em 1982, entretanto, candidatou-se ao governo de São Paulo, mas perdeu. Em1985, entretanto, elegeu-se prefeito de São Paulo, derrotando o candidato do prefeito (biônico) Mário Covas (a quem nunca admirei), o suplente de senador Fernando Henrique Cardoso (a quem admirava menos ainda, como se possível), que viria a ser Presidente da República. Um presidente passado derrotando um futuro. Seu mandato como prefeito foi até o fim de 1988.
Durante 1985 eu era Assessor Especial (um equivalente ao Pró-Reitor de hoje) de Pinotti, que, na época, era Reitor da UNICAMP. Na ocasião, foi dado um almoço na Reitoria, com a participação do mais alto escalão da Universidade, em homenagem ao Fernando Henrique. Eu era o único membro da equipe da Reitoria que torcia, abertamente, pelo Jânio. Dias antes do almoço, andando pelo prédio da Reitoria, vi que estavam reformando uma sala que havia sido ocupada pelo ex-Reitor e fundador da UNICAMP, Zeferino Vaz, depois de ter deixado a Reitoria. Havia virado uma espécie de museu do ex-Reitor. Algumas das relíquias preservadas por ele estavam jogadas pelo chão, meio sujas de tinta, entre elas uma foto de Jânio Quadros, tirada quando fora Governador do Estado em 1966. Jovem, até bonitão — embora já com o olho meio torto… A foto continha a seguinte dedicatória: "Ao Prof. Zeferino Vaz, meu amigo e companheiro, com o respeito que merece a grande obra de Ribeirão Preto, o admirador, J. Quadros. 7.1.59". Ao ver aquela foto ali jogada, correndo o risco de ser destruída, peguei-a, coloquei-a na minha sala, e fui ver o Reitor, comunicando-lhe: "Encontrei uma foto do Jânio dada ao Zeferino em 1959, jogada lá embaixo. Levei-a para minha sala. Se alguém a procurar, está comigo." Nunca ninguém procurou.
Quando o resultado da eleição de 1985 saiu, estava em Nova York, a serviço. Essa foi a eleição em que Fernando Henrique Cardoso se deixou fotografar, antes da eleição, sentado na cadeira de seu amigo Covas, considerando-se eleito antes das eleições. Bom, perdeu. E eu comemorei sozinho em Nova York, indo assistir a uma audição coral numa Igreja Batista do Harlem. Senti-me vingado da hostilidade das forças defensoras da candidatura do Fernando Henrique — as mesmas que foram o PSDB de hoje.
Quando se preparava para ir ao encontro de Jânio, para pedir que cedesse alguns terrenos da Prefeitura de São Paulo para a construção de Centros de Saúde, Pinotti me ligou e disse: "Estou indo visitar o seu ídolo: quer ir junto?" Não pensei duas vezes. Larguei o que estva fazendo, avisei minha secretária que iria sair por umas duas horas, peguei o paletó e fui.
No final da visita a Jânio, Pinotti disse ao ex-Presidente: "Presidente, o Eduardo Chaves, meu colega na UNICAMP e meu assessor na Secretaria, é um fã incondicional seu. Tanto que mantém em sua sala até hoje [isso era brincadeira, vale dizer, mentira] uma foto sua". A isso eu acrescentei: "Que eu obtive por meios, talvez, não muito lícitos…" — e contei a história da foto ao Jânio. Ele deu uma tirada das que o fizeram famoso: "Licitamente ou não, Professor, o importante é que a tenha adquirido!". E chamou sua secretária, uma senhora já de idade que o acompanhava há décadas, e lhe mandou que me desse uma foto atualizada dele — que guardo, carinhosamente, junto da primeira. Achei divertido o comentário e gentil o ato.
Quanto às tiradas de Jânio, lembro-me de duas outras que me são especialmente caras.
Creio que durante à candidatura a Prefeito, ele foi ao programa da Hebe Camargo. E conversando com ela, disse que jornalistas são todos uns cachorros. Ela ficou hebecamargamente horrorizada e, também hebecamargamente, o repreendeu. "Como é que o senhor pode dizer uma coisa dessas, Presidente!". Ele pensou um pouco e disse: "Está certo… Penitencio-me. Cometi uma injustiça tremenda: contra os cachorros…"
Durante uma entrevista na TV Bandeirantes (acho que era "Crítica e Autocrítica"), durante a mesma candidatura, Jânio, que agora concorria contra Fernando Henrique, foi indagado se, na eleição anterior, havia votado para Fernando Henrique para Senador. Ele disse que sim, e explicou: "Votei porque achei que, como Senador, seria bom, homem inteligente que é. Mas como Administrador, ele nunca provou a que veio, não tendo sequer conseguido administrar a própria cátedra na USP". Um pouco de maldade, aí, porque Fernando Henrique foi aposentado prematuramente da USP pelos militares. Mas, aqui entre nós, uma maldadezinha bem aplicada…
Em fim… Agora, em vez das tiradas inteligentes do Jânio, temos de conviver com o besteirol do Lulla. No plano da inteligência, da linguagem e do humor, perdeos muito. Suspeito que politicamente também tenhamos perdido.
Fica aqui minha homenagem a um homem interessante e um político como poucos.
Este o texto da Carta Renúncia de Jânio, segundo a Wikipedia (http://pt.wikipedia.org/wiki/Jânio_Quadros)
"Fui vencido pela reação e assim deixo o governo. Nestes sete meses cumpri o meu dever. Tenho-o cumprido dia e noite, trabalhando infatigavelmente, sem prevenções, nem rancores. Mas baldaram-se os meus esforços para conduzir esta nação pelo caminho de sua verdadeira libertação política e econômica, a única que possibilitaria o progresso efetivo e a justiça social, a que tem direito o seu generoso povo.
Desejei um Brasil para os brasileiros, afrontando, nesse sonho, a corrupção, a mentira e a covardia que subordinam os interesses gerais aos apetites e às ambições de grupos ou de indivíduos, inclusive do exterior. Sinto-me, porém, esmagado. Forças terríveis levantam-se contra mim e me intrigam ou infamam, até com a desculpa de colaboração.
Se permanecesse, não manteria a confiança e a tranqüilidade, ora quebradas, indispensáveis ao exercício da minha autoridade. Creio mesmo que não manteria a própria paz pública.
Encerro, assim, com o pensamento voltado para a nossa gente, para os estudantes, para os operários, para a grande família do Brasil, esta página da minha vida e da vida nacional. A mim não falta a coragem da renúncia.
Saio com um agradecimento e um apelo. O agradecimento é aos companheiros que comigo lutaram e me sustentaram dentro e fora do governo e, de forma especial, às Forças Armadas, cuja conduta exemplar, em todos os instantes, proclamo nesta oportunidade. O apelo é no sentido da ordem, do congraçamento, do respeito e da estima de cada um dos meus patrícios, para todos e de todos para cada um.
Somente assim seremos dignos deste país e do mundo. Somente assim seremos dignos de nossa herança e da nossa predestinação cristã. Retorno agora ao meu trabalho de advogado e professor. Trabalharemos todos. Há muitas formas de servir nossa pátria."
Brasília, 25 de agosto de 1961.
Jânio Quadros"
Em Salto, 25 de agosto de 2006
Sociedade informatizada e história do computador
[Este material é o primeiro capítulo do meu livro Informática: Micro Revelações, publicado em 1985 pela Cartgraf Editora, de Campinas, em co-edíção com a People Computação. O texto do livro foi escrito por mim, mas vários outras pessoas participaram de sua elaboração, acrescentando material visual, ou revisando o texto. O principal dentre esses co-autores foi meu grande amigo Claudio Minetto. Resolvi transcrever o material aqui por duas razões. Primeiro, porque a matéria anterior lida com a história do computador –no caso, dos computadores pessoais. O texto a seguir amplia um pouco o foco, discutindo a história dos computadores de grande porte. Segundo, porque, por incrível coincidência, minha grande amiga Márcia Teixeira, da Microsoft, me contatou ontem pelo Windows Live Messenger para dizer que havia encontrado — lá perto de Miami onde mora atualmente — um livro que eu havia escrito, e o livro era exatamente este do qual agora tiro o material abaixo. Não revisei o material: ele se encontra como foi escrito e publicado em 1985.]
Nosso objetivo, neste primeiro capítulo, será levá-lo a:
— entender a extensão em que a nossa sociedade já está informatizada;
— compreender como a informatização da sociedade afeta os indivíduos e os grupos sociais;
— refletir sobre as mudanças sociais que ainda estão por vir em função da crescente informatização da sociedade;
— adquirir uma rápida visão histórica do desenvolvimento do computador.
1- Sociedade Informatizada
Vamos procurar fazer um simples exercício de imaginação. Quem se arriscaria a dizer, cinco anos atrás, que hoje, aqui no Brasil, nossos maiores bancos – para citar apenas um exemplo – já estariam tão avançados em direção à automação dos serviços de atendimento ao cliente? (Falamos em serviços de atendimento ao cliente porque os outros serviços já estão, em grande parte, automatizados, há um bom tempo). Teria sido possível imaginar, cinco anos atrás, que hoje você poderia verificar seu saldo bancário, à noite, por telefone, em contato direto com um computador, sem a interveniência de uma outra pessoa? Teria sido possível imaginar que seus depósitos e saques seriam registrados na hora em sua conta corrente, e que você poderia, logo em seguida, obter cópias atualizadas de seu extrato, sem precisar esperar mais do que alguns segundos? Teria sido possível imaginar que você iria ser capaz de fazer compras nas grandes lojas de departamentos e usar, como forma de pagamento, um cartão magnetizado, que faria debitar diretamente em sua conta corrente o valor da compra?
Se um de nós tivesse ouvido alguém fazendo essas previsões, cinco anos atrás, provavelmente teria imaginado tratar-se de um visionário, como tantos por aí. Ou possivelmente concordaria que isso pudesse acontecer em país mais desenvolvidos, como os Estados Unidos e o Japão, mas não no Brasil. Teria sido, naquela ocasião, muito difícil acreditar que previsões como essas pudessem se confirmar tão cedo, aqui.
No entanto, tudo isso já acontece, aqui mesmo no Brasil – e estamos apenas no começo! Mas apesar de estarmos apenas no começo, que grande distância já percorremos em tão pouco tempo! Tentemos lembrar como era o sistema bancário há não mais de vinte anos. Quando alguém ia a um banco, naquela época, para descontar um cheque, tinha que entregar o cheque no balção de atendimento, recebia um canhotozinho ou uma chapinha numerada, e precisava esperar até o caixa chamar o seu número. Mesmo que não houvesse quase ninguém à sua frente, a demora nunca era inferior a dez minutos, porque antes de o cheque ir ao caixa, ele era colocado na mesa do responsável pelas contas correntes, que conferia a assinatura, pegava o cartão de lançamento do cliente, verificava o seu saldo, lançava o valor do cheque, calculava (muitas vezes a mão) o novo saldo, e separava o cartão de lançamentos, colocando-o em uma pilha de cartões movimentados naquele dia. Este funcionário a seguir rubricava o cheque, levava-o à mesa do contador, que também o rubricava, e, só então, o encaminhava ao caixa. O Caixa dava mais uma conferida em tudo e chamava o cliente pelo seu número. É até de se admirar que tudo isso fosse às vezes feito em dez minutos. Muitas agências bancárias tinham até cadeiras para o cliente se sentar enquanto aguardava a tramitação de seu cheque! É o que dizer do fechamento do expediente? Para falar somente no problema de contas correntes (deixando cobranças, descontos, etc.; de lado), ao final do dia, o funcionário responsável por elas somava todos os saldos anteriores, todos os depósitos feitos no dia, todos os cheques sacados no dia , todos os saldos atualizados, e verificava se tudo estava "batendo" – isto é, conferindo, Caso tudo estivesse certo, iria conferir os totais de depósitos e de cheques com os totais do caixa. Se alguma coisa desse errado, era preciso procurar a diferença. Às vezes os funcionários tinham que ficar no banco até altas horas, procurando diferenças, porque tudo tinha que estar "batido" antes do início do expediente no dia seguinte!
O sistema bancário funcionava assim há até relativamente bem pouco tempo. De lá para cá, cresceu exponencialmente o número de usuários do sistema, e multiplicaram-se consideravelmente os serviços que os bancos oferecem aos seus clientes. Se você percebe a distância enorme que separa os procedimentos de uma agência bancária de vinte ou quinze anos atrás dos atualmente adotados, certamente entenderá pelo menos parte do que se quer dizer por informatização da sociedade. Isto porque, com pequenas variações, processo semelhante está acontecendo em outras áreas da sociedade.
Ou vejamos. Para que você tenha uma idéia de quanto a nossa vida está permeada pelo computador, procure fazer uma lista de todos os contatos diretos ou indiretos que você tem com o computador. Por contato indireto queremos dizer, principalmente, contato com produtos do computador. Vamos tentar iniciar a lista?
— se você trabalha, seu contra-cheque ou "hollerith" é, provavelmente, emitido por computador;
— se você é estudante, sua matrícula, seu carnê de pagamentos (caso você esteja em escola paga), seu relatório de notas, seu histórico escolar, etc.; são todos efetuados com o auxílio do computador;
— seu extrato bancário, naturalmente, é emitido por computador;
— se você tem cartões de crédito, seus extratos também são emitidos por computador,
— se você compra a crédito, por meios mais convencionais, seus carnês provavelmente são feitos por computador;
— sua notificação de imposto de renda, sua TRU, e outros impostos, são quase todos confeccionados por computador;
— suas contas de luz, de água, de telefone, etc.; também são preparadas e emitidas por computador;
— seu joguinho também na Loteria Esportiva ou na Loto não sairia se não fosse o computador (no Bicho, por exemplo, ainda sai sem computador, mas não vai durar muito…);
— se você vai a um estádio de futebol, é provável que lá haja um placar eletrônico, controlado por computador;
— o jornal e revista que você compra na banca provavelmente foram redigidos e impressos, pelo menos em parte, usando-se o computador;
— os programas de televisão a que você assiste, em sua maior parte, não poderiam ter sido feitos ou transmitidos sem o auxílio do computador;
— muitos dos comerciais que você vê na televisão são feitos utilizando-se o computador para efeitos visuais e sonoros;
— Os efeitos especiais de muitos dos filmes hoje famosos não poderiam ter sido alcançados sem o computador;
— grande parte da correspondência que você recebe foi endereçada via computador e chegou à sua casa mediante processos controlados por computador;
— o telefone que você usa não funcionaria tão eficientemente sem o controle do computador: suas chamadas locais, interurbanas, internacionais, são todas completadas e contabilizadas por computadores;
— se você vai ao médico, grande parte dos equipamentos usados por vários exames a que você se submete são computadorizados;
— a distribuição de água e de energia elétrica em sua cidade provavelmente é controlada por computador;
— se você vai viajar, suas reservas, tanto nas companhias aéreas como em hotéis, são feitas por computador;
— em um avião, como também, já nos automóveis mais recentes, o computador é responsável pelo controle e bom funcionamento de um número cada vez maior de processo;
— em aparelhos domésticos, como televisores, geladeiras, fornos de micro-ondas, etc.; microprocessadores já controlam o funcionamento de uma série de processos;
— seu relógio ou despertador digital tem um minúsculo microprocessador dentro dele, como também é o caso, naturalmente, de sua máquina de calcular eletrônica;
— vários produtos manufaturados que você adquire foram feitos com o auxílio do computador;
— e assim por diante: você pode completar o restante da lista
Não seria exagero dizer que, se, hoje, computadores deixassem de existir ou parasse de funcionar, nosso mundo e nossa sociedade entrariam em colapso, tantas são as áreas e as atividades que hoje dependem deles. Este texto, por exemplo, como muitos outros, hoje em dia, não foi redigido por uma máquina de escrever e sim por um microcomputador e uma impressora.
E, como dissemos, estamos apenas no começo. A indústria eletrônica, que é o fundamento da indústria de computadores, está ainda em sua infância quando comparada à indústria mais convencional é tradicional. É por isso que se fala, hoje em dia, em uma nova revolução industrial. Ou então, se termo "industrial" é reservado para a indústria tradicional afirma-se que estamos vivendo, em grande parte, numa sociedade pós-industrial, em função de uma revolução que está correndo, e que está nos levando da sociedade industrial clássica para a sociedade pós-industrial.
De qualquer maneira, ninguém parece negar que tenha havido ou esteja ocorrendo alguma forma de revolução – o termo usado é realmente este. Argumenta-se que a atual revolução será muito mais ampla, e muito mais rápida no que diz respeito à sua consolidação, do que a (primeira) revolução industrial.
Para que você se aperceba da dimensão e da rapidez da atual revolução, aqui vão alguns dados, que já se tornaram até bem conhecidos na literatura sobre o assunto, tantas vezes têm sido mencionados:
— Se os automóveis tivessem desenvolvido no mesmo ritmo em que os computadores evoluíram, no que diz respeito a preço, eficiência, e miniaturização, hoje seríamos capazes de comprar um Rolls-Royce por dois dólares e setenta e seis centavos, ele poderia rodar mais de um milhão e trezentos mil quilômetros com um litro de gasolina, sendo possível estacionar meia dúzia deles na cabeça de um alfinete!
— No início da década de 50, um computador que tivesse o mesmo número de elemento funcionais que o cérebro humano teria que ter o tamanho da cidade de New York e gastaria mais energia do que todo o sistema de metrô daquela cidade. Hoje esse computador existe e é do tamanho de um aparelho de televisão!
— Mesmo em países em recessão econômica, a indústria de computadores e seus periféricos, e em especial a de microcomputadores, tem crescido, em termos reais numa média de 35% ao ano.
— Nos Estados Unidos, só um fabricante de microcomputadores já doou mais de dez mil microcomputadores, em apenas um estado, a escolas de rede estadual de ensino. Outros fabricantes têm planos especiais para as escolas, dando três microcomputadores pelo preço de dois, etc. Em outros países industrializados algo semelhante está acontecendo, embora em escola menos. Aqui mesmo no Brasil já há várias escolas particulares de primeiro e segundo graus usando microcomputadores em escolas de rede oficial.
— Os vídeo-jogos, que são microcomputadores dedicados a funções específicas, estão cada vez mais populares, e cada vez mais baratos.
— Os próprios microcomputadores de uso geral estão cada vez mais baratos e acessíveis, sendo vendidos a prazo em lojas de departamentos e em outros locais, dedicados, tradicionalmente, à venda de eletrodomésticos.
E assim por diante. Parece que o mundo da ficção científica está saindo do futuro, onde sempre confortavelmente existiu, para invadir o nosso presente. Hoje em dia há arte computadorizada, música computadorizada. A abertura da maioria dos grandes programas de televisão, os próprios programas, até os comerciais, tornaram-se cenário eletrônicos onde artistas desconhecidos exibem uma arte desenvolvida com o auxílio do computador. Sintetizadores de voz permitem que os computadores falem e ajudem até os mudos a se expressarem de forma audível. Satélites tiram fotografias a milhões de quilômetros de distância e as transmitem na forma de impulsos elétricos, que, decodificados por computadores, transformam-se em imagens maravilhosas. Radares colocados em satélite tiram, da mesma forma, fotografias que nos permitem elaborar mapas cada vez mais precisos e prever com razoável exatidão as condições meteorológicas. Arquitetos e projetistas usam os recursos gráficos dos computadores para projetar prédios, peças, equipamentos e aparelhos. Sofisticados equipamentos médicos computadorizados fazem uma "varredura" ("scan") do interior das pessoas, possibilitando que várias doenças, que doutra forma passariam desapercebidas, possam ser diagnosticadas. Nas indústrias, o processo de automação vai sendo implantado, desde o setor produtivo até os setores administrativos, gerências e executivos. Estoques de supermercados, farmácias, e outros negócios, estão sendo controlados por computadores. É possível, com um apertar de botões. descobrir que produtos, ou que marcas, não estão vendendo bem e colocá-los em ofertas especiais. O governo não poderia subsistir um dia sem seus computadores. A política e a investigação criminal também dependem maciçamente dos computadores. A justiça e os cartórios estão ameaçados a se informatizar. Os semáforos das grandes cidades são controlados por computadores e se ajustam conforme o fluxo do trânsito.
Sistemas de vídeo-texto, já implantados no Brasil, como, por exemplo, em São Paulo, pela TELESP, unem dois equipamentos já controlados em muitas residências, o telefone e a televisão. Acrescentando a eles um teclado simples e barato, o vídeo-texto já viabiliza o jornal eletrônico, a lista telefônica eletrônica, o dinheiro e as transações comerciais eletrônicos, a democracia instantânea, e uma série de outras coisas. O projeto CIRANDÃO da EMBRATEL se propõe interligar milhares de residências através de microcomputadores neles instalados. Originalmente reservados a funcionários da companhia, esse projeto expandiu-se para usuários externos.
Onde vamos parar? A resposta mais realista é a de que não vamos parar. Diante desse quadro, porém, muitas pessoas ficam temerosas de que estejamos entrando, realmente, numa sociedade do tipo prevista no livro "1984", de George Orwell. A nível individual, muitos se sentem intimidados por computadores. Sentem receio de que sua privacidade venha ser invadida por eles, de que informações importantes sobre suas vidas estejam sendo armazenadas, sem seu conhecimento e sua autorização, em algum computador do governo, e possam, em algum momento, vir a ser utilizadas contra ele próprios. A nível social, teme-se que a automação de processos industriais, de escritórios, etc. possa vir a eliminar empregos, aumentando, ainda mais, alguns males sociais hoje existente.
É da natureza humana ter preocupações como essas, e algumas delas são plenamente justificativas, como, por exemplo, as relativas à invasão da privacidade, ao termo de que informações importantes passam vir a ser utilizadas para finalidades de que aquelas para as quais foram fornecidas. O problema do aumento de desemprego também é sério e deve ser encarado de frente.
Apesar dessas preocupações e desses perigos, nós todos sabemos que o relógio não vai ser voltado para trás: a sociedade em que vivemos não vai mais se "desinformatizar" – e isso por uma série de razões, nenhuma das quais, talvez essencial em si mesma, mas que, em seu conjunto, se tornam significativas. Mencionemos, brevemente, algumas dessas razões, porque elas apontam para o lado positivo da maciça introdução de computadores em nossas vidas.
Em primeiro lugar, os computadores fornecem serviços rápidos – e já nos acostumamos a serviço rápido. Você já imaginou ter que esperar dias para saber quantos os ganhadores na Loteria Esportiva ou na Loto? Para saber suas notas? Ou receber seu cheque no final do mês? Ou fazer reservas para sua viagem? Ou ter que esperar minutos ou até horas para saber seu saldo, ou para conseguir uma ligação interurbana? Já nos acostumamos à rapidez que a utilização do computador nos propicia – dificilmente vamos querer voltar aos velhos tempos.
Em segundo lugar, apesar das inúmeras estórias de erros de computador, computadores são extremamente confiáveis. A maior parte dos chamados erros de computador não passa de meros erros humanos, provocados por programadores ou operadores que fizeram o que não deveriam ter feito ou que não fizeram o que deveria ser feito. Isso não quer dizer que não haja falhas de equipamento, mas essas são muitos raras perto dos erros humanos. Por causa disso, dificilmente se voltará o relógio para trás, de modo a fazer manualmente as coisas que hoje são feitas pelo computador. Na verdade, é difícil até imaginar como é que algumas das coisas que o computador faz hoje poderiam ser feitas de outra forma!
Em terceiro lugar, os computadores e os robôs podem executar uma série de tarefas que não são perigosas, ou maçantes, e que seres humanos não gostam de executar ou até mesmo não podem executar, liberando, assim, seres humanos para tarefas menos perigosas e mais criativas. É verdade que, no processo, há que se lidar com a questão do desemprego, do reaproveitamento e treinamento dos trabalhadores cujas tarefas perigosas e rotineiras vierem a ser exercidas pelo computador. Esse é um problema que terá que ser enfrentado, mas que dificilmente fará com que se decida voltar atrás, até porque a indústria de computadores e equipamentos relacionados também cria uma série de empregos que, fôssemos nós voltar atrás, deixariam de existir, tornando o problema do desemprego, quem sabe, ainda mais sério.
Em quarto lugar, com o desenvolvimento do conhecimento científico, da tecnologia, e das comunicações, estamos sendo confrontados com um dilúvio de informações. O computador certamente tem contribuído para este dilúvio – mas será também ele que nos ajudará a lidar com essas informações, arquivando-as, classificando-as, analisando-as, e colocando-as à nossa disposição, quando necessário. Sem o auxílio do computador, essas seriam tarefas virtualmente impossíveis.
É quase certo, portanto, que o processo de informatização da sociedade é irreversível e que a cada dia aumentarão as áreas e os setores em que o computador estará sendo empregado, bem como as formas e maneiras de sua utilização. Na verdade, não há quase nenhuma área que possa ser considerada inteiramente imune ao computador.
Mas paralelamente a essa introdução maciça do computador nas várias áreas da economia e da sociedade, está ocorrendo um outro desenvolvimento, tão ou mais significativo do que esse. Este desenvolvimento tem que ver não só com a quantidade das áreas e setores informatizados, mas com a qualidade de acesso à informação. Nos últimos tempos, com a interligação cada vez maior entre a informática e as telecomunicações (interligação esta já chamada por muitos de "telemática"), e, principalmente, com o surgimento dos microcomputadores pessoais, a natureza do acesso à informação tem se alterado drasticamente. Esta alteração não é meramente quantitativa – não é apenas o caso de que mais e mais pessoas têm, hoje, acesso à informação, embora este seja o caso. A alteração é também qualitativa: a pessoa que hoje está tendo acesso à informática é a pessoa leiga, a pessoa não treinada na área – o acesso à informação está atravessando um processo de abertura, está sendo, de certa forma, democratizado. O acesso à informação está deixando de ser monopólio de uns poucos iniciados, que se trancavam em salas com ar refrigerado e se encondiam por detrás de um jargão especializado, freqüentemente inacessível, para se tornar um patrimônio da pessoa comum, não especializada na área. O microcomputador pessoa que, hoje em dia, já custa menos do que um televisor a cores, está possibilitando isso, e este fato representa um passo gigantesco na direção da informatização da sociedade. Isso porque á media em que mais e mais pessoas leigas, não especializadas, se envolvem com microcomputadores, estes vão se desmistificando, deixando de ser misteriosos e ininteligíveis, e passando a ser vistos como acessórios pessoais domésticos cada vez mais imprescindíveis. O CPD – Centro de Processamento de Dados – deixou de ser, dentro da empresa, o único detentor de informações. Estas, agora, já existem nos microcomputadores que se multiplicam pelos vários departamentos e setores. E é essa razão porque muitas pessoas de CPD têm uma certa implicância com microcomputadores, descrevendo-os, muitas vezes, como nada mais do que brinquedos de crianças: os microcomputadores estão permitindo que outros, leigos tenham acesso à informação, fazendo, assim, com que a indispensabilidade do pessoal do CPD vá diminuindo…
Voltemos, porém, ao nosso assunto principal. O Brasil, como alguns outros países, tem considerado a informática como área estratégica, que afeta inclusive a própria segurança nacional. A SEI – Secretaria Especial de Informática, que é o órgão responsável pelo setor, tem conduzido uma política de informática para a nação, que envolve, entre outras coisas, a chamada "reserva do mercado" brasileiro, na área de computadores de pequeno e médio portes (microcomputadores, minicomputadores, e os chamados "superminis") às indústrias genuinamente nacionais. Questionada por alguns setores, especialmente os ligados às empresas multinacionais, que por esta reserva, só podem atuar no país na área de equipamentos de grande porte, esta política tem tido pleno apoio do empresário nacional, da classe política, e inclusive dos usuários (embora no último caso o apoio não seja total, tendo em vista o fato de que a reserva de mercado nem sempre tem sido acompanhada de inovações tecnológicas e de preços que possam competir favoravelmente com os preços internacionais de produtos de tecnologia mais avançada).
Por outro lado, e enveredando por uma outra questão, muitos têm questionados a ênfase que se tem dado à informatização da sociedade brasileira, principalmente diante do fato de que há necessidades fundamentais de nossa população, na área de saúde e previdência, educação saneamento, etc.; que não estão sendo atendidas. Será válido, nessas circunstâncias, investir tanto em tecnologia de ponta, quando o investimento em tecnologia não tão avançada e mais barata, poderia resolver uma série de problemas fundamentais de nossa sociedade? Esta questão é séria e merece consideração. Ela nos aponta, por sua vez, para a dificuldade de definir prioridades na administração da coisa pública. Certamente há setores da sociedade brasileira, como a saúde e a educação, que são prioridades indiscutíveis. Por outro lado, os laços que nos unem (ou, às vezes, nos prendem) à comunidade internacional são de tal natureza que não podemos prescindir de modernizar nossa agricultura, nossa indústria, nosso setor de serviços, sob pena de perder a já pequena competitividade que temos no mercado internacional. Todos esses setores são importantes e até estratégicos – quanto a isso há consenso.
Entretanto, há ainda questões básicas que podem ser levantadas em relação à informatização da sociedade. Uma delas é se essa informatização contribuirá para uma maior democratização da sociedade ou se tornará um instrumento para um controle cada vez maior da população, possibilitando, assim, o surgimento de uma sociedade totalitária. A resposta a esta questão provavelmente terá que assinalar o fato de que muito dependerá da maneira em que a informatização da sociedade ocorre. Não nos esquecemos, porém, do fato de que Hitler e Stalin aconteceram em sociedades ainda não informatizadas, e de que algumas das sociedades mais informatizadas hoje também estão entre as sociedades mais democráticas de que temos conhecimento.
Essas questões são sérias e têm que ser encaradas de frente. Este capítulo introdutório não é o lugar de discutir esses problemas extensa ou profundamente. Fazemos, aqui, apenas uma breve referência a esses assuntos, porque não nos parece correto falar na informatização da sociedade sem querer mencionar essas graves questões.
Mas não poderíamos discutir o assunto sem dizer uma palavra sobre a informática e as profissões. Se você é um profissional, deve estar interessado na questão. Se é estudante, também, talvez com maior razão. No futuro, mas, em certa medida, também já no presente, dificilmente haverá uma profissão que não seja afetada pela informática. Desde o escriturário até a artista plástico, desde a enfermeira até o romancista, desde o professor primário até o executivo de vendas, todos estes profissionais verão suas profissões redefinidas e redimensionadas pela introdução do computador. Essas redefinições já estão acontecendo hoje. Professores de primeiro e segundo graus já estão procurando as universidades e as escolas de computação para se capacitar no setor – inclusive porque não querem ficar atrás de alguns de seus alunos, que até já têm microcomputadores em casa. Médicos, dentistas, engenheiros, e outros profissionais liberais, também buscam cursos intensivos que os preparem para lidar com o microcomputador. Já há, aqui mesmo no Brasil, até revistas especializadas em relacionar a informática a esses setores profissionais como informática e administração, por exemplo. Escritores, artistas, jornalistas, todos estão procurando se capacitar. Há debates, mesas redondas, painéis, sobre como a informática está afetando as profissões, tornando algumas obsoletas (como a de tipógrafo de jornal, por exemplo), redefinindo outras (como a de jornalista). Todos os setores profissionais se agitam.
Dentro de alguns anos, quem não tiver algum conhecimento do setor será provavelmente, equivalente ao semi-analfabeto de hoje: terá que se contentar com uma profissão não qualificada. O objetivo desta apostila é de fornecer a você uma introdução à área de informática – mais particularmente, da microinformática – para que você se "alfabetize" nesse setor. Parte dessa "alfabetização" envolve o conhecimento de um mínimo da história do computador – à qual, agora, nos dedicamos.
2 – Uma Pequena História do Computador
Nesta seção do capítulo procuraremos dar-lhe uma breve visão histórica do desenvolvimento do computador, para que você possa melhor apreciar a sua evolução e também perceber como essa evolução se encaixa no processo de informatização da sociedade.
O computador, porém, além de uma história, tem uma pré-história. Normalmente, quando se conta essa pré-história, menciona-se o ábaco; a máquina inventada por Pascal, em 1642, para ajudar seu pai, e que ficou sendo conhecida como a Pascalina; a máquina de calcular inventada pelo grande filósofo alemão, Leibnitz, em 1673; as máquinas de Charles Babbage, na Inglaterra, em meados do século passado; e a famosa máquina de Herman Hollerith, nos Estados Unidos, no final do século dezenove. Na verdade, com Hollerith a pré-história do computador já começa a se fundir com a sua história: em 1896 Hollerith fundou uma empresa, a Tabulating Machine Company, para vender os serviços de sua máquina aos interessados. Essa empresa uniu-se a duas outras em 1911, ficando com o nome de Computing Tabulating Recording Company, e, em 1924, veio a alterar seu nome para International Business Machines Corporation – IBM, nome que é hoje virtual sinônimo de computador.
Mas mesmo a IBM só veio a se envolver no negócio de computadores por volta de 1936, instigada por um jovem professor de matemática da Universidade de Harvard, HOWARD AIKEN. Estudando anotações deixadas por Charles Babbage, e por sua colaboradora, Ada Augusta Byron, a Condessa de Lovelace, filha do poeta inglês Lord Byron, e uma grande matemática, por muitos considerada como a primeira programadora de computadores; em cuja homenagem inclusive se "batizou" uma linguagem de programação, ADA, Aiken concluiu que uma versão moderna da máquina de Babbage poderia ser construída, mas que seria, agora, eletro-mecânica, e não apenas mecânica. Aiken fez um projeto e decidiu submetê-lo a Thomas J. Watson (pai), o homem forte da IBM, que então já era uma potência no mercado de máquinas de escritório. Watson decidiu conceder-lhe algum financiamento para o projeto. Em decorrência desse fato, surgiu o que muitos chamam de o primeiro computador: o MARK I. Este, porém, era um equipamento eletro-mecânico, e não eletrônico. Funcionava à base de relés. Mas, mesmo assim, é chamado por muitos de o primeiro computador.
Nada semelhante ao MARK I havia sido visto antes. Tinha cerca de 2,5 ms de altura e 18 ms de comprimento, e era feito de aço e vidro. Foi construído com o apoio também da Marinha dos Estados Unidos, e apresentado ao mundo em 1944. O mundo estava em guerra, e Aiken teve que, durante o período de construção do MARK I, servir à Marinha, que o colocou, porém, à disposição de Harvard para levar adiante o seu projeto que era de interesse da Marinha.
Na verdade, porém, apesar do impacto causado por sua aparição, o MARK I não era muito eficiente. Valeu mais pela publicidade e atenção que gerou, e pelo fato de que fortaleceu o comprometimento da IBM com o desenvolvimento de computadores. A IBM chegou até a destinar recursos para a construção do MARK II, mas o projeto não vingou, porque outros desenvolvimentos levavam a tecnologia para uma direção diferente.
Durante a guerra, cientistas alemães também estavam envolvidos no desenvolvimento de computadores. Consta que em 1940 vários cientistas alemães fizeram um projeto e submeteram a Hitler, mostrando como o equipamento poderia ser útil, até na guerra. Hitler teria rejeitado o projeto por acreditar já ter ganho a guerra.
Durante esse mesmo período, oficiais do Exército americano procuraram Dr. JOHN W. MAUCHLY, da Universidade da Pennsylvania, em Philadelphia, e lhe solicitaram que projetasse e construísse uma máquina que calculasse, com extrema rapidez, trajetórias balísticas. Mauchly e seu aluno e assistente, J. PRESPER ECKERT, baseando-se em idéias anteriormente desenvolvidas pelo Prof. JOHN V. ATANASOFF, vieram, eventualmente, a construir o primeiro computador, eletrônico-digital: o famoso ENIAC – "Electronic Numerical Integrator and Computer" – apesar de a última palavra geralmente ser mencionada como "Calculator".
O ENIAC, apresentado em 1946, ocupava um espaço de cerca de 175 metros quadrados (1.500 pés quadrados), pesava 30 toneladas, possuía perto de 18.000 válvulas funcionando simultaneamente, tinha mais de 1.500 relés em 40 painéis da altura de um ser humano, era capaz de lidar com 300 números por segundo, de multiplicar dois números em três milisegundos (três milésimos de um segundo) e assim diminuir de 15 minutos para 30 segundos o tempo necessário para calcular a trajetória de artilharia e mísseis. Na realização de algumas operações, o ENIAC chegava a funcionar até mil vezes mais rapidamente do que o MARK I. Mas embora se tenha trabalhado nele 24 horas por dia, 30 dias por mês, durante 30 meses, o ENIAC não ficou pronto antes do final da guerra.
Também o ENIAC, porém, a julgar por padrões de hoje, não era muito eficiente. Sua rapidez de cálculos, quando comparada à dos microcomputadores de hoje, era ridícula. Uma calculadora eletrônica que hoje custa cerca de dez dólares calcula mais rapidamente do que ele (muito embora seja necessária uma calculadora programável, bem mais cara, para fazer os cálculos mais complexos para os quais o ENIAC foi destinado). Por outro lado, consumia cerca de 140.000 watts (140 kilowatts) de eletricidade, o suficiente para justificar uma pequena estação elétrica ao seu lado. Consta que quando ele era ligado as luzes de Philadelphia enfraqueciam. O calor gerado por um sistema desse tamanho colocava sérios problemas de refrigeração.
Sua capacidade de memória era ridiculamente pequena: de apenas vinte palavras de dez caracteres, ele só podia lidar com trezentas palavras de instruções. As válvulas queimavam com tal rapidez que, segundo consta, havia pessoas cuja função era exclusivamente trocar as válvulas queimadas. Não podia funcionar, nessas condições, por muito tempo em seguida. Um crítico do projeto chegou a 18.000 válvulas, e sendo a vida útil de uma válvula em média 3.000 horas, depois de um certo tempo haveria uma válvula queimada a cerca de 15 minutos; como se levaria por volta de pelo menos 15 minutos para localizar e trocar a válvula queimada, o ENIAC teria que ficar parado a maior parte do tempo, não sendo de nenhuma utilidade!
O pior de tudo, porém, era a inflexibilidade do ENIAC. Esse computador não permitia a utilização de linguagens de programação, como hoje as conhecemos, e, portanto, não usava programas, no sentido que o termo tem atualmente. Ele armazenava dados, mas, para que executasse alguma tarefa, as instruções a serem seguidas tinham que ser implementadas manualmente, no equipamento, alterando-se as ligações elétricas, mudando-se a disposição dos fios e dos relés, reconfigurando-se, enfim, a máquina, propriamente dita – o hardware, como veio a ser chamado. Cerca de seis mil interruptores tinham que ser redefinidos – tarefa que às vezes levava de um a dois dias – para passar de um "programa" que fazia cálculos estatísticos para um que fizesse contabilidade. A noção de uma máquina controlada por programa, no sentido atual do termo, por software, e, portanto, por algo não rígido, mas "soft", que não era equipamento, que não era fio ou relé ou interruptor, mas que ficava armazenado dentro do próprio equipamento, não tinha ainda emergido. Foi tarefa do grande matemático, Dr. JOHN VON NEUMANN, introduzir essa inovação no desenvolvimento dos computadores.
Em 1945 um dos membros do projeto de construção do ENIAC, o capitão do exército americano HERMAN H. GOLDSTINE, encontrou-se com o Dr. von Neumann, que estava trabalhando em projetos secretos de desenvolvimento de armas nucleares. Como ambos estavam envolvidos em projetos de alta segurança, podiam discutir seus projetos entre si, e cada um deles percebeu que o projeto em que o outro estava trabalhando poderia ser utilidade para o seu próprio.
Quando o Exército anunciou que receberia projetos visando a construção de um computador mais poderoso o ENIAC, von Neumann propôs a construção do EDVAC – "Electronic Discrete Variable Automatic Computer". A novidade desse equipamento é que utilizaria vários programas, que ficariam armazenados juntamente com os dados, na memória, o que tornava possível sua execução à medida em que fossem necessários. A máquina, portanto, seria muito mais flexível do que o ENIAC, porque todas as instruções para seu funcionamento poderiam estar armazenadas dentro dela mesma. A memória do computador seria, dessa forma, usada não só para armazenar dados, mas também para armazenar as próprias instruções que o computador deveria obedecer. Assim, ao invés de ser necessário alterar, manualmente, fios, relés, interruptores, etc., cada vez que se desejasse que a máquina executasse uma tarefa diferente, a máquina, em frações de segundo, "leria" instruções armazenadas em sua memória, as quais a instruiriam a fazer algo diferente.
A partir desse momento, o computador passou a ser uma máquina altamente flexível, além de rápida, pois não havia mais limite para as múltiplas tarefas que poderia vir a executar. Ele se tornou capaz de alterar seus próprios padrões de operação, sem precisar esperar que seus interruptores e relés fossem alterados manualmente. Podia, assim, passar de um problema para outro, ou de uma fase para outra dentro de uma mesma tarefa, sem intervenção externa. Podia, inclusive, alterar a seqüência de instruções a serem executadas, dependendo dos resultados do próprio processamento.
Nesse momento o computador passou a ser um sistema integrado de hardware e software – de equipamentos e programas. O hardware, a parte sólida, "dura", "hard": o equipamento propriamente dito, com seus componentes físicos, eletromecânicos e eletrônicos; o software a parte não sólida, mais intangível, que, por oposição, foi chamada de "macia", "soft": o programa, a lógica.
Tanto o ENIAC como o EDVAC foram desenvolvidos a mando de instituições militares, e com seu apoio financeiro. Não eram produtos comerciais. O primeiro computador produzido em escala comercial foi o UNIVAC – "Universal Automatic Computer". A data em que o primeiro UNIVAC foi entregue a um cliente foi 14 de Junho de 1951, e o cliente foi o Serviço de Recenseamento dos Estados Unidos (U.S. Bureau of the Census), que já havia fornecido a motivação para a construção da máquina de Herman Hollerith. Além de ser o primeiro computador comercializado, o UNIVAC foi o primeiro computador desenvolvido basicamente para processamento de dados caracteristicamente comerciais, e não para uso militar, científico, ou de engenharia. O UNIVAC foi construído por Mauchly e Eckert, que, em 1947, formaram sua própria empresa (que mais tarde veio a ser vendida à Remington-Rand).
O ano de 1951 representa, portanto, o início da fabricação de comercialização de computadores. Esses primeiros computadores ficaram sendo conhecidos como equipamentos de PRIMEIRA GERAÇÃO. Neles, VÁLVULAS eram utilizadas como os componentes eletrônicos básicos. Não resta dúvida, em retrospectiva, que as válvulas apresentavam sérias deficiências como componentes de computadores. Eram necessárias milhares delas, geravam calor excessivo, causando sérios problemas de temperatura, queimavam com razoável facilidade – deixando os operadores sem saber se o problema estava no equipamento ou no programa.
Para tornar as coisas ainda mais difíceis, durante essa primeira geração, toda a programação, nessa época, tinha que ser feita usando linguagem de máquina, que utiliza números ao invés de instruções mais próximas de nossas linguagens naturais. Esse fato tornava a tarefa de programação extremamente tediosa e demorada, e dominada apenas por um pequeno número de iniciados nos mistérios da arte.
Havia, pois, durante a primeira geração, sérios problemas, tanto no lado do hardware como no software.
Na verdade, apesar de o UNIVAC ter sido construído primariamente para processamento de dados comerciais, e não para cálculos militares, científicos, ou de engenharia, os computadores dessa geração ainda foram usados basicamente para aplicações científicas e tecnológicas, e não tanto em aplicações de processamento de dados comerciais. De fato, por causa de seu enorme tamanho, de seu alto custo, e mesmo de sua falta de confiabilidade, muitos acreditavam, nesse período que os computadores ficariam restritos a universidades e institutos de pesquisa, como instrumento caros e especializados, que nunca viriam a alcançar utilização generalizada.
Essa primeira geração de computadores cobre, em linhas gerais, o período que vai do surgimento do UNIVAC, em 1951, até por volta de 1958.
Mas por essa época um elemento que iria revolucionar a indústria eletrônica estava sendo inventado: o TRANSISTOR. Três cientistas dos Laboratórios BELL, J. BARDEEN, H. W. BRATTAIN, e W. SCHOCKLEY (que, incidentalmente, vieram a receber um Prêmio Nobel pelo seu trabalho) inventaram um pequeno tipo de circuito elétrico, que não só permitiu que os computadores viessem a diminuir de tamanho – o tamanho dos primeiros transistores era mais ou menos um centésimo do tamanho de uma válvula – mas trouxe inúmeras outras vantagens: o transistor não precisava de tempo para se aquecer, consumia menos energia, era mais rápido e mais confiável.
A utilização de transistores como componentes eletrônicos básicos dos computadores caracteriza a SEGUNDA GERAÇÃO dos computadores. Este período vai de cerca de 1959 até por volta de 1965.
Durante esse período várias outras inovações foram introduzidas nos computadores. Surgiram nesta época as primeiras linguagens "Assembly" e também as primeiras linguagens de alto nível, permitindo que a programação fosse feita de maneira mais rápida e mais eficiente – não sendo mais necessário utilizar somente linguagem de máquina. FORTRAN, na verdade, já havia sido inventada em meados da década de cinqüenta, e se tornou popular entre cientistas, matemáticos e engenheiros. COBOL foi introduzida em 1959, tonando-se linguagem por excelência da programação comercial. Discos magnéticos, por sua vez, foram introduzidos em 1962, acrescentando uma nova e importantíssima dimensão à questão do armazenamento externo de dados.
Todas essas inovações fizeram com que o computador se tornasse mais acessível, em termos de preço, ficando, assim, mais atraente fora do ambiente das universidades e dos laboratórios de pesquisa. Em 1960 a Bethlehem Steel tornou-se a primeira corporação a usar o computador em tempo real ("ao vivo", como se fosse), para processar pedidos, fazer inventário, e controlar a produção. Em 1963 o Daily Oklahoman e o Oklahoman City Times se tornaram os primeiros jornais a utilizar o computador para preparar a impressão ("set type") de seus editoriais, de suas notícias, e de seus classificados. Em 1964 a American Airlines começou a fazer suas reservas em tempo real.
Apesar de tudo isso, o computador ainda foi usado, durante esse período, principalmente por universidades, organizações governamentais, e grandes corporações. Seu uso mais generalizado ainda estava reservado para o futuro – a revolução, propriamente dita, não havia se iniciado.
Foi o CIRCUITO INTEGRADO que introduziu a TERCEIRA GERAÇÃO de computadores – geração essa que, iniciada em 1965, de certo modo ainda continua até hoje. Um circuito integrado é um circuito eletrônico completo que é colocado numa pequena pastilha de silício de cerca de um centímetro quadrado. Esta pastilha contém centenas, e mesmo milhares de componentes eletrônicos. Um circuito integrado é capaz de substituir uma placa cheia de transistores – e é menor do que qualquer um dos transistores, individualmente.
O circuito integrado é feito de silício, que é uma substância não metálica encontrada em abundância na crosta terrestre (tanto na areia, como nas rochas e na terra ou argila). O silício é usado porque é semicondutor: é uma substância cristalina que, quando purificada de impurezas, conduz uma corrente elétrica. Um cilindro de silício é cortado em fatias ("bolachas") muito finas, que têm cerca de oito centímetros de diâmetro, e cada bolacha é dividida em pequenas pastilhas – os famosos "chips" de cerca de um centímetro quadrado. Olhando-se ao microscópio, uma pastilha parece um emaranhado de linhas e fios, que constituem um circuito completo, mas é tão poderosa que pode armazenar dez mil palavras – basicamente o tamanho de um jornal diário de certa dimensão!
A invenção e a produção de circuitos integrados envolveram processos complicados e caros, que se desenvolveram, de início, dentro das indústrias de eletrônica então existentes, e acabaram por gerar quase que um novo tipo de indústria. W. Shockley, um dos inventores do transistor, fundou, em 1955, na cidade em que morava, Palo Alto, Estado da California, nos Estados Unidos, a Shockley Semiconductor, que empregou as mais competentes pessoas que trabalhavam no assunto, naquela época. Engenheiros saídos da firma de Shockley vieram a fundar a Fairchild Semiconductor, não muito longe dali. Outras firmas foram surgindo rapidamente, e, em pouco tempo, a região compreendida entre Palo Alto (que é onde fica também a famosa Stanford University) e San Francisco ficou sendo conhecida como o Vale do Silício – "Silicon Valley".
Os circuitos integrados entraram no mercado em 1959, em lançamentos quase simultâneos da Texas Instruments e da Fairchild Semiconductor. A partir de 1965 começaram a substituir os transistores nos computadores, dando início a essa terceira geração.
Essa substituição se deu porque os circuitos integrados tinham várias características invejáveis, em relação aos transistores que substituíam. A primeira era confiabilidade: podiam ser utilizados por milhares de horas sem falha. As válvulas, características da primeira geração de computadores, falhavam com incrível freqüência, e os transistores, que caracterizavam a segunda geração, embora falhando bem menos do que as válvulas, ainda falhavam bem mais do que os circuitos integrados. A confiabilidade dos circuitos integrados se deve, em parte, ao fato de que não têm partes móveis, embora o controle de qualidade das firmas produtoras, que às vezes rejeita mais de cinqüenta por cento das pastilhas produzidas, também explique a confiabilidade daquelas que passam pelo teste.
Uma segunda característica atraente dos circuitos integrados era seu tamanho, seu caráter compacto, que permitia redução ainda maior no tamanho do equipamento. Isso também fez com que o equipamento funcionasse com maior rapidez, visto que os seus componentes estavam mais próximos uns dos outros, reduzindo a distância que a eletricidade tinha que percorrer.
Uma terceira característica dos circuitos integrados era o seu baixo custo. Técnicas de produção em massa dessas pastilhas permitiram que elas viessem a ser produzidas a custos realmente baixos.
Por fim, uma quarta característica atraente era o baixo consumo de energia elétrica – que também se explica pela miniaturização dos componentes.
O circuito integrado de 1965 tornou-se o circuito integrado em larga escala (LSI – "large-scale integration") em 1970 e o circuito integrado em muito larga escala (VLSI – "very large scale integration") em 1975. Alguns consideram o surgimento de pastilhas de VLSI o início da QUARTA GERAÇÃO de computadores – embora outros considerem esses desenvolvimentos apenas uma evolução natural dos circuitos integrados, achando, assim, que estamos ainda dentro da terceira geração. De qualquer maneira, o surgimento de pastilhas de VLSI permitiu a miniaturização dos computadores (e de outros equipamentos eletrônicos). Os computadores de hoje são mais de cem vezes menores do que os da primeira geração, e uma só pastilha, hoje, é mais poderosa do que o ENIAC inteiro. Para se ter uma idéia, uma pastilha dessas de um centímetro quadrado pode fazer mais de um milhão de cálculos por segundo. O ENIAC , você se lembra, podia lidar com apenas trezentos números por segundo.
O início da terceira geração foi marcado pelos computadores da série 360 da IBM, anunciados em Abril de 1964. O sistema 360 era destinado a aplicações tanto científicas como comerciais, e era bastante flexível, para aquela época.
Houve grande desenvolvimento de software durante este período, fato que permitiu que um só computador executasse vários programas virtualmente ao mesmo tempo, compartilhando assim os recursos do computador e aumentando sua eficiência. Houve também o desenvolvimento de sistemas interativos, que permitiam que o usuário fosse colocado, através de um terminal, em direto contato com o computador. Esse fato permitiu o aparecimento de uma série de serviços a clientes, executados na hora, como reservas, atendimento bancário rápido etc.
O mais importante desenvolvimento desse período, porém, foi o aparecimento de microprocessadores – às vezes chamados de computadores de uma pastilha só. Milhares de componentes eletrônicos microscópicos são juntados em uma só pastilha de modo a formar uma UCP – Unidade Central de Processamento. O que é a UCP será explicado em detalhe no Capítulo III. Aqui apenas daremos um breve histórico de como surgiram esses microprocessadores.
Por volta de 1969, uma companhia fabricante de semicondutores do Vale do Silício, a Intel Development Corporation, que tinha sido fundada havia poucos meses, por engenheiros saídos da Fairchild Semiconductor, foi encarregada, por uma firma japonesa de calculadoras, a ETI, de desenvolver alguns circuitos integrados (chips) para uma nova linha de calculadoras. O trabalho foi comissionado a um engenheiro chamado MARCIAN "TED" HOFF.
Depois de receber as especificações dos japoneses, Hoff concluiu que o chip que eles desejavam custaria quase o mesmo que um minicomputador da época, e seria quase que igualmente complexo. Minicomputadores, naqueles tempos, estavam se tornando relativamente baratos, e Hoff conhecia bem o PDP-8, fabricado pela Digital Equipment Corporation (DEC), que era, talvez, o menor e o mais barato deles. A organização interna desse minicomputador era bastante simples. Hoff percebeu que algo semelhante a um PDP-8 faria tudo o que os japoneses desejavam, e muito mais – com um custo não muito maior!
Para Hoff, construir um chip dedicado a fazer uma coisa só, como o de uma calculadora, quando a construção de um chip programável para fazer diferentes coisas era possível, sem muito mais trabalho, e basicamente pelo mesmo custo, seria um desperdício. Por isso, acabou por propor aos japoneses uma revisão no desenho. Estes não aceitaram.
Frustrado, Hoff foi ao presidente da Intel, Robert Noyce, que havia ajudado a inventar o circuito integrado. Noyce não só o estimulou a continuar, como colocou STAN MAZER, que também havia saído da Fairchild, a trabalhar junto com ele no projeto.
O que Hoff queria fazer era, basicamente, um chip programável, que armazenasse, em sua própria memória, instruções que pudesse ler e seguir. Isso permitiria que o chip executasse programas. O termo que foi usado para designar esse chip foi "microprocessador".
Hoff e Mazer completaram o projeto ou "design", mas este precisava ainda ser transformado em um molde bidimensional de linhas que pudesse ser gravadas em silício. Isto foi feito por FEDERICO FAGGIN, também egresso da Fairchild.
Pronto o projeto, ele foi novamente apresentado aos japoneses, que, dessa vez, o aceitaram e firmaram com a Intel um contrato de exclusividade para o chip. Este ficou sendo conhecido pelo código 4004.
Eventualmente, o contrato com os japoneses foi renegociado, sem a cláusula de exclusividade. Do 4004 surgiu, dois anos mais tarde, um novo chip, o 8008, que era um microprocessador que já conseguia processar oito dígitos binários (oito bits) de cada vez – que é o número de dígitos binários necessários para processar um caractere alfabético de uma só vez.
No final de 1971, a Intel pela primeira vez anunciou ao público em geral, na revista Electronic News, a existência de seu produto. O anúncio se referia a "um computador microprogramável de uma pastilha só".
Com a comercialização do produto, a Intel teve que desenvolver sua documentação. Foi contratado para escrever os manuais um engenheiro chamado ADAM OSBORNE – o mesmo que, anos depois, criou a firma que produziu o primeiro microcomputador transportável como uma maleta.
Mas para que o produto pudesse ter maior aceitação, a Intel resolveu desenvolver software que facilitasse sua utilização. Foi contratado para essa tarefa um professor universitário , GARY KILDALL. Este se propôs a escrever um sistema operacional para o microprocessador. O resultado acabou sendo CP/M – "Control Program for Microprocessors", ou Programa Controlador para Microprocessadores, que é, ainda hoje, o sistema operacional mais utilizado em microprocessadores. Não interessada na produção comercial de software, a Intel não apresentou objeções quando Kildall solicitou autorização para comercializar, ele próprio, CP/M – e assim surgiu mais uma das famosas empresas que até hoje participam do mercado: a Digital Research Inc. (não confundir com a Digital Equipment Corporation, a fabricante de minicomputadores.
O que estava sendo comercializado pela Intel, porém, e, logo depois, em decorrência de desenvolvimento independente, também pela Texas Instruments, era o microprocessador apenas. Como veremos no capítulo terceiro, o microprocessador é o cérebro do microcomputador – mas não é, via de regra, o microcomputador inteiro. Este ainda demoraria um pouco para surgir. É verdade que "hobbyistas" muito cedo começaram a desenvolver os seus microcomputadores. Mesmo "kits" vieram a ser comercializados, que permitiam aos "hobbyistas" construir seus microcomputadores com maior facilidade. Mas quanto tempo levou para surgir o primeiro microcomputador comercial?
Está é uma história interessante. Pareceria que os candidatos naturais à produção comercial de microcomputadores seriam os fabricantes de minicomputadores. Os dois maiores, por volta de 1970/1972, eram a Digital Equipment Corporation (DEC) e a Hewlett-Packard (HP). Em ambas as companhias, projetos de fabricação de microcomputadores, e mesmo protótipos em funcionamento, foram submetidos aos executivos, e rejeitados, geralmente por se acreditar que não existia mercado para este tipo de equipamento!
No caso da DEC, a proposta foi feita por DAVID AHL, que em 1974 criou a primeira revista dedicada exclusivamente a microcomputadores, que vem circulando, há mais de dez anos, sob sua edição: CREATIVE COMPUTING. No caso da HP, por STEPHEN WOZNIAK. Wozniak ficou tão frustrado com a rejeição de seu projeto que saiu da HP e, com STEVE JOBS, fundou, numa garagem de fundo de quintal, a Apple Computers, da qual surgiu, em 1977, o microcomputador APPLE, até hoje ainda no mercado (se bem que com razoáveis alterações, em relação ao projeto original).
Simultaneamente com o APPLE, apareceram, em 1977, mais dois microcomputadores que iriam fazer história: o PET, fabricado pela Commodore Business Machines, e o TRS-80, Modelo I, da Radio Shack.
Por aí se vê que os microcomputadores apareceram, em grande parte, a partir das iniciativas de indivíduos empreendedores, no mais das vezes trabalhando fora de grandes corporações. Demorou muito para que essas corporações viessem a perceber o que esses indivíduos já haviam percebido por volta de 1972. A DEC, a HP, e a gigante IBM, só vieram a produzir microcomputadores na década de oitenta.
Mas microcomputadores não eram, nem de longe, a única aplicação possível para os microprocessadores. Estes começaram, também, muito cedo, a ser utilizados em um número enorme de outros equipamentos, desde calculadoras de bolso e relógios digitais até mísseis, aviões, etc. Foram esses microprocessadores que permitiram o aparecimento da verdadeira revolução em que falamos na primeira parte do capítulo.
E com esse desenvolvimento, chegamos novamente ao presente. Ao discutir a história do computador fomos forçados a nos referir a uma série de conceitos e noções, sem explicá-los devidamente. Isto será feito agora, nos próximos capítulos.
Em Campinas, 22 de agosto de 2006
Tecnologia, criatividade e mudanças
I – Tecnologia
Comemorou-se, no último dia 12 de agosto, o vigésimo quinto aniversário do lançamento, em 1981, do “IBM Personal Computer” – o “IBM PC”.
O computador pessoal, entretanto, está perto de fazer trinta anos, porque, embora tenha sido a primeira fabricante de computadores a adotar o nome “Personal Computer”, ou simplesmente “PC”, a IBM não foi a primeira empresa a fabricar e comercializar computadores pessoais. O computador pessoal, vendido pré-montado e pronto para usar, e não em kit a ser montado pelo comprador, surgiu no final de 1977, e três empresas disputam a honra de terem colocado no mercado o primeiro computador pessoal – designado, genericamente, de microcomputador (pré-montado e pronto para usar). Falarei sobre elas logo adiante. Antes, há um desenvolvimento importante que é preciso registrar.
Em 1975 a revista Popular Electronics, dedicada a hobbystas em eletrônica, dedicou seu artigo de capa a um microcomputador que estava sendo vendido em forma de kit a ser montado pelo usuário: o Altair, cujo kit era fabricado e distribuído por uma empresa chamada MITS, de Albuquerque, NM. Muita gente leu o artigo e encomendou o Altair (que só era vendido por correio), apesar de o microcomputador vir sem nenhum software, nem mesmo o sistema operacional, que é o software que, na perspectiva de hoje, permitiria que o equipamento, uma vez montado, executasse funções internas, interagisse com o usuário e, em última instância, rodasse outros softwares (chamados aplicativos) de interesse do usuário. Isso significa que só “hackers” (fuçadores em eletrônica) seriam capazes de conseguir fazer com que o kit da MITS fizesse alguma coisa de útil ou interessante. Mesmo assim, a demanda foi tanta que a MITS teve dificuldade para atender a ela.
Entre os computadores do kit estava Bill Gates, então um jovem aluno da Universidade de Harvard. Gates comprou o kit porque viu nele uma oportunidade de negócio: pretendia desenvolver uma versão da linguagem BASIC (Beginners’ All-Purpose Instruction Code) para o Altair, que poderia servir como o sistema operacional do microcomputador, simplificando a vida dos usuários, que, com BASIC, poderiam dar suas instruções ao equipamento em algo bastante próximo da língua inglesa. Gates convenceu seu amigo, um pouco mais velho, Paul Allen a ir para Albuquerque, NM, onde estava a MITS, e lá incorporar uma empresa, que iria comercializar o BASIC que Gates já estava desenvolvendo. Assim nascia a Microsoft, em 1975, da visão de um pós-adolescente – que, quando era bem mais novo, conseguiu convencer os donos de uma empresa que tinha um computador a deixá-lo procurar erros no software, simplesmente em troca do direito de fuçar na máquina (enquanto comia pizza e tomava Coca-Cola, diz a história, que já virou uma lenda).
Mas voltemos às três empresas que lançaram computadores pessoais no final de 1977, dois anos e pouco depois do Altair, só que, desta vez, já pré-montados e prontos para usar. São elas: Apple Computers, Commodore Business Machines, e Tandy Corporation (Radio Shack).
A) A Apple Computers, de Steve Jobs e Steve Wozniak, de novo dois jovens adolescentes, criada na garagem de um deles, em Cupertino, CA, lançou o microcomputador Apple II no último trimestre de 1977. Nunca houve um Apple I: o termo “Apple II” foi uma “sacada” de marketing para dar a impressão de que o produto era mais tecnologicamente "maduro" do que realmente era. Depois do Apple II a Apple lançou um computador pessoal enorme, e magnífico, com interface gráfica, o Lisa, que, entretanto, foi um fracasso comercial (custava mais de 10 mil dólares), e, finalmente, acertou a mão com o Macintosh, ainda popular hoje, especialmente no formato notebook, e que, na sua versão atual, é um computador totalmente diferente, do ponto de vista eletrônico (mas não tanto na interface), do original. A Apple quase quebrou com a concorrência do IBM PC e seus clones – e, em parte, quem salvou a Apple foi Bill Gates, que investiu na companhia. Mesmo assim, Wozniak saiu da companhia porque queria fazer outras coisas na vida, e Jobs foi eventualmente forçado a se demitir. Quando parecia que a Apple ia acabar no destino de tantas empresas promissoras de tecnologia, Jobs voltou, vitorioso, para salvar a pátria. Acabou lançando a incrivelmente bem sucedida linha de tocadores de música .mp3, os iPods. Eu tenho dois clones brasileiros do Apples II e um Macintosh 128 original. Gostaria muito de ter um Lisa… E tenho dois iPods, de modelos diferentes.
B) A Commodore Business Machines, empresa canadense que fazia calculadoras profissionais, também lançou, na último trimestre de 1977, o seu microcomputador, ao qual deu o nome de PET, que quer dizer “Personal Electronic Transactor”. O acrônimo “PET” joga eficazmente com a ambigüidade: “pet” em Inglês quer dizer animal de estimação. A idéia, que se transformou em realidade, foi sugerir que o microcomputador seria algo equivalente a um animalzinho de estimação. A Commodore lançou, depois do PET, o VIC-20 (tenho dois deles), o Commodore 64 (também tenho dois deles), e o Amiga (infelizmente, não tenho nenhum deles). A Commodore, que foi a primeira empresa a vender mais de 2 milhões de computadores num ano (com o Commodore 64), não agüentou a competição em meados dos anos 80 e quebrou.
C) A Radio Shack, braço comercial (com suas lojas de eletrônica onipresentes nos Estados Unidos) da Tandy Corporation, empresa com sede no Texas, lançou, na mesma época, ainda em 1977, o TRS-80, talvez o mais bem acabado dos três produtos que reinvindicam a honra de terem sido o primeiro microcomputador (“TRS” sendo acrônimo de “Tandy Radio Shack”). Tudo nele vinha numa só módulo: placa mãe, placa de vídeo, monitor, placa controladora de drive, até duas unidades de discos (5 polegadas e ¼), teclado… Tenho um clone brasileiro dele, o CP-500, da Prológica – bem mais feio do que o original, que era lindo.
Como se vê, mesmo deixando de lado a MITS e o kit do Altair, três empresas disputam a honra de terem lançado o primeiro computador pessoal, pré-montado e pronto para usar, em 1977 – quatro anos antes da IBM. Das três, uma delas, a Apple, era, como a Microsoft, uma empresa de jovens recém-saídos da adolescência. O sucesso dos produtos fabricados e comercializados por essas empresas era alimentado por um espírito juvenil – ainda que alguns dos propalados gurus do movimento fossem já de meia idade. Mesmo os gurus de meia idade, porém, tinham um espírito de “contra-cultura”, queriam conduzir uma guerra contra o “establishment” – e o establishment era a IBM, de longe a maior empresa de computadores do mundo, que chegou a controlar mais de 70% do mercado mundial de computadores (apesar de um processo “antitrust” do governo americano) e teve, em seu auge, mais de 420 mil empregados.
Quando a IBM lançou seu produto, várias outras marcas de microcomputadores, além das três já mencionadas, também disputavam o mercado, a mais conhecida delas sendo a Atari, que começou com seu extremamente popular videogame e, depois, se aventurou no mercado mais profissional e corporativo com alguns modelos de microcomputadores, nunca conseguindo convencer os usuários, porém, de que era mais do que uma bem sucedida fabricante de videogames.
Quanto à IBM, ela lançou o seu microcomputador porque alguns executivos, em clara minoria, achavam que ela não poderia ficar fora desse mercado. A maioria dos executivos achava que microcomputador era brinquedo de hacker. Assim, a IBM lançou o PC sem acreditar muito nele. Aqui estão algumas peças de evidência:
a) Todos os componentes do IBM PC original podiam ser encontrados no mercado – na Rua Santa Efigênia, em São Paulo, havia todos em 1981-1982. A IBM, que tinha toda condição de fazê-lo, não desenvolveu nenhum chip especial (o processador principal ou o processador auxiliar de vídeo), nenhuma placa de circuitos impressos especial, etc., para proteger o seu bebê contra cópias e clonagens. Usou o microprocessador fabricado pela Intel. Resultado: em pouco tempo havia inúmeros clones do PC, vendendo mais, porque mais barato, do que a IBM, que sempre se posicionou na faixa mais alta de preços do mercado, convencida (arrogantemente) de que o público iria preferir produtos com sua marca, ainda que mais caros. Errou. Desconhecia totalmente o mercado de microcomputadores, que correu para os clones mais acessíveis e forçou a IBM, para não baixar os preços dos seus microcomputadores, a lançar no mercado um produto mais barato para concorrer com os clones, o IBM PC Junior. O Junior foi um total desastre comercial.
b) A IBM não achou que o sistema operacional (como já se disse, o software que permite que o equipamento execute funções internas, interaja com o usuário e, em última instância, rode outros softwares de interesse do usuário) do IBM PC merecia tanto cuidado da parte dela. Resolveu terceirizá-lo. Procurou, inicialmente, a Digital Research, de Gary Kildall, para comprar os direitos de uso de um sistema operacional, o CPM 86, que era uma versão bastante popular do famoso sistema operacional CP/M que rodava em computadores que possuíam o "chip set" da Intel que a IBM havia escolhido para o PC. Marcaram um encontro, os executivos da IBM naturalmente compareceram, mas Kildall (fiel à imagem do empreendedor juvenil da época) não apareceu: foi voar de asa delta. Kildall esnobou a IBM, achando que ela não tinha nenhuma outra alternativa. Os sizudos executivos da IBM, entretanto, ficaram indignados com o tratamento e imediatamente descartaram a solução CPM 86. Alguém soprou em seus ouvidos que Bill Gates, cuja Microsoft já tinha seis anos (foi criada, como se viu, em 1975, em Albuquerque, NM, para comerciar o Basic que Gates havia desenvolvido, e depois se mudou para Seattle, WA), tinha um sistema operacional que poderia servir ao IBM PC. Na verdade, não tinha – mas Gates sabia onde arrumar um: conhecia alguém em Seattle que estava em estágio avançado no desenvolvimento de um sistema operacional que funcionava com unidade de discos (o que se chamava de “Disk Operating System”). Os executivos da IBM foram procurar Gates em Seattle, sua terra natal, e gostaram da sua firmeza e daquilo que Gates lhe prometeu: fornecer-lhes um sistema operacional. Fecharam negócio. Gates foi à casa do desenvolvedor e comprou o que se tornou, em pouco tempo, MS-DOS (MicroSoft Disk Operating System). Mas o ponto chave da negociação revela mais uma vez quão visionário e esperto Gates é para negócios e quão imbecis foram os negociadores da IBM: Gates vendeu à IBM o direito de comercializar o seu software sob um nome diferente (PC-DOS) nos PCs que ela fabricasse, mas garantiu pra si mesmo (para a Microsoft, naturalmente) o direito de também comercializá-lo, com o nome de Microsoft DOS, ou MS-DOS, para terceiros – isto é, para os fabricantes de clones, no atacado, ou para qualquer pessoa que quisesse adquiri-lo, no varejo. Da mesma forma que havia percebido a oportunidade gerada pelo kit da MITS, Gates anteviu, ali na hora, que o microcomputador da IBM, sendo feito com partes disponíveis no mercado, seria imediantamente clonado – e ele reservou para si o direito de fornecer o sistema operacional dos clones, como de fato o fez, tornando a Microsoft a companhia líder no mercado de software para microcomputadores e dando um passo decisivo para se tornar a gigante que é hoje. Mas ele só conseguiu isso porque ele acreditou mais no potencial do IBM PC, como tecnologia, do que a própria IBM, que, ela própria, não acreditava muito no seu produto.
c) Por muito tempo, depois de lançado e famoso o IBM PC, e de lançados e famosos os seus clones mais conhecidos, o Compaq e o Dell, a IBM ainda fazia o marketing do seu produto de modo a favorecer os computadores de grande porte que ela fabricava e comercializava. Em seu marketing o IBM PC era apresentado simplesmente como um terminal (meio inteligente, isto é, com alguma capacidade de processamento local) para acessar computadores de grande porte remotos – para fazer a chamada “PC – Mainframe Connection”. A IBM não acreditava que seu equipamento pudesse vir a ser um computador independente (stand-alone) sério – e também não acreditou no potencial corporativo de redes locais de microcomputadores (LANs), sem mainframes. A IBM quase faliu, porque não percebeu que o seu pequenino filhote iria um dia conquistar o mercado corporativo um dia dominado por seus gigantes pais e avôs. Eis o que diz o artigo do PC World que registra o jubileu de prata do IBM PC: "A previsão da empresa era comercializar cerca de 250 mil máquinas até 1986. Antes do final desse prazo, mais de um milhão de computadores pessoais já tinham sido vendidos. Nos últimos 25 anos, cerca de 1,6 bilhão de PCs foram comercializados, com 870 milhões atualmente em uso, e a receita anual do setor é estimada em US$ 200 bilhões, de acordo com a consultoria Gartner."
A propósito, era a segunda vez que a IBM errava feio em suas previsões acerca de computadores. A empresa, que nasceu em 1911, fabricava inicialmente relógios de ponto e máquinas de calcular, e, depois, máquinas de escrever e outros equipamentos de escritório (“business machines”). Logo depois do aparecimento, em Fevereiro de 1946, do primeiro computador eletrônico, o ENIAC, na Universidade da Pennsylvania, quando outras empresas (em geral de máquinas de escrever e calcular, como a Remington e a Burroughs) começaram a fabricar computadores em linha, a IBM contratou alguns consultores – que só podiam ser professores de engenharia em universidades, que são notórios em seu desconhecimento do mercado… – para fazer um estudo da viabilidade do mercado de computadores, a fim de poder decidir se entrava ou não nele. A conclusão dos consultores foi de que não valia a pena, porque, no futuro, iriam existir no máximo uns quinze computadores no mundo inteiro, todos localizados em grandes universidades de pesquisa e em entidades militares. A IBM não entrou no mercado naquele momento. Só veio a entrar alguns anos mais tarde, quando percebeu que havia jogado dinheiro fora – e, com o dinheiro, quase que também o seu futuro – com os consultores externos. Quando agiu, agiu rápida e competentemente, vindo em pouco tempo a controlar o mercado.
Essa história longa do surgimento dos microcomputadores foi contada, ainda que de forma resumida, para ilustrar o fato de que os microcomputadores surgiram, e em grande medida floresceram, numa contra-cultura extremamente criativa de jovens que queriam derrotar o establishment. Apesar de eventualmente o próprio establishment, através da IBM, ter reconhecido, ainda que sem muita convicção, que o movimento era mais sério do que parecia, durante o final dos anos setenta e a maior parte dos anos oitenta o ambiente era de guerra contra os computadores de grande porte – os “mainframes” – e, nessa guerra, era preciso persuadir o mercado de que os microcomputadores eram mais do que brinquedos e animais de estimação: eram máquinas sérias, que estavam destinadas um dia a substituir os monstrengos mainframes nos quais a IBM e suas “irmãs” investiam tão tanto…
Ainda no final dos anos oitenta a IBM estava tentando persuadir universidades como a UNICAMP a comprar (na verdade, alugar) IBMs 3090, em vez de soluções mais compatíveis com suas necessidades, como o cluster de VAXes, máquinas menores da Digital Electronics Corporation (DEC), que, também, logo se tornaram terrívelmente obsoletas, levando a DEC, tardiamente, a investir em microcomputadores profissionais, mas nem assim salvando a empresa, que foi comprada pela Compaq, que, por sua vez, foi comprada pela HP, num momento já mais próximo de nós.
Enfim, foi um incrível surto de criatividade, em geral vindo de quem não se esperava grande coisa (pós-adolescentes, representantes da contra-cultura, gente anti-establishment) que acabou produzindo a tecnologia e a indústria de microcomputadores e computadores pessoais. Esse desenvolvimento acabou operando como o motor de enormes mudanças na sociedade. Mais detalhes sobre a história dos microcomputadores no indispensável livro Fire in the Valley – o vale em questão sendo o “Vale do Silício” (Silicon Valley), região ao sul de San Francisco, na California, que gravita, de certo modo, em torno da Apple, em Cupertino, ao lado de San José.
II – Criatividade
Não tem passado despercebido a alguns estudiosos da criatividade que esta surja de forma mais generalizada e tenha seus surtos em ambientes que atraem e alimentam pessoas desejosas de mudança e que têm sua mente centrada na solução de problemas – em geral bastante práticos.
Tenho usado, em minhas palestras, a seguinte definição de tecnologia: “Tecnologia é o conjunto daquilo que o ser humano inventa para resolver problemas, tornando, assim, sua vida mais fácil ou mais agradável”. Trabalhando como parceiro e consultor da Microsoft há oito anos, não poderia deixar de enfatizar que a tecnologia não é apenas “hard”, isto é, não consiste apenas de equipamentos, instrumentos, e ferramentas tangíveis. Qualquer invenção humana, ainda que intangível, como é o caso da fala, da escrita, das linguagens em geral (inclusive as de programação), das notações (como o alfabeto, o sistema numérico, as notas e as pautas musicais), bem como dos métodos e das metodologias, das técnicas e das artes, dos procedimentos e dos algoritmos, é tecnologia. (Em relação aos microcomputadores, a visão de Gates em 1975, plenamente confirmada pela realidade, foi de que, a médio prazo, o software seria mais importante do que o hardware…)
A tecnologia, assim, é a forma que o ser humano encontra para resolver seus problemas. E a tecnologia se alimenta de criatividade e é, por sua vez, alimentada por ela. É por isso que a indústria de microcomputadores, apesar de ter surgido no estado de New Mexico, acabou se identificando com a Costa Oeste dos Estados Unidos – onde ficam Cupertino, sede da Apple, símbolo do hardware dos microcomputadores, e “capital” do Vale do Silício, e Seattle, em cuja vizinhança (originalmente em Bellevue, depois em Redmond) Bill Gates resolveu instalar definitivamente a Microsoft, símbolo do software para microcomputadores, como o seu próprio nome indica.
O Vale do Silício e a Região de Seattle se tornaram polos de criatividade, como bem mostrou Richard Florida em seu livro The Rise of the Creative Class, atraindo não só um enorme número de empresas mas, também, uma quantidade enorme de gente inteligente, motivada, e criativa. Outros polos de criatividade se desenvolveram nos Estados Unidos, ao redor da região de Boston, MA, em que fica o Masachussets Institute of Technology (MIT), ao redor da região de Austin, TX, e ao redor de outras regiões que, por uma série de razões (analisadas por Richard Florida), atraem empresas de alta tecnologia – que, por sua vez, atraem profissionais competentes e criativos. Outros países quase sempre têm os seus “Silicon Valleys”. Campinas pretende ser o Vale do Silício brasileiro.
Domenico de Masi, o sociólogo italiano, em um estudo pioneiro, procurou identificar por que é que determinadas instituições parecem atrair mais gente competente e criativa do que outras e conseguir mantê-las – e, como Richard Florida, depois, chegou a algumas conclusões interessantes. Instituições (não apenas empresas) se tornam extremamente competentes e criativas quando são abertas, horizontais, desburocratizadas, quando privilegiam quem tem competência e iniciativa e não têm medo de assumir riscos e de lidar com potenciais fracassos. Essas instituições freqüentemente estão dispostas a abrir novas perspectivas, descortinar novos horizontes, a se reinventar, a redefinir seu “core business”. Nesse processo elas contam com o combustível da diversidade, do pensamento lateral ou divergente, da multidisciplinaridade (ou mesmo da transdisciplinaridade) – e, por isso, não hesitam em contratar pessoas competentes e criativas de áreas que parecem estar além de sua “especialidade”, como marketing, artes (design, por exemplo), ciências humanas, até mesmo filosofia. As cidades ou regiões em que essas empresas florescem, e que acabam por se tornar polos de criatividade, também compartilham várias dessas características. Embora muitos dos habitantes dessas cidades ou regiões acabe se tornando milionários, tudo indica que o desafio de encontrar uma solução criativa para um problema importante é, para eles, uma motivação maior do que o próprio dinheiro.
III – Mudanças
Toda vez que, através de algum tipo de tecnologia, encontramos uma solução para um problema, que torna a nossa vida mais simples ou mais agradável, a tendência é não guardar essa solução apenas para nós, mas, ao contrário, procurar fazer com que seja amplamente adotada – gerando, assim, para nós, um retorno (em termos de reconhecimento ou, mais freqüentemente, também financeiro). É por isso que novas tecnologias, em geral identificadas, em seu nascedouro, com ambientes criativos, se tornam potentes alavancas de mudanças.
Mudanças, por sua vez, estimulam mais mudanças. O aparecimento do microcomputador, por exemplo, que tornou possível colocar nas mãos de quase qualquer pessoa, a um preço acessível, uma enorme capacidade de processamento, mudou, inicialmente, o mundo dos negócios envolvidos com computadores, para, logo em seguida, mudar o mundo dos negócios em geral, permitindo não só o chamado e-business, mas também, e mais importante, a invenção de novos negócios ou a reinvenção de alguns já tradicionais, como os jornais eletrônicos (que pegaram muitas empresas jornalísticas no contrapé, tornando difícil a sua redefinição em empresas de mídia) e a venda de livros, para citar apenas dois exemplos. Quando a Amazon surgiu, muita gente duvidou que pudesse se tornar lucrativa. Não só se tornou como expandiu o seu negócio incrivelmente, vendendo online, hoje, não só livros, CDs e DVDs como também produtos para bebês e uma enormidade de outras coisas. As mudanças no mundo dos negócios em geral por sua vez influenciou mudanças em várias outras áreas: cultura, política, a vida pessoal e cotidiana, etc. Só para dar um exemplo dessa última (a área da vida pessoal e cotidiana), nós hoje acedemos a informações de forma diferente daquela que fazíamos há 25 anos, nos comunicamos uns com os outros de forma diferente, fazemos compras de forma diferente, trabalhamos de forma diferente, nos divertimos de forma diferente, fazemos amigos e, de vez em quando, até mesmo encontramos romance de forma diferente.
Todas essas mudanças, por sua vez, estão pressionando fortemente a mudança das nossas formas de aprender, em especial em ambientes formais, como a escola. E, é de crer, se a escola oportunamente mudar, isso gerará mais uma potente onda de mudanças no resto da sociedade, uma mudança alimentando a outra.
É por isso que, como bem anteviu Alvin Toffler em vários de seus livros, a começar com Future Shock, publicado em 1970, a nova era, cujo nascimento alguns colocam nos anos 50, mas que eu prefiro colocar no final da Segunda Guerra, com o surgimento do ENIAC, é caracterizada por mudanças: em quantidade nunca antes vista, em velocidade e ritmo de aceleração nunca antes vistos, em intensidade inédita, de modo a afetar todas as dimensões da vida, tanto pública como privada (e até mesmo pessoal e íntima).
Com essas mudanças, a estabilidade que caracteriza a sociedade tradicional desapareceu e, com ela, as soluções prontas para os problemas. Os novos problemas que essa nova era coloca estão a exigir, cada vez mais, soluções radicalmente novas e, por conseguinte, criativas, inovadoras. Não é, portanto, por acaso que nossa era, que é chamada de Sociedade da Informação e Economia do Conhecimento, é descrita também como a era em que surge, pela primeira vez na história, uma massa crítica tão grande de “criativos” que é possível afirmar que existe, na sociedade, uma Classe Criativa que a puxa para inovações cada vez mais radicais, em todas as áreas, da tecnologia às artes.
Sobre o Pacífico, 20 de agosto de 2006, às 7h42, hora de San Francisco – 11h42, hora de Salto.
