Segundo aniversário dos meus spaces

Hoje, 2 de dezembro de 2006, comemora-se o segundo aniversário dos meus spaces. Exatamente neste mês dia no ano de 2004 eu estava em Redmond, WA, EUA, com minha amiga Ana Teresa Ralston, então Gerente de Educação da Microsoft Brasil (hoje Gerente Sênior), avaliando o programa “Peer Coaching”, cujos direitos de distribuição junto à sua rede de subsidiárias a Microsoft Corporation havia adquirido alguns meses antes. Estávamos no Puget Sound Center, organizacão que desenvolveu “Peer Coaching”, ouvindo as apresentações de Les Foltos, principalmente responsável pelo seu desenvolvimento, quando a Márcia Teixeira, então Gerente Sênior de Educação da Microsoft Brasil (hoje Gerente Geral de Ensino Superior de Educação na América Latina), me perguntou se eu conhecia o (então) MSN Spaces (hoje Live Spaces). Não conhecia. Fui investigar. Achei interessante o conceito, cadastrei-me no site, criei meu primeiro space e naquele dia mesmo escrevi minhas primeiras contribuições – curtinhas. Nos dias seguintes continuei a escrever, acrescentei fotos, e o resultado está aqui.

O meu space original, “Espaço Liberal: Blog de Eduardo Chaves” gerou dois filhotes este ano. Primeiro foi o “Diário de Bordo e Album de Fotografias”, que cobriu minha peregrinação, com minha mulher, durante 52 dias, pela Europa, do fim de setembro até a segunda quinzena de novembro. Depois veio o “Chaves-PT: Blog do Município do Concelho de Chaves, Portugal”, que homenageia aquela que provavelmente foi a cidade de meus antepassados que, saindo de Portugal, foram parar no Brasil.

Ao todo, contando os três spaces, foram 240 artigos nesses dois anos. O “Espaço Liberal” teve 94 artigos publicados no primeiro ano e 68 neste, encerrado ontem. Mas incluo no segundo ano os 77 artigos do space de viagem e o único, solitário, artigo do “Chaves-PT”, perfazendo 146 artigos no segundo ano. Com um pouco mais de trabalho, poderei chegar a um artigo a cada dois dias no ano que hoje se inicia.

Os meus spaces têm sido honrados com a visita e os comentários de amigos e de desconhecidos. É incrível a visibilidade que uma ferramenta como essa proporciona.

Estou, no momento, em Kuala Lumpur, Malásia. Hoje é o encerramento de um congresso do qual vim participar como Opening Keynote Speaker. Uma grande honra para mim. Falei (no dia 30, quinta-feira) sobre “Dealing with Educational Change: The Challenge to the School” para uma platéia de cerca de 750 professores da rede pública da Malásia.

Agradeço àqueles que têm prestigiado esse aspecto do meu trabalho.

Em Kuala Lumpur, 2 de dezembro de 2006

Sociedade informatizada e história do computador

[Este material é o primeiro capítulo do meu livro Informática: Micro Revelações, publicado em 1985 pela Cartgraf Editora, de Campinas, em co-edíção com a People Computação. O texto do livro foi escrito por mim, mas vários outras pessoas participaram de sua elaboração, acrescentando material visual, ou revisando o texto. O principal dentre esses co-autores foi meu grande amigo Claudio Minetto. Resolvi transcrever o material aqui por duas razões. Primeiro, porque a matéria anterior lida com a história do computador –no caso, dos computadores pessoais. O texto a seguir amplia um pouco o foco, discutindo a história dos computadores de grande porte. Segundo, porque, por incrível coincidência, minha grande amiga Márcia Teixeira, da Microsoft, me contatou ontem pelo Windows Live Messenger para dizer que havia encontrado — lá perto de Miami onde mora atualmente — um livro que eu havia escrito, e o livro era exatamente este do qual agora tiro o material abaixo. Não revisei o material: ele se encontra como foi escrito e publicado em 1985.]


Nosso objetivo, neste primeiro capítulo, será levá-lo a:

— entender a extensão em que a nossa sociedade já está informatizada;

— compreender como a informatização da sociedade afeta os indivíduos e os grupos sociais;

— refletir sobre as mudanças sociais que ainda estão por vir em função da crescente informatização da sociedade;

— adquirir uma rápida visão histórica do desenvolvimento do computador.


1- Sociedade Informatizada

Vamos procurar fazer um simples exercício de imaginação. Quem se arriscaria a dizer, cinco anos atrás, que hoje, aqui no Brasil, nossos maiores bancos – para citar apenas um exemplo – já estariam tão avançados em direção à automação dos serviços de atendimento ao cliente? (Falamos em serviços de atendimento ao cliente porque os outros serviços já estão, em grande parte, automatizados, há um bom tempo). Teria sido possível imaginar, cinco anos atrás, que hoje você poderia verificar seu saldo bancário, à noite, por telefone, em contato direto com um computador, sem a interveniência de uma outra pessoa? Teria sido possível imaginar que seus depósitos e saques seriam registrados na hora em sua conta corrente, e que você poderia, logo em seguida, obter cópias atualizadas de seu extrato, sem precisar esperar mais do que alguns segundos? Teria sido possível imaginar que você iria ser capaz de fazer compras nas grandes lojas de departamentos e usar, como forma de pagamento, um cartão magnetizado, que faria debitar diretamente em sua conta corrente o valor da compra?

Se um de nós tivesse ouvido alguém fazendo essas previsões, cinco anos atrás, provavelmente teria imaginado tratar-se de um visionário, como tantos por aí. Ou possivelmente concordaria que isso pudesse acontecer em país mais desenvolvidos, como os Estados Unidos e o Japão, mas não no Brasil. Teria sido, naquela ocasião, muito difícil acreditar que previsões como essas pudessem se confirmar tão cedo, aqui.

No entanto, tudo isso já acontece, aqui mesmo no Brasil – e estamos apenas no começo! Mas apesar de estarmos apenas no começo, que grande distância já percorremos em tão pouco tempo! Tentemos lembrar como era o sistema bancário há não mais de vinte anos. Quando alguém ia a um banco, naquela época, para descontar um cheque, tinha que entregar o cheque no balção de atendimento, recebia um canhotozinho ou uma chapinha numerada, e precisava esperar até o caixa chamar o seu número. Mesmo que não houvesse quase ninguém à sua frente, a demora nunca era inferior a dez minutos, porque antes de o cheque ir ao caixa, ele era colocado na mesa do responsável pelas contas correntes, que conferia a assinatura, pegava o cartão de lançamento do cliente, verificava o seu saldo, lançava o valor do cheque, calculava (muitas vezes a mão) o novo saldo, e separava o cartão de lançamentos, colocando-o em uma pilha de cartões movimentados naquele dia. Este funcionário a seguir rubricava o cheque, levava-o à mesa do contador, que também o rubricava, e, só então, o encaminhava ao caixa. O Caixa dava mais uma conferida em tudo e chamava o cliente pelo seu número. É até de se admirar que tudo isso fosse às vezes feito em dez minutos. Muitas agências bancárias tinham até cadeiras para o cliente se sentar enquanto aguardava a tramitação de seu cheque! É o que dizer do fechamento do expediente? Para falar somente no problema de contas correntes (deixando cobranças, descontos, etc.; de lado), ao final do dia, o funcionário responsável por elas somava todos os saldos anteriores, todos os depósitos feitos no dia, todos os cheques sacados no dia , todos os saldos atualizados, e verificava se tudo estava "batendo" – isto é, conferindo, Caso tudo estivesse certo, iria conferir os totais de depósitos e de cheques com os totais do caixa. Se alguma coisa desse errado, era preciso procurar a diferença. Às vezes os funcionários tinham que ficar no banco até altas horas, procurando diferenças, porque tudo tinha que estar "batido" antes do início do expediente no dia seguinte!

O sistema bancário funcionava assim há até relativamente bem pouco tempo. De lá para cá, cresceu exponencialmente o número de usuários do sistema, e multiplicaram-se consideravelmente os serviços que os bancos oferecem aos seus clientes. Se você percebe a distância enorme que separa os procedimentos de uma agência bancária de vinte ou quinze anos atrás dos atualmente adotados, certamente entenderá pelo menos parte do que se quer dizer por informatização da sociedade. Isto porque, com pequenas variações, processo semelhante está acontecendo em outras áreas da sociedade.

Ou vejamos. Para que você tenha uma idéia de quanto a nossa vida está permeada pelo computador, procure fazer uma lista de todos os contatos diretos ou indiretos que você tem com o computador. Por contato indireto queremos dizer, principalmente, contato com produtos do computador. Vamos tentar iniciar a lista?

— se você trabalha, seu contra-cheque ou "hollerith" é, provavelmente, emitido por computador;

— se você é estudante, sua matrícula, seu carnê de pagamentos (caso você esteja em escola paga), seu relatório de notas, seu histórico escolar, etc.; são todos efetuados com o auxílio do computador;

— seu extrato bancário, naturalmente, é emitido por computador;

— se você tem cartões de crédito, seus extratos também são emitidos por computador,

— se você compra a crédito, por meios mais convencionais, seus carnês provavelmente são feitos por computador;

— sua notificação de imposto de renda, sua TRU, e outros impostos, são quase todos confeccionados por computador;

— suas contas de luz, de água, de telefone, etc.; também são preparadas e emitidas por computador;

— seu joguinho também na Loteria Esportiva ou na Loto não sairia se não fosse o computador (no Bicho, por exemplo, ainda sai sem computador, mas não vai durar muito…);

— se você vai a um estádio de futebol, é provável que lá haja um placar eletrônico, controlado por computador;

— o jornal e revista que você compra na banca provavelmente foram redigidos e impressos, pelo menos em parte, usando-se o computador;

— os programas de televisão a que você assiste, em sua maior parte, não poderiam ter sido feitos ou transmitidos sem o auxílio do computador;

— muitos dos comerciais que você vê na televisão são feitos utilizando-se o computador para efeitos visuais e sonoros;

— Os efeitos especiais de muitos dos filmes hoje famosos não poderiam ter sido alcançados sem o computador;

— grande parte da correspondência que você recebe foi endereçada via computador e chegou à sua casa mediante processos controlados por computador;

— o telefone que você usa não funcionaria tão eficientemente sem o controle do computador: suas chamadas locais, interurbanas, internacionais, são todas completadas e contabilizadas por computadores;

— se você vai ao médico, grande parte dos equipamentos usados por vários exames a que você se submete são computadorizados;

— a distribuição de água e de energia elétrica em sua cidade provavelmente é controlada por computador;

— se você vai viajar, suas reservas, tanto nas companhias aéreas como em hotéis, são feitas por computador;

— em um avião, como também, já nos automóveis mais recentes, o computador é responsável pelo controle e bom funcionamento de um número cada vez maior de processo;

— em aparelhos domésticos, como televisores, geladeiras, fornos de micro-ondas, etc.; microprocessadores já controlam o funcionamento de uma série de processos;

— seu relógio ou despertador digital tem um minúsculo microprocessador dentro dele, como também é o caso, naturalmente, de sua máquina de calcular eletrônica;

— vários produtos manufaturados que você adquire foram feitos com o auxílio do computador;

— e assim por diante: você pode completar o restante da lista

Não seria exagero dizer que, se, hoje, computadores deixassem de existir ou parasse de funcionar, nosso mundo e nossa sociedade entrariam em colapso, tantas são as áreas e as atividades que hoje dependem deles. Este texto, por exemplo, como muitos outros, hoje em dia, não foi redigido por uma máquina de escrever e sim por um microcomputador e uma impressora.

E, como dissemos, estamos apenas no começo. A indústria eletrônica, que é o fundamento da indústria de computadores, está ainda em sua infância quando comparada à indústria mais convencional é tradicional. É por isso que se fala, hoje em dia, em uma nova revolução industrial. Ou então, se termo "industrial" é reservado para a indústria tradicional afirma-se que estamos vivendo, em grande parte, numa sociedade pós-industrial, em função de uma revolução que está correndo, e que está nos levando da sociedade industrial clássica para a sociedade pós-industrial.

De qualquer maneira, ninguém parece negar que tenha havido ou esteja ocorrendo alguma forma de revolução – o termo usado é realmente este. Argumenta-se que a atual revolução será muito mais ampla, e muito mais rápida no que diz respeito à sua consolidação, do que a (primeira) revolução industrial.

Para que você se aperceba da dimensão e da rapidez da atual revolução, aqui vão alguns dados, que já se tornaram até bem conhecidos na literatura sobre o assunto, tantas vezes têm sido mencionados:

— Se os automóveis tivessem desenvolvido no mesmo ritmo em que os computadores evoluíram, no que diz respeito a preço, eficiência, e miniaturização, hoje seríamos capazes de comprar um Rolls-Royce por dois dólares e setenta e seis centavos, ele poderia rodar mais de um milhão e trezentos mil quilômetros com um litro de gasolina, sendo possível estacionar meia dúzia deles na cabeça de um alfinete!

— No início da década de 50, um computador que tivesse o mesmo número de elemento funcionais que o cérebro humano teria que ter o tamanho da cidade de New York e gastaria mais energia do que todo o sistema de metrô daquela cidade. Hoje esse computador existe e é do tamanho de um aparelho de televisão!

— Mesmo em países em recessão econômica, a indústria de computadores e seus periféricos, e em especial a de microcomputadores, tem crescido, em termos reais numa média de 35% ao ano.

— Nos Estados Unidos, só um fabricante de microcomputadores já doou mais de dez mil microcomputadores, em apenas um estado, a escolas de rede estadual de ensino. Outros fabricantes têm planos especiais para as escolas, dando três microcomputadores pelo preço de dois, etc. Em outros países industrializados algo semelhante está acontecendo, embora em escola menos. Aqui mesmo no Brasil já há várias escolas particulares de primeiro e segundo graus usando microcomputadores em escolas de rede oficial.

— Os vídeo-jogos, que são microcomputadores dedicados a funções específicas, estão cada vez mais populares, e cada vez mais baratos.

— Os próprios microcomputadores de uso geral estão cada vez mais baratos e acessíveis, sendo vendidos a prazo em lojas de departamentos e em outros locais, dedicados, tradicionalmente, à venda de eletrodomésticos.

E assim por diante. Parece que o mundo da ficção científica está saindo do futuro, onde sempre confortavelmente existiu, para invadir o nosso presente. Hoje em dia há arte computadorizada, música computadorizada. A abertura da maioria dos grandes programas de televisão, os próprios programas, até os comerciais, tornaram-se cenário eletrônicos onde artistas desconhecidos exibem uma arte desenvolvida com o auxílio do computador. Sintetizadores de voz permitem que os computadores falem e ajudem até os mudos a se expressarem de forma audível. Satélites tiram fotografias a milhões de quilômetros de distância e as transmitem na forma de impulsos elétricos, que, decodificados por computadores, transformam-se em imagens maravilhosas. Radares colocados em satélite tiram, da mesma forma, fotografias que nos permitem elaborar mapas cada vez mais precisos e prever com razoável exatidão as condições meteorológicas. Arquitetos e projetistas usam os recursos gráficos dos computadores para projetar prédios, peças, equipamentos e aparelhos. Sofisticados equipamentos médicos computadorizados fazem uma "varredura" ("scan") do interior das pessoas, possibilitando que várias doenças, que doutra forma passariam desapercebidas, possam ser diagnosticadas. Nas indústrias, o processo de automação vai sendo implantado, desde o setor produtivo até os setores administrativos, gerências e executivos. Estoques de supermercados, farmácias, e outros negócios, estão sendo controlados por computadores. É possível, com um apertar de botões. descobrir que produtos, ou que marcas, não estão vendendo bem e colocá-los em ofertas especiais. O governo não poderia subsistir um dia sem seus computadores. A política e a investigação criminal também dependem maciçamente dos computadores. A justiça e os cartórios estão ameaçados a se informatizar. Os semáforos das grandes cidades são controlados por computadores e se ajustam conforme o fluxo do trânsito.

Sistemas de vídeo-texto, já implantados no Brasil, como, por exemplo, em São Paulo, pela TELESP, unem dois equipamentos já controlados em muitas residências, o telefone e a televisão. Acrescentando a eles um teclado simples e barato, o vídeo-texto já viabiliza o jornal eletrônico, a lista telefônica eletrônica, o dinheiro e as transações comerciais eletrônicos, a democracia instantânea, e uma série de outras coisas. O projeto CIRANDÃO da EMBRATEL se propõe interligar milhares de residências através de microcomputadores neles instalados. Originalmente reservados a funcionários da companhia, esse projeto expandiu-se para usuários externos.

Onde vamos parar? A resposta mais realista é a de que não vamos parar. Diante desse quadro, porém, muitas pessoas ficam temerosas de que estejamos entrando, realmente, numa sociedade do tipo prevista no livro "1984", de George Orwell. A nível individual, muitos se sentem intimidados por computadores. Sentem receio de que sua privacidade venha ser invadida por eles, de que informações importantes sobre suas vidas estejam sendo armazenadas, sem seu conhecimento e sua autorização, em algum computador do governo, e possam, em algum momento, vir a ser utilizadas contra ele próprios. A nível social, teme-se que a automação de processos industriais, de escritórios, etc. possa vir a eliminar empregos, aumentando, ainda mais, alguns males sociais hoje existente.

É da natureza humana ter preocupações como essas, e algumas delas são plenamente justificativas, como, por exemplo, as relativas à invasão da privacidade, ao termo de que informações importantes passam vir a ser utilizadas para finalidades de que aquelas para as quais foram fornecidas. O problema do aumento de desemprego também é sério e deve ser encarado de frente.

Apesar dessas preocupações e desses perigos, nós todos sabemos que o relógio não vai ser voltado para trás: a sociedade em que vivemos não vai mais se "desinformatizar" – e isso por uma série de razões, nenhuma das quais, talvez essencial em si mesma, mas que, em seu conjunto, se tornam significativas. Mencionemos, brevemente, algumas dessas razões, porque elas apontam para o lado positivo da maciça introdução de computadores em nossas vidas.

Em primeiro lugar, os computadores fornecem serviços rápidos – e já nos acostumamos a serviço rápido. Você já imaginou ter que esperar dias para saber quantos os ganhadores na Loteria Esportiva ou na Loto? Para saber suas notas? Ou receber seu cheque no final do mês? Ou fazer reservas para sua viagem? Ou ter que esperar minutos ou até horas para saber seu saldo, ou para conseguir uma ligação interurbana? Já nos acostumamos à rapidez que a utilização do computador nos propicia – dificilmente vamos querer voltar aos velhos tempos.

Em segundo lugar, apesar das inúmeras estórias de erros de computador, computadores são extremamente confiáveis. A maior parte dos chamados erros de computador não passa de meros erros humanos, provocados por programadores ou operadores que fizeram o que não deveriam ter feito ou que não fizeram o que deveria ser feito. Isso não quer dizer que não haja falhas de equipamento, mas essas são muitos raras perto dos erros humanos. Por causa disso, dificilmente se voltará o relógio para trás, de modo a fazer manualmente as coisas que hoje são feitas pelo computador. Na verdade, é difícil até imaginar como é que algumas das coisas que o computador faz hoje poderiam ser feitas de outra forma!

Em terceiro lugar, os computadores e os robôs podem executar uma série de tarefas que não são perigosas, ou maçantes, e que seres humanos não gostam de executar ou até mesmo não podem executar, liberando, assim, seres humanos para tarefas menos perigosas e mais criativas. É verdade que, no processo, há que se lidar com a questão do desemprego, do reaproveitamento e treinamento dos trabalhadores cujas tarefas perigosas e rotineiras vierem a ser exercidas pelo computador. Esse é um problema que terá que ser enfrentado, mas que dificilmente fará com que se decida voltar atrás, até porque a indústria de computadores e equipamentos relacionados também cria uma série de empregos que, fôssemos nós voltar atrás, deixariam de existir, tornando o problema do desemprego, quem sabe, ainda mais sério.

Em quarto lugar, com o desenvolvimento do conhecimento científico, da tecnologia, e das comunicações, estamos sendo confrontados com um dilúvio de informações. O computador certamente tem contribuído para este dilúvio – mas será também ele que nos ajudará a lidar com essas informações, arquivando-as, classificando-as, analisando-as, e colocando-as à nossa disposição, quando necessário. Sem o auxílio do computador, essas seriam tarefas virtualmente impossíveis.

É quase certo, portanto, que o processo de informatização da sociedade é irreversível e que a cada dia aumentarão as áreas e os setores em que o computador estará sendo empregado, bem como as formas e maneiras de sua utilização. Na verdade, não há quase nenhuma área que possa ser considerada inteiramente imune ao computador.

Mas paralelamente a essa introdução maciça do computador nas várias áreas da economia e da sociedade, está ocorrendo um outro desenvolvimento, tão ou mais significativo do que esse. Este desenvolvimento tem que ver não só com a quantidade das áreas e setores informatizados, mas com a qualidade de acesso à informação. Nos últimos tempos, com a interligação cada vez maior entre a informática e as telecomunicações (interligação esta já chamada por muitos de "telemática"), e, principalmente, com o surgimento dos microcomputadores pessoais, a natureza do acesso à informação tem se alterado drasticamente. Esta alteração não é meramente quantitativa – não é apenas o caso de que mais e mais pessoas têm, hoje, acesso à informação, embora este seja o caso. A alteração é também qualitativa: a pessoa que hoje está tendo acesso à informática é a pessoa leiga, a pessoa não treinada na área – o acesso à informação está atravessando um processo de abertura, está sendo, de certa forma, democratizado. O acesso à informação está deixando de ser monopólio de uns poucos iniciados, que se trancavam em salas com ar refrigerado e se encondiam por detrás de um jargão especializado, freqüentemente inacessível, para se tornar um patrimônio da pessoa comum, não especializada na área. O microcomputador pessoa que, hoje em dia, já custa menos do que um televisor a cores, está possibilitando isso, e este fato representa um passo gigantesco na direção da informatização da sociedade. Isso porque á media em que mais e mais pessoas leigas, não especializadas, se envolvem com microcomputadores, estes vão se desmistificando, deixando de ser misteriosos e ininteligíveis, e passando a ser vistos como acessórios pessoais domésticos cada vez mais imprescindíveis. O CPD – Centro de Processamento de Dados – deixou de ser, dentro da empresa, o único detentor de informações. Estas, agora, já existem nos microcomputadores que se multiplicam pelos vários departamentos e setores. E é essa razão porque muitas pessoas de CPD têm uma certa implicância com microcomputadores, descrevendo-os, muitas vezes, como nada mais do que brinquedos de crianças: os microcomputadores estão permitindo que outros, leigos tenham acesso à informação, fazendo, assim, com que a indispensabilidade do pessoal do CPD vá diminuindo…

Voltemos, porém, ao nosso assunto principal. O Brasil, como alguns outros países, tem considerado a informática como área estratégica, que afeta inclusive a própria segurança nacional. A SEI – Secretaria Especial de Informática, que é o órgão responsável pelo setor, tem conduzido uma política de informática para a nação, que envolve, entre outras coisas, a chamada "reserva do mercado" brasileiro, na área de computadores de pequeno e médio portes (microcomputadores, minicomputadores, e os chamados "superminis") às indústrias genuinamente nacionais. Questionada por alguns setores, especialmente os ligados às empresas multinacionais, que por esta reserva, só podem atuar no país na área de equipamentos de grande porte, esta política tem tido pleno apoio do empresário nacional, da classe política, e inclusive dos usuários (embora no último caso o apoio não seja total, tendo em vista o fato de que a reserva de mercado nem sempre tem sido acompanhada de inovações tecnológicas e de preços que possam competir favoravelmente com os preços internacionais de produtos de tecnologia mais avançada).

Por outro lado, e enveredando por uma outra questão, muitos têm questionados a ênfase que se tem dado à informatização da sociedade brasileira, principalmente diante do fato de que há necessidades fundamentais de nossa população, na área de saúde e previdência, educação saneamento, etc.; que não estão sendo atendidas. Será válido, nessas circunstâncias, investir tanto em tecnologia de ponta, quando o investimento em tecnologia não tão avançada e mais barata, poderia resolver uma série de problemas fundamentais de nossa sociedade? Esta questão é séria e merece consideração. Ela nos aponta, por sua vez, para a dificuldade de definir prioridades na administração da coisa pública. Certamente há setores da sociedade brasileira, como a saúde e a educação, que são prioridades indiscutíveis. Por outro lado, os laços que nos unem (ou, às vezes, nos prendem) à comunidade internacional são de tal natureza que não podemos prescindir de modernizar nossa agricultura, nossa indústria, nosso setor de serviços, sob pena de perder a já pequena competitividade que temos no mercado internacional. Todos esses setores são importantes e até estratégicos – quanto a isso há consenso.

Entretanto, há ainda questões básicas que podem ser levantadas em relação à informatização da sociedade. Uma delas é se essa informatização contribuirá para uma maior democratização da sociedade ou se tornará um instrumento para um controle cada vez maior da população, possibilitando, assim, o surgimento de uma sociedade totalitária. A resposta a esta questão provavelmente terá que assinalar o fato de que muito dependerá da maneira em que a informatização da sociedade ocorre. Não nos esquecemos, porém, do fato de que Hitler e Stalin aconteceram em sociedades ainda não informatizadas, e de que algumas das sociedades mais informatizadas hoje também estão entre as sociedades mais democráticas de que temos conhecimento.

Essas questões são sérias e têm que ser encaradas de frente. Este capítulo introdutório não é o lugar de discutir esses problemas extensa ou profundamente. Fazemos, aqui, apenas uma breve referência a esses assuntos, porque não nos parece correto falar na informatização da sociedade sem querer mencionar essas graves questões.

Mas não poderíamos discutir o assunto sem dizer uma palavra sobre a informática e as profissões. Se você é um profissional, deve estar interessado na questão. Se é estudante, também, talvez com maior razão. No futuro, mas, em certa medida, também já no presente, dificilmente haverá uma profissão que não seja afetada pela informática. Desde o escriturário até a artista plástico, desde a enfermeira até o romancista, desde o professor primário até o executivo de vendas, todos estes profissionais verão suas profissões redefinidas e redimensionadas pela introdução do computador. Essas redefinições já estão acontecendo hoje. Professores de primeiro e segundo graus já estão procurando as universidades e as escolas de computação para se capacitar no setor – inclusive porque não querem ficar atrás de alguns de seus alunos, que até já têm microcomputadores em casa. Médicos, dentistas, engenheiros, e outros profissionais liberais, também buscam cursos intensivos que os preparem para lidar com o microcomputador. Já há, aqui mesmo no Brasil, até revistas especializadas em relacionar a informática a esses setores profissionais como informática e administração, por exemplo. Escritores, artistas, jornalistas, todos estão procurando se capacitar. Há debates, mesas redondas, painéis, sobre como a informática está afetando as profissões, tornando algumas obsoletas (como a de tipógrafo de jornal, por exemplo), redefinindo outras (como a de jornalista). Todos os setores profissionais se agitam.

Dentro de alguns anos, quem não tiver algum conhecimento do setor será provavelmente, equivalente ao semi-analfabeto de hoje: terá que se contentar com uma profissão não qualificada. O objetivo desta apostila é de fornecer a você uma introdução à área de informática – mais particularmente, da microinformática – para que você se "alfabetize" nesse setor. Parte dessa "alfabetização" envolve o conhecimento de um mínimo da história do computador – à qual, agora, nos dedicamos.


2 – Uma Pequena História do Computador

Nesta seção do capítulo procuraremos dar-lhe uma breve visão histórica do desenvolvimento do computador, para que você possa melhor apreciar a sua evolução e também perceber como essa evolução se encaixa no processo de informatização da sociedade.

O computador, porém, além de uma história, tem uma pré-história. Normalmente, quando se conta essa pré-história, menciona-se o ábaco; a máquina inventada por Pascal, em 1642, para ajudar seu pai, e que ficou sendo conhecida como a Pascalina; a máquina de calcular inventada pelo grande filósofo alemão, Leibnitz, em 1673; as máquinas de Charles Babbage, na Inglaterra, em meados do século passado; e a famosa máquina de Herman Hollerith, nos Estados Unidos, no final do século dezenove. Na verdade, com Hollerith a pré-história do computador já começa a se fundir com a sua história: em 1896 Hollerith fundou uma empresa, a Tabulating Machine Company, para vender os serviços de sua máquina aos interessados. Essa empresa uniu-se a duas outras em 1911, ficando com o nome de Computing Tabulating Recording Company, e, em 1924, veio a alterar seu nome para International Business Machines Corporation – IBM, nome que é hoje virtual sinônimo de computador.

Mas mesmo a IBM só veio a se envolver no negócio de computadores por volta de 1936, instigada por um jovem professor de matemática da Universidade de Harvard, HOWARD AIKEN. Estudando anotações deixadas por Charles Babbage, e por sua colaboradora, Ada Augusta Byron, a Condessa de Lovelace, filha do poeta inglês Lord Byron, e uma grande matemática, por muitos considerada como a primeira programadora de computadores; em cuja homenagem inclusive se "batizou" uma linguagem de programação, ADA, Aiken concluiu que uma versão moderna da máquina de Babbage poderia ser construída, mas que seria, agora, eletro-mecânica, e não apenas mecânica. Aiken fez um projeto e decidiu submetê-lo a Thomas J. Watson (pai), o homem forte da IBM, que então já era uma potência no mercado de máquinas de escritório. Watson decidiu conceder-lhe algum financiamento para o projeto. Em decorrência desse fato, surgiu o que muitos chamam de o primeiro computador: o MARK I. Este, porém, era um equipamento eletro-mecânico, e não eletrônico. Funcionava à base de relés. Mas, mesmo assim, é chamado por muitos de o primeiro computador.

Nada semelhante ao MARK I havia sido visto antes. Tinha cerca de 2,5 ms de altura e 18 ms de comprimento, e era feito de aço e vidro. Foi construído com o apoio também da Marinha dos Estados Unidos, e apresentado ao mundo em 1944. O mundo estava em guerra, e Aiken teve que, durante o período de construção do MARK I, servir à Marinha, que o colocou, porém, à disposição de Harvard para levar adiante o seu projeto que era de interesse da Marinha.

Na verdade, porém, apesar do impacto causado por sua aparição, o MARK I não era muito eficiente. Valeu mais pela publicidade e atenção que gerou, e pelo fato de que fortaleceu o comprometimento da IBM com o desenvolvimento de computadores. A IBM chegou até a destinar recursos para a construção do MARK II, mas o projeto não vingou, porque outros desenvolvimentos levavam a tecnologia para uma direção diferente.

Durante a guerra, cientistas alemães também estavam envolvidos no desenvolvimento de computadores. Consta que em 1940 vários cientistas alemães fizeram um projeto e submeteram a Hitler, mostrando como o equipamento poderia ser útil, até na guerra. Hitler teria rejeitado o projeto por acreditar já ter ganho a guerra.

Durante esse mesmo período, oficiais do Exército americano procuraram Dr. JOHN W. MAUCHLY, da Universidade da Pennsylvania, em Philadelphia, e lhe solicitaram que projetasse e construísse uma máquina que calculasse, com extrema rapidez, trajetórias balísticas. Mauchly e seu aluno e assistente, J. PRESPER ECKERT, baseando-se em idéias anteriormente desenvolvidas pelo Prof. JOHN V. ATANASOFF, vieram, eventualmente, a construir o primeiro computador, eletrônico-digital: o famoso ENIAC – "Electronic Numerical Integrator and Computer" – apesar de a última palavra geralmente ser mencionada como "Calculator".

O ENIAC, apresentado em 1946, ocupava um espaço de cerca de 175 metros quadrados (1.500 pés quadrados), pesava 30 toneladas, possuía perto de 18.000 válvulas funcionando simultaneamente, tinha mais de 1.500 relés em 40 painéis da altura de um ser humano, era capaz de lidar com 300 números por segundo, de multiplicar dois números em três milisegundos (três milésimos de um segundo) e assim diminuir de 15 minutos para 30 segundos o tempo necessário para calcular a trajetória de artilharia e mísseis. Na realização de algumas operações, o ENIAC chegava a funcionar até mil vezes mais rapidamente do que o MARK I. Mas embora se tenha trabalhado nele 24 horas por dia, 30 dias por mês, durante 30 meses, o ENIAC não ficou pronto antes do final da guerra.

Também o ENIAC, porém, a julgar por padrões de hoje, não era muito eficiente. Sua rapidez de cálculos, quando comparada à dos microcomputadores de hoje, era ridícula. Uma calculadora eletrônica que hoje custa cerca de dez dólares calcula mais rapidamente do que ele (muito embora seja necessária uma calculadora programável, bem mais cara, para fazer os cálculos mais complexos para os quais o ENIAC foi destinado). Por outro lado, consumia cerca de 140.000 watts (140 kilowatts) de eletricidade, o suficiente para justificar uma pequena estação elétrica ao seu lado. Consta que quando ele era ligado as luzes de Philadelphia enfraqueciam. O calor gerado por um sistema desse tamanho colocava sérios problemas de refrigeração.

Sua capacidade de memória era ridiculamente pequena: de apenas vinte palavras de dez caracteres, ele só podia lidar com trezentas palavras de instruções. As válvulas queimavam com tal rapidez que, segundo consta, havia pessoas cuja função era exclusivamente trocar as válvulas queimadas. Não podia funcionar, nessas condições, por muito tempo em seguida. Um crítico do projeto chegou a 18.000 válvulas, e sendo a vida útil de uma válvula em média 3.000 horas, depois de um certo tempo haveria uma válvula queimada a cerca de 15 minutos; como se levaria por volta de pelo menos 15 minutos para localizar e trocar a válvula queimada, o ENIAC teria que ficar parado a maior parte do tempo, não sendo de nenhuma utilidade!

O pior de tudo, porém, era a inflexibilidade do ENIAC. Esse computador não permitia a utilização de linguagens de programação, como hoje as conhecemos, e, portanto, não usava programas, no sentido que o termo tem atualmente. Ele armazenava dados, mas, para que executasse alguma tarefa, as instruções a serem seguidas tinham que ser implementadas manualmente, no equipamento, alterando-se as ligações elétricas, mudando-se a disposição dos fios e dos relés, reconfigurando-se, enfim, a máquina, propriamente dita – o hardware, como veio a ser chamado. Cerca de seis mil interruptores tinham que ser redefinidos – tarefa que às vezes levava de um a dois dias – para passar de um "programa" que fazia cálculos estatísticos para um que fizesse contabilidade. A noção de uma máquina controlada por programa, no sentido atual do termo, por software, e, portanto, por algo não rígido, mas "soft", que não era equipamento, que não era fio ou relé ou interruptor, mas que ficava armazenado dentro do próprio equipamento, não tinha ainda emergido. Foi tarefa do grande matemático, Dr. JOHN VON NEUMANN, introduzir essa inovação no desenvolvimento dos computadores.

Em 1945 um dos membros do projeto de construção do ENIAC, o capitão do exército americano HERMAN H. GOLDSTINE, encontrou-se com o Dr. von Neumann, que estava trabalhando em projetos secretos de desenvolvimento de armas nucleares. Como ambos estavam envolvidos em projetos de alta segurança, podiam discutir seus projetos entre si, e cada um deles percebeu que o projeto em que o outro estava trabalhando poderia ser utilidade para o seu próprio.

Quando o Exército anunciou que receberia projetos visando a construção de um computador mais poderoso o ENIAC, von Neumann propôs a construção do EDVAC – "Electronic Discrete Variable Automatic Computer". A novidade desse equipamento é que utilizaria vários programas, que ficariam armazenados juntamente com os dados, na memória, o que tornava possível sua execução à medida em que fossem necessários. A máquina, portanto, seria muito mais flexível do que o ENIAC, porque todas as instruções para seu funcionamento poderiam estar armazenadas dentro dela mesma. A memória do computador seria, dessa forma, usada não só para armazenar dados, mas também para armazenar as próprias instruções que o computador deveria obedecer. Assim, ao invés de ser necessário alterar, manualmente, fios, relés, interruptores, etc., cada vez que se desejasse que a máquina executasse uma tarefa diferente, a máquina, em frações de segundo, "leria" instruções armazenadas em sua memória, as quais a instruiriam a fazer algo diferente.

A partir desse momento, o computador passou a ser uma máquina altamente flexível, além de rápida, pois não havia mais limite para as múltiplas tarefas que poderia vir a executar. Ele se tornou capaz de alterar seus próprios padrões de operação, sem precisar esperar que seus interruptores e relés fossem alterados manualmente. Podia, assim, passar de um problema para outro, ou de uma fase para outra dentro de uma mesma tarefa, sem intervenção externa. Podia, inclusive, alterar a seqüência de instruções a serem executadas, dependendo dos resultados do próprio processamento.

Nesse momento o computador passou a ser um sistema integrado de hardware e software – de equipamentos e programas. O hardware, a parte sólida, "dura", "hard": o equipamento propriamente dito, com seus componentes físicos, eletromecânicos e eletrônicos; o software a parte não sólida, mais intangível, que, por oposição, foi chamada de "macia", "soft": o programa, a lógica.

Tanto o ENIAC como o EDVAC foram desenvolvidos a mando de instituições militares, e com seu apoio financeiro. Não eram produtos comerciais. O primeiro computador produzido em escala comercial foi o UNIVAC – "Universal Automatic Computer". A data em que o primeiro UNIVAC foi entregue a um cliente foi 14 de Junho de 1951, e o cliente foi o Serviço de Recenseamento dos Estados Unidos (U.S. Bureau of the Census), que já havia fornecido a motivação para a construção da máquina de Herman Hollerith. Além de ser o primeiro computador comercializado, o UNIVAC foi o primeiro computador desenvolvido basicamente para processamento de dados caracteristicamente comerciais, e não para uso militar, científico, ou de engenharia. O UNIVAC foi construído por Mauchly e Eckert, que, em 1947, formaram sua própria empresa (que mais tarde veio a ser vendida à Remington-Rand).

O ano de 1951 representa, portanto, o início da fabricação de comercialização de computadores. Esses primeiros computadores ficaram sendo conhecidos como equipamentos de PRIMEIRA GERAÇÃO. Neles, VÁLVULAS eram utilizadas como os componentes eletrônicos básicos. Não resta dúvida, em retrospectiva, que as válvulas apresentavam sérias deficiências como componentes de computadores. Eram necessárias milhares delas, geravam calor excessivo, causando sérios problemas de temperatura, queimavam com razoável facilidade – deixando os operadores sem saber se o problema estava no equipamento ou no programa.

Para tornar as coisas ainda mais difíceis, durante essa primeira geração, toda a programação, nessa época, tinha que ser feita usando linguagem de máquina, que utiliza números ao invés de instruções mais próximas de nossas linguagens naturais. Esse fato tornava a tarefa de programação extremamente tediosa e demorada, e dominada apenas por um pequeno número de iniciados nos mistérios da arte.

Havia, pois, durante a primeira geração, sérios problemas, tanto no lado do hardware como no software.

Na verdade, apesar de o UNIVAC ter sido construído primariamente para processamento de dados comerciais, e não para cálculos militares, científicos, ou de engenharia, os computadores dessa geração ainda foram usados basicamente para aplicações científicas e tecnológicas, e não tanto em aplicações de processamento de dados comerciais. De fato, por causa de seu enorme tamanho, de seu alto custo, e mesmo de sua falta de confiabilidade, muitos acreditavam, nesse período que os computadores ficariam restritos a universidades e institutos de pesquisa, como instrumento caros e especializados, que nunca viriam a alcançar utilização generalizada.

Essa primeira geração de computadores cobre, em linhas gerais, o período que vai do surgimento do UNIVAC, em 1951, até por volta de 1958.

Mas por essa época um elemento que iria revolucionar a indústria eletrônica estava sendo inventado: o TRANSISTOR. Três cientistas dos Laboratórios BELL, J. BARDEEN, H. W. BRATTAIN, e W. SCHOCKLEY (que, incidentalmente, vieram a receber um Prêmio Nobel pelo seu trabalho) inventaram um pequeno tipo de circuito elétrico, que não só permitiu que os computadores viessem a diminuir de tamanho – o tamanho dos primeiros transistores era mais ou menos um centésimo do tamanho de uma válvula – mas trouxe inúmeras outras vantagens: o transistor não precisava de tempo para se aquecer, consumia menos energia, era mais rápido e mais confiável.

A utilização de transistores como componentes eletrônicos básicos dos computadores caracteriza a SEGUNDA GERAÇÃO dos computadores. Este período vai de cerca de 1959 até por volta de 1965.

Durante esse período várias outras inovações foram introduzidas nos computadores. Surgiram nesta época as primeiras linguagens "Assembly" e também as primeiras linguagens de alto nível, permitindo que a programação fosse feita de maneira mais rápida e mais eficiente – não sendo mais necessário utilizar somente linguagem de máquina. FORTRAN, na verdade, já havia sido inventada em meados da década de cinqüenta, e se tornou popular entre cientistas, matemáticos e engenheiros. COBOL foi introduzida em 1959, tonando-se linguagem por excelência da programação comercial. Discos magnéticos, por sua vez, foram introduzidos em 1962, acrescentando uma nova e importantíssima dimensão à questão do armazenamento externo de dados.

Todas essas inovações fizeram com que o computador se tornasse mais acessível, em termos de preço, ficando, assim, mais atraente fora do ambiente das universidades e dos laboratórios de pesquisa. Em 1960 a Bethlehem Steel tornou-se a primeira corporação a usar o computador em tempo real ("ao vivo", como se fosse), para processar pedidos, fazer inventário, e controlar a produção. Em 1963 o Daily Oklahoman e o Oklahoman City Times se tornaram os primeiros jornais a utilizar o computador para preparar a impressão ("set type") de seus editoriais, de suas notícias, e de seus classificados. Em 1964 a American Airlines começou a fazer suas reservas em tempo real.

Apesar de tudo isso, o computador ainda foi usado, durante esse período, principalmente por universidades, organizações governamentais, e grandes corporações. Seu uso mais generalizado ainda estava reservado para o futuro – a revolução, propriamente dita, não havia se iniciado.

Foi o CIRCUITO INTEGRADO que introduziu a TERCEIRA GERAÇÃO de computadores – geração essa que, iniciada em 1965, de certo modo ainda continua até hoje. Um circuito integrado é um circuito eletrônico completo que é colocado numa pequena pastilha de silício de cerca de um centímetro quadrado. Esta pastilha contém centenas, e mesmo milhares de componentes eletrônicos. Um circuito integrado é capaz de substituir uma placa cheia de transistores – e é menor do que qualquer um dos transistores, individualmente.

O circuito integrado é feito de silício, que é uma substância não metálica encontrada em abundância na crosta terrestre (tanto na areia, como nas rochas e na terra ou argila). O silício é usado porque é semicondutor: é uma substância cristalina que, quando purificada de impurezas, conduz uma corrente elétrica. Um cilindro de silício é cortado em fatias ("bolachas") muito finas, que têm cerca de oito centímetros de diâmetro, e cada bolacha é dividida em pequenas pastilhas – os famosos "chips" de cerca de um centímetro quadrado. Olhando-se ao microscópio, uma pastilha parece um emaranhado de linhas e fios, que constituem um circuito completo, mas é tão poderosa que pode armazenar dez mil palavras – basicamente o tamanho de um jornal diário de certa dimensão!

A invenção e a produção de circuitos integrados envolveram processos complicados e caros, que se desenvolveram, de início, dentro das indústrias de eletrônica então existentes, e acabaram por gerar quase que um novo tipo de indústria. W. Shockley, um dos inventores do transistor, fundou, em 1955, na cidade em que morava, Palo Alto, Estado da California, nos Estados Unidos, a Shockley Semiconductor, que empregou as mais competentes pessoas que trabalhavam no assunto, naquela época. Engenheiros saídos da firma de Shockley vieram a fundar a Fairchild Semiconductor, não muito longe dali. Outras firmas foram surgindo rapidamente, e, em pouco tempo, a região compreendida entre Palo Alto (que é onde fica também a famosa Stanford University) e San Francisco ficou sendo conhecida como o Vale do Silício – "Silicon Valley".

Os circuitos integrados entraram no mercado em 1959, em lançamentos quase simultâneos da Texas Instruments e da Fairchild Semiconductor. A partir de 1965 começaram a substituir os transistores nos computadores, dando início a essa terceira geração.

Essa substituição se deu porque os circuitos integrados tinham várias características invejáveis, em relação aos transistores que substituíam. A primeira era confiabilidade: podiam ser utilizados por milhares de horas sem falha. As válvulas, características da primeira geração de computadores, falhavam com incrível freqüência, e os transistores, que caracterizavam a segunda geração, embora falhando bem menos do que as válvulas, ainda falhavam bem mais do que os circuitos integrados. A confiabilidade dos circuitos integrados se deve, em parte, ao fato de que não têm partes móveis, embora o controle de qualidade das firmas produtoras, que às vezes rejeita mais de cinqüenta por cento das pastilhas produzidas, também explique a confiabilidade daquelas que passam pelo teste.

Uma segunda característica atraente dos circuitos integrados era seu tamanho, seu caráter compacto, que permitia redução ainda maior no tamanho do equipamento. Isso também fez com que o equipamento funcionasse com maior rapidez, visto que os seus componentes estavam mais próximos uns dos outros, reduzindo a distância que a eletricidade tinha que percorrer.

Uma terceira característica dos circuitos integrados era o seu baixo custo. Técnicas de produção em massa dessas pastilhas permitiram que elas viessem a ser produzidas a custos realmente baixos.

Por fim, uma quarta característica atraente era o baixo consumo de energia elétrica – que também se explica pela miniaturização dos componentes.

O circuito integrado de 1965 tornou-se o circuito integrado em larga escala (LSI – "large-scale integration") em 1970 e o circuito integrado em muito larga escala (VLSI – "very large scale integration") em 1975. Alguns consideram o surgimento de pastilhas de VLSI o início da QUARTA GERAÇÃO de computadores – embora outros considerem esses desenvolvimentos apenas uma evolução natural dos circuitos integrados, achando, assim, que estamos ainda dentro da terceira geração. De qualquer maneira, o surgimento de pastilhas de VLSI permitiu a miniaturização dos computadores (e de outros equipamentos eletrônicos). Os computadores de hoje são mais de cem vezes menores do que os da primeira geração, e uma só pastilha, hoje, é mais poderosa do que o ENIAC inteiro. Para se ter uma idéia, uma pastilha dessas de um centímetro quadrado pode fazer mais de um milhão de cálculos por segundo. O ENIAC , você se lembra, podia lidar com apenas trezentos números por segundo.

O início da terceira geração foi marcado pelos computadores da série 360 da IBM, anunciados em Abril de 1964. O sistema 360 era destinado a aplicações tanto científicas como comerciais, e era bastante flexível, para aquela época.

Houve grande desenvolvimento de software durante este período, fato que permitiu que um só computador executasse vários programas virtualmente ao mesmo tempo, compartilhando assim os recursos do computador e aumentando sua eficiência. Houve também o desenvolvimento de sistemas interativos, que permitiam que o usuário fosse colocado, através de um terminal, em direto contato com o computador. Esse fato permitiu o aparecimento de uma série de serviços a clientes, executados na hora, como reservas, atendimento bancário rápido etc.

O mais importante desenvolvimento desse período, porém, foi o aparecimento de microprocessadores – às vezes chamados de computadores de uma pastilha só. Milhares de componentes eletrônicos microscópicos são juntados em uma só pastilha de modo a formar uma UCP – Unidade Central de Processamento. O que é a UCP será explicado em detalhe no Capítulo III. Aqui apenas daremos um breve histórico de como surgiram esses microprocessadores.

Por volta de 1969, uma companhia fabricante de semicondutores do Vale do Silício, a Intel Development Corporation, que tinha sido fundada havia poucos meses, por engenheiros saídos da Fairchild Semiconductor, foi encarregada, por uma firma japonesa de calculadoras, a ETI, de desenvolver alguns circuitos integrados (chips) para uma nova linha de calculadoras. O trabalho foi comissionado a um engenheiro chamado MARCIAN "TED" HOFF.

Depois de receber as especificações dos japoneses, Hoff concluiu que o chip que eles desejavam custaria quase o mesmo que um minicomputador da época, e seria quase que igualmente complexo. Minicomputadores, naqueles tempos, estavam se tornando relativamente baratos, e Hoff conhecia bem o PDP-8, fabricado pela Digital Equipment Corporation (DEC), que era, talvez, o menor e o mais barato deles. A organização interna desse minicomputador era bastante simples. Hoff percebeu que algo semelhante a um PDP-8 faria tudo o que os japoneses desejavam, e muito mais – com um custo não muito maior!

Para Hoff, construir um chip dedicado a fazer uma coisa só, como o de uma calculadora, quando a construção de um chip programável para fazer diferentes coisas era possível, sem muito mais trabalho, e basicamente pelo mesmo custo, seria um desperdício. Por isso, acabou por propor aos japoneses uma revisão no desenho. Estes não aceitaram.

Frustrado, Hoff foi ao presidente da Intel, Robert Noyce, que havia ajudado a inventar o circuito integrado. Noyce não só o estimulou a continuar, como colocou STAN MAZER, que também havia saído da Fairchild, a trabalhar junto com ele no projeto.

O que Hoff queria fazer era, basicamente, um chip programável, que armazenasse, em sua própria memória, instruções que pudesse ler e seguir. Isso permitiria que o chip executasse programas. O termo que foi usado para designar esse chip foi "microprocessador".

Hoff e Mazer completaram o projeto ou "design", mas este precisava ainda ser transformado em um molde bidimensional de linhas que pudesse ser gravadas em silício. Isto foi feito por FEDERICO FAGGIN, também egresso da Fairchild.

Pronto o projeto, ele foi novamente apresentado aos japoneses, que, dessa vez, o aceitaram e firmaram com a Intel um contrato de exclusividade para o chip. Este ficou sendo conhecido pelo código 4004.

Eventualmente, o contrato com os japoneses foi renegociado, sem a cláusula de exclusividade. Do 4004 surgiu, dois anos mais tarde, um novo chip, o 8008, que era um microprocessador que já conseguia processar oito dígitos binários (oito bits) de cada vez – que é o número de dígitos binários necessários para processar um caractere alfabético de uma só vez.

No final de 1971, a Intel pela primeira vez anunciou ao público em geral, na revista Electronic News, a existência de seu produto. O anúncio se referia a "um computador microprogramável de uma pastilha só".

Com a comercialização do produto, a Intel teve que desenvolver sua documentação. Foi contratado para escrever os manuais um engenheiro chamado ADAM OSBORNE – o mesmo que, anos depois, criou a firma que produziu o primeiro microcomputador transportável como uma maleta.

Mas para que o produto pudesse ter maior aceitação, a Intel resolveu desenvolver software que facilitasse sua utilização. Foi contratado para essa tarefa um professor universitário , GARY KILDALL. Este se propôs a escrever um sistema operacional para o microprocessador. O resultado acabou sendo CP/M – "Control Program for Microprocessors", ou Programa Controlador para Microprocessadores, que é, ainda hoje, o sistema operacional mais utilizado em microprocessadores. Não interessada na produção comercial de software, a Intel não apresentou objeções quando Kildall solicitou autorização para comercializar, ele próprio, CP/M – e assim surgiu mais uma das famosas empresas que até hoje participam do mercado: a Digital Research Inc. (não confundir com a Digital Equipment Corporation, a fabricante de minicomputadores.

O que estava sendo comercializado pela Intel, porém, e, logo depois, em decorrência de desenvolvimento independente, também pela Texas Instruments, era o microprocessador apenas. Como veremos no capítulo terceiro, o microprocessador é o cérebro do microcomputador – mas não é, via de regra, o microcomputador inteiro. Este ainda demoraria um pouco para surgir. É verdade que "hobbyistas" muito cedo começaram a desenvolver os seus microcomputadores. Mesmo "kits" vieram a ser comercializados, que permitiam aos "hobbyistas" construir seus microcomputadores com maior facilidade. Mas quanto tempo levou para surgir o primeiro microcomputador comercial?

Está é uma história interessante. Pareceria que os candidatos naturais à produção comercial de microcomputadores seriam os fabricantes de minicomputadores. Os dois maiores, por volta de 1970/1972, eram a Digital Equipment Corporation (DEC) e a Hewlett-Packard (HP). Em ambas as companhias, projetos de fabricação de microcomputadores, e mesmo protótipos em funcionamento, foram submetidos aos executivos, e rejeitados, geralmente por se acreditar que não existia mercado para este tipo de equipamento!

No caso da DEC, a proposta foi feita por DAVID AHL, que em 1974 criou a primeira revista dedicada exclusivamente a microcomputadores, que vem circulando, há mais de dez anos, sob sua edição: CREATIVE COMPUTING. No caso da HP, por STEPHEN WOZNIAK. Wozniak ficou tão frustrado com a rejeição de seu projeto que saiu da HP e, com STEVE JOBS, fundou, numa garagem de fundo de quintal, a Apple Computers, da qual surgiu, em 1977, o microcomputador APPLE, até hoje ainda no mercado (se bem que com razoáveis alterações, em relação ao projeto original).

Simultaneamente com o APPLE, apareceram, em 1977, mais dois microcomputadores que iriam fazer história: o PET, fabricado pela Commodore Business Machines, e o TRS-80, Modelo I, da Radio Shack.

Por aí se vê que os microcomputadores apareceram, em grande parte, a partir das iniciativas de indivíduos empreendedores, no mais das vezes trabalhando fora de grandes corporações. Demorou muito para que essas corporações viessem a perceber o que esses indivíduos já haviam percebido por volta de 1972. A DEC, a HP, e a gigante IBM, só vieram a produzir microcomputadores na década de oitenta.

Mas microcomputadores não eram, nem de longe, a única aplicação possível para os microprocessadores. Estes começaram, também, muito cedo, a ser utilizados em um número enorme de outros equipamentos, desde calculadoras de bolso e relógios digitais até mísseis, aviões, etc. Foram esses microprocessadores que permitiram o aparecimento da verdadeira revolução em que falamos na primeira parte do capítulo.

E com esse desenvolvimento, chegamos novamente ao presente. Ao discutir a história do computador fomos forçados a nos referir a uma série de conceitos e noções, sem explicá-los devidamente. Isto será feito agora, nos próximos capítulos.

Em Campinas, 22 de agosto de 2006

Tecnologia, criatividade e mudanças

I – Tecnologia

Comemorou-se, no último dia 12 de agosto, o vigésimo quinto aniversário do lançamento, em 1981, do “IBM Personal Computer” – o “IBM PC”.

O computador pessoal, entretanto, está perto de fazer trinta anos, porque, embora tenha sido a primeira fabricante de computadores a adotar o nome “Personal Computer”, ou simplesmente “PC”, a IBM não foi a primeira empresa a fabricar e comercializar computadores pessoais. O computador pessoal, vendido pré-montado e pronto para usar, e não em kit a ser montado pelo comprador, surgiu no final de 1977, e três empresas disputam a honra de terem colocado no mercado o primeiro computador pessoal – designado, genericamente, de microcomputador (pré-montado e pronto para usar). Falarei sobre elas logo adiante. Antes, há um desenvolvimento importante que é preciso registrar.

Em 1975 a revista Popular Electronics, dedicada a hobbystas em eletrônica, dedicou seu artigo de capa a um microcomputador que estava sendo vendido em forma de kit a ser montado pelo usuário: o Altair, cujo kit era fabricado e distribuído por uma empresa chamada MITS, de Albuquerque, NM. Muita gente leu o artigo e encomendou o Altair (que só era vendido por correio), apesar de o microcomputador vir sem nenhum software, nem mesmo o sistema operacional, que é o software que, na perspectiva de hoje, permitiria que o equipamento, uma vez montado, executasse funções internas, interagisse com o usuário e, em última instância, rodasse outros softwares (chamados aplicativos) de interesse do usuário. Isso significa que só “hackers” (fuçadores em eletrônica) seriam capazes de conseguir fazer com que o kit da MITS fizesse alguma coisa de útil ou interessante. Mesmo assim, a demanda foi tanta que a MITS teve dificuldade para atender a ela.

Entre os computadores do kit estava Bill Gates, então um jovem aluno da Universidade de Harvard. Gates comprou o kit porque viu nele uma oportunidade de negócio: pretendia desenvolver uma versão da linguagem BASIC (Beginners’ All-Purpose Instruction Code) para o Altair, que poderia servir como o sistema operacional do microcomputador, simplificando a vida dos usuários, que, com BASIC, poderiam dar suas instruções ao equipamento em algo bastante próximo da língua inglesa. Gates convenceu seu amigo, um pouco mais velho, Paul Allen a ir para Albuquerque, NM, onde estava a MITS, e lá incorporar uma empresa, que iria comercializar o BASIC que Gates já estava desenvolvendo. Assim nascia a Microsoft, em 1975, da visão de um pós-adolescente – que, quando era bem mais novo, conseguiu convencer os donos de uma empresa que tinha um computador a deixá-lo procurar erros no software, simplesmente em troca do direito de fuçar na máquina (enquanto comia pizza e tomava Coca-Cola, diz a história, que já virou uma lenda).   

Mas voltemos às três empresas que lançaram computadores pessoais no final de 1977, dois anos e pouco depois do Altair, só que, desta vez, já pré-montados e prontos para usar. São elas: Apple Computers, Commodore Business Machines, e Tandy Corporation (Radio Shack).

A) A Apple Computers, de Steve Jobs e Steve Wozniak, de novo dois jovens adolescentes, criada na garagem de um deles, em Cupertino, CA, lançou o microcomputador Apple II no último trimestre de 1977. Nunca houve um Apple I: o termo “Apple II” foi uma “sacada” de marketing para dar a impressão de que o produto era mais tecnologicamente "maduro" do que realmente era. Depois do Apple II a Apple lançou um computador pessoal enorme, e magnífico, com interface gráfica, o Lisa, que, entretanto, foi um fracasso comercial (custava mais de 10 mil dólares), e, finalmente, acertou a mão com o Macintosh, ainda popular hoje, especialmente no formato notebook, e que, na sua versão atual, é um computador totalmente diferente, do ponto de vista eletrônico (mas não tanto na interface), do original. A Apple quase quebrou com a concorrência do IBM PC e seus clones – e, em parte, quem salvou a Apple foi Bill Gates, que investiu na companhia. Mesmo assim, Wozniak saiu da companhia porque queria fazer outras coisas na vida, e Jobs foi eventualmente forçado a se demitir. Quando parecia que a Apple ia acabar no destino de tantas empresas promissoras de tecnologia, Jobs voltou, vitorioso, para salvar a pátria. Acabou lançando a incrivelmente bem sucedida linha de tocadores de música .mp3, os iPods. Eu tenho dois clones brasileiros do Apples II e um Macintosh 128 original. Gostaria muito de ter um Lisa… E tenho dois iPods, de modelos diferentes.

B) A Commodore Business Machines, empresa canadense que fazia calculadoras profissionais, também lançou, na último trimestre de 1977, o seu microcomputador, ao qual deu o nome de PET, que quer dizer “Personal Electronic Transactor”. O acrônimo “PET” joga eficazmente com a ambigüidade: “pet” em Inglês quer dizer animal de estimação. A idéia, que se transformou em realidade, foi sugerir que o microcomputador seria algo equivalente a um animalzinho de estimação. A Commodore lançou, depois do PET, o VIC-20 (tenho dois deles), o Commodore 64 (também tenho dois deles), e o Amiga (infelizmente, não tenho nenhum deles). A Commodore, que foi a primeira empresa a vender mais de 2 milhões de computadores num ano (com o Commodore 64), não agüentou a competição em meados dos anos 80 e quebrou.  

C) A Radio Shack, braço comercial (com suas lojas de eletrônica onipresentes nos Estados Unidos) da Tandy Corporation, empresa com sede no Texas, lançou, na mesma época, ainda em 1977, o TRS-80, talvez o mais bem acabado dos três produtos que reinvindicam a honra de terem sido o primeiro microcomputador (“TRS” sendo acrônimo de “Tandy Radio Shack”). Tudo nele vinha numa só módulo: placa mãe, placa de vídeo, monitor, placa controladora de drive, até duas unidades de discos (5 polegadas e ¼), teclado… Tenho um clone brasileiro dele, o CP-500, da Prológica – bem mais feio do que o original, que era lindo.

Como se vê, mesmo deixando de lado a MITS e o kit do Altair, três empresas disputam a honra de terem lançado o primeiro computador pessoal, pré-montado e pronto para usar, em 1977 – quatro anos antes da IBM. Das três, uma delas, a Apple, era, como a Microsoft, uma empresa de jovens recém-saídos da adolescência. O sucesso dos produtos fabricados e comercializados por essas empresas era alimentado por um espírito juvenil – ainda que alguns dos propalados gurus do movimento fossem já de meia idade. Mesmo os gurus de meia idade, porém, tinham um espírito de “contra-cultura”, queriam conduzir uma guerra contra o “establishment” – e o establishment era a IBM, de longe a maior empresa de computadores do mundo, que chegou a controlar mais de 70% do mercado mundial de computadores (apesar de um processo “antitrust” do governo americano) e teve, em seu auge, mais de 420 mil empregados.  

Quando a IBM lançou seu produto, várias outras marcas de microcomputadores, além das três já mencionadas, também disputavam o mercado, a mais conhecida delas sendo a Atari, que começou com seu extremamente popular videogame e, depois, se aventurou no mercado mais profissional e corporativo com alguns modelos de microcomputadores, nunca conseguindo convencer os usuários, porém, de que era mais do que uma bem sucedida fabricante de videogames. 

Quanto à IBM, ela lançou o seu microcomputador porque alguns executivos, em clara minoria, achavam que ela não poderia ficar fora desse mercado. A maioria dos executivos achava que microcomputador era brinquedo de hacker. Assim, a IBM lançou o PC sem acreditar muito nele. Aqui estão algumas peças de evidência:

a) Todos os componentes do IBM PC original podiam ser encontrados no mercado – na Rua Santa Efigênia, em São Paulo, havia todos em 1981-1982. A IBM, que tinha toda condição de fazê-lo, não desenvolveu nenhum chip especial (o processador principal ou o processador auxiliar de vídeo), nenhuma placa de circuitos impressos especial, etc., para proteger o seu bebê contra cópias e clonagens. Usou o microprocessador fabricado pela Intel. Resultado: em pouco tempo havia inúmeros clones do PC, vendendo mais, porque mais barato, do que a IBM, que sempre se posicionou na faixa mais alta de preços do mercado, convencida (arrogantemente) de que o público iria preferir produtos com sua marca, ainda que mais caros. Errou. Desconhecia totalmente o mercado de microcomputadores, que correu para os clones mais acessíveis e forçou a IBM, para não baixar os preços dos seus microcomputadores, a lançar no mercado um produto mais barato para concorrer com os clones, o IBM PC Junior.  O Junior foi um total desastre comercial.

b) A IBM não achou que o sistema operacional (como já se disse, o software que permite que o equipamento execute funções internas, interaja com o usuário e, em última instância, rode outros softwares de interesse do usuário) do IBM PC merecia tanto cuidado da parte dela. Resolveu terceirizá-lo. Procurou, inicialmente, a Digital Research, de Gary Kildall, para comprar os direitos de uso de um sistema operacional, o CPM 86, que era uma versão bastante popular do famoso sistema operacional CP/M que rodava em computadores que possuíam o "chip set" da Intel que a IBM havia escolhido para o PC. Marcaram um encontro, os executivos da IBM naturalmente compareceram, mas Kildall (fiel à imagem do empreendedor juvenil da época) não apareceu: foi voar de asa delta. Kildall esnobou a IBM, achando que ela não tinha nenhuma outra alternativa. Os sizudos executivos da IBM, entretanto, ficaram indignados com o tratamento e imediatamente descartaram a solução CPM 86. Alguém soprou em seus ouvidos que Bill Gates, cuja Microsoft já tinha seis anos (foi criada, como se viu, em 1975, em Albuquerque, NM, para comerciar o Basic que Gates havia desenvolvido, e depois se mudou para Seattle, WA), tinha um sistema operacional que poderia servir ao IBM PC. Na verdade, não tinha – mas Gates sabia onde arrumar um: conhecia alguém em Seattle que estava em estágio avançado no desenvolvimento de um sistema operacional que funcionava com unidade de discos (o que se chamava de “Disk Operating System”). Os executivos da IBM foram procurar Gates em Seattle, sua terra natal, e gostaram da sua firmeza e daquilo que Gates lhe prometeu: fornecer-lhes um sistema operacional. Fecharam negócio. Gates foi à casa do desenvolvedor e comprou o que se tornou, em pouco tempo, MS-DOS (MicroSoft Disk Operating System). Mas o ponto chave da negociação revela mais uma vez quão visionário e esperto Gates é para negócios e quão imbecis foram os negociadores da IBM: Gates vendeu à IBM o direito de comercializar o seu software sob um nome diferente (PC-DOS) nos PCs que ela fabricasse, mas garantiu pra si mesmo (para a Microsoft, naturalmente) o direito de também comercializá-lo, com o nome de Microsoft DOS, ou MS-DOS, para terceiros – isto é, para os fabricantes de clones, no atacado, ou para qualquer pessoa que quisesse adquiri-lo, no varejo. Da mesma forma que havia percebido a oportunidade gerada pelo kit da MITS, Gates anteviu, ali na hora, que o microcomputador da IBM, sendo feito com partes disponíveis no mercado, seria imediantamente clonado –  e ele reservou para si o direito de fornecer o sistema operacional dos clones, como de fato o fez, tornando a Microsoft a companhia líder no mercado de software para microcomputadores e dando um passo decisivo para se tornar a gigante que é hoje. Mas ele só conseguiu isso porque ele acreditou mais no potencial do IBM PC, como tecnologia, do que a própria IBM, que, ela própria, não acreditava muito no seu produto.

c) Por muito tempo, depois de lançado e famoso o IBM PC, e de lançados e famosos os seus clones mais conhecidos, o Compaq e o Dell, a IBM ainda fazia o marketing do seu produto de modo a favorecer os computadores de grande porte que ela fabricava e comercializava. Em seu marketing o IBM PC era apresentado simplesmente como um terminal (meio inteligente, isto é, com alguma capacidade de processamento local) para acessar computadores de grande porte remotos – para fazer a chamada “PC – Mainframe Connection”. A IBM não acreditava que seu equipamento pudesse vir a ser um computador independente (stand-alone) sério – e também não acreditou no potencial corporativo de redes locais de microcomputadores (LANs), sem mainframes. A IBM quase faliu, porque não percebeu que o seu pequenino filhote iria um dia conquistar o mercado corporativo um dia dominado por seus gigantes pais e avôs. Eis o que diz o artigo do PC World que registra o jubileu de prata do IBM PC: "A previsão da empresa era comercializar cerca de 250 mil máquinas até 1986. Antes do final desse prazo, mais de um milhão de computadores pessoais já tinham sido vendidos. Nos últimos 25 anos, cerca de 1,6 bilhão de PCs foram comercializados, com 870 milhões atualmente em uso, e a receita anual do setor é estimada em US$ 200 bilhões, de acordo com a consultoria Gartner."

A propósito, era a segunda vez que a IBM errava feio em suas previsões acerca de computadores. A empresa, que nasceu em 1911, fabricava inicialmente relógios de ponto e máquinas de calcular, e, depois, máquinas de escrever e outros equipamentos de escritório (“business machines”). Logo depois do aparecimento, em Fevereiro de 1946, do primeiro computador eletrônico, o ENIAC, na Universidade da Pennsylvania, quando outras empresas (em geral de máquinas de escrever e calcular, como a Remington e a Burroughs) começaram a fabricar computadores em linha, a IBM contratou alguns consultores – que só podiam ser professores de engenharia em universidades, que são notórios em seu desconhecimento do mercado… – para fazer um estudo da viabilidade do mercado de computadores, a fim de poder decidir se entrava ou não nele. A conclusão dos consultores foi de que não valia a pena, porque, no futuro, iriam existir no máximo uns quinze computadores no mundo inteiro, todos localizados em grandes universidades de pesquisa e em entidades militares. A IBM não entrou no mercado naquele momento. Só veio a entrar alguns anos mais tarde, quando percebeu que havia jogado dinheiro fora – e, com o dinheiro, quase que também o seu futuro – com os consultores externos.  Quando agiu,  agiu rápida e competentemente, vindo em pouco tempo a controlar o mercado.

Essa história longa do surgimento dos microcomputadores foi contada, ainda que de forma resumida, para ilustrar o fato de que os microcomputadores surgiram, e em grande medida floresceram, numa contra-cultura extremamente criativa de jovens que queriam derrotar o establishment. Apesar de eventualmente o próprio establishment, através da IBM, ter reconhecido, ainda que sem muita convicção, que o movimento era mais sério do que parecia, durante o final dos anos setenta e a maior parte dos anos oitenta o ambiente era de guerra contra os computadores de grande porte – os “mainframes” – e, nessa guerra, era preciso persuadir o mercado de que os microcomputadores eram mais do que brinquedos e animais de estimação: eram máquinas sérias, que estavam destinadas um dia a substituir os monstrengos mainframes nos quais a IBM e suas “irmãs” investiam tão tanto…

Ainda no final dos anos oitenta a IBM estava tentando persuadir universidades como a UNICAMP a comprar (na verdade, alugar) IBMs 3090, em vez de soluções mais compatíveis com suas necessidades, como o cluster de VAXes, máquinas menores da Digital Electronics Corporation (DEC), que, também, logo se tornaram terrívelmente obsoletas, levando a DEC, tardiamente, a investir em microcomputadores profissionais, mas nem assim salvando a empresa, que foi comprada pela Compaq, que, por sua vez, foi comprada pela HP, num momento já mais próximo de nós.

Enfim, foi um incrível surto de criatividade, em geral vindo de quem não se esperava grande coisa (pós-adolescentes, representantes da contra-cultura, gente anti-establishment) que acabou produzindo a tecnologia e a indústria de microcomputadores e computadores pessoais. Esse desenvolvimento acabou operando como o motor de enormes mudanças na sociedade. Mais detalhes sobre a história dos microcomputadores no indispensável livro Fire in the Valley – o vale em questão sendo o “Vale do Silício” (Silicon Valley), região ao sul de San Francisco, na California, que gravita, de certo modo, em torno da Apple, em Cupertino, ao lado de San José.

II – Criatividade

Não tem passado despercebido a alguns estudiosos da criatividade que esta surja de forma mais generalizada e tenha seus surtos em ambientes que atraem e alimentam pessoas desejosas de mudança e que têm sua mente centrada na solução de problemas – em geral bastante práticos.

Tenho usado, em minhas palestras, a seguinte definição de tecnologia: “Tecnologia é o conjunto daquilo que o ser humano inventa para resolver problemas, tornando, assim, sua vida mais fácil ou mais agradável”. Trabalhando como parceiro e consultor da Microsoft há oito anos, não poderia deixar de enfatizar que a tecnologia não é apenas “hard”, isto é, não consiste apenas de equipamentos, instrumentos, e ferramentas tangíveis. Qualquer invenção humana, ainda que intangível, como é o caso da fala, da escrita, das linguagens em geral (inclusive as de programação), das notações (como o alfabeto, o sistema numérico, as notas e as pautas musicais), bem como dos métodos e das metodologias, das técnicas e das artes, dos procedimentos e dos algoritmos, é tecnologia. (Em relação aos microcomputadores, a visão de Gates em 1975, plenamente confirmada pela realidade, foi de que, a médio prazo, o software seria mais importante do que o hardware…)

A tecnologia, assim, é a forma que o ser humano encontra para resolver seus problemas. E a tecnologia se alimenta de criatividade e é, por sua vez, alimentada por ela. É por isso que a indústria de microcomputadores, apesar de ter surgido no estado de New Mexico, acabou se identificando com a Costa Oeste dos Estados Unidos – onde ficam Cupertino, sede da Apple, símbolo do hardware dos microcomputadores, e “capital” do Vale do Silício, e Seattle, em cuja vizinhança (originalmente em Bellevue, depois em Redmond) Bill Gates resolveu instalar definitivamente a Microsoft, símbolo do software para microcomputadores, como o seu próprio nome indica.

O Vale do Silício e a Região de Seattle se tornaram polos de criatividade, como bem mostrou Richard Florida em seu livro The Rise of the Creative Class, atraindo não só um enorme número de empresas mas, também, uma quantidade enorme de gente inteligente, motivada, e criativa. Outros polos de criatividade se desenvolveram nos Estados Unidos, ao redor da região de Boston, MA, em que fica o Masachussets Institute of Technology (MIT), ao redor da região de Austin, TX, e ao redor de outras regiões que, por uma série de razões (analisadas por Richard Florida), atraem empresas de alta tecnologia – que, por sua vez, atraem profissionais competentes e criativos. Outros países quase sempre têm os seus “Silicon Valleys”. Campinas pretende ser o Vale do Silício brasileiro.

Domenico de Masi, o sociólogo italiano, em um estudo pioneiro, procurou identificar por que é que determinadas instituições parecem atrair mais gente competente e criativa do que outras e conseguir mantê-las – e, como Richard Florida, depois, chegou a algumas conclusões interessantes. Instituições (não apenas empresas) se tornam extremamente competentes e criativas quando são abertas, horizontais, desburocratizadas, quando privilegiam quem tem competência e iniciativa e não têm medo de assumir riscos e de lidar com potenciais fracassos. Essas instituições freqüentemente estão dispostas a abrir novas perspectivas, descortinar novos horizontes, a se reinventar, a redefinir seu “core business”. Nesse processo elas contam com o combustível da diversidade, do pensamento lateral ou divergente, da multidisciplinaridade (ou mesmo da transdisciplinaridade) – e, por isso, não hesitam em contratar pessoas competentes e criativas de áreas que parecem estar além de sua “especialidade”, como marketing, artes (design, por exemplo), ciências humanas, até mesmo filosofia. As cidades ou regiões em que essas empresas florescem, e que acabam por se tornar polos de criatividade, também compartilham várias dessas características. Embora muitos dos habitantes dessas cidades ou regiões acabe se tornando milionários, tudo indica que o desafio de encontrar uma solução criativa para um problema importante é, para eles, uma motivação maior do que o próprio dinheiro.  

III – Mudanças

Toda vez que, através de algum tipo de tecnologia, encontramos uma solução para um problema, que torna a nossa vida mais simples ou mais agradável, a tendência é não guardar essa solução apenas para nós, mas, ao contrário, procurar fazer com que seja amplamente adotada – gerando, assim, para nós, um retorno (em termos de reconhecimento ou, mais freqüentemente, também financeiro). É por isso que novas tecnologias, em geral identificadas, em seu nascedouro, com ambientes criativos, se tornam potentes alavancas de mudanças.

Mudanças, por sua vez, estimulam mais mudanças. O aparecimento do microcomputador, por exemplo, que tornou possível colocar nas mãos de quase qualquer pessoa, a um preço acessível, uma enorme capacidade de processamento, mudou, inicialmente, o mundo dos negócios envolvidos com computadores, para, logo em seguida, mudar o mundo dos negócios em geral, permitindo não só o chamado e-business, mas também, e mais importante, a invenção de novos negócios ou a reinvenção de alguns já tradicionais, como os jornais eletrônicos (que pegaram muitas empresas jornalísticas no contrapé, tornando difícil a sua redefinição em empresas de mídia) e a venda de livros, para citar apenas dois exemplos. Quando a Amazon surgiu, muita gente duvidou que pudesse se tornar lucrativa. Não só se tornou como expandiu o seu negócio incrivelmente, vendendo online, hoje, não só livros, CDs e DVDs como também produtos para bebês e uma enormidade de outras coisas. As mudanças no mundo dos negócios em geral por sua vez influenciou mudanças em várias outras áreas: cultura, política, a vida pessoal e cotidiana, etc. Só para dar um exemplo dessa última (a área da vida pessoal e cotidiana), nós hoje acedemos a informações de forma diferente daquela que fazíamos há 25 anos, nos comunicamos uns com os outros de forma diferente, fazemos compras de forma diferente, trabalhamos de forma diferente, nos divertimos de forma diferente, fazemos amigos e, de vez em quando, até mesmo encontramos romance de forma diferente.

Todas essas mudanças, por sua vez, estão pressionando fortemente a mudança das nossas formas de aprender, em especial em ambientes formais, como a escola. E, é de crer, se a escola oportunamente mudar, isso gerará mais uma potente onda de mudanças no resto da sociedade, uma mudança alimentando a outra.

É por isso que, como bem anteviu Alvin Toffler em vários de seus livros, a começar com Future Shock, publicado em 1970, a nova era, cujo nascimento alguns colocam nos anos 50, mas que eu prefiro colocar no final da Segunda Guerra, com o surgimento do ENIAC, é caracterizada por mudanças: em quantidade nunca antes vista, em velocidade e ritmo de aceleração nunca antes vistos, em intensidade inédita, de modo a afetar todas as dimensões da vida, tanto pública como privada (e até mesmo pessoal e íntima).

Com essas mudanças, a estabilidade que caracteriza a sociedade tradicional desapareceu e, com ela, as soluções prontas para os problemas. Os novos problemas que essa nova era coloca estão a exigir, cada vez mais, soluções radicalmente novas e, por conseguinte, criativas, inovadoras. Não é, portanto, por acaso que nossa era, que é chamada de Sociedade da Informação e Economia do Conhecimento,  é descrita também como a era em que surge, pela primeira vez na história, uma massa crítica tão grande de “criativos” que é possível afirmar que existe, na sociedade, uma Classe Criativa que a puxa para inovações cada vez mais radicais, em todas as áreas, da tecnologia às artes.

 Sobre o Pacífico, 20 de agosto de 2006, às 7h42, hora de San Francisco – 11h42, hora de Salto.

O que será dos meus hard disks?

Quando nos lembramos de que não iremos viver para sempre, em geral nos preocupamos com o que irão fazer, depois de nossa morte, com as coisas que para nós são tão importantes. A minha enorme coleção de livros, que não parece ser de interesse para nenhum de meus filhos, nem, por enquanto, para nenhum de meus netos… Minha mulher também não parece se interessar muito pela maioria deles. Milhares de revistas que separei porque continham algo importante… A minha papelada, que enche dezenas de arquivos de aço com gavetas… A minha grande coleção de discos em vinil, de CDs… A minha também grande coleção de fitas VHS, de DVDs… A minha coleção de alicates, chaves de fenda, ferramentas de vários tipos, medidas em centímetros e em polegadas… Minha coleção de corujas, tartarugas e elefantes em miniatura, amealhada ao longo de tantos anos.

Hoje cedo, dia 20/8, quando ainda estava em Sydney (agora estou no avião voando de Sysdney para San Francisco), conversava pelo MSN Messenger com minha amiga Adriana Portella, hoje também Hollenbeck (a mãe do Nicholas) – que ainda estava no sábado, dia 19/8 (em Watertown, Wisconsin, onde ela mora).  Ela levantou uma questão que imediatamente passou a me preocupar: “O que será de nossos hard disks quando a gente morrer?”

O problema com essa pergunta é que nenhuma resposta parece ser suficientemente adequada para ela.

Se os nossos herdeiros resolverem, em respeito à nossa privacidade, simplesmente reformatar tudo, sem ler nada, nossos segredos estarão preservados mas, além de morrermos fisicamente, a maior parte do que pensamos e sentimos, e que deixamos registrado em arquivos .doc de Microsoft Word, .ppt de Microsoft PowerPoint, .pst de Microsoft Outlook, ou então na história preservada de nossos papos pelo (agora) Windows Live Messenger (ex MSN Messenger), nas fotos .jpg que tiramos, nos filminhos .wmf ou .mpg que produzimos ou simplesmente guardamos…  A reformatação de tudo isso deixará ferido para sempre o nosso orgulho: ninguém se interessou o suficiente pelo que fomos, pensamos e sentimos, pelas coisas que achávamos importantes, para querer preservar alguma coisa do estava armazenado em nossos hard disks.

Por outro lado, se resolverem fuxicar a nossa vida, podem encontrar coisas que os deixarão surpresos – quando não indignados. É incrível quão pouco os nossos parceiros, os nossos filhos, os nossos netos, os nossos outros parentes, conhecem da gente. Fazemos blogs – mas poucos dos parentes os lêem sistematicamente. O meu está no Live Spaces (antigo MSN Spaces). Mas também escrevemos uma quantidade enorme de textos que não colocamos em blogs. Escrevi livros, capítulos de livros, artigos, prefácios, posfácios, etc. que ninguém de minha família jamais leu. Tenho milhares e milhares de slides, correspondentes a palestras que ministrei, em arquivos de Microsoft PowerPoint que ninguém de minha família jamais viu.  Participo de dezenas de listas de discussão, nas quais escrevo, diariamente, dezenas de mensagens, de que ninguém de minha família jamais tomou conhecimento. Envolvi-me em brigas homéricas em algumas dessas listas, e nessas brigas nem sempre me comportei de forma impecável (em termos de elegância no trato e na linguagem) – e minha família nunca ficou sabendo delas. Troquei e-mails pessoais com gente que ninguém de minha família conhece – e com gente que minha família nem imagina que exista e que seja importante para mim. O mesmo vale pelos papos pelo Windows Live Messenger.  Se minha família fosse fuxicar os meus hard disks, quanta surpresa teria… Seria um redescobrir do marido, do pai, do avô – na verdade, um descobrir, porque nunca tomaram conhecimento desse meu eu, para eles, desconhecido, mas que é conhecido, às vezes bem conhecido, por meus companheiros de listas, de e-mails, de papos no Messenger… E que em muitos aspectos é o meu eu mais íntimo!

Além disso, há muita coisa que escrevo para mim mesmo… Meus hard disks estão cheios de pequenas notas que rabisco para mim mesmo, no Notes do Microsoft Outlook, no Microsoft Notebook, às vezes em arquivos do Microsoft Word ou até mesmo do Notepad e do (um de meus programas favoritos) Notetab Pro. Verdadeiros diários, sem o nome.

Fico me lembrando de um dos filmes mais lindos que já vi: The Bridges of Madison County (As Pontes de Madison). Francesca, já viúva, morreu. E deixou um baú para seus dois filhos (um casal) – com cadernos e relíquias, cheios de surpresa. Nos cadernos, a história de um amor vivido em segredo. Entre as relíquias, fotos e lembranças diversas do amor vivido com Robert Kincaid. Os filhos ficaram inicialmente chocados e revoltados. O filho homem quase teve um ataque ao ficar sabendo que sua mãe havia traído o seu pai – reação de homem. A filha mulher pareceu compreender mais rápido. Ambos relutaram em concordar com jogar as cinzas da mãe no mesmo lugar em que haviam sido jogadas as de Robert Kincaid… No fim, os dois entenderam. Apesar de terem vivido com sua mãe durante cerca de trinta anos, não a haviam conhecido de fato, no que ela tinha de mais íntimo.

Entre as minhas coisas há os meus sites, mais de trinta, hoje hospedados todos no Globat.com. Minha família nem toma conhecimento deles, exceto, talvez, de vez em quando, do chaves.com.br. No entanto, gente desconhecida da minha família considera importantes o aynrand.com.br, o 4pilares.net, o contaoutra.net, o fora.com.pt — até mesmo o vovodudu.net… Será que alguém vai cuidar desses sites depois de eu ter morrido??? Duvido muito. Ninguém sabe quanto eu pago por mês para manter esses sites no ar, muito menos como pagar, caso valha a pena mantê-los no ar. (By the way, o preço que irá custar para manter um deles no ar é o mesmo que custará mantê-los todos no ar – armazeno-os todos no mesmo local, por um preço que me permite manter trinta domínios no ar em uma conta só. O pagamento é anual.) Quando o contrato anual vencer, Globat enviará uma cobrança automática para meu cartão de crédito. Mas como eu terei morrido, meu cartão de crédito terá sido cancelado. Não conseguindo debitar o valor de um novo contrato anual, Globat cancelará meu espaço no hard disk deles, e meus 30 sites irão para o espaço. Tenho cópia deles nos meus hard disks, mas será que alguém vai achar? Um aspecto importante da minha vida terá sido apagado para sempre.   

[Como sou otimista, vou ajudar o trabalho de meus descendentes, caso eles decidam manter meus sites no ar. Estes são os trinta domínios hospedados em Globat.com: chaves.com.br, infoutil.org, edutec.net, 4pilares.net, escola2000.net, unicamp.net, vovodudu.net, livremente.net, escolanova.net, jmc.org.br, mindware.com.br, contaoutra.net, palestras.net, myblogs.net, cronicas.info,  aynrand.com.br, liberty.com.br, trivium.org.br, mathetics.net, educhange, hughakston.net, newed.net, mindtools.org, autobio.info, paideia.com.br, racionalmente.net, fora.com.pt, learningpathways.net, rotary-saldo.net, lucelia.info. A propósito, tenho setenta outros domínios que não estão sendo hospedados no momento, a não ser em MyDomain.com, que deixa a gente estacionar os domínios lá de graça. Mas é demais ter qualquer esperança em relação a eles…]

Enfim, é isso. E, talvez, muito mais. Não sei por que tenho pensamentos fúnebres quando estou voando.

Sobre o Pacífico, 20 de agosto de 2006, às 18h19, hora de Sydney – 5h19, hora de Salto. As vaquinhas, os bezerros, as galinhas e os galos do meu sítio estão acordando. Deles tenho certeza de que alguém vai cuidar.