Fernando Marcelino no CORREIO DA CIDADANIA |
Provavelmente, a principal marca do governo federal do PT no Brasil foi o fortalecimento da chamada “classe C”, mal entendido por alguns como uma nova classe média, composta nas estatísticas oficiais por famílias que tem uma renda mensal domiciliar entre R$1.064,00 e R$ 4.561,00. Se em 1992 a classe C representava 34% da população, em 2011 passou a 54% e, segundo estimativas, alcançará 58% da população em 2014. Isso significa que o perfil sócio-econômico do país e suas classes estão mudando. Durante a última década, a chamada classe C – composta, sobretudo, por jovens negros com emprego formal, alto potencial de consumo e características altamente heterogêneas ligadas ao campo político e religioso – teve um aumento superior a 40% em sua renda familiar, o que permitiu maior poder de compra, acesso à tecnologia e ingresso em faculdades. Na última década, 31 milhões de pessoas entraram na classe C – ela já responde por cerca de 47% do consumo do país, metade dos cartões de crédito emitidos, 60% dos acessos à internet, 42% das despesas com educação. De acordo com dados do Instituto Brasileiro de Geografia e Estatística (IBGE), são os jovens da classe C que alimentam a expansão de quase 77% no número de pessoas que declaram “freqüentar” ou “ter freqüentado” cursos de educação profissional entre 2004 e 2010. O Nordeste é a região onde a classe C mais cresceu recentemente e a região Sul soma a maior proporção de pessoas neste grupo. Espera-se que esta classe C será a principal fornecedora da força de trabalho mais qualificada para o desenvolvimento industrial nos próximos anos. É claro que uma classe não pode ser definida em termos de renda ou pelo padrão de consumo. É sua experiência prática que diz como ela é. Como assinala Jessé de Souza, esta “nova classe trabalhadora” em formação convive com o antigo proletariado fordista – ou o que restou dele – e possui uma trajetória de ascensão por meio do trabalho duro, com fé em Deus para suportar a dor de viver, ter força de vontade e conseguir vencer os obstáculos que aprecem pela frente. Seus integrantes possuem uma narrativa sem tempo linear, previsível ou estável. Sua reprodução se constitui como um desafio permanente. Seu risco não é de proletarização, pois sua condição já é proletarizada, produto de trabalho duro todos os dias. Não é uma condição que se alcançou e se tem medo de decadência, mas uma condição que deve ser buscada em todo momento da vida. Como podemos fazer uma interpretação marxista da classe C? Ela demonstraria que o aparato marxista é anacrônico diante destas transformações da composição de classe no Brasil? Naturalmente ela é parte do proletariado, mas qual parte? Para André Singer, poderíamos denominá-la de “subproletariado”, aqueles “que oferecem a sua força de trabalho no mercado sem encontrar quem esteja disposto a adquiri-la por um preço que assegure sua reprodução em condições normais”. A nosso ver, seria mais correto caracterizar a classe C como integrante do exército industrial de reserva – que Marx sempre frisou ser parte do proletariado. Marx identifica três formas deste exército nas quais “todo trabalhador dela faz parte durante o tempo em que está desempregado ou parcialmente desempregado”: 1) A parte flutuante representa aqueles trabalhadores que, acompanhando o ciclo da economia capitalista, oscilam no emprego tendendo a serem despedidos numa crise e esperar por uma época de prosperidade para serem incorporados ao exército ativo de trabalhadores. Eles flutuam no circuito empregatício de acordo com o estágio do ciclo econômico. Nas palavras de Marx, esses que são despedidos tornam-se elementos da superpopulação flutuante que aumenta ao crescer a indústria. Parte deles emigra e, na realidade, apenas segue o capital em sua emigração. Em suma, essa parte flutuante do exército industrial de reserva é constituída pelos trabalhadores que, por certo tempo, perdem seus empregos em conseqüência da queda na produção, no avanço de produtividade, no emprego de novas máquinas ou fechamento de empresas. Uma parte desses desempregados volta a se empregar numa potencial prosperidade industrial. 2) A parte latente surge “quando a produção capitalista se apodera da agricultura, ou nela vai penetrando, diminui, à medida que se acumula o capital que nela funciona, a procura absoluta da população trabalhadora rural” (2009, p. 746). Geralmente, os operários agrícolas estão fadados a enxertar as fileiras das indústrias nos grandes centros urbanos, pois “dá-se uma repulsão de trabalhadores, que não é contrabalançada por maior atração, como ocorre na indústria não-agrícola. Por isso, parte da população rural encontra-se sempre na iminência de transferir-se para as fileiras do proletariado urbano ou da manufatura e na espreita de circunstâncias favoráveis a essa transferência. Está fluindo sempre esse manancial da superpopulação relativa. Mas, seu fluxo constante para as cidades pressupõe no próprio campo uma população supérflua sempre latente, cuja dimensão só se torna visível quando, em situações excepcionais, se abrem todas as comportas dos canais de drenagem. Por isso, o trabalhador rural é rebaixado ao nível mínimo de salário e está sempre com um pé no pântano do pauperismo” (idem, p. 746). 3) Diante do aumento da acumulação de capital, duas porções do proletariado tendem a ter uma participação menor diante do aumento da dimensão estagnada do exército industrial de reserva. Como diz Marx, “a superpopulação estagnada se amplia à medida que o incremento e a energia da acumulação aumentam o número dos trabalhadores supérfluos. Ela se reproduz e se perpetua, e é o componente da classe trabalhadora que tem, em seu crescimento global, uma participação relativamente maior que a dos demais componentes” (idem, p. 747). A superpopulação relativa estagnada “constitui parte do exército de trabalhadores em ação, mas com ocupação totalmente irregular. Ela proporciona ao capital reservatório inesgotável de força de trabalho disponível. Sua condição de vida se situa abaixo do nível médio normal da classe trabalhadora, e justamente por isso torna-se base ampla de ramos especiais de exploração do capital. Duração máxima de trabalho e mínimo de salário caracterizam sua existência. Conhecemos já sua configuração principal, sob o nome de trabalho a domicílio. São continuamente recrutados para suas fileiras os que se tornam supérfluos na grande indústria e na agricultura, e notadamente nos ramos de atividade em decadência (idem, p. 746, 747). Esses trabalhadores não deixam de fazer parte do exército industrial de reserva, tampouco deixam de ter lugar na divisão social do trabalho no modo de produção capitalista. É parte cada vez mais importante do proletariado. Longe de ser inútil, a porção estagnada do exército industrial de reserva se reproduz com os trabalhos mais degradantes, com mais riscos à integridade física e moral, remuneração mais baixa sob vínculos empregatícios precários, ou seja, enfrentam um contato com o que Marx se refere como “ramos especiais de exploração do capital” baseados na “duração máxima de trabalho e mínimo de salário”. Na classe C brasileira encontramos elementos das três formas de exército industrial de reserva. Em termos quantitativos, a classe C é uma conseqüência da neoliberalização da década de 1990, marcada pelas privatizações, precarização do trabalho e o aumento do desemprego. O resultado foi uma reorganização do proletariado baseada na redução do proletariado fabril e no progressivo crescimento da classe C, um fenômeno que decorre desde 1992, por mais que sua expansão aconteça de maneira mais acentuada desde 2003. Ela não é assim tão nova. Hoje, são 105,4 milhões de pessoas, ou 55,05% da população nesta faixa. Segundo um estudo da FGV, esse processo ocorre junto com o encolhimento das classes D e E. Em 1992 elas representavam juntas 62,13% da população. Em 2003 eram 54,85% dos brasileiros. Hoje, somadas, as classes D e E representam 33,19% dos 191,4 milhões de habitantes do país. É um fenômeno inédito na história do país. Ainda assim, são 16,2 milhões de pessoas vivendo com até R$ 70 mensais. Para a classe C a estabilidade econômica é algo extremamente valorizado, pois é o caminho da ascensão social, por mais que ela seja composta por uma camada social altamente heterogênea em termos de valores, crenças políticas e comportamentos. É uma fração da classe trabalhadora emergente no Brasil, diferente daquela do ABC no final dos anos 1970, vivendo um processo de recomposição, ainda com pouca experiência de luta, mas que ainda não mostrou sua potencialidade. Os empregos da classe C são muito variados: telemarketing, feirantes, pequenos empreendedores, autônomos, trabalhadores da construção civil, caixas de supermercado, motoboys, secretariado, serviços de reparo em geral, parte do funcionalismo público, pequenos comerciantes, trabalhadores em domicílio etc. Em suma, são empregos altamente flexíveis e irregulares, por mais que alguns tenham uma formalidade oficial. Fazem parte dessa porção do proletariado os “desempregados ativos” que estão numa lacuna entre o trabalho atípico, parcial, desregulamentado, informal ou temporário e as agruras do não-trabalho. Alguns têm dupla jornada de trabalho e outros tantos são trabalhadores completamente informais. Todos lutam para pagar suas contas e costumam morar nas periferias das grandes cidades. Muitas vezes seu acesso a formas de mínimas de auto-organização e ao espaço público se dá por meio de igrejas evangélicas e neopentecostais. Esta transformação da composição social do proletariado resulta, agora, em novas lutas de classe – só que, até agora, sem muita organização, representação e visibilidade política. O que fazer? Qual é o futuro político da classe C? Ser cooptada pelos ideais do livre-mercado, típicos da classe média? Ou pelas milícias e empresas religiosas privadas? Ou poderia ser tomada pelo ideal de uma sociedade calcada no trabalho duro e uma sociedade justa e socialista? A necessidade de ascensão política de massas da “classe C” será provavelmente o mais importante norteador da nova dinâmica da luta de classes no Brasil no próximo período. Aquela parte da população que passou a ter mais acesso aos bens de consumo, mas ainda é muito conservadora, impede que projetos “socialistas” sejam aceitos facilmente, por mais que se coloque em movimento num novo ciclo de lutas das classes populares. Mostra-se que a inclusão no mercado por si só não garante o aumento da organização popular da classe C nem um desenho claro de uma consciência de classe. Longe disso, ela parece estar atualmente mais próxima das diversas formas de individualismo possessivo do tempo presente e das grandes empresas de evangelização do que de qualquer “ideologia socialista”, muitas vezes demonizada, sendo vista como uma desculpa apenas para “instabilidade social” ou “politicagem”. Para adentrarmos na consciência da classe C, devemos evocar a fórmula do lulismo feita por André Singer. O lulismo seria “a execução de um projeto político de redistribuição de renda focado no setor mais pobre da população, mas sem ameaça de ruptura da ordem, sem confrontação política, sem radicalização, sem os componentes clássicos das propostas de mudanças mais à esquerda”. O lulismo "expressa um fenômeno de representação de uma fração de classe que, embora majoritária, não consegue construir desde baixo as próprias formas de organização". Essa fração de classe é caracterizada por uma expectativa de Estado forte, que reduz a desigualdade, mas sem ameaçar a ordem estabelecida. Portanto, ao contrário do que pensa o próprio Singer, essa fração de classe não apresenta afinidades partidárias de qualquer tipo ou intensas rejeições a partidos, e tampouco identificações personalistas fortes. Segundo Singer, as constantes declarações de Lula a favor da manutenção da estabilidade satisfizeram não só os banqueiros e investidores, nacionais e estrangeiros, como também o eleitor pobre e conservador, que teme a ruptura da ordem, embora deseje a redução da desigualdade e pobreza. O lulismo representa uma nova orientação ideológica, marcada pela preferência por redução da desigualdade, mas com manutenção da estabilidade, algo que não é “nem de direita, nem de esquerda e nem de centro”. Nosso desafio é desenvolver uma verdadeira alternativa política para a classe C, trabalhar na base dessa classe e de outras classes populares da sociedade brasileira, vivenciando e contribuindo para sistematizar suas pequenas experiências de luta, elevando sua consciência de classe. Esse processo não é imediato. É uma missão estratégica, de longo prazo, orientando essas classes no momento que decidirem lutar. Devemos urgentemente reorganizar a esquerda sob este marco, pois ela se encontra muitas vezes alheia a tal processo, sem saber como tratar adequadamente as transformações. Nossa disputa começa ao colocar a classe C em movimento como um setor da classe trabalhadora, fazê-la agir e pensar como parte substancial da classe trabalhadora e seu destino na luta política. Um primeiro passo neste sentido seria entender que diante da enorme dificuldade do movimento sindical em organizar no espaço de trabalho este segmento crescente de trabalhadores, principalmente da classe C, o espaço em que milhões de trabalhadores no Brasil tem se organizado e lutado é o território, em especial na periferia e nas favelas das grandes cidades. A politização destes territórios é parte integrante do processo de politização da classe C. Nosso dever é saber transformar suas reivindicações em ações massivas, independentes do governo e seus correligionários. Isso só surgirá, entretanto, se retomarmos a velha lição de organização junto à base popular, em seu dia a dia, em lutas diárias e miúdas, em especial da classe C. Somente as grandes mobilizações, o estímulo a todas as formas de luta de massa por necessidades imediatas e o trabalho de base podem alterar nossa situação diante da nova dinâmica da luta de classes. Fernando Marcelino é economista. |
Um blog de informações culturais, políticas e sociais, fazendo o contra ponto à mídia de esgoto.
segunda-feira, 27 de fevereiro de 2012
Uma breve análise marxista da Classe C
Marcadores:
critica social,
Ditaduras,
literatura,
Marxismo,
socialismo
Os três brasileiros que refutaram as bases do neoliberalismo
O livro “O Universo NeoLiberal do Desencanto”, do economista José Carlos de Assis e do matemático Francisco Antonio Doria, traz uma história extraordinária, de como três brasileiros – no campo da lógica – ajudaram a desmontar o principal princípio do neoliberalismo: aquele que dizia que em um mercado com livre competição os preços tendem ao equilíbrio.
Por Luís Nassif no VERMELHO
As teses do trio – lógico Newton da Costa, matemático Antonio Doria e economista Marcelo Tsuji é um clássico da ciência brasileira, uma história complexa, porém fascinante, que merece ser detalhada.
O primeiro passo é – a partir do livro – reconstituir as etapas da matemática no século 20, sua luta para se tornar uma ciência formal, isto é, com princípios de aplicação geral. E os diversos obstáculos nesse caminho.
O método axiomático na matemática
A matemática sempre se baseou no método axiomático de Euclides.
1 Escolhem-se noções e conceitos primitivos.
2 Utiliza-se uma argumentação lógica.
3 Manipulando os conceitos com a lógica, chega-se aos resultados derivados, os teoremas da geometria.
Foi só a partir do final do século 19 que Giuseppe Peano incorporou o método axiomático à matemática tornando-se, desde então, a técnica mais segura para a geração de conhecimento matemático.
Em 1908, Ernest Zermelo axiomatizou a teoria dos conjuntos e, a partir daí, todos os resultados conhecidos da matemática. Formou-se a chamada matemática “feijão-com-arroz” usada por engenheiros, economistas, ecólogos e biólogos matemáticos.
E, desde então, no âmbito da alta matemática instaurou-se uma discussão secular: tudo o que enxergamos como verdade matemática pode ser demonstrado?
A formalização da matemática
Com esses avanços do método axiomático, pensava-se que tinha se alcançado na formalização da matemática, tratada como ciência exata capaz de calcular e demonstrar todos os pontos de uma realidade.
Mas aí começaram a surgir os paradoxos, dos quais o mais famoso foi o de Russel:
Em uma cidade, existem dois grupos de homens: os que se barbeiam a si mesmos e os que se barbeiam com o barbeiro. A que grupo pertencem os barbeiros?
Ora, um axioma não pode comportar uma afirmação contraditória em si. De acordo com as deduções da lógica clássica, de uma contradição pode-se deduzir qualquer coisa, acaba o sonho do rigor matemático e o sistema colapsa.
Houve uma penosa luta dos matemáticos para recuperar a matemática da trombada dos paradoxos até definir o que são as verdades matemáticas, o que coube ao matemático David Hilbert (1862-1943).
Nos anos 20, Hilbert formulou um programa de investigação dos fundamentos da matemática, definindo o que deveriam ser os valores centrais:
Consistência: a matemática não poderia conter contradições.
Completude: a matemática deve provar todas suas verdades.
Procedimento de decisão: a matemática precisa ter um procedimento, digamos, mecânico permitindo distinguir sentenças matemáticas verdadeiras das falsas.
A partir desses princípios, a ideia era transformar a matemática em uma ciência absoluta com regras definitivas. No Segundo Congresso de Matemática, em Paris, Hilbert propôs os famosos 23 problemas cuja solução desafiaria as gerações seguintes de matemáticos. (http://www.rude2d.kit.net/hilbert.html).
Seus estudos foram fundamentais para o desenvolvimento da ciência da computação.
Mas havia uma pedra em seu caminho quando 1931, o matemático alemão Kurt Gödel (1906-1978), radicado nos Estados Unidos, formula seu teorema da incompletude para a aritmética, inaugurando a era moderna na matemática. Muitos estudiosos sustentam que seu “teorema da incompletude” é a maior realização do gênio humano na lógica, desde Aristóteles.No começo, os achados de Gödel se tornaram secundários no desenvolvimento da matemática do século.
A partir dos estudos de dois dos nossos heróis – Doria e Da Costa – os matemáticos descobriram porque a matemática não conseguia explicar uma série enorme de problemas matemáticos.
E aí se entra em uma selva de conceitos de difícil compreensão.
Mas, em síntese, é assim:
Suponha um sistema de axiomas, com vários axiomas. Por definição, esse axioma não demonstra fatos falsos, só verdadeiros.
Dentre os axiomas, no entanto, há uma sentença formal que, por definição, não pode ser demonstrada.
Se não pode ser demonstrada que é verdadeira, também não pode ser demonstrada que é falsa (acho que o matemático se baseou no axioma da Folha com a ficha falsa da Dilma). Logo é uma sentença “indecidível” – isto é, não pode nem ser provada nem reprovada.
Se o sistema é consistente – isto é, se consegue provar o que é provável e não consegue o que não é – então, para ser consistente, ele será incompleto.
Pronto, bagunçou totalmente a lógica dos que supunham a matemática uma ciência exata.
Anos depois, o lógico norte-americano Alonzo Church (1903-1995) e o matemático inglês Alan Turing (1912-1954) desenvolveram outro conceito, a indecibilidade.
Ambos demonstraram que há programas de computador insolúveis.
Turing, aliás, tem uma biografia extraordinária http://www.turing.org.uk/turing/. Durante a Segunda Guerra foi criptógrafo do Exército inglês. Conseguiu quebrar a criptografia da máquina alemã Enigma, até então considerada impossível de ser desvendada. Tornou-se herói de guerra. E lançou as bases para a teoria da programação em computador, quando conseguiu reduzir todas as informações a uma sucessão de 0000 e 1111.
Em 1952 confessou-se homossexual a um policial que havia batido na porta de sua casa. Preso, com base em uma lei antissodomia (revogada apenas em 1975), foi condenado a ingerir hormônios femininos para inibir o libido. Os hormônios deformaram seu corpo. Acabou se matando com uma maçã envenenada em 1954.
A teoria da programação nasce em 1936 em um artigo onde Turing analisa em detalhes os procedimentos de cálculos matemáticos e lança o esboço da “máquina de Tuning”, base da computação moderna.
Nesse modelo o procedimento é determinístico – isto é, nos cálculos não há lugar para o acaso.
Muitas vezes ocorrem os “loops infinitos”, situações em que o computador não consegue encontrar a solução e fica calculando sem parar. Turing já havia provado ser impossível um programa que prevenisse os “crashes” de computador. Explicar a “parada” no programa de computador se tornou um dos bons enigmas para os matemáticos.
Durante bom tempo, até início dos anos 50, os matemáticos procuravam a chave da felicidade: o programa que permitisse antecipar os crashes dos demais programas. Mas em 1936 Turing já havia provado ser impossível.
Mais um revés para os que imaginavam a matemática capaz de explicar (ou computar) todos os fenômenos matemáticos.
O teorema de Rice
Em 1951, outro matemático, Henry Gordon Rice avançou em um teorema considerado “arrasa quarteirão”.
Denominou-se de funções parciais àquelas em que não existe um método geral e eficaz de decisão. Se uma propriedade se aplica a todas as funções parciais, ela é chamada de propriedade trivial. E se a propriedade traz a solução correta para cada algoritmo, ela é chamada de método de decisão eficaz.
Uma propriedade só é eficaz se for aplicada a todas as funções. E essa função não existe.
Levando essas conclusões para outras áreas, é possível constatar que não existe uma vacina universal para vírus de computador, ou para vírus biológico, Todo desenvolvimento de uma vacina biológica será sempre na base de tentativa e erro.
Para desespero dos que acreditavam que a matemática poderia explicar tudo, o teorema de Rice começou a se estender para a maior parte das áreas da matemática.
O equilíbrio de Nash
O inventor oficial da computação, Von Neuman, não conseguia resolver um caso geral em que se analisava uma solução para a soma de um conjunto de decisões.
Quem resolveu foi um dos gênios matemáticos do século, John Nash, personagem principal do filme “Uma mente brilhante”, nascido em 1928 e vivo ainda.
Em uma tese de apenas 29 páginas – que lhe rendeu o PhD e o Nobel – ele mostrou que casos de jogos não-colaborativos (como em um mercado) a solução aceitável de cada jogador correspondia ao equilíbrio dos mercados competitivos.
Como explica Dória, em linguagem popular: a situação de equilíbrio é aquela que se melhorar piora.
O “equilíbrio de Nash” mostra uma situação em que há diversos jogadores, cada qual definindo a sua estratégia ótima. Chega-se a uma situação em que cada jogador não tem como melhorar sua estratégia, em função das estratégias adotadas pelos demais jogadores. Cria-se, então, essa situação do “equilíbrio de Nash”.
O princípio de Nash é: todo jogo não-cooperativo possui um equilíbrio de Nash.
O “equilíbrio de Nash” tornou-se um dos pilares da matemática moderna.
A matemática na economia
O primeiro economista a tentar encontrar o preço de equilíbrio na economia foi Léon Walras (1834-1910). Montou equações que identificam as intersecções da curva da oferta e da demanda, para chegar ao preço ótimo. Depois, montou equações para diversos mercados, concluindo que, dadas as condições ideais para a oferta e para a procura, sempre seria possível encontrar soluções matemáticas.
Mas não apresentou uma solução para o conjunto de operações da economia.
O que abriu espaço para o “equilíbrio dos mercados” foram dois matemáticos – Kenneth Arrow (1921) e Gérard Debreu (1921-2004) que beberam no “equilíbrio de Nash” para formalizar de maneira mais rigorosa os princípios de Walras.
Walras tivera o pioneirismo de formular o estado de um sistema econômico como a solução de um sistema de equações simultâneas, que representavam a demanda de bens pelos consumidores, a oferta pelos produtores e a condição de equilíbrio tal que a oferta igualasse a demanda em cada mercado. Mas, argumentavam eles, Walras não dera nenhuma prova de que a equação proposta (o somatório de todas as equações da economia) tivesse solução.
Só décadas depois, esse dilema – de como juntar em uma mesma solução todas as equações de um universo econômico – passou a ser tratado, com o desenvolvimento da teoria dos jogos, graças à aplicação do “equilíbrio de Nash” à economia. Mostraram que a solução de Nash para o jogo corresponde aos preços de equilíbrio.
Essa acabou sendo a base teórica que legitimou praticamente três décadas de liberalismo exacerbado.
Entra em cena o “outro Nash”
Aí surge em cena o “outro Nash”, Alain Lewis, um gênio matemático, negro, mistura de Harry Belafonte e Denzel Washington, criado nos guetos de Washington, depois estudante em Princenton, onde conquistou o respeito até de referências como Paul Samuelson.
Partiu dele o primeiro grande questionamento à econometria como "teoria eficaz" (isto é, capaz de matematizar todos os fenômenos econômicos).
Em um conjunto de obras, a partir de 1985, Lewis tentou demonstrar que as noções fundamentais da teoria econômica não são "eficazes" - isto é, não explicam todos os fenômenos econômicos - e, portanto, devem ser descartadas. Comprovou sua tese para um número específico de casos.
Em 1991, em Princenton, Lewis ligava de madrugada para trocar ideias com um colega brasileiro, justamente Francisco Antônio Doria. Excepcionalmente brilhante, trato difícil, o primeiro surto de Lewis foi em 1994. Há dez anos nenhum amigo sabe mais dele. Provavelmente internado em alguma clínica.
Sua principal contribuição foi comprovar que em jogos não associativos (aqueles em que há disputas entre os participantes) embora exista o "equilíbrio de Nash" descrevendo cada ação, ganhos e perdas dos competidores, o resultado geral é "não computável" . Ou seja, podem existir soluções particulares mas sem que possam ser reunidas num algoritmo geral.
Aparecem os brasileiros
O objetivo da teoria econômica é identificar as decisões individuais que valem para o coletivo. De nada vale matematizar o resultado de dois agentes individuais se a solução não se aplicar ao conjunto de agentes econômicos.
Havia razões de sobra para Lewis ligar toda noite, impreterivelmente às duas da manhã, para Dória.
Desde os anos 80, Doria e Newton da Costa estudavam soluções para o problema da teoria do caos. Queriam identificar, através de fórmulas, quando um sistema vai desenvolver ou não um comportamento caótico. Esse desafio havia sido proposto em 1983 por Maurice Hirsch, professor de Harvard.
Eram estudos relevantes, especialmente para a área de engenharia. Como saber se a vibração na asa de um avião em voo poderá ficar incontrolável ou não?
Depois, provaram uma versão do teorema de Rice para matemática usual: que usa em economia.
Depois de muitos estudos, ambos elaboraram uma resposta brilhante sobre a teoria do caos: não existe um critério geral para prever o caos, qualquer que seja a definição que se encontre para caos.
Esse conceito transbordou para outros campos computacionáveis. A partir dele foi possível inferir a impossibilidade de se ter um antivírus universal para computador, ou uma vacina universal para doenças.
Num certo dia, no segundo andar do Departamento de Filosofia da USP, Doria foi abordado por um jovem economista, Marcelo Tsuji, que já trabalhava na consultoria de Delfim Neto. Aliás, anos atrás Paulo Yokota já havia me alertado de que o rapaz era gênio. Na época, Delfim encaminhou-o para se doutorar com Doria e da Costa.
Marcelo disse a Doria ter coisas interessantes para lhe relatar. Disse que tinha encontrado uma prova mais geral para o teorema de Lewis utilizando as técnicas desenvolvidas por Doria e Da Costa.
Doria pediu para Marcelo escrever. Depois, Doria e Nilton revisaram o trabalho, todo baseado nas técnicas de lógica de ambos.
Chegou-se ao resultado em 1994. Mas o trabalho com Tsudi só foi publicado em 1998. Revistas de economia matemática recusaram publicar. Conseguiram espaço em revistas de lógica.
O grande desafio do chamado neoliberalismo seria responder às duas questões:
1. Como os agentes fazem escolhas.
2. Como a ordem geral surge a partir das escolhas individuais.
A conclusão final matava definitivamente a ideia de que em mercados competitivos se chegaria naturalmente ao preço de equilíbrio. O trabalho comprovava que o “equilíbrio de Nash” ocorria, com os mercados chegando aos preços de equilíbrio. Mas que era impossível calcular o momento. Logo, toda a teoria não tinha como ser aplicada.
O reconhecimento mundial
O Brasil não tem tradição científica para reconhecer trabalhos na fronteira do conhecimento. Assim, o reconhecimento do trabalho do trio está se dando a partir do exterior.
O livro “Gödel’s Way”, de Doria, Newton e Gregory Chaitin tornou-se um best-seller no campo da matemática, ajudando a conferir a Gödel o reconhecimento histórico que lhe faltou em vida.
Fonte: Blog do Nassif
O primeiro passo é – a partir do livro – reconstituir as etapas da matemática no século 20, sua luta para se tornar uma ciência formal, isto é, com princípios de aplicação geral. E os diversos obstáculos nesse caminho.
O método axiomático na matemática
A matemática sempre se baseou no método axiomático de Euclides.
1 Escolhem-se noções e conceitos primitivos.
2 Utiliza-se uma argumentação lógica.
3 Manipulando os conceitos com a lógica, chega-se aos resultados derivados, os teoremas da geometria.
Foi só a partir do final do século 19 que Giuseppe Peano incorporou o método axiomático à matemática tornando-se, desde então, a técnica mais segura para a geração de conhecimento matemático.
Em 1908, Ernest Zermelo axiomatizou a teoria dos conjuntos e, a partir daí, todos os resultados conhecidos da matemática. Formou-se a chamada matemática “feijão-com-arroz” usada por engenheiros, economistas, ecólogos e biólogos matemáticos.
E, desde então, no âmbito da alta matemática instaurou-se uma discussão secular: tudo o que enxergamos como verdade matemática pode ser demonstrado?
A formalização da matemática
Com esses avanços do método axiomático, pensava-se que tinha se alcançado na formalização da matemática, tratada como ciência exata capaz de calcular e demonstrar todos os pontos de uma realidade.
Mas aí começaram a surgir os paradoxos, dos quais o mais famoso foi o de Russel:
Em uma cidade, existem dois grupos de homens: os que se barbeiam a si mesmos e os que se barbeiam com o barbeiro. A que grupo pertencem os barbeiros?
Ora, um axioma não pode comportar uma afirmação contraditória em si. De acordo com as deduções da lógica clássica, de uma contradição pode-se deduzir qualquer coisa, acaba o sonho do rigor matemático e o sistema colapsa.
Houve uma penosa luta dos matemáticos para recuperar a matemática da trombada dos paradoxos até definir o que são as verdades matemáticas, o que coube ao matemático David Hilbert (1862-1943).
Nos anos 20, Hilbert formulou um programa de investigação dos fundamentos da matemática, definindo o que deveriam ser os valores centrais:
Consistência: a matemática não poderia conter contradições.
Completude: a matemática deve provar todas suas verdades.
Procedimento de decisão: a matemática precisa ter um procedimento, digamos, mecânico permitindo distinguir sentenças matemáticas verdadeiras das falsas.
A partir desses princípios, a ideia era transformar a matemática em uma ciência absoluta com regras definitivas. No Segundo Congresso de Matemática, em Paris, Hilbert propôs os famosos 23 problemas cuja solução desafiaria as gerações seguintes de matemáticos. (http://www.rude2d.kit.net/hilbert.html).
Seus estudos foram fundamentais para o desenvolvimento da ciência da computação.
Mas havia uma pedra em seu caminho quando 1931, o matemático alemão Kurt Gödel (1906-1978), radicado nos Estados Unidos, formula seu teorema da incompletude para a aritmética, inaugurando a era moderna na matemática. Muitos estudiosos sustentam que seu “teorema da incompletude” é a maior realização do gênio humano na lógica, desde Aristóteles.No começo, os achados de Gödel se tornaram secundários no desenvolvimento da matemática do século.
A partir dos estudos de dois dos nossos heróis – Doria e Da Costa – os matemáticos descobriram porque a matemática não conseguia explicar uma série enorme de problemas matemáticos.
E aí se entra em uma selva de conceitos de difícil compreensão.
Mas, em síntese, é assim:
Suponha um sistema de axiomas, com vários axiomas. Por definição, esse axioma não demonstra fatos falsos, só verdadeiros.
Dentre os axiomas, no entanto, há uma sentença formal que, por definição, não pode ser demonstrada.
Se não pode ser demonstrada que é verdadeira, também não pode ser demonstrada que é falsa (acho que o matemático se baseou no axioma da Folha com a ficha falsa da Dilma). Logo é uma sentença “indecidível” – isto é, não pode nem ser provada nem reprovada.
Se o sistema é consistente – isto é, se consegue provar o que é provável e não consegue o que não é – então, para ser consistente, ele será incompleto.
Pronto, bagunçou totalmente a lógica dos que supunham a matemática uma ciência exata.
Anos depois, o lógico norte-americano Alonzo Church (1903-1995) e o matemático inglês Alan Turing (1912-1954) desenvolveram outro conceito, a indecibilidade.
Ambos demonstraram que há programas de computador insolúveis.
Turing, aliás, tem uma biografia extraordinária http://www.turing.org.uk/turing/. Durante a Segunda Guerra foi criptógrafo do Exército inglês. Conseguiu quebrar a criptografia da máquina alemã Enigma, até então considerada impossível de ser desvendada. Tornou-se herói de guerra. E lançou as bases para a teoria da programação em computador, quando conseguiu reduzir todas as informações a uma sucessão de 0000 e 1111.
Em 1952 confessou-se homossexual a um policial que havia batido na porta de sua casa. Preso, com base em uma lei antissodomia (revogada apenas em 1975), foi condenado a ingerir hormônios femininos para inibir o libido. Os hormônios deformaram seu corpo. Acabou se matando com uma maçã envenenada em 1954.
A teoria da programação nasce em 1936 em um artigo onde Turing analisa em detalhes os procedimentos de cálculos matemáticos e lança o esboço da “máquina de Tuning”, base da computação moderna.
Nesse modelo o procedimento é determinístico – isto é, nos cálculos não há lugar para o acaso.
Muitas vezes ocorrem os “loops infinitos”, situações em que o computador não consegue encontrar a solução e fica calculando sem parar. Turing já havia provado ser impossível um programa que prevenisse os “crashes” de computador. Explicar a “parada” no programa de computador se tornou um dos bons enigmas para os matemáticos.
Durante bom tempo, até início dos anos 50, os matemáticos procuravam a chave da felicidade: o programa que permitisse antecipar os crashes dos demais programas. Mas em 1936 Turing já havia provado ser impossível.
Mais um revés para os que imaginavam a matemática capaz de explicar (ou computar) todos os fenômenos matemáticos.
O teorema de Rice
Em 1951, outro matemático, Henry Gordon Rice avançou em um teorema considerado “arrasa quarteirão”.
Denominou-se de funções parciais àquelas em que não existe um método geral e eficaz de decisão. Se uma propriedade se aplica a todas as funções parciais, ela é chamada de propriedade trivial. E se a propriedade traz a solução correta para cada algoritmo, ela é chamada de método de decisão eficaz.
Uma propriedade só é eficaz se for aplicada a todas as funções. E essa função não existe.
Levando essas conclusões para outras áreas, é possível constatar que não existe uma vacina universal para vírus de computador, ou para vírus biológico, Todo desenvolvimento de uma vacina biológica será sempre na base de tentativa e erro.
Para desespero dos que acreditavam que a matemática poderia explicar tudo, o teorema de Rice começou a se estender para a maior parte das áreas da matemática.
O equilíbrio de Nash
O inventor oficial da computação, Von Neuman, não conseguia resolver um caso geral em que se analisava uma solução para a soma de um conjunto de decisões.
Quem resolveu foi um dos gênios matemáticos do século, John Nash, personagem principal do filme “Uma mente brilhante”, nascido em 1928 e vivo ainda.
Em uma tese de apenas 29 páginas – que lhe rendeu o PhD e o Nobel – ele mostrou que casos de jogos não-colaborativos (como em um mercado) a solução aceitável de cada jogador correspondia ao equilíbrio dos mercados competitivos.
Como explica Dória, em linguagem popular: a situação de equilíbrio é aquela que se melhorar piora.
O “equilíbrio de Nash” mostra uma situação em que há diversos jogadores, cada qual definindo a sua estratégia ótima. Chega-se a uma situação em que cada jogador não tem como melhorar sua estratégia, em função das estratégias adotadas pelos demais jogadores. Cria-se, então, essa situação do “equilíbrio de Nash”.
O princípio de Nash é: todo jogo não-cooperativo possui um equilíbrio de Nash.
O “equilíbrio de Nash” tornou-se um dos pilares da matemática moderna.
A matemática na economia
O primeiro economista a tentar encontrar o preço de equilíbrio na economia foi Léon Walras (1834-1910). Montou equações que identificam as intersecções da curva da oferta e da demanda, para chegar ao preço ótimo. Depois, montou equações para diversos mercados, concluindo que, dadas as condições ideais para a oferta e para a procura, sempre seria possível encontrar soluções matemáticas.
Mas não apresentou uma solução para o conjunto de operações da economia.
O que abriu espaço para o “equilíbrio dos mercados” foram dois matemáticos – Kenneth Arrow (1921) e Gérard Debreu (1921-2004) que beberam no “equilíbrio de Nash” para formalizar de maneira mais rigorosa os princípios de Walras.
Walras tivera o pioneirismo de formular o estado de um sistema econômico como a solução de um sistema de equações simultâneas, que representavam a demanda de bens pelos consumidores, a oferta pelos produtores e a condição de equilíbrio tal que a oferta igualasse a demanda em cada mercado. Mas, argumentavam eles, Walras não dera nenhuma prova de que a equação proposta (o somatório de todas as equações da economia) tivesse solução.
Só décadas depois, esse dilema – de como juntar em uma mesma solução todas as equações de um universo econômico – passou a ser tratado, com o desenvolvimento da teoria dos jogos, graças à aplicação do “equilíbrio de Nash” à economia. Mostraram que a solução de Nash para o jogo corresponde aos preços de equilíbrio.
Essa acabou sendo a base teórica que legitimou praticamente três décadas de liberalismo exacerbado.
Entra em cena o “outro Nash”
Aí surge em cena o “outro Nash”, Alain Lewis, um gênio matemático, negro, mistura de Harry Belafonte e Denzel Washington, criado nos guetos de Washington, depois estudante em Princenton, onde conquistou o respeito até de referências como Paul Samuelson.
Partiu dele o primeiro grande questionamento à econometria como "teoria eficaz" (isto é, capaz de matematizar todos os fenômenos econômicos).
Em um conjunto de obras, a partir de 1985, Lewis tentou demonstrar que as noções fundamentais da teoria econômica não são "eficazes" - isto é, não explicam todos os fenômenos econômicos - e, portanto, devem ser descartadas. Comprovou sua tese para um número específico de casos.
Em 1991, em Princenton, Lewis ligava de madrugada para trocar ideias com um colega brasileiro, justamente Francisco Antônio Doria. Excepcionalmente brilhante, trato difícil, o primeiro surto de Lewis foi em 1994. Há dez anos nenhum amigo sabe mais dele. Provavelmente internado em alguma clínica.
Sua principal contribuição foi comprovar que em jogos não associativos (aqueles em que há disputas entre os participantes) embora exista o "equilíbrio de Nash" descrevendo cada ação, ganhos e perdas dos competidores, o resultado geral é "não computável" . Ou seja, podem existir soluções particulares mas sem que possam ser reunidas num algoritmo geral.
Aparecem os brasileiros
O objetivo da teoria econômica é identificar as decisões individuais que valem para o coletivo. De nada vale matematizar o resultado de dois agentes individuais se a solução não se aplicar ao conjunto de agentes econômicos.
Havia razões de sobra para Lewis ligar toda noite, impreterivelmente às duas da manhã, para Dória.
Desde os anos 80, Doria e Newton da Costa estudavam soluções para o problema da teoria do caos. Queriam identificar, através de fórmulas, quando um sistema vai desenvolver ou não um comportamento caótico. Esse desafio havia sido proposto em 1983 por Maurice Hirsch, professor de Harvard.
Eram estudos relevantes, especialmente para a área de engenharia. Como saber se a vibração na asa de um avião em voo poderá ficar incontrolável ou não?
Depois, provaram uma versão do teorema de Rice para matemática usual: que usa em economia.
Depois de muitos estudos, ambos elaboraram uma resposta brilhante sobre a teoria do caos: não existe um critério geral para prever o caos, qualquer que seja a definição que se encontre para caos.
Esse conceito transbordou para outros campos computacionáveis. A partir dele foi possível inferir a impossibilidade de se ter um antivírus universal para computador, ou uma vacina universal para doenças.
Num certo dia, no segundo andar do Departamento de Filosofia da USP, Doria foi abordado por um jovem economista, Marcelo Tsuji, que já trabalhava na consultoria de Delfim Neto. Aliás, anos atrás Paulo Yokota já havia me alertado de que o rapaz era gênio. Na época, Delfim encaminhou-o para se doutorar com Doria e da Costa.
Marcelo disse a Doria ter coisas interessantes para lhe relatar. Disse que tinha encontrado uma prova mais geral para o teorema de Lewis utilizando as técnicas desenvolvidas por Doria e Da Costa.
Doria pediu para Marcelo escrever. Depois, Doria e Nilton revisaram o trabalho, todo baseado nas técnicas de lógica de ambos.
Chegou-se ao resultado em 1994. Mas o trabalho com Tsudi só foi publicado em 1998. Revistas de economia matemática recusaram publicar. Conseguiram espaço em revistas de lógica.
O grande desafio do chamado neoliberalismo seria responder às duas questões:
1. Como os agentes fazem escolhas.
2. Como a ordem geral surge a partir das escolhas individuais.
A conclusão final matava definitivamente a ideia de que em mercados competitivos se chegaria naturalmente ao preço de equilíbrio. O trabalho comprovava que o “equilíbrio de Nash” ocorria, com os mercados chegando aos preços de equilíbrio. Mas que era impossível calcular o momento. Logo, toda a teoria não tinha como ser aplicada.
O reconhecimento mundial
O Brasil não tem tradição científica para reconhecer trabalhos na fronteira do conhecimento. Assim, o reconhecimento do trabalho do trio está se dando a partir do exterior.
O livro “Gödel’s Way”, de Doria, Newton e Gregory Chaitin tornou-se um best-seller no campo da matemática, ajudando a conferir a Gödel o reconhecimento histórico que lhe faltou em vida.
Fonte: Blog do Nassif
“Perdendo o mundo”: o declínio dos EUA em perspectiva
Noam Chomsky*
O declínio dos Estados Unidos entrou há algum tempo numa nova fase: a do declínio autoinfligido. Desde os anos 70 tem havido mudanças significativas na economia dos EUA, à medida que estrategas, estatais e do sector privado, passaram a conduzi-la para a financeirização e para a exportação de unidades industriais. Essas decisões deram início ao círculo vicioso no qual a riqueza e o poder político se tornaram altamente concentrados, os salários dos trabalhadores ficaram estagnados, a carga de trabalho aumentou e o endividamento das famílias também.
Há aniversários significativos que são comemorados solenemente – o do ataque japonês à base da Marinha norte americana de Pearl Harbor, por exemplo. E há outros que são ignorados, e no entanto poderiam sempre aprender-se importantes lições acerca do seu significado nos tempos que se seguiram. Na verdade, no tempo de agora.
Neste momento, erramos ao não comemorar o 50° aniversário da decisão do presidente John F Kennedy de promover a mais assassina e destrutiva agressão do período pós-Segunda Guerra: a invasão do Vietname do Sul e depois de toda a Indochina, deixando milhões de mortos e quatro países devastados com perdas que ainda neste momento estão a crescer, causadas pela exposição do país aos agentes cancerígenos mais letais de que se tem conhecimento, que comprometeram a cobertura vegetal e a produção de alimentos.
O primeiro alvo foi o Vietname do Sul. A agressão expandiu-se depois para o Norte, e para a sociedade remota do nordeste do Laos, até finalmente chegar ao rural Camboja, cujo bombardeamento atingiu o impressionante nível de ser equivalente ao de todas as operações aéreas aliadas da região do Pacífico durante a Segunda Guerra Mundial, incluindo as duas bombas lançadas em Hiroshima e Nagasaki. Aí, as ordens de Henri Kissinger estavam a ser obedecidas – “bombardear qualquer coisa que voe ou se mova”; uma convocatória para o genocídio rara na história.
Pouco de tudo isto é lembrado. A maior parte desses massacres é escassamente conhecida para além do estreito círculo dos activistas.
Quando a invasão teve início, há cinquenta anos, a preocupação era tão reduzida que havia poucas tentativas de justificação; dificilmente iam além da indiferente afirmação do presidente de que “nos estamos a opor, em toda a parte do mundo, a uma conspiração monolítica e brutal que trata, principalmente sob meios ocultos, de expandir a sua esfera de influência” e, se a “conspiração” conseguir concretizar os seus objectivos no Laos e no Vietname, “os portões ficarão amplamente franqueados”.
Pouco de tudo isto é lembrado. A maior parte desses massacres é escassamente conhecida para além do estreito círculo dos activistas.
Quando a invasão teve início, há cinquenta anos, a preocupação era tão reduzida que havia poucas tentativas de justificação; dificilmente iam além da indiferente afirmação do presidente de que “nos estamos a opor, em toda a parte do mundo, a uma conspiração monolítica e brutal que trata, principalmente sob meios ocultos, de expandir a sua esfera de influência” e, se a “conspiração” conseguir concretizar os seus objectivos no Laos e no Vietname, “os portões ficarão amplamente franqueados”.
Numa outra ocasião, acrescentou também que “as sociedades liberais, tolerantes e autoindulgentes estavam para ser varridas para os escombros da história [e] só a força… pode sobreviver”, reflectindo neste caso a propósito do fracasso da agressão e do terror estadunidenses na tentativa de esmagar a independência cubana.
Quando os protestos começaram a crescer meia dúzia de anos depois, o respeitado historiador militar e especialista em Vietname Bernard Fall - de modo nenhum um pacifista - previu que “o Vietname como entidade histórica e cultural…está ameaçado de extinção…[enquanto]…a sua área rural morre literalmente sob os bombardeamentos da maior máquina militar jamais concentrada numa área desta dimensão”. Estava, uma vez mais, a referir-se ao Vietname do Sul.
Quando a guerra acabou, oito horrendos anos depois, a opinião dominante estava dividida entre aqueles que a descreviam como uma “causa nobre” que poderia ter sido vencida se tivesse havido maior empenho, e o extremo oposto, os críticos, para quem se tratou de “um erro” que se provou ser altamente dispendioso. Por volta de 1977 pouca atenção foi dada ao Presidente Carter quando explicou que “não havia dívida” nossa para com o Vietname porque “a destruição fora mútua”.
Quando a guerra acabou, oito horrendos anos depois, a opinião dominante estava dividida entre aqueles que a descreviam como uma “causa nobre” que poderia ter sido vencida se tivesse havido maior empenho, e o extremo oposto, os críticos, para quem se tratou de “um erro” que se provou ser altamente dispendioso. Por volta de 1977 pouca atenção foi dada ao Presidente Carter quando explicou que “não havia dívida” nossa para com o Vietname porque “a destruição fora mútua”.
Há lições importantes para hoje em tudo isto, para além dos fracos e derrotados que são chamados a responder pelos seus crimes. Uma lição é que para entender o que está a acontecer devemos procurar não apenas criticar os acontecimentos no mundo real, frequentemente ignorados pela história, mas também aquilo em que os líderes e a opinião da elite acreditam, mesmo que pintado com as tintas da fantasia. Uma outra lição é que, ao lado dos produtos da imaginação fabricados para aterrorizar e mobilizar o público (e em que talvez acreditem aqueles que são enganados pela sua própria retórica), há também planeamento geoestratégico baseado em princípios que se mantém racionais e estáveis durante longos períodos, porque estão implantados em instituições estáveis e na agenda destas. Isso também é verdade no caso do Vietname. Voltarei ao tema, destacando aqui apenas que os elementos que persistem na acção estatal são geralmente bastante opacos.
A guerra do Iraque é um caso instrutivo. Foi vendida a um público aterrorizado através da ameaça usual da autodefesa face um formidável perigo para a sobrevivência: a “única questão” que George W. Bush e Tony Blair colocaram foi se Saddam Hussein iria encerrar o seu programa de desenvolvimento de armas de destruição em massa. Quando a “única questão” recebeu a resposta errada, a retórica do governo mudou rapidamente para o nosso “anseio por democracia”, e a opinião pública condicionada seguiu devidamente o curso; o de sempre.
Mais tarde, à medida que a escalada da derrota no Iraque se tornou difícil de esconder, o governo admitiu tranquilamente o que já era claro para todo mundo. Em 2007-2008, a administração anunciou oficialmente que um acordo final deve assegurar a permanência de bases militares dos EUA e o direito destes a operar militarmente no país, e deve privilegiar os investidores estadunidenses na exploração de seu rico sistema energético – reivindicações que passaram depois para segundo plano face à relutância iraquiana. E tudo ficou bastante opaco para a maioria das pessoas.
Mais tarde, à medida que a escalada da derrota no Iraque se tornou difícil de esconder, o governo admitiu tranquilamente o que já era claro para todo mundo. Em 2007-2008, a administração anunciou oficialmente que um acordo final deve assegurar a permanência de bases militares dos EUA e o direito destes a operar militarmente no país, e deve privilegiar os investidores estadunidenses na exploração de seu rico sistema energético – reivindicações que passaram depois para segundo plano face à relutância iraquiana. E tudo ficou bastante opaco para a maioria das pessoas.
Padronizando o declínio americano
Com essas lições em mente é útil dar uma vista de olhos sobre o que é destacado na manchete dos maiores jornais de política e de opinião, nos dias de hoje. Peguemos na mais prestigiada das publicações do establishment, Foreign Affairs. A estrondosa manchete da capa de Dezembro de 2011 estampava em negrito: “A América acabou?”.
O artigo da capa pedia “corte de gastos” nas “missões humanitárias” no exterior, que estavam a consumir a riqueza do país, para impedir o declínio americano, que é o maior tema nos discursos do ambiente de negócios, e que frequentemente vem acompanhado do corolário de que o poder está a mudar para o Leste, para a China e (talvez) a Índia.
Depois os principais artigos são a respeito de Israel e da Palestina. O primeiro, da autoria de dois altos oficiais israelenses, é intitulado “O Problema é a Rejeição Palestina”: o conflito não pode ser resolvido porque os palestinos se recusam a reconhecer Israel como Estado Judeu – o que está em conformidade com a prática diplomática normal: os estados são reconhecidos, não os seus sectores privilegiados. Esta reclamação dificilmente será outra coisa senão um novo estratagema para conter o risco de uma solução política para os assentamentos ilegais, que minaria os objectivos expansionistas de Israel.
A posição oposta é defendida por um professor estado-unidense e tem o título “O Problema é a Ocupação”. No subtítulo lê-se: “Como a Ocupação está Destruindo a Nação”. Qual nação? A de Israel, é claro. Ambos os artigos aparecem com o título em destaque: “Israel sitiado”.
A edição de Janeiro de 2012 lança ainda um outro apelo ao bombardeamento do Irão, já, antes que seja tarde demais. Alertando contra “os perigos da dissuasão”, o autor sugere que “os cépticos em relação à acção militar falham na avaliação do perigo real que um Irão com armas nucleares significaria para os interesses dos EUA no Oriente Médio e mais longe ainda. E nas suas sombrias previsões imaginam que a cura pode ser pior do que a doença – quer dizer, que as consequências de um ataque estadunidense ao Irã seriam tão más ou piores do que se o país conseguisse levar a cabo as suas ambições nucleares. Mas essa é uma suposição falsa. A verdade é que um ataque militar visando destruir o programa nuclear iraniano, se for feito com cuidado, poderá significar a eliminação para a região e para o mundo de uma ameaça muito real e melhorar dramaticamente a segurança nacional dos Estados Unidos a longo prazo”.
Outros argumentam que os custos seriam altos demais e, no limite, alguns chegam a dizer que um ataque [ao Irão] violaria o direito internacional – como o fazem os moderados, que lançam regularmente ameaças de violência, em violação à Carta das Nações Unidas.
A edição de Janeiro de 2012 lança ainda um outro apelo ao bombardeamento do Irão, já, antes que seja tarde demais. Alertando contra “os perigos da dissuasão”, o autor sugere que “os cépticos em relação à acção militar falham na avaliação do perigo real que um Irão com armas nucleares significaria para os interesses dos EUA no Oriente Médio e mais longe ainda. E nas suas sombrias previsões imaginam que a cura pode ser pior do que a doença – quer dizer, que as consequências de um ataque estadunidense ao Irã seriam tão más ou piores do que se o país conseguisse levar a cabo as suas ambições nucleares. Mas essa é uma suposição falsa. A verdade é que um ataque militar visando destruir o programa nuclear iraniano, se for feito com cuidado, poderá significar a eliminação para a região e para o mundo de uma ameaça muito real e melhorar dramaticamente a segurança nacional dos Estados Unidos a longo prazo”.
Outros argumentam que os custos seriam altos demais e, no limite, alguns chegam a dizer que um ataque [ao Irão] violaria o direito internacional – como o fazem os moderados, que lançam regularmente ameaças de violência, em violação à Carta das Nações Unidas.
Vamos rever cada uma dessas preocupações dominantes
O declínio americano é real, embora esta visão apocalíptica reflicta a percepção bastante habitual da classe dominante de que alguma limitação parcial ou geral implica o desastre total. A despeito desses pios lamentos, os EUA persistem como poder dominante mundial por larga margem e não há competidores à vista, não apenas em dimensão do poder militar, a respeito do qual os EUA dominam em absoluto.
A China e a Índia registaram um crescimento rápido (embora altamente desigual), mas permanecem países muito pobres, com problemas internos enormes que o Ocidente não enfrenta. A China é o maior centro industrial do mundo, mas maioritariamente como linha de montagem para as potências industriais avançadas, na sua periferia, e para as multinacionais ocidentais. É provável que isso mude com o tempo. A indústria em regra provê as bases para a inovação e a invenção, e na China isso vem ocorrendo. Um exemplo que impressionou os especialistas ocidentais foi a tomada chinesa da liderança no crescente mercado de painéis solares, não apenas com base na mão-de-obra barata, mas no planeamento coordenado e, crescentemente, na inovação.
Mas os problemas que a China enfrenta são sérios. Alguns são demográficos, relatados na Science, o líder dos semanários estadunidenses de divulgação científica. O estudo mostra que a mortalidade caiu bruscamente na China durante os anos maoístas, “principalmente em resultado do desenvolvimento económico e das melhorias nos serviços educacionais e de saúde, especialmente no movimento de higiene pública que resultou num golpe drástico à mortalidade por doenças infecciosas”. Esse progresso acabou com o início das reformas capitalistas no país, há 30 anos, e a taxa de mortalidade desde então tem aumentado.
Além disso, o crescimento económico chinês recente contou substancialmente com um “bónus demográfico”, uma grande população em idade economicamente ativa. “Mas a janela para o uso desse bónus pode fechar em breve”, com um “impacto profundo no desenvolvimento”: “o excesso de mão-de-obra barata, que é um dos maiores factores de dinamização do milagre económico chinês deixará de estar disponível”. A demografia é apenas um dos muitos problemas sérios para diante. No que concerne a Índia, os problemas são ainda mais graves.
Nem todas as vozes proeminentes anteveem o declínio americano. Nos media internacionais não há nada mais sério e respeitável do que o Financial Times. O jornal dedicou recentemente uma página inteira à expectativa optimista em que a nova tecnologia para extrair combustível fóssil norte-americano pode fazer com que os EUA se tornem energeticamente independentes, mantendo portanto a sua hegemonia por mais um século. Não há menção ao tipo de mundo que os EUA comandarão nesse cenário feliz, mas não por falta de dados.
Quase ao mesmo tempo a Agência Internacional de Energia reportou que com o aumento rápido das emissões de carbono dos combustíveis fósseis o limite de uso seguro será atingido por volta de 2017, se o mundo continuar no actual curso. “A porta está a fechar”, disse o economista-chefe da AIE, e muito em breve “fechará de vez”.
Pouco antes, o Departamento de Energia dos EUA informou que as imagens mais recentes das emissões de dióxido de carbono, com “a subida para o maior índice já registado”, atingiram um nível mais elevado do que os piores cenários previstos pelo Painel Internacional de Mudanças Climáticas (IPCC). Isso não constitui surpresa para muitos cientistas, inclusive os do programa do MIT para as mudanças climáticas, que alertou durante anos que os prognósticos do IPCC eram demasiado conservadores.
Esses críticos das previsões do IPCC não receberam qualquer atenção pública, ao contrário dos grupos negacionistas do aquecimento global, que são apoiados pelo sector corporativo, juntamente com imensas campanhas de propaganda que têm colocado os americanos de fora do espectro internacional dessas ameaças. O apoio das corporações também se reflecte directamente no poder político. O negacionismo é parte do catecismo que deve ser entoado pelos candidatos republicanos na ridícula campanha eleitoral em curso, e no Congresso eles são suficientemente poderosos até para abortar investigações sobre o efeito do aquecimento global, deixando de lado qualquer acção séria a respeito. Numa palavra, o declínio americano pode talvez ser interrompido se abandonarmos a esperança numa sobrevivência decente, prognóstico também bastante real dado o equilíbrio de forças no mundo.
Esses críticos das previsões do IPCC não receberam qualquer atenção pública, ao contrário dos grupos negacionistas do aquecimento global, que são apoiados pelo sector corporativo, juntamente com imensas campanhas de propaganda que têm colocado os americanos de fora do espectro internacional dessas ameaças. O apoio das corporações também se reflecte directamente no poder político. O negacionismo é parte do catecismo que deve ser entoado pelos candidatos republicanos na ridícula campanha eleitoral em curso, e no Congresso eles são suficientemente poderosos até para abortar investigações sobre o efeito do aquecimento global, deixando de lado qualquer acção séria a respeito. Numa palavra, o declínio americano pode talvez ser interrompido se abandonarmos a esperança numa sobrevivência decente, prognóstico também bastante real dado o equilíbrio de forças no mundo.
“Perdendo” a China e o Vietname
Deixando de lado estas coisas desagradáveis, um olhar de perto sobre o declínio americano mostra que a China joga na verdade um grande papel nele, tanto como o que jogava há 60 anos. O declínio que agora gera tanta preocupação não é um fenómeno recente. Ele remonta ao fim da Segunda Guerra Mundial, quando os EUA tinham metade da riqueza do mundo e dispunham de níveis globais de segurança incomparáveis. Os estrategas políticos estavam naturalmente bastante conscientes dessa enorme disparidade de poder e pretendiam mantê-la assim.
O ponto de vista básico foi apresentado com admirável franqueza num grande documento de 1948. O autor era um dos arquitectos da Nova Ordem Mundial da época, o representante da equipa de Planeamento Político do Departamento de Estado dos EUA, o respeitado estadista e académico George Kennan, um pacifista moderado entre os estrategas. Ele observou que o objectivo político central era manter a “posição de disparidade” que separava a nossa enorme riqueza da pobreza dos outros. Para alcançar esse objectivo, advertiu, “nós deveríamos parar de falar em objectivos vagos e… irreais, como os direitos humanos, a elevação do padrão de vida e a democratização”, e devemos “lidar com conceitos estritos de poder”, não “limitados por slogans idealistas” a respeito de “altruísmo e do benefício do mundo”.
O ponto de vista básico foi apresentado com admirável franqueza num grande documento de 1948. O autor era um dos arquitectos da Nova Ordem Mundial da época, o representante da equipa de Planeamento Político do Departamento de Estado dos EUA, o respeitado estadista e académico George Kennan, um pacifista moderado entre os estrategas. Ele observou que o objectivo político central era manter a “posição de disparidade” que separava a nossa enorme riqueza da pobreza dos outros. Para alcançar esse objectivo, advertiu, “nós deveríamos parar de falar em objectivos vagos e… irreais, como os direitos humanos, a elevação do padrão de vida e a democratização”, e devemos “lidar com conceitos estritos de poder”, não “limitados por slogans idealistas” a respeito de “altruísmo e do benefício do mundo”.
Kennan estava a referir-se especificamente à Ásia, mas as suas observações generalizam-se, com excepções, aos participantes no actual sistema de dominação global dos EUA. Ficou bastante claro que os “slogans idealistas” deveriam ser apresentados sobretudo quando dirigidos aos outros, inclusive às classes intelectualizadas, das quais era esperada a sua disseminação.
O plano de Kennan ajudou a formular e a implementar a tomada de controlo pelos EUA do Hemisfério Oeste, do Extremo Leste e das regiões do ex-império britânico (incluindo os incomparáveis recursos energéticos do Médio Oriente), e aquilo que foi possível da Eurásia, sobretudo os seus centros comerciais e industriais. Esses não eram objetivos irreais, dada a distribuição do poder. Mas o declínio foi então determinado de vez.
O plano de Kennan ajudou a formular e a implementar a tomada de controlo pelos EUA do Hemisfério Oeste, do Extremo Leste e das regiões do ex-império britânico (incluindo os incomparáveis recursos energéticos do Médio Oriente), e aquilo que foi possível da Eurásia, sobretudo os seus centros comerciais e industriais. Esses não eram objetivos irreais, dada a distribuição do poder. Mas o declínio foi então determinado de vez.
Em 1949, a China declarou a independência, um acontecimento conhecido no discurso do Ocidente como “a perda da China” – nos EUA, com algumas recriminações amarguradas e o conflito interpretativo a respeito de quem tinha sido o responsável por essa perda. A terminologia é reveladora. Só é possível perder o que em algum momento se teve. A assunção tácita era que os EUA tinham a China, por direito, juntamente com a maior parte do resto do mundo, tal como os estrategas do pós-guerra pensavam.
A “perda da China” foi o primeiro grande passo do “declínio americano”. Foi o que teve maiores consequências políticas. Uma delas foi a decisão imediata de apoiar o esforço francês de reconquista da sua ex-colónia da Indochina, para que esta também não fosse “perdida”.
A Indochina em si não era motivo de preocupação maior, a despeito das afirmações acerca das suas riquezas naturais por parte do presidente Eisenhower e outros. A preocupação maior era antes com a “teoria do efeito dominó”, a qual é frequentemente ridicularizada quando os dominós não caem, mas permanece um princípio regulador da política, porque é bastante racional. Para adoptar a versão que Henri Kissinger dele faz, uma localidade que cai fora do controle pode tornar-se um “vírus” que irá “contagiar”, induzindo outros a seguirem o mesmo caminho.
No caso do Vietname, a preocupação era que esse vírus do desenvolvimento independente pudesse infectar a Indonésia, que de facto é rica em recursos. E isso poderia levar o Japão – o “superdominó”, como o proeminente historiador da Ásia John Dower chamava – a “acomodar” uma Ásia independente como seu centro tecnológico e industrial num sistema que escaparia do alcance do poder dos EUA. Isso significaria, com efeito, que os EUA tinham perdido a fase Pacífico da Segunda Guerra, na qual lutaram para tentar impedir que o Japão estabelecesse uma Nova Ordem na Ásia.
A Indochina em si não era motivo de preocupação maior, a despeito das afirmações acerca das suas riquezas naturais por parte do presidente Eisenhower e outros. A preocupação maior era antes com a “teoria do efeito dominó”, a qual é frequentemente ridicularizada quando os dominós não caem, mas permanece um princípio regulador da política, porque é bastante racional. Para adoptar a versão que Henri Kissinger dele faz, uma localidade que cai fora do controle pode tornar-se um “vírus” que irá “contagiar”, induzindo outros a seguirem o mesmo caminho.
No caso do Vietname, a preocupação era que esse vírus do desenvolvimento independente pudesse infectar a Indonésia, que de facto é rica em recursos. E isso poderia levar o Japão – o “superdominó”, como o proeminente historiador da Ásia John Dower chamava – a “acomodar” uma Ásia independente como seu centro tecnológico e industrial num sistema que escaparia do alcance do poder dos EUA. Isso significaria, com efeito, que os EUA tinham perdido a fase Pacífico da Segunda Guerra, na qual lutaram para tentar impedir que o Japão estabelecesse uma Nova Ordem na Ásia.
O modo de lidar com um problema desses é claro: destruir o vírus e “inocular” aqueles que podem ser infectados. No caso do Vietname, a escolha racional era destruir qualquer esperança de desenvolvimento independente bem-sucedido e impor ditaduras brutais nos arredores. Essas tarefas foram levadas a cabo com sucesso – embora a história tenha a sua própria astúcia, e algo similar ao que foi temido desde então se tenha desenvolvido no Leste da Ásia, na maior parte dos casos para consternação de Washington.
A vitória mais importante das guerras da Indochina deu-se em 1965, quando um golpe de estado militar com o apoio dos EUA, liderado pelo general Suharto, significou crimes massivos comparados pela CIA aos de Hitler, Stalin e Mao. A “assombrosa matança massiva”, como a descreveu o New York Times, foi cuidadosamente reportada nos meios dominantes, e com desenfreada euforia.
*Em Al Jazeera Fevereiro, 2012
Marcadores:
analise economica,
Historia,
imperialismo,
literatura,
politica internacional
Assinar:
Postagens (Atom)