“Não há como chegar lá sem uma inovação”.
É o que disse Sam Altman para uma plateia em Davos, na Suíça, durante o Fórum Econômico Mundial de 2024. O “lá” a que Altman está se referindo é o sonho do Vale do Silício de um mundo em que o poder infinito da computação proporcione o paraíso na Terra. Mas há um problema fundamental que precisa ser superado: o planeta é finito. Como CEO da OpenAI e supervisor do ChatGPT, Altman observou que os sistemas de inteligência artificial consomem muito mais energia do que se esperava, e ele teme que, em breve, surjam novos limites para as implementações de IA devido à falta de energia disponível. De acordo com Altman, o mundo deve adotar a fissão nuclear e, ao mesmo tempo, investir muito mais em fusão nuclear: a expansão exponencial da IA simplesmente exige isso. Atendendo ao chamado do infinito, ele investiu 375 milhões de dólares de sua imensa fortuna na Helion Energy, uma empresa norte-americana privada de fusão da qual ele é o maior investidor de capital de risco. Ele até mesmo aproveitou a parceria da OpenAI com a Microsoft, que investiu dinheiro na Helion como parte de um acordo totalmente especulativo para comprar eletricidade, apesar do fato da Helion nunca ter produzido nada.
Esse burburinho sobre a inovação é proeminente nas manchetes de jornais, onde os desenvolvimentos tecnológicos são frequentemente enquadrados como “momentos Oppenheimer” que mudam o jogo. Dois exemplos proeminentes incluem o início de testes em humanos para o implante cerebral da Neuralink – uma interface inserida no crânio destinada a conectar a carne viva de um cérebro a uma máquina de computação em rede – e anúncios de experimentos de fusão nuclear que alcançaram “ganhos finais positivos de energia” e, portanto, prometem fornecer energia limpa infinita. O fato desses dois assuntos nunca estarem longe das manchetes dos jornais, mesmo quando não há desenvolvimentos significativos, nos diz algo sobre o papel da alta tecnologia em nossa sociedade. Não é preciso examinar mais profundamente esses exemplos para ver as camadas de fraude, propaganda egoísta e visões tecnocráticas estreitas. A cobertura da “promessa” de energia elétrica infinita a partir da fusão, e de conectividade ilimitada por meio de um cérebro-computador dentro do crânio são boas fantasias, se você quiser desviar os leitores da realidade sombria e violenta em que nos encontramos.
A Neuralink Corporation foi fundada por Elon Musk em 2016 e seguiu um caminho de propaganda e criação de mitos conhecidos de seus outros empreendimentos comerciais. De acordo com sua missão declarada, a Neuralink criará “uma interface cerebral generalizada para restaurar a autonomia daqueles com necessidades médicas não atendidas hoje e desbloquear o potencial humano amanhã”. Com base nisso, Musk promete regularmente poderes semelhantes aos do messias de curar paralisia, cegueira, depressão, insônia e assim por diante. No entanto, nos oito anos de existência da Neuralink, a empresa não apresentou nenhuma evidência de que tenha sequer começado a trabalhar em qualquer uma dessas áreas bastante distintas umas das outras. Dê a Musk um microfone e um holofote e essa retórica de curar os doentes rapidamente dá lugar a fantasias de criação de um “dispositivo para a população geral” que permitirá a simbiose com a IA “de modo que o futuro do mundo seja controlado pela vontade combinada das pessoas da Terra”.
Leia também – A liberdade de expressão e as redes
A Neuralink Corp se baseia em pesquisas que remontam ao final da década de 1960, quando o primeiro experimento bem-sucedido em um macaco com uma máquina inserida em seu cérebro permitiu que ele pegasse alimentos por meio de biofeedback. Continuando a busca pelo “cérebro inteligente”, a Neuralink recebeu aprovação para realizar experimentos em humanos, e o recrutamento já começou. Isso ocorre depois de uma série de experimentos violentos e perturbadores com macacos, que resultaram em paralisia, inchaço cerebral, convulsões frenéticas, infecções fúngicas e macacos que ficaram tremendo e chorando de mãos dadas com seus companheiros de cela por dias intermináveis. Em todos os casos, o resultado final foi a morte. Apesar desse histórico sombrio, uma oferta pública de ações de meados de 2023 mostra que a Neuralink recebeu 280 milhões de dólares de investidores externos que, supostamente, foram enganados pela propaganda infinita de Musk e estão apostando na criação de um dispositivo que esteja próximo de ser comercializado. Os obstáculos técnicos para a criação de uma interface de cérebro-computador minimamente funcional, quanto mais uma que seja comercializável – para não mencionar a ética ou o bem – são imensos, e provavelmente intransponíveis em qualquer futuro previsível materialmente fundamentado.
Da mesma forma, os defensores da fusão nuclear aproveitam um surto momentâneo de energia obtido pela tecnologia – muito abaixo da energia inicial colocada no sistema – e o utilizam para dar um salto para fantasias de que a tecnociência produzirá energia limpa ilimitada. Em suas imaginações limitadas, essa tecno-correção aparentemente resolverá todo o problema da relação catastrófica da humanidade com a ecologia do planeta, permitindo que os negócios continuem como sempre, apenas sem a necessidade de usar combustíveis fósseis para a geração de eletricidade. Como Darrin Durant demonstrou, no entanto, quase “cada palavra escrita sobre o ‘ganho final positivo de energia’ de uma reação de fusão é uma espécie de ignorância fabricada”, observando que “a única coisa ilimitada e livre sobre a energia de fusão é o hype (euforia, propaganda) que ela gera”. Essas implicações têm um longo histórico, com a fusão entrando no cenário mundial por meio de um impressionante ato de fraude: o Projeto Huemul. Em 1951, o presidente da Argentina, o general Perón, anunciou que seus cientistas haviam produzido um “resultado final positivo” em seus experimentos termonucleares, ultrapassando assim os Estados Unidos e a União Soviética e prometendo fornecer energia infinita e ilimitada que seria “vendida em garrafas de meio litro, como leite”. O fato dessa promessa ter se desintegrado rapidamente não impediu a repetição de variações sobre o tema ao longo das décadas. No final da Guerra Fria, houve uma grande empolgação com a “fusão a frio”, com dois cientistas alegando ter construído um aparelho que poderia abrir um caminho diferente para a obtenção de reações de fusão, levantando novamente à perspectiva de energia infinita. O fato disso também ter sido rapidamente desmascarado como propaganda fraudulenta não impediu que o assunto continuasse a ser abordado regularmente, como por exemplo na tentativa financiada pelo Google de replicar o experimento em 2019. Há apenas um mês, a revista Nature proclamou que uma “nova era” na pesquisa de fusão havia sido alcançada, mas um olhar mais atento revela que a comercialização da ciência incentiva tanto o exagero quanto a supressão de qualquer apreciação de risco. Isso produz manchetes que podem empolgar uma determinada porcentagem de pessoas, mas para muitas outras é mais provável que essas manchetes ajudem a deslegitimar especialistas, alimentem conspirações e minem nossa capacidade de ter conversas significativas sobre os problemas monumentais que a sociedade enfrenta atualmente.
As reportagens da imprensa comercial, ávidas por exageros, apresentam a fusão e o “cérebro inteligente” como se estivessem em estágios iniciais e empolgantes de desenvolvimento. Na verdade, eles estão em um estágio inicial perpétuo, sendo que as conquistas desses dois setores hoje não são qualitativamente diferentes do que foram alcançadas há cinquenta anos. Ocorreram várias melhorias quando avaliadas por métricas restritas, mas nenhuma mudança radical básica de qualquer tipo, o que as torna nitidamente diferentes da mudança histórica mundial do “momento original de Oppenheimer”, algo recentemente trazido de volta à consciência pública pelo sucesso comercial e de crítica do filme. “Oppenheimer” já recebeu muitos prêmios de cinema, e outros estão por vir, e arrecadou quase um bilhão de dólares, tornando-se o segundo filme de maior bilheteria com classificação R. Ele ressoa claramente no mundo de hoje, no qual os produtos da bomba atômica – como a fusão e os computadores implantados – continuam a perturbar a condição humana. No entanto, o filme, como observou Richard King, acaba falhando em interpretar os significados mais profundos do que aconteceu no Novo México em 1945. Mesmo três gerações depois, esses significados e as consequências sociais da energia atômica são mal compreendidos. Pois foi nessa primeira explosão atômica que surgiu algo genuinamente novo – uma verdadeira “inovação” –, algo radicalmente diferente de tudo o que a precedeu, algo que vale a pena examinar de perto para tentar compreender o estranho e terrível momento histórico em que nos encontramos hoje.
Leia também – Inteligência artificial da vaidade
A primeira bomba
Em um momento muito específico, uma grande fenda começou a rasgar o tecido social e ecológico que compõe o mundo. Esse rasgo se abriu exatamente 21 segundos após as 5h29 – horário local do Novo México, EUA – em 16 de julho de 1945. Nesse momento, a primeira bomba atômica – agraciada com o nome sagrado de “Trinity” – foi detonada em uma antiga bacia vulcânica transformada em deserto. Os átomos de plutônio foram despedaçados em uma reação nuclear, liberando uma imensa quantidade de energia na forma de calor, luz, som e radiação, sacudindo a terra, derretendo a areia do deserto em vidro verde radioativo e enviando uma enorme nuvem em forma de cogumelo a doze quilômetros no céu. A explosão, escreveu William Laurence – o único jornalista presente no teste da Trinity – foi “o primeiro fogo já feito na Terra que não teve sua origem no Sol”. Esse incidente rigorosamente calculado é um momento crucial na história do mundo: nesse ponto, as forças tecnocientíficas permitiram que as pessoas reorganizassem a natureza, separando os átomos para liberar uma energia imensa, transformando, assim, as formas mais básicas de relacionamento das pessoas com o mundo natural e contribuindo para uma reorganização fundamental das práticas sociais que constituem a forma como vivemos nossas vidas em comum. De fato, ela marca claramente uma transformação histórica – uma ruptura fundamental com 500 anos de modernidade capitalista e a sufusão de um novo nível de abstração em toda a vida social.[1]
Um pouco da importância histórica do momento foi detectada por aqueles que construíram e lançaram a bomba. O próprio Oppenheimer, é claro, fez a famosa declaração, parafraseando o Bhagavad Gita: “Agora, eu me tornei a Morte, o destruidor de mundos”, referindo-se aos poderes semelhantes aos de Deus, de Krishna e de Oppenheimer. O secretário de Guerra dos Estados Unidos, Henry Stimson, que justificaria o lançamento da bomba atômica em Hiroshima, declarou em 1947 “que a energia atômica não poderia ser considerada simplesmente em termos de armas militares, mas também deveria ser considerada em termos de uma nova relação do homem com o universo”.[2] Mas quando essas declarações apontam para a ruptura, elas não definem seu caráter social. Como escreveu John Hinkson, “a era nuclear anuncia muito mais do que a possibilidade de destruição nuclear. Ela introduz uma profunda transformação social na qual não consideramos mais a natureza como algo garantido; embora isso sempre estivesse ocorrendo até certo ponto, agora ela está sendo radicalmente transformada por um capitalismo entrelaçado com práticas intelectuais”,[3] em que práticas intelectuais se referem às práticas de cientistas e outros, nas quais a abstração assume uma forma material e viva.
Durante a primeira metade do século XX, o complexo militar-industrial surgiu simultaneamente nos Estados Unidos e na Alemanha, com uma versão sem fins lucrativos dele surgindo na União Soviética imediatamente após a Segunda Guerra Mundial. Com base nos trabalhos de Einstein de 1905 e sua elaboração, os cientistas alemães descobriram em 1938 que a fissão de átomos de urânio era possível e continuaram a liderar o mundo em teorias e experimentos atômicos. Os cientistas militares americanos presumiram que os nazistas estavam buscando a criação de uma bomba atômica e usaram isso como a principal justificativa para sua própria busca. Curiosamente, porém, em 1942, Hitler havia decidido não dedicar recursos à construção de uma bomba atômica, em grande parte pelo motivo prático de que não seria possível construí-la durante os três anos de guerra que ele acreditava haver entre ele e seu imaginado império mundial. Por coincidência, no mesmo mês em que Hitler cancelou o programa atômico nazista, teve início o Projeto Manhattan.
Durante suas pesquisas, alguns dos cientistas que estavam no topo do Projeto Manhattan calcularam que a força de uma reação nuclear em cadeia poderia se espalhar pelo nitrogênio que compõe 70% da atmosfera da Terra, transformando-a efetivamente em uma bomba atômica planetária – algo que levaria à aniquilação instantânea e total de toda a cadeia de vida terrestre. A perspectiva da “ignição atmosférica” causou discordância entre os cientistas: Edward Teller estava preocupado com isso; Hans Bethe estava convencido de que era impossível; os outros dez ficaram no meio termo. Enrico Fermi, de forma bastante razoável, não podia descartar a possibilidade de que eles tivessem deixado passar algo em seus cálculos sobre como esse evento totalmente sem precedentes poderia se desenrolar. Mesmo assim, a equipe norte-americana prosseguiu. Antes de os norte-americanos iniciarem a pesquisa, Werner Heisenberg, o principal cientista do projeto nazista de armas nucleares, também havia tomado conhecimento da possibilidade de ignição atmosférica. Aparentemente, esse foi um fator que levou Hitler a abandonar o projeto em meados de 1942, conforme revelou Albert Speer, ministro nazista de Armamentos e Produção de Guerra, em seu livro de memórias “Inside the Third Reich”:
“Hitler claramente não estava encantado com a possibilidade de que a Terra sob seu domínio pudesse ser transformada em uma estrela brilhante. Ocasionalmente, no entanto, ele brincava, dizendo que os cientistas, em sua ânsia insana de revelar todos os segredos sob o céu, poderiam algum dia incendiar o globo. Mas, sem dúvida, muito tempo se passaria antes que isso acontecesse, disse Hitler; ele certamente não viveria para ver isso.”[4]
Essa última previsão se concretizou: o teste da Trinity foi realizado apenas setenta e sete dias após a conquista de Berlim pelo Exército Vermelho e o suicídio de Hitler. Enquanto os cientistas se preparavam para o teste, Fermi sugeriu uma aposta sobre a possibilidade deles provocarem faíscas na atmosfera, estabelecendo as chances de queimar o planeta em 10:1. Como César disse ao atravessar o Rubicão, “alea iacta est” – a sorte está lançada. Foi extremamente significativo o fato de que, apesar de não poderem descartar a possibilidade de um apocalipse planetário instantâneo e total, eles terem continuado com o experimento, sendo essa aposta imprudente a confirmação da negligência com relação à descoberta científica e sua aplicação que marcaria nossa era.
Leia também – Frisson nuclear – sobre ‘Oppenheimer’
Uma aposta semelhante foi repetida apenas vinte e três dias após o teste da Trinity, dessa vez na forma de um experimento humano colossal. Duas cidades foram escolhidas para testar dois tipos diferentes de armas: Hiroshima, uma bomba atômica com um núcleo de urânio de ignição – que novamente correu o risco na aposta da ignição atmosférica – e, três dias depois, Nagasaki, uma arma de implosão com um núcleo de plutônio, como a que havia sido testada no teste da Trinity. Dessa vez, ela foi testada com cobaias humanas. Os resultados foram claros e o experimento foi considerado bem-sucedido de acordo com seus próprios padrões: as bombas eram incrivelmente poderosas, destruidoras de cidades, com cerca de 210 mil mortes resultantes dos dois testes. Justificativas posteriores sobre a necessidade de forçar o colapsante Império Japonês a se render e vários cálculos do número de mortes de soldados necessárias para conquistar o arquipélago foram uma distração cínica e egoísta da forma inteiramente nova de violência calculada e da trajetória que ela marcaria para toda a vida na era nuclear de forma mais geral.
De fato, a explosão da Trinity, juntamente com as 2055 explosões nucleares subsequentes e vários derretimentos de reatores, liberou radiação que será detectável na crosta terrestre em milhões de anos futuros e, portanto, é um marcador sólido que os geólogos podem usar para definir o início do “Antropoceno”. Depois que as nuvens em forma de cogumelo sobre o Japão se dissiparam, a superpotência triunfante foi metaforicamente envenenada por suas próprias armas. Esse é outro paradoxo cruel da época: o fato de que a racionalidade pura e aplicada necessária para teorizar e fabricar uma máquina poderosa o suficiente para dividir átomos era, ao mesmo tempo, totalmente irracional. Não só pelo fato de fazer apostas sobre o apocalipse instantâneo, mas também por trazer à tona essas armas terríveis, o Projeto Manhattan preparou o terreno para a proliferação nuclear, a corrida armamentista e o espectro do extermínio. Esse ponto foi enfatizado nos momentos finais e mais poderosos do filme biográfico de Oppenheimer. No retorno a uma cena que ecoa por todo o filme, o protagonista diz a Einstein: “Quando lhe apresentei aqueles cálculos, pensamos que poderíamos iniciar uma reação em cadeia que poderia destruir o mundo inteiro”. Einstein pergunta: “E então?”. Oppenheimer responde: “Acredito que conseguimos”. De suas origens norte-americanas, a reação em cadeia saltou para a União Soviética (1949), o Reino Unido (1952), a França (1960), a China (1964), a Índia (1974), Israel (1960-79), o Paquistão (1998) e a Coreia do Norte (2006). A essa lista podemos acrescentar mais vinte e três países que têm usinas nucleares em operação ou em construção, pois os vínculos entre armas nucleares e geração de energia são “profundos e intrínsecos”.[5] Mesmo na atual guerra de Israel em Gaza, a posse de armas nucleares por parte de Israel lança uma névoa distinta sobre todo o conflito: ela é fundamental para entender os métodos aniquiladores desse Estado e o senso de impunidade total na busca da “vitória completa” a qualquer custo, a qualquer quantidade de sofrimento, a qualquer quantidade de rejeição global. Como observou Wolfgang Streeck, ter armas nucleares e meios de distribuição de espectro total – submarinos, bombardeiros, mísseis balísticos intercontinentais, além de uma doutrina secreta de quando e como elas podem ser usadas – é fundamental para o senso de invulnerabilidade de Israel.
O uso dessas armas sempre foi regido pela lógica do exterminismo. Daniel Ellsberg, que trabalhou para o Pentágono e para a profundamente imbricada RAND Corporation como analista estratégico de comando e controle nuclear de 1958 a 1969, observou a “loucura institucionalizada” que cercava a bomba. As estimativas oficiais do número total de mortos em um primeiro ataque dos EUA à União Soviética, à China e às nações satélites do Pacto de Varsóvia seriam de cerca de seiscentos milhões de mortos: “Cem Holocaustos”, escreveu Ellsberg. “Esse resultado esperado expôs uma vertiginosa irracionalidade, loucura, insanidade, no coração e na alma de nosso planejamento e aparato nuclear”. Assim que o projeto de controle se intensificou a ponto de chegar ao átomo, ele saiu de controle, lançando a ameaça real de morte em escala colossal em todo o planeta.
Planos como o que Ellsberg revelou ainda existem hoje, e como a população mundial dobrou desde que ele deixou o o Pentágono, basta dizer que o número esperado de mortes seria muito maior: talvez 200 Holocaustos, talvez mais. Como dizia o manifesto Russell-Einstein de 1955, uma guerra nuclear em grande escala significa “morte universal – súbita apenas para uma minoria, mas para a maioria uma lenta tortura de doença e desintegração”. Atualmente, os Estados Unidos e a Rússia têm, cada um, cerca de 6 mil armas nucleares disponíveis, o que dá a cada um deles a capacidade de detonar uma arma em cada cidade do planeta com população superior a 100 mil pessoas e ainda manter mais bombas guardadas em seus arsenais. Como o Boletim de Cientistas Atômicos nos lembra, a ameaça de uma guerra nuclear é hoje a mais alta de todos os tempos.[6]
A segunda bomba
Pouco antes de sua morte, em 1955, Einstein fez um alerta terrível: estávamos vivendo sob uma grave ameaça, não apenas a perspectiva da bomba atômica e o espectro do extermínio em uma guerra nuclear, mas também uma segunda arma, que ele considerava igualmente perigosa para a humanidade e o planeta – “a bomba da informação”.[7]
A primeira e a segunda bombas, de fato, têm suas origens emaranhadas, ambas atingindo um novo nível de síntese no complexo militar-industrial da Segunda Guerra Mundial. As explosões atômicas só foram possíveis porque as emergentes máquinas de computação foram usadas para processar as vastas tabelas de números do Projeto Manhattan. A máquina de computação Harvard Mark I, fabricada pela IBM, foi necessária para fazer cálculos extremamente complexos, necessários para determinar se a implosão era um caminho viável para criar a bomba atômica. As máquinas de computação e as armas atômicas nasceram juntas, no ventre da guerra, gêmeas siamesas do projeto tecnocientífico.
Em 10 de dezembro de 1945, o Electronic Numerical Integrator and Computer (ENIAC) foi ativado. Foi o primeiro computador digital totalmente programável, eletrônico e de uso geral. O primeiro programa a ser executado no primeiro computador digital do mundo foi um teste matemático para determinar a praticidade da criação de armas termonucleares – instrumentos de ruína ainda mais terríveis do que as explosões de fissão que recentemente haviam aniquilado Hiroshima e Nagasaki. Depois disso, o ENIAC passou a calcular tabelas de disparo de artilharia, pois, embora a matemática por trás desses cálculos notoriamente difíceis levasse cerca de vinte horas para ser calculada por um ser humano treinado, o ENIAC conseguia processar os números em trinta segundos, realizando assim o trabalho intelectual de 2,4 mil calculadoras humanas.
Desde o início do capitalismo (c1430-1640), a palavra “computador” se referia a uma pessoa cujo trabalho era determinar coisas por meios matemáticos, mas no início da era cibernética ela passou a se referir apenas à máquina, com a antiga e qualificada profissão humana se tornando obsoleta. Assim, na própria palavra “computador”, podemos ver uma história de como as práticas intelectuais humanas foram automatizadas, terceirizadas e codificadas em máquinas. No período pós-guerra, o poder de automatizar foi, na perspicaz síntese de David Noble:
“promovido por um exército de entusiastas técnicos, vendido pelos vendedores de aparelhos nascidos na guerra, subsidiado pelos militares em nome do desempenho, do comando e da segurança nacional, legitimado como necessidade técnica e celebrado como progresso. Os gerentes do setor logo se deixaram levar pelo entusiasmo, que estava associado à moda, ao prestígio e ao patriotismo, além de contratos lucrativos. E aqui também foi associado tanto à crença tradicional de que a eficiência superior resultava da simplificação do trabalho, da substituição do trabalho pelo capital e da concentração do controle gerencial sobre a produção, quanto à preocupação pós-guerra com o controle do trabalho como um fim em si mesmo, a fim de salvaguardar e ampliar os ‘direitos’ gerenciais.”[8]
Quarenta anos após a análise de Noble, a trajetória que ele mapeou continuou, impulsionada por uma aceleração exponencial unidimensional e facilitada pela deterioração social e ecológica convergente. Em 1989, a World Wide Web foi notoriamente criada pelo CERN, uma instalação de pesquisa nuclear, mostrando novamente a relação entre a primeira e a segunda bomba. Por meio da Web, a rede de máquinas de computação – um projeto cibernético elaborado pelo Pentágono no final da década de 1960 como parte de sua estratégia de guerra nuclear – poderia se expandir rapidamente. Fundamentalmente viabilizado pelas tecnociências, que nunca estão muito distantes da indústria bélica, e apoiado pelo poder do capital financeiro especulativo, o setor cibernético visava sobrecarregar o consumismo por meio da comunicação incorpórea e do hiperindividualismo. Para esses fins, ele tem sido um tremendo sucesso, com o smartphone sendo talvez seu melhor exemplo, um caminho crucial para a colonialização cibernética da vida cotidiana. Hoje, a bomba de informações está literalmente tirando anos de nossas vidas: atualmente, os australianos passam uma média de 5,5 horas por dia olhando para seus smartphones. Se estendermos isso ao longo de uma vida média, serão dezessete anos pulando entre aplicativos corporativos, conversas interrompidas, conexões sociais desgastadas, pensamentos fragmentados e alienação crescente.
Embora compreendam parte da enormidade dos problemas induzidos pela tecnologia que a humanidade enfrenta, muitos comentaristas de esquerda não conseguem fazer uma análise multidimensional. Por exemplo, Evgeny Morozov reduz todas as explicações sobre o setor de alta tecnologia ao fato de ele ser “apenas um filho bastardo de uma ideologia muito maior”: o neoliberalismo. Da mesma forma, Jeff Sparrow, que tem problemas tecnológicos com a motivação do lucro, afirma que ele sufoca a inovação, enquanto “a tecnologia em si desempenha um papel relativamente menor”. Implícito nesses argumentos está a atitude esquerdista comum de que a tecnologia e suas forças produtivas podem ser separadas de seus usos e contextos sociais. No entanto, à medida que essas novas tecnologias continuam a se acumular umas sobre as outras e a se estender por domínios antes inexplorados, essas visões se tornam impossíveis, mesmo em seus próprios termos, pois simplificam a forma como o setor de tecnologia realmente funciona.
A palavra “informação” vem do latim īnfōrmō, que significa formar ou moldar, esboçar uma ideia ou instruir. Esse antigo conceito recebeu um entendimento radicalmente diferente com o surgimento da “teoria da informação”, iniciada pelo cientista do complexo militar-industrial Claude Shannon durante e imediatamente após a Segunda Guerra Mundial. Ele tinha a intenção de banir qualquer vestígio de significado do conceito de informação, pois isso se tornaria necessário nas tecnologias de informação. Em 1948, ele escreveu: “Frequentemente as mensagens têm significado, ou seja, elas se referem ou estão correlacionadas a algum sistema com determinadas entidades físicas ou conceituais. Esses aspectos semânticos da comunicação são irrelevantes para o problema de engenharia”.[9] Em um artigo posterior intitulado “The Redundancy of English” (A redundância do inglês), ele propôs que uma mensagem poderia representar “uma sequência aleatória de dígitos, ou poderia ser uma informação para um míssil teleguiado ou um sinal de televisão”: fundamentalmente não importava. O significado era desnecessário nesse nível de abstração.[10]
Isso é importante por seu forte contraste com a forma como a vida cotidiana é vivida dentro da cultura – essa palavra mais complexa e multifacetada que se refere às práticas de criação, relacionamento e compartilhamento de significados no mundo e sobre o mundo nos meios sociais. Mesmo na época em que essas teorias instrumentalistas da informação estavam sendo propagadas, em meados do século XX, uma leitura crítica estava sendo mobilizada contra elas pela Nova Esquerda. Vivemos nossas vidas por meio da “profunda realidade social da comunicação”, para usar a frase de Raymond Williams.[11] Isso contrasta fortemente com a radical abstração necessária para afirmar que o significado é irrelevante para um problema de engenharia da informação. Como Williams também observou, uma “definição de linguagem é sempre, implícita ou explicitamente, uma definição dos seres humanos no mundo”.[12] Por isso, podemos nos perguntar quais significados implícitos são carregados pela teoria da informação, uma “linguagem” que é fundamental para a forma como todas as máquinas de computação operam e que agora, em grande parte, define nosso mundo.
Essa ruptura altamente abstrata do significado tem uma ressonância especial no presente, o que é óbvio para qualquer pessoa que tenha lido atentamente os resultados das Inteligências Artificiais geradoras de texto. Esses programas cibernéticos, como o ChatGPT, são famosos por extraírem palavras-fonte de vastos bancos de dados produzidas por todos os tipos de pessoas em uma infinidade de contextos e mapeá-las em um nível mais alto de abstração. Seguindo o pensamento de Shannon, os mapas que eles usam excluem especificamente os significados das palavras que eles conectam. No lugar disso, eles modelam estatisticamente as relações entre as palavras como pontos de dados, permitindo assim a fabricação algorítmica de frases e parágrafos por meio da conexão de pontos no terreno abstrato de um banco de dados em rede neural. Ao ler o resultado em forma de palavra, as pessoas tentam reimpor um significado às palavras – um significado que não existe no nível em que a máquina opera. Dessa forma, a IA generativa é particularmente hábil em imitar formas de escrita com baixos níveis de significado, como declarações de missão corporativa e redações de alunos pensadas a partir de fórmulas.
Leia também – Sobre o fetiche da IA: notas críticas sobre a história da tecnosociedade de Yuval Harari
A fenda
Ao abordar esses desenvolvimentos explosivos em nosso mundo atual, no qual muitos modos de vida estão sendo incessantemente remodelados por sistemas tecnológicos, vale a pena pensar sobre a realidade material desses processos de abstração. Diferentemente da definição convencional de abstração, que a vê como um processo ideacional ou conceitual, podemos vê-la como uma relação vivida com o mundo que é moldada por padrões de prática social. Ela envolve o afastamento do corpóreo, do sensorial e das relações e significados particularistas no mundo. De fato, a abstração é uma característica constitutiva da experiência humana e, portanto, por si só, não faz sentido dizer que ela é boa ou ruim. No entanto, importantes questões político-éticas estão sempre presentes, principalmente porque geralmente não temos consciência dessa base profunda e mutável da interação humana e de como ela molda a existência de várias maneiras. A forma como as formas dominantes de abstração ao longo da história reconstituem o social e, em particular, como a forma dominante atual trabalha para desestruturar formas valorizadas de estar no mundo, torna-se uma questão crucial.
Para entender como os poderes da abstração chegaram ao ponto em que se encontram hoje, é preciso examinar atentamente seu desenvolvimento – as condições materiais que permitiram sua expansão, definidora de uma época. Embora a energia nuclear e as máquinas de computação façam parte de uma longa história de abstração, elas não representam apenas uma diferença de grau em relação às tecnologias anteriores; ao contrário, elas incorporam uma descontinuidade radical ou uma transformação qualitativa nessa história. Elas só podem existir por meio de transformações tecnológicas que dependem do trabalho teórico intensamente abstrato de intelectuais e técnicos treinados em universidades e laboratórios de pesquisa. Essas formas de apreender o mundo não surgiram ordenadamente de uma história do trabalho ou do artesanato; ao contrário, depois de surgirem ao longo da modernidade capitalista, elas foram diretamente assumidas em meados do século XX pelo capital e pelo Estado militarista, e então foram rápida e agressivamente voltadas contra quaisquer elementos remanescentes do trabalho e do artesanato.[13] Por mais epocais que sejam as transformações, no entanto, elas não apagam nem substituem automaticamente as formações sociais anteriores e mais concretas; ao contrário, elas são mais bem compreendidas como sobrepostas a elas, com várias tensões e contradições entre as camadas da prática social.
É importante ressaltar que essas transformações não se limitam ao mundo natural, mas trabalham em conjunto com o surgimento de um novo mundo social. Como disse Geoff Sharp, “dentro dele, nossa relação com o mundo natural é apenas um aspecto da maneira mutável pela qual levamos nossas vidas em comum”.[14] Voltando a Oppenheimer e Shannon – e evitando o foco do filme biográfico nesses dois homens, em suas mentes analíticas brilhantes e em seus personagens imperfeitos – é mais produtivo considerar os contextos sociais nos quais eles chegaram a essas concepções imensamente abstratas. A complexa abstração teórica necessária para conceber as bombas atômicas e de informação, e as tecnologias científicas que as tornariam realidades práticas, não poderiam ter surgido sem a abstração material prévia e contínua das relações sociais. É claro que a ciência e a tecnologia têm uma longa história, mas vale a pena considerar as transformações específicas que lançaram as bases da ruptura histórica que marca nosso período. Consideremos as transformações que ocorreram durante o século anterior à explosão da Trinity. As bases materiais para o espaço em rede global foram lançadas com a criação de empresas ferroviárias, linhas de navegação, canais entre oceanos, e facilitadas por mapas cada vez mais precisos para navegação e relógios para sincronização. Indústrias bélicas cada vez mais poderosas produziram novas armas e meios de padronização e arregimentação, enquanto o capital financeiro produziu instituições de crédito e seguros sofisticados. A intensa urbanização estava ligada à geração de eletricidade, bem como às empresas de imprensa e à cultura industrial de massa, enquanto o campo era remodelado pela fabricação de fertilizantes à base de nitrogênio e o maquinário industrializava ainda mais a agricultura. Da mesma forma, as linhas telegráficas instaladas ao redor do planeta permitiram a comunicação instantânea em distâncias impossivelmente vastas e os telefones desencarnaram a voz, enquanto eles e a fotografia, o rádio, o cinema – todo o “aparato que medeia”, na expressão de Walter Benjamin – se combinaram para transformar a visão, a percepção e, em última análise, o que significa ser humano.[15]
A natureza da transformação que emergiu desses “poderes recém-conquistados sobre o espaço e o tempo”, como disse Freud, foi profundamente ambígua.[16] Essas tecnologias permitiram que o mundo fosse entrelaçado em um nível mais abstrato, permitindo que aqueles que entraram nele vissem seus mundos-objeto e suas relações sociais de forma diferente. O processo histórico pelo qual sociedades fundamentadas são repentinamente atraídas para uma tipificada por relações e estruturas fugazes, globais e múltiplas, abertas em sua “flecha de desenvolvimento”, é o contexto no qual uma atomização científica se torna pensável. Os tipos de sociedades e subjetividades que foram promovidos em um mundo como esse foram cada vez mais afastados das relações locais, sazonais e corpóreas. É somente por meio dessas condições sociais e materiais que é possível considerar os átomos ou as informações da forma como Oppenheimer e Shannon o fizeram. Certamente, foram necessários grandes poderes intelectuais, mas isso só poderia ter sido pensado e concretizado como uma abstração material – seja na forma de uma explosão atômica ou de uma máquina de computação digital – por pessoas imersas em uma cultura constituída por abstrações sociais e materiais mais profundas.
Esse entendimento social e material é fundamental para compreender a reação em cadeia em andamento e as consequências das bombas atômicas e de informação nos dias de hoje. Na ausência dessa crítica mais profunda, muito do que é considerado um comentário radical sobre tecnologia hoje em dia continuará a se sentar ao lado do Vale do Silício em tudo, exceto nas condições salariais, ou a dobrar tudo em uma crítica inchada do “neoliberalismo” – ou, o que é mais superficial, montar um argumento de “prós e contras”. Em todos esses relatos, o que é fundamentalmente distinto em nossa época – o processo de intensificação da abstração material – permanece sem ser examinado e, portanto, é aceito sem problemas em um lamentável acordo padrão com pessoas como Elon Musk ou transumanistas extremistas, como Sergey Brin, do Google, que denuncia Musk como sendo “especista” por favorecer os seres humanos em vez de “formas de vida” digitais.
De fato, muitos na esquerda radical de hoje concordam que os avanços tecnológicos infinitos devem esmagar as relações sociais mais fundamentadas e que isso, de alguma forma, levará a um futuro socialista, colocando, assim, a carroça do pós-capitalismo muito antes do cavalo do anticapitalismo, como Boris Frankel brincou. [17] Os escritos de Nick Srnicek, por exemplo, são repletos de admiração aberta pelas empresas do Vale do Silício e uma celebração do hiperindividualismo em que uma rede desencarnada substitui a comunidade, levando o “eu empreendedor” a novos patamares, em que as categorias básicas são abertas à manipulação pelo mercado tecnológico. Essa análise só pode ser concluída de forma fraca com um apelo para “coletivizar as plataformas”, imaginando que, de alguma forma, seria possível simplesmente apertar um botão e converter a máquina de guerra cibernética de alcance global do modo capitalista para o modo socialista. [18] Essas afirmações só são possíveis na ausência de uma crítica da ciência ou de uma filosofia crítica da tecnologia e na negligência de qualquer crítica ecológica ou análise dos limites do crescimento: uma ignorância da falta de oposição militante organizada à Big Tech, à atração destrutiva do consumismo e uma falha em integrar adequadamente uma análise histórica de longo prazo com a natureza sem precedentes da conjuntura atual, para não falar de uma incompreensão da questão crucial da abstração como um processo sociomaterial. Dadas essas limitações, eles só podem exibir uma imaginação “alternativa light (suave)” atrofiada, na qual o melhor que se pode almejar é grampear uma face socialista sobre o aparato desumano do capitalismo cibernético.[19]xix Nesse contexto, pessoas como Musk continuarão a alardear suas tecno-utopias sem enfrentar a oposição de uma crítica mais profunda, muito menos uma resistência organizada derivada de outras formas de ser.
Para reiterar, nada neste ensaio sugere que a abstração seja ruim em si, pois ela é constitutiva do tipo de criatura que somos. Além disso, os poderes da abstração intelectual, pelo menos necessariamente, sustentam toda a tradição da teoria crítica e suas análises interpretativas e normativas, que têm como objetivo obter uma compreensão de nível superior da vida social, para mudá-la. Qualquer leitor que tenha chegado até aqui, neste ensaio em particular, foi forçado a lidar com tais abstrações, todas com o objetivo de ajudar a aprofundar a crítica do presente. Tal objetivo exige tanto a luta contra a dominação quanto a capacidade de levar uma vida cooperativa em vários níveis de abstração, na teoria e na prática.
Três gerações se passaram desde que Einstein alertou sobre essas duas armas extremamente abstratas, a bomba atômica e a bomba de informação. Essa advertência não foi atendida, e as reações em cadeia viram sua proliferação e a colonização de muitos aspectos da vida, agora atraídos por formas profundamente mais abstratas de conhecer e viver. O legado dessas bombas continua, por meio de desenvolvimentos tecnológicos de ponta, como chips de computador inseridos em cérebros de macacos e tentativas de fusão para “dominar o poder das estrelas”, e em suas obscuras sombras de intensa desigualdade, destruição ecológica, alienação desenfreada e síndrome de radiação crônica. O conjunto de práticas intelectuais que facilita a expansão e a extração, a centralização e a concentração, a aceleração e a acumulação, hoje sustentam o capitalismo cibernético. As tecnologias atuais de abstração prática facilitam uma dominação mais completa da natureza e das pessoas do que qualquer outra coisa que tenha existido antes, transformando agora também outros aspectos da condição humana, como o íntimo e intuitivo, o incorporado e empático, e o sensível e sensato. Esse impulso para dominar é fundamental para, usando as palavras de Lewis Mumford, a “busca do poder por meio de abstrações” do capitalismo.[20] Em conjunto, a dominação das formas mais abstratas de estar no mundo está degradando a possibilidade de vivermos vidas justas e significativas em comum e dentro da natureza. Esses fundamentos mais básicos da condição humana estão sob o cerco das consequências dessas bombas mais abstratas.
(*) Tradução de Raul Chiliani