top of page

Alemanha Recusa Software da Palantir

Minamitorishima é pouco mais do que uma cicatriz de coral no Pacífico. Vista de cima, parece demasiado pequena para entrar em qualquer disputa séria: uma pista, algumas estruturas, mar a toda a volta. Ainda assim, os estrategas japoneses voltaram a falar daquela ilha por causa dos minerais raros escondidos no fundo oceânico. Não por romantismo territorial. Por dependência.


Porque é que a Alemanha desistiu da Palantir?


A palavra reapareceu nas mesmas semanas em que, em Berlim, os responsáveis da inteligência alemã começaram discretamente a afastar-se da Palantir, a empresa americana de análise de dados fundada por Peter Thiel. Não houve conferência dramática. Não houve rutura pública. Apenas sinais burocráticos, fugas para jornais alemães, hesitações administrativas, reuniões técnicas e um detalhe que, à primeira vista, parecia menor: o sistema escolhido para substituir parcialmente a tecnologia americana seria francês. Não alemão. Francês.


Podia ser apenas mais uma prudência alemã, daquelas que passam por relatórios, comissões e frases que ninguém cita duas vezes. Mas havia ali uma inquietação mais funda.


Capa vertical austera do Atlantic Lisbon sobre a recusa alemã do software da Palantir, com arquitetura geométrica e atmosfera silenciosa.
A Europa começou finalmente a desconfiar não apenas da vigilância, mas das máquinas que a organizam.

A Europa fala muito de soberania. Fala dela em cimeiras, em comunicados, em discursos cuidadosamente traduzidos. Mas raramente a encontra no lugar onde hoje ela mais se decide: nos servidores, nos modelos, nos contratos técnicos que quase ninguém lê.


A reportagem da Deutsche Welle sobre o recuo alemão face à Palantir foi lida sobretudo como um episódio técnico ou político. Também o é. A sua importância, porém, está noutro lugar: no desconforto de um continente que começa a perceber que até a forma como o Estado organiza a suspeita pode ser importada.


Os Estados utilizam sistemas de vigilância avançada. Uns mais, outros menos, quase todos com justificações compreensíveis. A pergunta difícil já não é essa. É saber quem constrói a máquina através da qual o Estado começa a ver.


A Palantir tornou-se poderosa porque percebeu antes de muitos governos europeus que o século XXI não seria governado apenas por exércitos ou petróleo, mas pela capacidade de transformar informação dispersa em relações operacionais. O software Gotham, utilizado em vários estados alemães, não funciona apenas como uma base de dados sofisticada. Os registos bancários, as deslocações, os contactos telefónicos, as imagens, os padrões sociais, as redes informais, os hábitos digitais: tudo pode ser reorganizado para produzir uma cartografia probabilística da suspeita.


A partir daqui, as palavras começam a escorregar. Já não se fala apenas de investigar. Fala-se de antecipar. Já não se fala apenas dos suspeitos. Fala-se de padrões.


Durante décadas, o Estado precisava de justificar porque observava alguém. Hoje, muitos sistemas funcionam na lógica inversa: observam primeiro, justificam depois. Não porque exista necessariamente uma conspiração totalitária clássica, mas porque a própria lógica tecnológica favorece antecipação, correlação e previsão. A suspeita deixa de ser consequência de um ato concreto. Passa a ser produzida por proximidades estatísticas.


Uma sociedade livre não depende apenas de eleições ou tribunais independentes. Depende também da sensação íntima de que uma pessoa pode existir sem estar permanentemente interpretada por sistemas invisíveis. Quando essa fronteira desaparece, algo muda no comportamento coletivo antes mesmo de mudar na lei.


A advogada Franziska Görlitz descreveu essas plataformas como “caixas pretas”. A expressão é importante porque revela o verdadeiro centro do problema: já não sabemos exatamente como certas conclusões são produzidas. Nem sequer os próprios Estados sabem sempre.


Durante muito tempo, o imaginário ocidental sobre vigilância foi moldado por câmaras, escutas, agentes infiltrados, arquivos secretos. Tudo isso tinha materialidade física. Havia corredores, armários, microfones, pastas. Hoje, a vigilância tornou-se atmosférica. Está dissolvida em sistemas de análise, probabilidades e inferências automatizadas.


A União Europeia gosta de se apresentar como o espaço político dos direitos fundamentais, da privacidade e da regulação ética da tecnologia. Mas depende profundamente de infraestruturas tecnológicas externas precisamente nas áreas mais sensíveis: armazenamento, sistemas operacionais, vigilância avançada, análise de dados, modelos de inteligência artificial.


A decisão alemã de procurar alternativas francesas não resolve essa dependência. Mostra apenas que certas elites europeias já não conseguem fingir que ela é uma questão secundária.


A Alemanha passou décadas a construir uma identidade política assente na contenção do poder estatal excessivo. A memória da Gestapo e da Stasi não desapareceu da cultura alemã. Continua presente nos reflexos institucionais do país. E, no entanto, é precisamente a Alemanha que agora debate ferramentas capazes de produzir formas de observação social incomparavelmente mais profundas do que aquelas polícias secretas alguma vez sonharam possuir.


Não porque exista uma vontade explícita de instaurar uma ditadura tecnológica. Isso seria demasiado simples. O problema moderno raramente chega vestido de vilão absoluto. Surge antes sob linguagem administrativa: otimização, eficiência, interoperabilidade, prevenção, segurança integrada.


Não começa com botas no corredor. Começa quase sempre com uma necessidade plausível.


Numa sala de reuniões de um ministério, o ecrã acende-se, as cadeiras são puxadas para trás, alguém pousa um copo de papel ao lado do portátil. Uma apresentação explica que o novo sistema permitirá ligar dados dispersos. Outra pessoa acrescenta que isso ajudará no combate ao terrorismo. Outra refere redes extremistas, tráfico humano, espionagem estrangeira. E tudo isso é verdade. Absolutamente verdade.


As ferramentas construídas para circunstâncias excecionais acabam quase sempre por sobreviver ao momento que as justificou.

Foi isso que Clara Bünger tentou apontar quando disse que o problema não era apenas a origem do software, mas a lógica que o sustenta. A frase perdeu-se parcialmente no ruído político do debate. Talvez por ser demasiado incómoda: deslocava a conversa do fabricante para o mecanismo.


O centro da discussão já não cabe na escolha entre americano e europeu. O que está em causa é saber se as democracias liberais conseguem continuar democráticas depois de internalizarem plenamente a lógica preditiva da inteligência artificial.


Há um momento curioso no debate contemporâneo sobre IA em que muitos executivos tecnológicos falam da tecnologia quase como inevitabilidade climática. Como se sistemas avançados de vigilância e análise fossem consequência natural do progresso humano, e não escolhas políticas concretas feitas por pessoas concretas.


Alex Karp, CEO da Palantir, irrita particularmente parte da Europa porque fala dessa transformação sem o verniz diplomático habitual. O seu livro, The Technological Republic, foi acusado por críticos de promover uma visão tecnocrática musculada do Ocidente. Há exageros nesse rótulo de “tecnofascismo”, mas também há qualquer coisa reveladora nele.


O livro expõe uma mudança psicológica importante nas elites tecnológicas americanas: a convicção de que o poder democrático tradicional é demasiado lento para gerir sociedades complexas e ameaças permanentes.

Essa ideia não nasceu na Palantir. Mas a empresa tornou-se uma das suas expressões mais visíveis.


Depois do 11 de Setembro, os Estados Unidos reorganizaram profundamente a relação entre segurança e tecnologia. Muitas empresas do Vale do Silício cresceram dentro dessa atmosfera estratégica. Algumas tornaram-se plataformas sociais. Outras, infraestruturas discretas do aparelho de segurança ocidental.


A Europa observou durante anos essa transformação com uma mistura de fascínio e dependência. Agora começa a perceber que talvez tenha terceirizado demasiado poder.

Os próprios serviços também mudam quando começam a ver o mundo através destas ferramentas.


Sistemas como os da Palantir não oferecem apenas informação. Oferecem sedução cognitiva. Prometem reduzir caos, acelerar decisões, visualizar relações invisíveis, antecipar ameaças. Para as estruturas governamentais sobrecarregadas por excesso de dados, isso torna-se quase irresistível.


Quem recusaria uma máquina que promete transformar fragmentos desconexos em clareza operacional?


O risco não está apenas em abusos deliberados. Está também no efeito gradual de dependência intelectual. Quando as instituições começam a confiar excessivamente em sistemas preditivos, a própria perceção humana tende a adaptar-se às categorias produzidas pelo software.


As democracias raramente colapsam apenas porque alguém toma o poder pela força. Às vezes transformam-se lentamente porque deixam de imaginar alternativas às infraestruturas que organizaram a sua visão do mundo.


A escolha da ChapsVision não representa apenas uma substituição técnica. Representa uma tentativa, ainda tímida e contraditória, de recuperar margem estratégica europeia num domínio onde quase tudo parece concentrar-se entre Washington e Pequim.

Mas a soberania tecnológica verdadeira não nasce apenas de software europeu. Exige cultura institucional, escrutínio democrático, transparência técnica e coragem política para aceitar limites. Sobretudo limites.


Existe sempre um momento em que um Estado precisa de decidir não apenas o que consegue fazer, mas aquilo que escolhe não fazer. Essa distinção está a desaparecer em muitas democracias ocidentais.


A lógica contemporânea da segurança tornou-se expansiva por natureza. As ameaças são reais, e algumas são graves. Um atentado falhado, uma rede de espionagem, um grupo radicalizado numa aplicação encriptada: basta um caso para que a pressão aumente. Depois outro. Depois outro. E, aos poucos, a exceção aprende a falar como rotina.


Os sistemas criados para situações extremas acabam inevitavelmente por tocar pessoas comuns.


Um jornalista que participa num protesto. Um ativista ambiental. Um académico estrangeiro. Um cidadão que fala regularmente com familiares num país considerado sensível. Pequenos padrões que, isoladamente, nada significam, mas que dentro de certos sistemas podem tornar-se sinais interpretáveis.


Pode ser uma chamada repetida para fora do país. Uma deslocação perto de alguém já observado. Uma fotografia partilhada por engano num grupo onde entrou a pessoa errada. Nada que, por si só, sustente uma acusação. Mas a vida real raramente chega aos sistemas como vida real. Chega em fragmentos.


A questão deixa então de ser tecnológica e regressa à velha fragilidade humana: o medo.

Franziska Görlitz falava precisamente desse efeito silencioso. Não apenas o risco de erro ou discriminação, mas a possibilidade de as pessoas começarem a alterar comportamentos por receio difuso de vigilância.


O cidadão moderno já não teme necessariamente um polícia à porta. Teme antes uma arquitetura invisível que nunca vê totalmente, mas cuja presença começa a pressentir em todo o lado.


A história alemã não é importante porque a Palantir vá desaparecer da Europa. Não vai. Nem porque sistemas franceses sejam automaticamente mais benignos. Não são. Importa porque o debate começou a deslocar-se da eficiência para a legitimidade.


A IA aplicada à segurança está ainda no início. Os sistemas futuros serão mais sofisticados do que os atuais. Cruzarão vídeo, voz, biometria, padrões emocionais, deslocações, redes sociais, hábitos financeiros e comportamento coletivo em tempo quase real. Muitos governos argumentarão, com razão parcial, que essas ferramentas serão necessárias para lidar com sociedades mais instáveis e ameaças mais rápidas.

Talvez tenham razão.

Mas continua por responder uma pergunta desconfortável: como permanece livre uma sociedade onde quase tudo pode ser correlacionado?


No fundo, o que está em causa não é apenas privacidade. É a própria ideia de anonimato moral dentro da vida democrática. A possibilidade de existir sem ser continuamente reduzido a perfis probabilísticos.

As democracias ocidentais passaram décadas a criticar modelos autoritários baseados em vigilância massiva. Agora aproximam-se lentamente de tecnologias que tornam essa vigilância tecnicamente possível em escala inédita, ainda que sob enquadramento legal diferente.


A diferença entre uma democracia liberal e um regime autoritário pode depender menos da tecnologia utilizada do que da cultura política que decide os seus limites. E as culturas políticas também se desgastam.


Na sede da Palantir em Denver, ou em algum escritório protegido de Langley, Londres ou Telavive, haverá certamente pessoas que consideram este debate europeu ingénuo. Talvez até perigoso. Argumentarão que ameaças modernas exigem ferramentas modernas; que hesitação estratégica custa vidas; que democracias excessivamente cautelosas acabam vulneráveis perante adversários menos escrupulosos.

Também nisso há verdade.


O problema das sociedades livres nunca foi simples. Precisam de proteger-se sem se deformarem completamente no processo.


A pequena decisão administrativa alemã revela uma ansiedade crescente dentro da Europa: a sensação de que o continente entrou demasiado tarde numa disputa sobre infraestruturas invisíveis que já moldam o século.


Em Minamitorishima, vista de cima, continua a haver apenas uma nesga de terra, pista, betão, mar por todos os lados. Nada ali se parece com poder. Talvez por isso a ilha sirva tão bem para pensar este assunto: há coisas decisivas que quase nunca têm aparência decisiva.


A Alemanha não abandonou a vigilância algorítmica. Apenas hesitou diante de uma das suas versões. É pouco. Mas, numa época em que quase tudo é comprado antes de ser compreendido, talvez uma hesitação ainda valha alguma coisa.


Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page