A discussão em torno da Inteligência Artificial Geral (AGI) deixou de ser especulativa e ganhou contornos de urgência. Samuel Hammond, economista no Foundation for American Innovation, sustenta que a chegada de sistemas de inteligência artificial com capacidades equiparáveis às humanas poderá ocorrer ainda nesta década. A hipótese, longe de ser marginal, implica consequências institucionais profundas.

O argumento central de Hammond assenta na observação de que os modelos de aprendizagem profunda, em particular os modelos de linguagem de larga escala (LLM) e, mais recentemente, os sistemas multimodais, são treinados com dados humanos e orientados para reproduzir tarefas e outputs de natureza humana. Não se trata de replicar a aprendizagem biológica, mas de emular a sua expressão. A fiabilidade crescente destes sistemas sugere um ponto de viragem, que é a capacidade de se integrarem diretamente em processos concebidos para humanos, sem necessidade de reengenharia organizacional. Esta característica distingue-os das anteriores vagas de automação, que exigiam uma adaptação da tarefa ao dispositivo técnico.

As implicações são duplas. Por um lado, a transição poderá ser mais rápida do que muitos antecipam, dado que os obstáculos de implementação são reduzidos. Por outro, a exposição institucional será assimétrica, pois o setor privado, motivado por incentivos competitivos, tenderá a adotar e explorar estas ferramentas com celeridade. Já os governos, constrangidos por processos formais, estruturas rígidas e “fetichismo procedimental”, poderão ver a sua capacidade relativa enfraquecida.

A leitura histórica reforça a tese de que cada grande transformação tecnológica foi acompanhada por uma transformação institucional. A agricultura originou o Estado sedentário, a imprensa contribuiu para o declínio do feudalismo e a industrialização conduziu à consolidação do Estado social e da burocracia moderna. A eventual emergência de AGI inscreve-se nesta genealogia, com um momento de “passo difícil” (hard step) que reconfigura custos de transação, redistribui poder e força à reinvenção do contrato social.

Hammond identifica três vias possíveis de adaptação: (i) reforço do Leviatã estatal, em moldes mais autoritários, como se vislumbra no modelo chinês de vigilância digital; (ii) delegação crescente em plataformas privadas, que assumem funções de regulação e coordenação social; ou (iii) evolução normativa e cultural, com ajustamentos sociais que mitigam externalidades sem necessidade de imposição coerciva. Nenhuma destas soluções é isenta de riscos. A primeira ameaça a liberdade, a segunda concentra poder corporativo e a terceira depende de uma plasticidade cultural difícil de garantir.

Neste quadro, a questão central não é apenas tecnológica, mas política e institucional. Como preparar governos, sociedades e economias para uma inteligência artificial de caráter geral? A resposta determinará se a disrupção será catalisadora de progresso ou fator de erosão da legitimidade democrática.


A AGI e a Disrupção Institucional

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *