Os modelos de linguagem de grande escala (LLM), como o ChatGPT, estão na vanguarda da pesquisa em inteligência artificial, suscitando questões sobre expectativas e implicações. Os especialistas acreditam que nos aproximamos rapidamente de uma inteligência artificial geral (AGI) capaz de realizar praticamente qualquer tarefa cognitiva atualmente desempenhada por humanos. No entanto, surgem debates sobre a viabilidade e os desafios de tal evolução tecnológica. Exploramos as perspetivas otimistas e céticas em torno dos LLM, os obstáculos a serem superados e o impacto potencial de uma AGI na sociedade e na economia global
POR PEDRO COTRIM

Quais são as expectativas e as implicações dos modelos de linguagem de grande escala (LLM), como o ChatGPT? E de que forma podem estes avanços aproximar-nos da inteligência artificial geral (AGI)? Os especialistas acreditam que estamos a poucos anos de alcançar uma AGI que possa funcionar totalmente como um trabalhador remoto substituto, realizando praticamente qualquer tarefa que um humano em teletrabalho possa fazer.

Provavelmente, os modelos de linguagem atuais são uma fase inicial da AGI. Com maiores quantidades de trabalho e melhorias contínuas na afinação e na precisão, prevê-se que os erros evidentes em que os modelos incorrem agora serão grandemente eliminados. Tal ponto de vista é muitas vezes resumido como «precisamos apenas de mais escala», indicando que mais dados e maior poder computacional continuarão a melhorar significativamente estes modelos. Por exemplo, enquanto o GPT-2 teve um desempenho limitado, o GPT-3 mostrou melhorias substanciais, tendo o GPT-4 superando ainda mais as capacidades anteriores. A expectativa é de que esta tendência continue, com cada nova geração de modelos a superar a anterior.

Estas visão é encarada com pessimismo por alguns grandes especialistas em IA, como Yann LeCun, diretor de pesquisa em IA do Facebook, e Gary Marcus, professor da Universidade de Nova Iorque. Ambos argumentam que certos problemas inerentes aos LLM, como dificuldades em tarefas de raciocínio lógico e a tendência de «dizer disparates» ou de divulgar erros factuais, não irão simplesmente desaparecer com o aumento de escala. Acreditam que haverá melhoria dos modelos apenas com base na escala e que serão necessários métodos adicionais para alcançar uma verdadeira inteligência artificial geral. LeCun e Marcus sustentam que há limitações fundamentais nos LLM que não podem ser superadas apenas aumentando o tamanho dos modelos ou do número de dados de trabalho.

Uma coisa é certa: tanto os otimistas como os céticos estão excessivamente confiantes nas suas previsões – enquanto a escala tem efetivamente melhorado a performance dos LLM em várias tarefas cognitivas, é prematuro declarar que esse progresso irá parar abruptamente. Historicamente, muitas previsões pessimistas sobre as capacidades dos LLM foram refutadas quando novos avanços permitiram que estes modelos realizassem tarefas antes consideradas impossíveis. Por exemplo, no início, os especialistas afirmaram que os modelos de deep learning nunca seriam capazes de programar; contudo, essa é, hoje em dia, uma das grandes capacidades dos LLM mais sofisticados.

Há evidentemente desafios futuros, como a escassez de dados disponíveis na internet para alimentar modelos cada vez maiores. Atualmente, os modelos mais sofisticados trabalham grande parte dos dados disponíveis online, e a repetição de dados tem retornos cada vez menores.

Para superar este obstáculo, os investigadores estão a explorar novas abordagens, como dados sintéticos e aprendizagem por reforço. A expectativa é de que estas novas estratégias permitam que os modelos continuem a melhorar, mesmo com a limitação de dados disponíveis. Este desafio é conhecido como «parede de dados», e muitos especialistas estão confiantes de que serão desenvolvidas novas técnicas para ultrapassar tal barreira, como o uso de dados gerados sinteticamente ou a programação dos modelos para serem mais eficientes na aprendizagem com menos dados.

A melhoria contínua dos algoritmos e o desbloqueio de capacidades latentes dos modelos são encarados como cruciais. Métodos como o Reinforcement Learning from Human Feedback (RLHF) e o Chain-of-Thought (CoT) têm demonstrado grandes avanços ao permitir que os modelos utilizem as suas capacidades de forma mais eficaz. Estas técnicas ajudam a libertar potencial que os modelos já possuem, mas que estavam limitados devido a abordagens menos eficientes. O RLHF, por exemplo, ajuda a orientar os modelos para responder de maneira mais útil e relevante, enquanto o CoT permite que os modelos sigam cadeias de raciocínio mais complexas, melhorando as suas capacidades de resolução de problemas.

O impacto social e económico da possível chegada da AGI é um ponto nuclear. A possibilidade de que uma AGI possa automatizar praticamente todas as tarefas cognitivas que atualmente requerem intervenção humana pode transformar profundamente a economia global, suscitando questões urgentes sobre a preparação e a formulação de políticas para lidar com esta transição. A automação de tarefas cognitivas pode conduzir a uma redistribuição massiva de empregos, exigindo novas abordagens em educação e formação profissional para garantir que a força de trabalho se adapta a um novo ambiente onde a AGI desempenha um papel central.

Independentemente do tempo que vai demorar a chegada da AGI, é fundamental levar a sério as preocupações sobre a nossa falta de preparação para os avanços. Embora os prazos para o desenvolvimento da AGI possam parecer sensacionalistas, a falta de preparação para tais avanços pode ter consequências graves. Em vez de nos focarmos em prazos específicos, deveríamos pensar em preparar-nos para as mudanças significativas que os avanços tecnológicos irão trazer.

A trajetória atual dos LLM indica um futuro onde a AGI se pode se tornar uma realidade muito antes do esperado, o que exigirá um esforço coordenado para abordar questões éticas, políticas e económicas a fim de maximizar os benefícios desta tecnologia transformadora enquanto se minimizam os riscos potenciais.

Suscita-se ainda o impacto potencial da superinteligência, tida como a tecnologia mais poderosa jamais desenvolvida pela humanidade. A superinteligência pode fornecer uma vantagem militar decisiva, comparável apenas às armas nucleares. Os governos autoritários poderiam usá-la para conquistar o mundo e impor controlo total internamente, enquanto estados rebeldes poderiam usá-la para ameaçar a aniquilação.

A superinteligência será crucial para a segurança internacional. Os observadores internacionais acreditam que se os Estados Unidos mantiverem uma liderança «saudável», será possível navegar com mais segurança pelo período volátil e perigoso que vai acompanhar o surgimento da superinteligência. A liderança americana é vista como o único caminho realista para desenvolver um regime de não proliferação que possa evitar os riscos de autodestruição associados à superinteligência.

A superinteligência não é apenas mais uma tecnologia; a sua chegada mudará completamente o equilíbrio de poder militar, proporcionando uma vantagem esmagadora para os que a possuírem. A comparação com a Guerra do Golfo ilustra de como uma vantagem tecnológica de 20 a 30 anos pode ser decisiva. Naquele conflito, a coligação liderada pelos EUA derrotou o exército iraquiano, apesar de ter forças numéricas inferiores, graças a uma superioridade tecnológica significativa.

Com a superinteligência, os avanços tecnológicos militares de um século poderão ser efetuados em menos de uma década, incluindo-se hackers superinteligentes capazes de paralisar as forças militares adversárias ou exércitos de robots e enxames de drones autónomos, além de novas armas de destruição maciça com um poder destrutivo mil vezes maior. A superinteligência permitirá também uma automação total do trabalho, resultando num crescimento industrial e económico explosivo, com as taxas de crescimento a poder atingir mais de dez por cento ao ano.

A vantagem militar proporcionada pela superinteligência seria decisiva, até mesmo contra a dissuasão nuclear. Sensores e redes de análise melhorados poderiam localizar submarinos nucleares, drones autónomos poderiam sabotar forças nucleares adversárias e defesas antimísseis impenetráveis poderiam ser postas em prática, e tudo isso, sem considerar novos paradigmas científicos e tecnológicos.

A corrida pela superinteligência também apresenta um perigo autoritário significativo. Um ditador com acesso à superinteligência poderá controlar completamente o seu país, usando robots para a aplicação da lei, vigilância em massa e ‘deteção de mentiras’ automática para eliminar a dissidência. A superinteligência poderá consolidar o poder de um ditador de forma permanente, eliminando quaisquer ameaças ao seu governo.

Para garantir a segurança, a parte democrática do mundo precisa de manter uma liderança saudável sobre os poderes autoritários, o que dará tempo para enfrentar os desafios de segurança da superinteligência, permitindo a navegação segura pelo período de transição. Uma liderança saudável permitirá desacelerar o progresso necessário para garantir a segurança.

Há certamente a necessidade de uma abordagem equilibrada que reconheça tanto o potencial como os desafios apresentados pelos modelos de linguagem de grande escala. A capacidade destes modelos implica que estejamos preparados para uma rápida evolução. Será essencial que a sociedade se prepare para as mudanças significativas, garantindo que as políticas e as respostas sejam bem fundamentadas e proporcionais à magnitude das transformações previstas.