“Devemos deixar que as máquinas inundem os nossos canais de informação com propaganda e mentira? Devemos automatizar todos os trabalhos, incluindo aqueles que deixam as pessoas satisfeitas? Devemos desenvolver mentes não humanas que possam eventualmente ultrapassar-nos em número, serem mais inteligentes, deixando-nos obsoletos e substituir-nos? Devemos arriscar-nos a perder o controlo da nossa civilização?”. Estas são algumas das perguntas que a já famosa carta aberta publicada pelo Future of Life Institute e assinada por mais de 5 mil especialistas e personalidades ligadas à IA quer ver respondidas, apelando por isso a uma pausa de seis meses no desenvolvimento destas poderosas tecnologias. Mas há quem discorde
POR HELENA OLIVEIRA
Se o leitor esteve atento às notícias que mais populares se tornaram na última semana, talvez já tenha tido oportunidade de ler a carta aberta publicada pelo Future of Life Institute – uma organização sem fins lucrativos cujo objectivo é “reduzir o risco global catastrófico e existencial de tecnologias poderosas” – a qual apela à suspensão temporária, ao longo de seis meses, do desenvolvimento de sistemas de inteligência artificial [IA] mais “poderosos” que o GTP-4 e que, entre vários “problemas”, incluem a produção em massa de notícias e o aumento do desemprego, nomeadamente pela substituição dos humanos por máquinas num conjunto significativo de profissões.
Na altura em que este artigo está a ser escrito, a carta em causa conta já com mais de 5 mil signatários, entre anónimos e especialistas em tecnologia: o sempre polémico Elon Musk, o co-fundador da Apple, Steve Wozniak, Yuval Nohel Harari (historiador e autor dos livros Sapiens e Homo Deus), Stuart Russel, reconhecido cientista de computação britânico, o canadiano Yoshua Benfio, famoso pelo trabalho que faz com redes neurais artificiais e que assenta em algoritmos que simulam o cérebro humano, sendo igualmente pioneiro do deep learning, alguns CEOs proeminentes (da Stability AI, Pinterest, Skype ou Getty Images), em conjunto com alguns professores de IA de mérito reconhecido, entre muitos outros, incluindo também vários especialistas da DeepMind, a empresa de IA da Google, e também da Microsoft, as quais e nos últimos meses também lançaram novos produtos com inteligência artificial.
Não é de surpreender que ninguém da OpenAI, a empresa de investigação e implementação de IA que lançou o ChatGPT e que também tem, como missão, “assegurar que a inteligência artificial beneficie toda a humanidade”, tenha assinado a carta. Afinal, foi depois do enorme sucesso que esta nova tecnologia alcançou, a par de muitas críticas face ao seu poder, que surgiu este apelo a uma pausa para “repensar” o futuro da IA. Adicionalmente, este comunicado foi publicado dias depois de o Serviço Europeu de Polícia (Europol) ter alertado para a potencial má utilização de grandes modelos linguísticos, como o GPT-4, em esquemas de desinformação e criminalidade online.
Em tradução livre, a carta alerta para “os riscos profundos para a sociedade e a humanidade” que “os sistemas de IA com inteligência que permite concorrer com a dos humanos podem representar”, relembrando também os Princípios de IA de Asilomar [sobre os quais o VER já escreveu], destacando o que diz que “a IA avançada pode representar uma mudança profunda na história da vida na Terra, e deve ser planeada e gerida com cuidados e recursos proporcionais”.
Infelizmente, “este nível de planeamento e gestão não está a acontecer”, diz também a carta, antes pelo contrário, como se pôde constatar na corrida descontrolada nos últimos meses de laboratórios de IA que se esforçam “para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo os seus criadores – consegue compreender, prever, ou controlar de forma fiável”.
A carta causou um verdadeiro furor entre os que apoiam e os que criticam a forma como está a ser conduzida a investigação e desenvolvimento de sistemas de inteligência artificial avançados, e a verdade é que tal como o ChatGPT, facilmente chegou também ao público em geral, que começa a ter mais sensibilidade e uma maior curiosidade no que respeita aos enormes (e, na maior parte das vezes, inimagináveis) progressos destas novas tecnologias.
Max Tegmark, professor de Física no NSF IA Institute for Artificial Intelligence and Fundamental Interactions (IAIFI) do MIT e Presidente do Future of Life Institute, sublinhou também que o pior cenário assenta na premissa de que os humanos deverão perder gradualmente mais e mais controlo sobre a civilização. Assim, e desta forma “os poderosos sistemas de IA só devem ser desenvolvidos quando estivermos confiantes de que os seus efeitos serão positivos e de que os seus riscos serão controláveis”, continua a carta, e por conseguinte “apelamos a todos os laboratórios de inteligência artificial para que parem imediatamente, durante pelo menos seis meses, a formação de sistemas de inteligência artificial mais potentes do que o GPT-4. Esta pausa deve ser pública e verificável, e incluir todos os actores-chave. Se tal pausa não puder ser decretada rapidamente, os governos deveriam intervir e instituir uma moratória”.
Para os co-signatários da carta aberta, “os laboratórios de IA e peritos independentes devem utilizar esta pausa para desenvolver e implementar conjuntamente uma série de protocolos de segurança partilhados para a concepção e desenvolvimento avançado de IA que sejam rigorosamente auditados e supervisionados por peritos externos independentes”. Estes protocolos devem assegurar que os sistemas que os adoptam são seguros para além de qualquer dúvida razoável, algo já enunciado nos Princípios de IA da OCDE [sobre os quais o VER já escreveu] que exigem que os sistemas de IA “funcionem adequadamente e não representem um risco de segurança injustificado”. No comunicado é igualmente explicado que a ideia não é parar com o desenvolvimento da IA no geral, mas apenas no que respeita aos modelos “imprevisíveis com capacidades emergentes” e que a investigação e desenvolvimento de IA “devem ser reorientados para tornar os poderosos sistemas actuais mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, dignos de confiança e leais”.
A desaceleração de uma nova tecnologia não é uma ideia radical nem propriamente nova. A humanidade já fez isto antes – mesmo com tecnologias economicamente valiosas. Basta pensar na clonagem humana ou na modificação da linha germinal humana. Os investigadores do ADN recombinante por detrás da Conferência de Asilomar de 1975 organizaram uma famosa moratória sobre certas experiências. Os cientistas podem, definitivamente, modificar a linha germinal humana, e provavelmente poderiam empenhar-se na clonagem. Mas – com raras excepções como a do cientista chinês He Jiankui que foi condenado a três anos de prisão pelo seu trabalho na modificação de embriões humanos – não o fazem.
Assim, será que esta carta aberta tem força suficiente para que nestes seis meses os laboratórios de investigação e desenvolvimento de IA “parem para pensar” sobre os potenciais efeitos negativos destas poderosas novas tecnologias e se comprometam a seguir o que o Future of Life Institute prega? As dúvidas são muitas e a desconfiança também. Afinal, um número significativo dos signatários que defendem esta pausa são os mesmos que estão a desenvolver os modelos generativos de IA sobre os quais a carta adverte. E existem já vários argumentos que contrariam o apelo desencadeado pela carta do Future of Life Institute.
Críticas e desconfianças
As críticas começam por ter como alvo o talvez mais famoso subscritor da carta aberta e sim, estamos a falar do controverso e polémico Elon Musk. É que, e na verdade, Musk sempre foi um dos maiores entusiastas da inteligência artificial. Para além de ajudar a financiar a OpenAI, responsável pelo desenvolvimento do GPT-4, antes de romper com a mesma em 2018, basta pensar na sua empresa automóvel Tesla, a qual continua a apostar na IA para o fabrico de carros inteligentes e que andam sozinhos. A Tesla foi igualmente anfitriã de um evento de dois dias sobre inteligência artificial com o objectivo de mostrar a investidores tecnológicos os progressos nesta área e recrutar cientistas de topo, especialistas em IA, para trabalharem especificamente nos veículos eléctricos que vende.
Por outro lado, e dado que esta manifestação de desagrado no que respeita aos efeitos nocivos da IA surgiu depois do sucesso do GPT-4, o próprio CEO da OpenAI, Sam Altman, entrevistado pela ABC News, afirmou estar um “um pouco assustado”com a tecnologia que a sua empresa está a criar, incluindo o facto de esta poder, rapidamente, substituir um conjunto significativo de empregos.
Apesar de acreditar que a IA irá remodelar a sociedade tal como a conhecemos, não descarta alguns perigos reais que a mesma poderá despoletar, ao mesmo tempo que defende que a esta pode ser “a maior tecnologia que a humanidade já desenvolveu” para melhorar drasticamente as nossas vidas. Na entrevista em causa, Sam Altman afirmou também que está seguro que ao longo de um par de gerações, a humanidade provará que se pode adaptar a grandes mudanças tecnológicas, mas se o desenvolvimento célere da IA continuar nos próximos anos, algumas mudanças poderão criar efeitos nocivos. Como afirmou também, “penso que as pessoas deveriam estar felizes por termos um pouco de medo disto”. E numa declaração recente publicada pela OpenAI fica claro que “a dada altura, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros”.
Da parte dos críticos surge um grupo de reconhecidos especialistas em ética da IA, que responderam já à controversa carta, criticando-a por se centrar em hipotéticas ameaças futuras quando os danos reais são atribuíveis à má utilização da tecnologia no presente. Os membros deste grupo – sendo que nenhum assinou a carta aberta – estão actualmente a trabalhar em conjunto no Instituto DAIR, uma nova unidade de investigação destinada a estudar, expor e prevenir os danos associados à IA.
Ao contrário da narrativa do comunicado de que devemos “adaptar-nos” a um futuro tecnológico aparentemente predeterminado e lidar “com as dramáticas perturbações económicas e políticas que a IA irá causar”, os membros deste grupo de investigação não concordam “que o nosso papel seja o de nos adaptarmos às prioridades de alguns indivíduos privilegiados e ao que eles decidem construir e proliferar”, defendendo antes que deveríamos estar a construir máquinas que funcionem para nós, em vez de “adaptar a sociedade às mesmas”, escrevem. E acrescentam que a corrida actual para “experiências AI” cada vez mais avançadas, não é um caminho preestabelecido em que a nossa única escolha é a rapidez de execução, mas sim um conjunto de decisões impulsionadas pela motivação do lucro, sublinhando o facto de que as acções e escolhas das empresas dedicadas ao desenvolvimento da IA devem ser moldadas por uma regulamentação que proteja os direitos e interesses das pessoas.
E como sublinham, é de facto tempo de agir, “mas o foco da nossa preocupação não deve ser o de ‘mentes digitais poderosas imaginárias’”. Em vez disso, defendem que nos devemos concentrar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las e que estão rapidamente a centralizar o poder e a aumentar as desigualdades sociais.
Se a carta aberta do Future of Life Institute fará jus ao que apregoa, não sabemos e nem podemos saber. Como ter a certeza de que existirá esta paragem? Quem a “controlará”? E quem pode negar com veemência que os próprios signatários aproveitarão estes seis meses (e porquê seis meses?) para parar com as suas pesquisas e desenvolvimento, para assegurar que os efeitos da IA sejam positivos e que os riscos que dela podem advir são controláveis?
As dúvidas são muitas. Mas não será, com certeza, esta carta que irá mudar os avanços significativos das tecnologias de IA.
Editora Executiva