Os sistemas de IA estão a ganhar competências jamais imaginadas. Tal como o actualmente famoso ChatGPT-4, os modelos de IA são já capazes de gerar texto, imagens e vídeos que são difíceis de distinguir dos conteúdos criados por humanos. Embora a IA tenha muitas aplicações benéficas, também pode ser utilizada para perpetuar preconceitos, potenciar armas autónomas, promover a desinformação e realizar ciberataques. Mesmo quando os sistemas de IA são utilizados com envolvimento humano, os agentes de IA são cada vez mais capazes de agir de forma autónoma para causar danos
POR HELENA OLIVEIRA

Quando a IA se tornar ainda mais avançada, poderá eventualmente representar riscos catastróficos ou existenciais. Há muitas formas de os sistemas de IA poderem representar ou contribuir para riscos em grande escala, alguns dos quais são enumerados a seguir.

Armas autónomas

Os actores maliciosos podem reorientar a IA para ser altamente destrutiva, apresentando um risco existencial em si mesma e aumentando a probabilidade da desestabilização política. Por exemplo, os “métodos de aprendizagem por reforço profundo” têm sido aplicados no combate aéreo e as ferramentas de aprendizagem automática para a descoberta de drogas/medicamentos podem ser utilizadas para construir armas químicas.

Nos últimos anos, os investigadores têm vindo a desenvolver sistemas de IA para ciberataques automatizados, os líderes militares têm discutido a possibilidade de conferir aos sistemas de IA um controlo decisivo sobre os silos nucleares e as superpotências mundiais têm-se recusado a assinar acordos que proíbam as armas autónomas. Uma IA treinada para desenvolver medicamentos foi já facilmente redireccionada para conceber potenciais armas bioquímicas. O GPT-4, um modelo treinado em texto e codificação da Internet, foi capaz de realizar experiências de forma autónoma para ajudar a sintetizar produtos químicos num laboratório do mundo real. E um acidente com um sistema de retaliação automatizado poderá rapidamente escalar e dar origem a uma grande guerra.

Olhando para o futuro e na medida em que o país com os sistemas de IA mais inteligentes poderá ter uma vantagem estratégica, será um enorme desafio para os demais países resistirem à criação de sistemas de IA cada vez mais poderosos e “artilhados”. Mesmo que todas as superpotências garantam que os sistemas que constroem são seguros e concordem em não construir tecnologias de IA destrutivas, os actores desonestos podem continuar a utilizar a IA para causar danos significativos. O fácil acesso a sistemas de IA poderosos aumenta o risco de utilização unilateral e maliciosa. Tal como acontece com as armas nucleares e biológicas, é preciso apenas um único actor irracional ou malévolo para causar danos em grande escala. E, ao contrário das armas anteriores, os sistemas de IA com capacidades destrutivas podem propagar-se através de meios digitais.

Desinformação

Um dilúvio de desinformação gerada pela IA e com conteúdos persuasivos pode tornar a sociedade menos preparada para enfrentar os mais importantes desafios do nosso tempo.

Os Estados, os partidos e as organizações já utilizam a tecnologia para influenciar e convencer os outros das suas crenças, ideologias e narrativas políticas. A IA emergente poderá permitir campanhas de desinformação personalizadas à escala. Além disso, a própria IA pode gerar argumentos altamente persuasivos que invocam fortes reacções emocionais. Em conjunto, estas tendências podem minar a tomada de decisões colectivas, radicalizar indivíduos ou fazer descarrilar o progresso moral.

Valores humanos em causa

Treinados com objectivos errados, os sistemas de IA podem encontrar novas formas de atingir os seus objectivos em detrimento dos valores individuais e sociais.

Os sistemas de IA são treinados com base em objectivos mensuráveis, mas que podem ser apenas substitutos indirectos daquilo que valorizamos. Por exemplo, os sistemas de recomendação de IA são treinados para maximizar o tempo de visualização e o número de cliques. No entanto, o conteúdo em que as pessoas têm maior probabilidade de clicar não é necessariamente o mesmo face ao que vai ao encontro dos nossos valores. Além disso, algumas provas sugerem que os sistemas de recomendação levam as pessoas a desenvolver crenças extremas para facilitar a previsão das suas preferências. À medida que os sistemas de IA se tornam mais capazes e influentes, os objectivos que utilizamos para treinar os sistemas devem ser especificados com mais cuidado e incorporar valores humanos partilhados.

Dependência das máquinas

Se as tarefas importantes forem cada vez mais delegadas às máquinas, a humanidade corre o sério risco de perder a capacidade de se autogovernar, tornando-se completamente dependente das máquinas, à semelhança do cenário retratado no filme WALL-E.

À medida que os sistemas de IA se aproximam da inteligência humana, serão cada vez mais os aspectos do trabalho humano que se tornarão mais rápidos e mais baratos de realizar. Isto pode fazer com que os seres humanos se tornem economicamente irrelevantes e, quando a IA automatizar aspectos de muitas indústrias, poderá ser difícil para os seres humanos deslocados voltarem a entrar nas mesmas. Se assim for, os seres humanos poderão ter poucos incentivos para adquirir conhecimentos ou competências. Além disso, este potencial aumento da inteligência das máquinas reduzirá o controlo da humanidade sobre o futuro, aumentando o risco de maus resultados a longo prazo.

Favorecimento dos regimes autoritários

Sistemas altamente competentes podem conferir um enorme poder a  pequenos grupos de pessoas, o que poderá beneficiar os sistemas opressivos.

E a IA imbuída de valores específicos pode determinar os valores que se propagam no futuro. À medida que o tempo avança, os sistemas de IA mais poderosos podem ser concebidos e disponibilizados a um número cada vez maior de interessados, o que poderá permitir, por exemplo, que regimes autoritários imponham valores limitados através de uma vigilância generalizada e de uma censura opressiva. Ultrapassar um tal regime pode ser improvável, especialmente se passarmos a depender dele. Mesmo que os criadores destes sistemas saibam que os mesmos são prejudiciais para si próprios ou para os outros, podem ter incentivos para reforçar o seu poder e evitar a distribuição do controlo.

Poder e (des)controlo

As empresas e os governos têm fortes incentivos económicos para criar agentes que possam atingir um vasto conjunto de objectivos. Esses agentes têm incentivos instrumentais para adquirir poder, o que potencialmente os torna mais difíceis de controlar.

A IA que adquire poder substancial pode tornar-se especialmente perigosa se não estiver alinhada com os valores humanos. O comportamento de procura de poder também pode incentivar os sistemas a fingir que estão alinhados, a conspirar com outros sistemas, a dominar a monitorização, etc. Nesta perspectiva, criar máquinas mais poderosas do que nós é brincar com o fogo. A criação de IA que procura o poder também é incentivada porque os líderes políticos vêem a vantagem estratégica de ter os sistemas de IA mais inteligentes e mais poderosos face aos seus congéneres.. Por exemplo e sem surpresa, Vladimir Putin disse: “Quem se tornar líder em [IA] tornar-se-á o governante do mundo”. Esperemos apenas que não seja a Rússia.

FONTE:  X-Risk Analysis for AI Research

Editora Executiva