Não deve ser fácil trabalhar-se numa área na qual tenhamos medo de estar a contribuir com o nosso esforço para produzir resultados potencialmente perigosos para a sociedade. E sem ter mecanismos eficientes de denúncia de possíveis más práticas, tanto em termos éticos como no que respeita à segurança. E é a essa eficiência e ao “direito de alertar” que muitos actuais e ex-trabalhadores de IA apelam numa carta aberta
POR HELENA OLIVEIRA

Quando um grupo de actuais e ex-funcionários de importantes empresas de Inteligência Artificial publica uma carta aberta a alertar para a falta de supervisão em termos de segurança nesta área e pede maior protecção para os denunciantes [whistleblowers]que nela trabalham é porque o assunto é sério. E em particular porque vários deles deixaram o seu trabalho dando como argumento a falta de fé nas lideranças das empresas onde estavam inseridos no que respeita à forma como estas estão a lidar com os riscos da IA, não os levando suficientemente a sério.

Seis dos signatários são anónimos, incluindo quatro actuais e dois ex-funcionários da OpenAI, precisamente porque temem sofrer retaliações. A proposta é endossada por alguns dos maiores nomes da IA: Geoffrey Hinton (muitas vezes chamado de “o padrinho” da IA”), Yoshua Bengio (considerado como um dos maiores especialistas a nível mundial no domínio da IA e vencedor do Prémio Turing em 2018) e Stuart Russell (pioneiro na compreensão e uso da Inteligência Artificial, na reflexão sobre o seu futuro a longo prazo e a sua relação com a humanidade, sendo também uma das principais autoridades em robótica e bioinformática).

Apesar de não ser a primeira vez que tal acontece – recorde-se que algo similar foi pedido por líderes das principais empresas de tecnologia que apelavam a limitar-se, por um tempo, o ritmo de desenvolvimento de várias soluções de IA – o facto de este apelo ter sido feito por trabalhadores da OpenAI e da Google DeepMind – dois gigantes no universo da IA – mostra que é cada vez maior a preocupação de quem lida directamente com estas tecnologias no que respeita à sua segurança e futuras (ou presentes) aplicações.

Na carta em causa, os signatários dizem acreditar no potencial das tecnologias de IA para produzirem benefícios sem precedentes para a humanidade, mas apontam para os sérios riscos que estas poderão colocar, desde o aprofundamento das desigualdades existentes, à manipulação e desinformação, até à perda de controlo de sistemas autónomos de IA, resultando potencialmente na extinção humana.

Afirmando que as próprias empresas e especialistas em IA já reconheceram estes riscos, bem como governos de todo o mundo, o grupo em causa diz ter esperança de que os mesmos possam ser adequadamente mitigados com orientação da comunidade científica, dos decisores públicos e do público em geral. Todavia, e como sublinham, as empresas de IA têm fortes incentivos financeiros para evitar uma supervisão eficaz, o que os faz não acreditar que as estruturas personalizadas de governação corporativa sejam suficientes para alterar esta situação.

Como esclarecem, as empresas de IA possuem informações substanciais não públicas sobre as capacidades e limitações dos seus sistemas, a adequação das suas medidas de protecção e os níveis de risco de diferentes tipos de danos. No entanto, actualmente têm apenas obrigações mínimas de partilhar algumas destas informações com os governos, e nenhuma com a sociedade civil.

Assim, afirmam, enquanto não houver uma supervisão governamental eficaz destas empresas, os actuais e antigos funcionários estarão entre as poucas pessoas que as podem responsabilizar perante o público. No entanto, amplos acordos de confidencialidade impedem-nos de expressar as suas preocupações, excepto às próprias empresas que, na sua maioria, não apresentam vontade de abordar estas questões. Os signatários da carta aberta declaram ainda que as proteções normais relativamente aos denunciantes são insuficientes porque se concentram em actividades ilegais, ao passo que muitos dos riscos que os preocupam ainda não estão regulamentados. “Alguns de nós tememos várias formas de retaliação, dado o histórico de tais casos em toda a indústria” e “não somos os primeiros a alertar ou falar sobre essas questões”, escrevem.

Desta forma, a carta aberta publicada no início de Junho, apela a que os gigantes da IA se comprometam com determinados princípios:

  • Que a empresa não celebrará nem aplicará qualquer acordo que proíba a “depreciação” ou crítica por questões relacionadas com o risco, nem retaliará por essas mesmas críticas;
  • Que a empresa facilitará um processo anónimo verificável para que funcionários actuais e antigos comuniquem preocupações relacionadas com os riscos ao seu conselho de administração, aos reguladores e a uma organização independente apropriada com experiência relevante;
  • Que a empresa apoiará uma cultura de crítica aberta e permitirá que os seus atuais e ex-funcionários levantem preocupações relacionadas com os riscos inerentes às tecnologias em causa ao público, ao conselho de administração da empresa, aos reguladores ou a uma organização independente apropriada com experiência relevante, desde que os segredos comerciais e outros interesses de propriedade intelectual sejam devidamente protegidos;
  • Que a empresa não fará retaliações contra actuais e antigos funcionários que partilhem publicamente informações confidenciais relacionadas com o risco depois de outros processos terem falhado.

“Aceitamos que qualquer esforço para comunicar preocupações relacionadas com riscos deve evitar a divulgação desnecessária de informações confidenciais. Por conseguinte, uma vez que exista um processo adequado para comunicar anonimamente preocupações ao conselho de administração da empresa, aos reguladores e a uma organização independente adequada com conhecimentos especializados relevantes, aceitamos que as preocupações sejam inicialmente comunicadas através desse processo. No entanto, enquanto esse processo não existir, os actuais e antigos trabalhadores devem manter a liberdade de comunicar as suas preocupações ao público”, pode também ler-se na carta.

Explosão da IA intensifica receios

O que mais se pode retirar deste apelo? Em primeiro lugar, o facto de os signatários se inquietarem com duas áreas diferentes das tecnologias de IA: no campo da ética, a preocupação dos danos já actualmente visíveis e reportados, como os preconceitos raciais ou a desinformação e, por outro lado, no campo da segurança, que olha para a IA como um risco existencial futuro.

É certo que a preocupação com os potenciais danos da inteligência artificial existe há décadas, mas o boom da IA dos últimos anos intensificou esses receios e deixou os reguladores com muita dificuldade para acompanhar os avanços tecnológicos cada vez mais céleres. Embora as empresas de IA tenham declarado publicamente o seu empenho no desenvolvimento seguro da tecnologia, os investigadores e os trabalhadores têm vindo a alertar para a falta de supervisão, uma vez que as ferramentas de IA exacerbam os danos sociais existentes ou criam outros totalmente novos.

Na outra carta aberta acima mencionada e assinada por alguns dos líderes das empresas mais importantes na área da IA, os signatários escrevem que “embora as empresas de IA tenham declarado publicamente o seu empenho em desenvolver a tecnologia de forma segura, os investigadores e os trabalhadores alertam para a falta de supervisão, uma vez que os sistemas de IA contemporâneos estão agora a tornar-se competitivos relativamente aos humanos em tarefas gerais”. E apresentam quatro interrogações por excelência: “Devemos deixar que as máquinas inundem os nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os empregos, incluindo os que nos satisfazem? Devemos desenvolver mentes não-humanas que possam vir a ser mais numerosas, mais inteligentes, e substituir-nos? Devemos arriscar perder o controlo da nossa civilização?”.

Para os subscritores desta carta, os sistemas de IA poderosos só deverão ser desenvolvidos quando existir uma confiança cabal de que os seus efeitos serão positivos e os seus riscos controláveis.

Mas será que este tipo de apelos faz alguma diferença? De acordo com o Future of Life Institute, criado em 2015 e cuja missão é orientar a tecnologia transformadora no sentido de beneficiar a vida e de a afastar de riscos extremos de grande escala, a carta foi assinada por mais de 1800 CEO e mais de 1500 professores. Todavia, e publicada em 2023, parece não ter surtido efeito algum, dada a celeridade com que as tecnologias de IA têm vindo a surgir.

Desta forma, o Future of Life Institute continua a tentar fazer ouvir a sua voz no que respeita aos riscos da IA, explicando o que está em jogo.

Em primeiro lugar, os sistemas de IA tornar-se-ão cada vez mais capazes. As empresas estão a procurar activamente a “inteligência artificial geral” (AGI, na sigla em inglês), que pode ter um desempenho tão bom ou melhor do que o dos seres humanos numa vasta gama de tarefas. Estas empresas prometem que esta tecnologia trará benefícios sem precedentes, desde a cura do cancro até à erradicação da pobreza mundial. Por outro lado, mais de metade dos especialistas em IA acredita que há uma hipótese em dez de esta tecnologia causar a nossa extinção.

Todavia, esta crença [na possível extinção da raça humana] não tem nada a ver com os robots maléficos ou com as máquinas sencientes comuns na ficção científica. O medo assenta no facto de que, no curto prazo, a IA avançada possa permitir que aqueles que procuram causar danos – bioterroristas, por exemplo – executem facilmente tarefas de processamento complexas sem consciência. Ou no caso de os militares poderem perder o controlo de um sistema de alto desempenho concebido para causar danos com um impacto devastador. Mesmo uma IA programada para fazer algo altruísta poderá seguir um método destrutivo para atingir esse objetivo. Actualmente, não existe uma forma adequada e confiável de saber como os sistemas de IA irão actuar, porque ninguém, nem mesmo os seus criadores, compreendem como funcionam, faz ainda saber o Future of Life.

De acordo com esta organização, existem dois riscos em particular: uma IA que está programada para fazer algo devastador ou a IA que está programada para fazer algo benéfico, mas desenvolve um método destrutivo para atingir o seu objetivo.

No primeiro caso, o exemplo é dado a partir das armas autónomas que são sistemas de inteligência artificial programados para matar. Nas mãos da pessoa errada, estas armas podem facilmente causar baixas em massa. Além disso, uma corrida às armas de IA poderia inadvertidamente levar a uma guerra de IA que também resultaria num número de baixas massificado. Para evitarem ser contrariadas pelo inimigo, estas armas seriam concebidas de forma a serem extremamente difíceis de “desligar”, pelo que os humanos poderiam perder o controlo de tal situação. Este risco está presente mesmo com uma IA limitada, mas aumenta à medida que os níveis de inteligência e autonomia da IA aumentam.

No segundo caso, tal pode acontecer sempre que não conseguirmos alinhar totalmente os objectivos da IA com os nossos, o que é extremamente difícil. Se pedirmos a um carro inteligente obediente que nos leve ao aeroporto o mais depressa possível, ele pode levar-nos lá ignorando regras de trânsito, sinais ou passadeiras, por exemplo, fazendo não o que queríamos, mas literalmente o que pedimos. Por outro lado, se um sistema superinteligente for encarregue de um ambicioso projeto de geoengenharia, este poderá causar estragos no ecossistema como efeito secundário e encarar as tentativas humanas de o impedir como uma ameaça a enfrentar.

Todavia, o exemplo de uma IA extremamente perigosa são os denominados robôs assassinos, também designados por “sistemas de armas autónomas letais” que são armas que utilizam a Inteligência Artificial para identificar, selecionar e matar alvos humanos sem intervenção humana. Embora estas armas pareçam futuristas, os relatos da sua utilização estão a começar a acumular-se. O Instituto Future of Life considera que os robots assassinos são imorais e uma grande ameaça à segurança global.

Numa sessão de perguntas & respostas sobre os potenciais riscos catastróficos da IA, o já mencionado especialista em IA, Yoshua Bengio, afirma que há já muitos anos que muitos dos que pertencem à comunidade de IA defendem a sua regulamentação e a aposta na ética  da IA centrada no impacto social, ao mesmo tempo que se tem de trabalhar sobre os actuais danos e riscos para a democracia e os direitos humanos.

Com refere, na verdade, o que é necessário para enfrentar todos os riscos da IA é uma governação, um controlo e uma regulamentação muito maiores, com os direitos humanos e a democracia (no verdadeiro sentido da palavra, de poder para o povo e não de concentração de poder em poucas mãos) no centro do palco”.

Para o especialista, há que começar e acelerar as reformas necessárias, certificando-nos de que todas as vozes participam nos debates necessários. “De facto, o que vejo acontecer com a atual atenção dada pelos meios de comunicação social ao risco existencial da IA é uma aceleração do debate político sobre a necessidade de governação e regulamentação da IA, o que está a ajudar a causa da resolução dos actuais danos da IA mais do que qualquer outra tentativa anterior”.

“Além disso, há uma grande sobreposição na infraestrutura técnica e política necessária para mitigar tanto os danos de equidade da atual IA como as armas catastróficas temidas por uma IA mais poderosa, ou seja, ter regulamentação, supervisão, auditorias, testes para avaliar potenciais danos, etc.”, refere ainda, acrescentando que, por último, a nível técnico, muitos dos danos e inquietações actuais (como a discriminação e o preconceito, ou a concentração de poder num pequeno número de empresas) fazem parte de uma preocupação maior em termos de alinhamento: “construímos sistemas de IA e as empresas que os rodeiam podem ter objectivos e incentivos que não estão bem alinhados com as necessidades e os valores da sociedade e da humanidade”, remata.

Um tema que será, pelos bons e maus motivos, motivo de debate contínuo.

Editora Executiva

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui