O termo deste ano escolhido pela editora do dicionário britânico Collins foi “IA “ [a abreviatura de Inteligência Artificial] devido a “um aceleramento tão rápido que fez dela a conversa dominante em 2023, sendo que a sua utilização quadruplicou ao longo dos últimos 11 meses”. Paralelamente, o ano de 2023 ficará igualmente marcado pela realização da primeira Cimeira de Segurança da IA, que teve lugar em Bletchley Park na passada semana, onde 28 governos, em conjunto com a União Europeia, foram signatários de uma declaração na qual se comprometem a abordar os riscos da tecnologia, bem como um acordo multilateral para testar modelos avançados de IA. A regulação da IA é cada vez mais uma necessidade e espera-se que a cimeira em causa abra caminho para uma coordenação internacional no que respeita ao seu desenvolvimento ético e responsável
POR HELENA OLIVEIRA

Bletchley Park, o local histórico considerado como um dos berços da informática e conhecido pelo seu papel fundamental na decifração de códigos secretos durante a Segunda Guerra Mundial, voltou a fazer história esta semana ao acolher a primeira Cimeira Mundial sobre Segurança da Inteligência Artificial. O local foi o lugar onde foram instalados os primeiros computadores semi-programáveis do mundo, como o Colossus, utilizado para derrotar os nazis e onde Alan Turing, um dos pioneiros da computação e uma das principais mentes brilhantes que por ali passaram, trabalhou.

E quase 80 anos depois, tal como os decifradores de códigos de Bletchley Park desempenharam um papel crucial na definição do resultado da Segunda Guerra Mundial, foram muitos os líderes que, simbolicamente, ali se reuniram para a Cimeira de Segurança da IA, que teve lugar a 1 e 2 de Novembro, tendo como objectivo o de se chegar a um certo nível de coordenação internacional no que respeita a acordos sobre alguns princípios no que respeita ao desenvolvimento ético e responsável de modelos de IA, ao mesmo tempo que visa fomentar a colaboração.

O principal resultado foi a nova Declaração de Bletchley, assinada por 28 governos, incluindo a China, os EUA ou a Arábia Saudita, em conjunto com a  União Europeia. Conseguir qualquer tipo de consenso internacional nestes tempos políticos tensos pode ser considerado um êxito, mas são vários os analistas que consideram que o documento pouco mais faz do que reconhecer que existem riscos e comprometer-se a explorá-los.

A única acção concreta prometida no texto é a realização de mais cimeiras no futuro, ironiza a New Scientist, acrescentando contudo que analisar os riscos da IA, dar espaço a representantes de nações de todo o mundo para falarem com líderes empresariais e especialistas em tecnologia e, em última análise, planear um futuro que evite armadilhas desastrosas, já é um bom passo.

Nas semanas que antecederam a Cimeira de Segurança da IA no Reino Unido, o primeiro-ministro britânico Rishi Sunak, o anfitrião deste evento, sublinhou repetidamente os riscos potenciais que a inteligência artificial poderia representar para a sociedade. Depois, na segunda manhã da cimeira, afirmou aos jornalistas que as pessoas deviam evitar afirmações “alarmistas” – pouco antes de avisar que a IA poderia ser tão perigosa como uma guerra nuclear. Ou seja, uma certa incongruência nas palavras de Sunak que não passou despercebida nos meios de comunicação. Mas adiante.

Entre líderes políticos e gigantes tecnológicos, a par de académicos e membros da sociedade civil, o responsável do governo de Sua Majestade começou por considerar a cimeira sobre inteligência artificial como um avanço diplomático, apresentando no primeiro dia e como já mencionado acima, uma declaração internacional, cujos signatários se comprometem a abordar os riscos da tecnologia, bem como um acordo multilateral para testar modelos avançados de IA.

Como noticiou o The Guardian, a declaração foi seguida, no segundo dia, pela confirmação do apoio das Nações Unidas através de um painel de peritos em IA semelhante ao Painel Intergovernamental sobre Alterações Climáticas e pelo acordo das principais empresas tecnológicas em colaborar com os governos nos testes dos seus modelos avançados de IA antes e depois de serem lançados.

Mesmo que os resultados não sejam ainda visíveis – e esperando que o venham a ser – a Cimeira de Bletchley pode considerar-se como o primeiro diálogo internacional formal sobre os riscos da inteligência artificial e, coincidentemente ou não, acabou por ter lugar na mesma semana em que o presidente norte-americano, Joe Biden, assinou uma ordem executiva que se refere directamente ao futuro da inteligência artificial e abrangendo temas diversos como os direitos civis, a protecção dos consumidores, os direitos dos trabalhadores, a privacidade, entre outros. Esta ordem executiva pode assumir-se igualmente como o primeiro passo para regular a IA nos Estados Unidos e foi apresentada sem aviso prévio, o que acabou por ofuscar a cimeira no Reino Unido.

Mas e de regresso a Blechley Park, entre as várias personalidades presentes, contaram-se nomes como Ursula von der Leyen, presidente da Comissão Europeia, Brad Smith, o presidente da Microsoft, Sam Altman, o director executivo da OpenAI, Demis Hassabis, o director executivo da Google DeepMind, Yann LeCun, director da Meta AI, Nick Clegg, presidente dos assuntos globais da Meta, a vice-presidente dos EUA, Kamala Harris, uma delegação do Ministério da Ciência e Tecnologia do governo chinês e, como também não poderia deixar de ser, a do homem mais rico do mundo, presidente da Tesla e dono da rede social X (antigoTwitter) Elon Musk, que lançou esta semana o Grok, um chatbot de inteligência artificial ainda em fase beta.

Com a IA a transformar rapidamente vários aspectos das nossas vidas, existe uma preocupação crescente com as suas potenciais consequências não intencionais. Desde algoritmos tendenciosos até à deslocação de empregos, os debates em Bletchley Park tiveram como objectivo esclarecer as formas como a IA deve ser aproveitada, minimizando ou anulando os danos que possa causar num vasto conjunto de domínios.

Outras preocupações abordadas na cimeira em causa estiveram relacionadas com duas categorias-chave de risco no que diz respeito à IA: a utilização indevida e a perda de controlo. Os riscos de utilização indevida implicam que um mau actor seja “ajudado” por novas capacidades de IA. Por exemplo, um cibercriminoso pode utilizar a IA para desenvolver um novo tipo de malware que não possa ser detectado pelos responsáveis de segurança das empresas ou instituições ou ser utilizado para ajudar os actores estatais a desenvolver armas biológicas perigosas. Já os riscos de perda de controlo referem-se à tão falada e temida situação em que a IA criada pelos humanos poderá virar-se contra eles e, no pior dos cenários, aniquilá-los.

A declaração de Bletchley

“A Inteligência Artificial (IA) apresenta enormes oportunidades a nível mundial: tem o potencial de transformar e melhorar o bem-estar, a paz e a prosperidade da humanidade. Para concretizar este objectivo, afirmamos que, para o bem de todos, a IA deve ser concebida, desenvolvida, implantada e utilizada de forma segura, centrada no ser humano, fiável e responsável. Congratulamo-nos com os esforços envidados até à data pela comunidade internacional para cooperar no domínio da IA, a fim de promover o crescimento económico inclusivo, o desenvolvimento sustentável e a inovação, proteger os direitos humanos e as liberdades fundamentais e fomentar a confiança do público nos sistemas de IA para que estes realizem plenamente o seu potencial”.

Este é o parágrafo optimista que introduz a declaração de Bletchley simbolicamente assinada por todos os governos representados nesta convenção e que marca um raro consenso internacional, bem como um grande feito diplomático. Pelo menos, supostamente.

Por outro lado, dizem os observadores, o facto de, entre os vários países presentes, a China, a Índia, os EUA, o Reino Unido e a Arábia Saudita terem concordado em partilhar conhecimentos e desenvolver normas internacionais para a sua regulação parece ser um sinal positivo para o sector privado. É que embora receiem os riscos associados à IA, as empresas estão naturalmente entusiasmadas com o seu potencial para racionalizar ou melhorar as suas operações.

Como se pode ler igualmente no documento, é sabido que os “sistemas de IA já estão implantados em muitos domínios da vida quotidiana, incluindo a habitação, o emprego, os transportes, a educação, a saúde, a acessibilidade e a justiça” e parecem não existir dúvidas de que a sua utilização conheça cada vez menos limites. Desta forma, os signatários reconhecem que é mais do que provável que a sua utilização aumente e que este é “um momento único para agir e afirmar a necessidade de um desenvolvimento seguro da IA e de que as suas oportunidades transformadoras sejam utilizadas para o bem e para todos (…)”.

No que respeita às principais preocupações e males que dela podem advir, os países reunidos em Bletchley apelam aos esforços “para analisar e abordar o potencial impacto dos sistemas de IA nos fóruns existentes e noutras iniciativas pertinentes, e com o reconhecimento de que é necessário abordar a protecção dos direitos humanos, a transparência e a explicabilidade, a equidade, a responsabilidade, a regulamentação, a segurança, a supervisão humana adequada, a ética, a atenuação dos preconceitos, a privacidade e a protecção dos dados”. E integram igualmente nas suas inquietações “a possibilidade de riscos imprevistos decorrentes da capacidade de manipular conteúdos ou de gerar conteúdos enganadores” elegendo todas estas questões como extremamente importantes e urgentes.

E quais os resultados na prática?

Em primeiro lugar, há que sublinhar que o documento não definiu objectivos políticos específicos, estando prevista uma segunda reunião dentro de seis meses na Coreia do Sul e uma terceira em França dentro de um ano.

Por outro lado, alguns analistas argumentam que a conferência foi mais centrada no simbolismo do que na substância, com a ausência de vários líderes políticos importantes, incluindo o Presidente Biden, o Presidente francês Emmanuel Macron e o chanceler alemão Olaf Scholz. Ademais, é preciso não esquecer que muitos governos estão a avançar com as suas próprias leis e regulamentos. Por exemplo, a Lei de IA da União Europeia, cuja proposta foi votada a favor por uma maioria de eurodeputados em Junho último e que em princípio deverá estar finalizada até ao final do ano visa garantir que “os sistemas de IA colocados no mercado da UE e utilizados na União sejam seguros e respeitem a legislação em vigor em matéria de direitos fundamentais dos cidadãos e os valores da União”. Outro exemplo é o da China que já está a controlar a forma como a IA é utilizada, incluindo a censura de chatbots.

Uma das principais conclusões da cimeira foi a necessidade de colaboração e cooperação entre governos, líderes da indústria e investigadores de IA. A criação de um quadro global que inclua directrizes de segurança, considerações éticas e uma governação transparente é crucial para garantir o desenvolvimento e a implementação responsáveis das tecnologias de IA. Esta necessidade de cooperação estava já estabelecida na declaração de Bletchley:

  • Identificar os riscos de segurança da IA que são motivo de preocupação partilhada, construir um conhecimento científico partilhado e baseado em provas desses mesmos riscos e manter essa compreensão à medida que as capacidades continuam a aumentar, no contexto de uma abordagem global mais ampla para compreender o impacto da IA nas nossas sociedades;
  • Desenvolver as respectivas políticas baseadas no risco em todos os países signatários para garantir a segurança à luz de tais riscos, colaborando conforme adequado e reconhecendo que as abordagens em causa podem diferir com base nas circunstâncias nacionais e nos quadros jurídicos aplicáveis. Isto inclui, a par de uma maior transparência por parte dos intervenientes privados que desenvolvem capacidades de IA de ponta, métricas de avaliação adequadas, ferramentas para testes de segurança e o desenvolvimento de capacidades e investigação científica relevantes para o sector público.

A cimeira concluiu que os danos causados pela IA, quer deliberados quer acidentais, podem assumir muitas formas. Para resolver este e outros problemas, poderá ser criado no início do próximo ano um grupo de trabalho internacional composto por políticos, tecnólogos e líderes empresariais. Apesar de ser impossível esperar que um quadro de governação internacional totalmente formado e eficaz surja na sequência de uma conferência inaugural, a semente foi lançada e será certamente para atingir este objectivo que as futuras cimeiras irão trabalhar.

Assim, e à medida que avançamos para o futuro, a cimeira de Bletchley Park constituiu um marco na sensibilização para a importância da segurança e da ética da IA. É possível afirmar-se que preparou o terreno para novos debates e acções para garantir que a IA beneficia a humanidade como um todo, minimizando os riscos potenciais. Dando prioridade às medidas de segurança, promovendo a colaboração e comprometendo-nos com a investigação contínua, será mais fácil navegar pelas complexidades da IA e orientar o seu desenvolvimento de uma forma que esteja de acordo com os nossos valores e aspirações para um futuro melhor. A ver vamos.

Imagem: ©Unsplash.com

Editora Executiva