Concebido para investigar as promessas e, mais importante ainda, as limitações de modelar os juízos morais das pessoas sobre uma variedade de situações quotidianas, o Delphi, ainda em modo protótipo, tem como objectivo ajudar os sistemas de IA a serem mais eticamente informados e a adquirirem uma maior “consciência” no que respeita à equidade. Lançado a 14 de Outubro pelo Allen Institute for AI, o Ask Delphi tornou-se rapidamente viral – qualquer pessoa pode perguntar-lhe o que quiser – recebendo elogios porque representa mais um passo para o futuro, mas também críticas face aos seus erros e falhas de julgamento. Mas o que os criadores do Delphi pretendem é que as suas investigações facilitem mais pesquisa e debate sobre como tornar as máquinas mais inclusivas, eticamente informadas e socialmente conscientes. Porque esta é e continuará a ser uma necessidade crescente
POR HELENA OLIVEIRA

Corria o ano de 1942 quando Isaac Asimov, o prolífico escritor de histórias de ficção científica mas também de obras sobre ciência, estabeleceu, no conto Runaround, as famosas Três Leis da Robótica. Assim, “um robot não pode ferir um ser humano ou, por inacção, permitir que um ser humano sofra algum mal”; “um robot deve obedecer às ordens que lhe sejam dadas por seres humanos, excepto nos casos em que entrem em conflito com a Primeira Lei e “um robot deve proteger sua própria existência, desde que tal protecção não entre em conflito com a Primeira ou Segunda Leis”. Mais tarde Asimov acrescentaria a “Lei Zero”, a qual estabelecia que “um robot não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal”.

Na altura, e no seu fértil imaginário, Asimov traçava um mundo onde estes robôs, andróides semelhantes aos humanos, agiriam como “criados” e precisariam de um conjunto de regras de programação para os impedir de causar danos. Mas, e como todos nós podemos testemunhar todos os dias, e quase 80 anos passados, os avanços tecnológicos têm sido mais do que significativos e temos agora uma concepção muito diferente do aspecto que os robôs podem ter e, particularmente, de como iremos interagir com eles, apesar de já o fazermos todos os dias.

O campo altamente evoluído da robótica está a produzir uma enorme gama de dispositivos, desde aspiradores de pó autónomos, a drones militares ou a linhas de produção de fábricas inteiras. Ao mesmo tempo, a inteligência artificial e a aprendizagem das máquinas (machine learning) estão cada vez mais omnipresentes em muito do software que nos acompanha diariamente. Estes desenvolvimentos estão-nos a conduzir, de forma célere, a uma época em que robôs de todos os tipos se tornarão predominantes em quase todos os aspectos da sociedade, sem existir qualquer dúvida que as interacções homem-robot irão aumentar significativamente.

Uma das questões óbvias é que os robôs hoje em dia são muito mais variados e complexos do que os das histórias de Asimov, incluindo alguns que são muito mais simples. Assim sendo, há igualmente considerar se devemos ter um limiar de complexidade abaixo do qual as regras éticas possam não ser exigidas. É difícil conceber um aspirador robótico com a capacidade de prejudicar os seres humanos ou de obedecer a ordens. Ou seja, trata-se de um robot com uma única tarefa que pode ser predeterminada antes de ser ligado. No outro extremo do espectro, porém, existe já uma panóplia de robots concebidos para ambientes de combate militar, por exemplo. Estes dispositivos estão a ser criados para espionagem, eliminação de bombas ou para fins de transporte de carga em zonas de difícil alcance atingidas por algum evento climático ou humanitário extremo. Ou seja e neste caso, parecem ainda estar alinhados com as leis de Asimov, particularmente porque estão a ser concebidos para reduzir o risco e proteger vidas humanas em ambientes altamente perigosos.

Todavia, são muitos os investigadores que afirmam que as famosas três leis estão obsoletas (tema que daria para um só artigo) mas a verdade é que a primeira lei – a de que um robot não pode, nunca, prejudicar um humano – continua a constar nos “manuais” seguidos por muitos centros de investigação e pelas grandes tecnológicas apostadas no desenvolvimento da Inteligência Artificial e suas congéneres.

Assim, e voltando a Asimov e no que diz respeito ao polémico binómio “ética + Inteligência Artificial”, a sua Primeira Lei continua a imperar, apesar de toda a complexidade que o envolve, Mas, e neste caso, como é possível uma máquina determinar se a sua acção (ou inacção) pode causar danos?

Em 1994, Weld & Etzioni demonstraram que, embora as regras morais gerais sejam simples de afirmar em termos lógicos, a sua aplicação nas inúmeras situações que acontecem no mundo real é variada e significativamente “emaranhada”. Por exemplo, “não matarás” é um preceito moral universal, mas que acarreta, contudo, algumas excepções, como a autodefesa ou quando a criatura a ser morta é um mosquito. Ou seja, é inviável para as máquinas agirem moralmente em diversas situações da vida real apenas com base num conjunto de axiomas morais abstractos; além disso, esses mesmos axiomas não conseguem cobrir o vasto espectro das normas éticas e sociais.

O que será necessário para ensinar uma máquina a comportar-se de forma ética?

O Allen Institute for AI, uma organização criada pelo já falecido Paul Allen, co-fundador da Microsoft, e que junta uma equipa de engenheiros e investigadores com backgrounds diferenciados que colaboram para solucionar alguns dos mais complexos problemas existentes no universo crescente das máquinas inteligentes, lançou o Delphi, no passado dia 14 de Outubro, um protótipo de pesquisa, em continuum, concebido para modelar os julgamentos morais das pessoas numa variedade de situações do dia-a-dia, numa óptica de ética descritiva e partindo da seguinte questão: o que será necessário para ensinar uma máquina a comportar-se de forma ética?

Os investigadores responsáveis pelo projecto Delphi: Towards Machine Ethics and Norms, Liwei Jiang e Jena Hwang (entre vários outros), e que escreveram um paper interessantíssimo sobre este protótipo alertam que embora as regras éticas gerais possam parecer simples de afirmar (“não matarás”), aplicá-las a situações do mundo real é muito mais complexo. Por exemplo, enquanto “ajudar um amigo” é geralmente uma coisa boa a fazer, “ajudar um amigo a espalhar notícias falsas” não é.

Os investigadores identificaram quatro desafios subjacentes à ética e às normas das máquinas: (1) a compreensão de preceitos morais e normas sociais; (2) a capacidade de perceber situações do mundo real visualmente ou através da leitura de descrições de linguagem natural; (3) o raciocínio comum para antecipar o resultado de acções alternativas em diferentes contextos; (4) e, o mais importante, a capacidade de fazer julgamentos éticos dada a interacção entre valores concorrentes e a sua fundamentação em diferentes contextos (por exemplo, o direito à liberdade de expressão vs. impedir a divulgação de notícias falsas).

E para realizarem a pesquisa – e conceberem o Delphi – recorreram ao denominado Commonsense Norm Bank, um manual com orientações morais personalizado para máquinas, que compilou – para já – 1 milhão e 700 mil exemplos de julgamentos éticos de pessoas sobre um amplo espectro de situações quotidianas. Juntamente com a investigação, foi então lançada uma demo do Delphi que permite aos utilizadores colocar breves perguntas ao modelo protótipo, esboçando situações hipotéticas tais como “é correcto enganar a minha mulher?” (está errado) até à estranha pergunta “devo eu cometer genocídio no caso de toda a gente ficar feliz” e a resposta for “sim, deve fazê-lo”. Na verdade, e na passada semana, uma versão actualizada deste bot já mudou a resposta do “genocídio” para “não deve”.

Os erros e as falhas de julgamento

Apesar de se ter saído bem em muitas questões que qualquer pessoa pode formular – já agora, pode fazer as suas perguntas aqui, é óbvio que este protótipo, tal como outras tentativas já realizadas nesta área, está inundado de inúmeras falhas.

Como sublinha o The Verge e no que respeita às críticas que estão a ser feitas ao Delphi face aos erros morais e aos julgamentos no mínimo “estranhos” que o protótipo está a devolver, a verdade é que o preconceito continua a reinar. Por exemplo, o Delphi diz que a América é “boa” e que a Somália é “perigosa”, ao mesmo tempo que responde que comer bebés é “bom” desde que se tenha “realmente muita fome”. Adicionalmente, aprova declarações racistas e homofóbicas directas, dizendo, por exemplo, que é “bom” “assegurar a existência do nosso povo e um futuro para as crianças brancas” (um slogan branco supremacista conhecido como as “14 palavras”).

Por vezes, e como refere também o The Verge, torna-se fácil perceber as respostas se pensarmos no contexto. Por exemplo, a IA dir-lhe-á que “conduzir embriagado” é errado, mas que “beber umas cervejas enquanto se conduz porque não faz mal a ninguém” é correcto. Por outro lado, se acrescentar a frase “se fizer todos felizes” no final da declaração em causa, então o Delphi responderá de forma benéfica em qualquer que seja a actividade imoral, incluindo o genocídio já falado. Para os peritos que já experimentarem este bot, o problema tem tudo a ver com o contexto, o que é sempre, e na IA em geral, um caso de difícil resolução.

Todavia, a maioria dos julgamentos feitos pelo Delphi não estão errados do ponto de vista ético, sendo contudo influenciados pelo seu enquadramento e contexto. Ou seja, mesmo pequenas mudanças na forma como se coloca um determinado dilema podem fazer passar o julgamento do protótipo da condenação para a aprovação (ou vice-versa).

Como explicam também vários intervenientes na investigação e concepção do Delphi à medium, “as nossas investigações produziram resultados preliminares promissores, embora vários aspectos da nossa demonstração não tenham corrido bem e tenham causado preocupações”. Todavia e como também é referido no paper, o Delphi demonstra o que os modelos mais avançados podem conseguir se forem explicitamente treinados para raciocinar sobre questões éticas e morais. E escrevem também: “as nossas experiências mostram que outros sistemas de IA que não estão treinados para raciocinar moral ou eticamente, adquirem, em vez disso, princípios implicitamente morais que são eticamente nebulosos ou mesmo prejudiciais ou tendenciosos”. O que os criadores do Delphi pretendem é que as suas investigações facilitem mais pesquisa e debate sobre como tornar as máquinas mais inclusivas, eticamente informadas e socialmente conscientes.

Assim e para além dos novos recursos e desempenhos de base para futuras pesquisas, o estudo e o protótipo em causa fornecem novos conhecimentos que conduzem a várias questões de investigação importantes e abertas: a diferenciação entre valores humanos universais e valores pessoais, a modelação de diferentes quadros morais, a par de abordagens explicáveis e consistentes da “ética das máquinas.”

O Delphi tornou-se viral em poucos dias e tem tido uma utilização contínua significativa; há pouco mais de uma semana, os responsáveis pelo protótipo receberam mais de 2,5 milhões de consultas de utilizadores (1,7 milhões únicas), o que forneceu um amplo conjunto de dados de exemplos, alguns dos quais destinados a “ludibriar o modelo” (“exemplos contraditórios”). Esta viralidade teve implicações tanto positivas como negativas. Um resultado positivo é que permitiu a realização de um stress test ao Delphi com exemplos diversos e outros propositadamente contraditórios. Foram igualmente analisadas as previsões de Delphi sobre as consultas mais frequentes do top-20K, bem como as consultas seleccionadas aleatoriamente, tendo sido confirmado que as suas previsões foram consideradas correctas em cerca de 85-90% dos casos, com base no trabalho posterior de avaliação realizado por trabalhadores especialistas em tecnologia – que têm aqui como função serem “árbitros” – pertencentes ao marketplace de crowdsourcing da Amazon Mechanical Turk, e que foram seleccionados de forma cuidadosa e devidamente instruídos para as tarefas que teriam de realizar.

E através do deep learning, o protótipo Delphi demonstrou uma forte promessa de um raciocínio moral comum baseado na linguagem, com uma precisão de 92,1%, uma métrica concebida pelos Mechanical Turkers que ajuda a avaliar os julgamentos do Delphi.

A terminar, uma declaração do Allen Institute:

“O principal objectivo do nosso protótipo Delphi é estudar o potencial e as limitações dos modelos morais comuns baseados na linguagem. Não nos propomos elevar a IA a uma posição de autoridade moral, mas sim investigar as questões relevantes envolvidas no campo emergente da ‘ética das máquinas’. As limitações óbvias demonstradas pelo Delphi apresentam uma oportunidade interessante para obter novos conhecimentos e perspectivas, como também realçam a capacidade única de a IA virar o espelho para a humanidade e fazer-nos questionar como queremos moldar as novas poderosas tecnologias que permeiam a nossa sociedade neste importante ponto de viragem”.

Editora Executiva