Quem o afirma é Luís Moniz Pereira, professor catedrático aposentado que se dedica, na actualidade, ao estudo da Inteligência Artificial e, entre outros temas, à introdução de conceitos éticos e morais nas máquinas. No ciclo de conferências sobre IA promovido pela Fidelidade e pela Culturgest, o especialista partilhou as suas preocupações face aos rápidos avanços tecnológicos que estão a impregnar toda a sociedade, “tomando decisões por nós”, provocando um hiato cada vez maior entre ricos e pobres e levantando questões sérias sobre um potencial desemprego massificado. “Ética precisa-se” é mesmo o seu lema
POR HELENA OLIVEIRA
“Estamos numa encruzilhada entre a Inteligência Artificial, a ética das máquinas e o seu impacto social”, afirma o professor catedrático e especialista em IA, Luís Moniz Pereira, um dos oradores convidados da conferência “Inteligência Artificial: aplicações, implicações e especulações”, promovida pela Fidelidade e pela Culturgest. Para o Professor, e no que respeita ao complexo e vasto tema da ética aplicada à inteligência artificial (IA), estamos perante um “carrossel” de questões que se interligam entre si, nomeadamente porque esta tem evoluído rapidamente e as máquinas estão a tomar, de forma crescente, decisões por nós, as quais e por sua vez, incluem questões éticas variadas. Detentor de um extenso currículo, Luís Moniz Pereira é autor, entre outros, do livro A Máquina Iluminada: Cognição e Computação, sendo que o seu próximo livro, Da Moral da Máquina à Máquina da Moral, está prestes a ser publicado e incide, exactamente, sobre as inúmeras questões éticas que estão a surgir com os avanços das tecnologias no geral e da IA, em particular. Aposentado, há uma década, da Faculdade de Ciência e Tecnologia da Universidade Nova de Lisboa, dedica-se agora a tempo inteiro à Inteligência Artificial, enquanto investigador no laboratório de Ciência Computacional e Informática, sendo a introdução de conceitos éticos e morais nas máquinas uma das suas áreas de predilecção intelectual.
Porque a IA tem evoluído muito rapidamente, o especialista afirma que, por um lado, há que pensar no seu uso ético, ou seja, “queremos que as máquinas sejam usadas de modo ético, consistente com a nossa própria ética, porque elas vão estar entre nós e não desejamos que as mesmas violem a nossa moral” e, por outro, temos de considerar igualmente a sua crescente autonomia – visto que existem vários graus que têm de ser classificados – tendo esta que estar igualmente sujeita aos valores humanos e éticos.
[quote_center]“Ainda não temos linguagens de programação, nem as chamadas condições de integridade para garantir a segurança dos programas ou a certeza de que estes não vão fazer nenhum disparate”[/quote_center]
Adicionalmente, estes mesmos valores têm de ser estudados interdisciplinarmente, de uma forma aprofundada, para os podermos “transmitir” às máquinas da melhor maneira possível. Associado a este estudo, “há que ter em conta também as diferentes escolas éticas – as quais têm de se entender – até porque a nossa moral, que vivemos no dia-a-dia, é uma soma de várias éticas”, acrescenta. Ainda no que respeita à autonomia das máquinas, Luís Moniz Pereira alerta para o facto de todas estas questões terem de ser traduzidas em legislação, com a jurisprudência a ter de classificar os diferentes níveis de autonomia, sendo que ainda não existem leis válidas para tal. “Existe o nível dos princípios – a ética – e depois existe a moral, que são as regras”, acrescenta também.
Neste carrossel de interligações, há que ter também em atenção as questões técnicas. Como refere, “ainda não temos linguagens de programação, nem as chamadas condições de integridade – ou seja, a maneira de especificar aquilo que queremos que nunca possa acontecer – para garantir a segurança dos programas, tendo a certeza que estes não vão fazer nenhum disparate”.
Subjacente a todas estas questões, estão os impactos sociais e as máquinas que queremos ou não queremos ter. Afastando os cenários hollywoodescos de máquinas exterminadoras que vão controlar o planeta, o especialista em IA refere-se a um perigo pouco falado, mas que já existe e que está relacionado com o facto de estarmos a utilizar software demasiado simples para resolver problemas profundos (dada a crescente autonomia dos algoritmos). Dando o exemplo do deep learning, das redes neuronais profundas, as quais, sem dúvida, podem ter utilizações fantásticas, Luís Moniz Pereira assegura também – e porque são mecanismos prevalentemente estatísticos e a moral não o pode ser – “que se está a exagerar no que as mesmas podem fazer”.
[quote_center]“Estamos a utilizar software demasiado simples para resolver problemas profundos”[/quote_center]
Uma das questões será, assim, a de se saber se os avanços na tecnologia estão a incorporar a ética que desejamos e se estão a endereçar as questões sociais da forma que queremos que a sociedade funcione. Para o Professor, e recordando que, neste momento, não estamos a utilizar mais do que dez por cento da IA, a mesma pode ser uma benesse para muita gente. Todavia, outra questão se impõe, a de “quem vai, realmente, lucrar com tudo isto?” Acreditando que a IA irá aumentar o hiato entre ricos e pobres, a não ser que se comece a endereçar este “assunto tabu” e a discutir a política do seu uso e de quem vai ganhar com ela, Luís Moniz Pereira confessa ter dúvidas se serão apenas os “donos” das máquinas a retirar proveito das mesmas, se serão os que têm dinheiro para comprar robots ou se, e idealmente, poderemos ser todos nós “donos” da tecnologia na medida em que esta é produzida pela humanidade.
[quote_center]“Não chega ter um código de ética para os profissionais da computação, pois este é um problema que extravasa largamente a informática e os informáticos”[/quote_center]
Sublinhando que, para uma ética das máquinas, a interdisciplinaridade é crucial, cruzando os saberes da filosofia, da lei, da psicologia, da antropologia, da biologia evolucionária, da economia e da IA, serão os resultados desta abordagem que servirão para equipar os agentes artificiais com “capacidade moral”, sendo muito positivo criar modelos de computação de teorias éticas. Para o Professor, “as máquinas deviam ‘sentir culpa’ (não demasiada, mas alguma), mas também reconhecimento de intenções, comprometimento, pedidos de desculpa e raciocínios contrafactuais”. A verdade é que estes problemas não se esgotam, como em outras profissões, com meros códigos profissionais. “Não chega ter um código de ética para os profissionais da computação, pois este é um problema que extravasa largamente a informática e os informáticos”, assegura.
“Progresso tecnológico não significa progresso social”
Os impactos sociais derivados dos avanços tecnológicos são muitos e de ordem diversa e contrariam a ideia prevalecente que, com a tecnologia, a sociedade sai sempre a lucrar. Apesar dos muitos benefícios provenientes da IA, Luís Moniz Pereira afirma que “o progresso tecnológico não significa progresso social”, acrescentando ainda que este é um assunto tabu que tem vindo a ser escamoteado.
[quote_center]“Esta revolução é muito mais rápida que as anteriores, nomeadamente porque está relacionada com tipos de trabalho cognitivo os quais, até agora, eram monopólio dos humanos”[/quote_center]
Sublinhando que os avanços na IA terão um profundo impacto no mercado laboral, levantando questões intricadas no que respeita ao desemprego, às funções dos trabalhadores, à distribuição da riqueza e a profundas alterações na educação e na formação, o Professor acredita que as pessoas com empregos que vão ser substituídos não vão ter ao seu dispor outros empregos para compensar. Citando estudos sobre o impacto das máquinas no mercado laboral, como aquele que foi desenvolvido pela McKinsey e que afirma que, até 2030, entre 75 a 375 milhões de pessoas terão de mudar de funções ou que a IA será responsável por cerca de 12% a 20% de desemprego adicional, o especialista recorda que “esta revolução é muito mais rápida que as anteriores, nomeadamente porque está relacionada com tipos de trabalho cognitivo os quais, até agora, eram monopólio dos humanos”.
Assim, e tendo em consideração que “as funções cognitivas serão também invadidas”, existirão cada vez mais hiatos, “com o sistema a rebentar se não houver um novo contrato social”, de que é exemplo a aposta no rendimento básico incondicional, tal como defende também Martin Ford, um dos outros oradores da conferência (v. artigo nesta newsletter).
[quote_center]“Se os humanos que pagam impostos vão ser substituídos, então há que arranjar uma forma de taxar igualmente os robots”[/quote_center]
Recordando uma capa da revista The New Yorker de Outubro de 2017, em que o futuro é representado por uma “sociedade de castas” – com os proprietários dos robots a encimar a pirâmide social, seguidos dos “gestores das máquinas” e dos “formadores”, “todos os outros” ficarão na base, com muito menos privilégios. “Não vamos ganhar todos”, assegura, propondo por isso uma Comissão de Ética para a IA e a Robótica, a qual tem de ser independente, funcionando como uma supra-entidade que terá de controlar e monitorizar os interesses privados.
Sublinhando, mais uma vez, que as perdas massivas de empregos irão produzir problemas de sustentabilidade sérios no bem-estar social, nomeadamente ao nível das pensões, Luís Moniz Pereira defende – e porque “substituir é substituir” – que se os humanos que pagam impostos vão ser substituídos, então há que arranjar uma forma de taxar igualmente os robots.
A questão do pagamento de impostos por parte dos robots, em conjunto com o já mencionado rendimento básico incondicional, têm sido temas bastante debatidos dada a sua enorme complexidade, mas não há dúvidas que os governos têm de começar, e rapidamente, a estudar soluções alternativas face à enorme probabilidade de milhões de pessoas ficarem sem meios de subsistência e, ao não poderem contribuir com a sua quota-parte para a sustentabilidade das pensões futuras, às quantias astronómicas de dinheiro que desaparecerão se não existir uma forma de tributar o trabalho desempenhado pelas máquinas.
A sociedade algorítmica
Num resumo das suas principais ideias, Luís Moniz Pereira diz que pensa ter ficado clara a necessidade de uma ética para as máquinas, simplesmente “porque estas estão a ficar mais sofisticadas, mais autónomas, a agir em grupo e a formar populações que incluem humanos”. O Professor recordou também à audiência que estes agentes computacionais estão a ser desenvolvidos numa variedade de domínios, nos quais inúmeras questões de responsabilidade exigem uma grande atenção, nomeadamente em situações de escolha ética. Adicionalmente, e na medida em que a sua autonomia está a aumentar, o requisito é o de que funcionem responsavelmente, eticamente e com segurança. Todavia, apesar de os potenciais problemas estarem identificados, todas estas questões e novas realidades geram muitas preocupações.
[quote_center]“A IA tem um elevado poder para distorcer a forma como nos concebemos a nós mesmos no interior da sociedade e também como funcionamos em sociedade”[/quote_center]
Adicionalmente, e ao vivermos numa sociedade algorítmica, outros problemas com um enorme impacto social estão a emergir e outros tantos aparecerão mais cedo ou mais tarde. Para Luís Moniz Pereira, há que ter em mente que os que controlam os recursos online têm um poder desmesurado e que uma das áreas que envolve também a IA é o acesso e a qualidade da informação existente online. A seu ver, este acesso é susceptível de grandes abusos, muito graças ao facto de os algoritmos terem como alvo e seleccionarem audiências e conjuntos específicos de pessoas.
“A IA tem um elevado poder para distorcer a forma como nos concebemos a nós mesmos no interior da sociedade e também como funcionamos em sociedade”, afirma ainda. Relembrando que a moralidade considera não só evitar o mal, mas também promover o bem-estar comum, é preciso divisar uma forma de todos poderem beneficiar dos avanços tecnológicos a partir de uma ética de grande valor para toda a sociedade, não esquecendo, porém, que nem nós sabemos ainda o suficiente sobre a moralidade humana.
[quote_center]“As máquinas podem ser programadas para gostarem de ser os novos escravos”[/quote_center]
O Professor advertiu, uma vez mais, para os perigos da ética simplista dos algoritmos, os quais possuem “gavetas estatísticas que não controlamos”, defendeu que as máquinas e os computadores com software ético exigem novas leis, sendo necessário estudar a jurisprudência com vista à legislação, ao mesmo tempo que relembrou a urgência da promoção de uma pesquisa profunda e interdisciplinar no que respeita à ética das máquinas e ao seu uso igualmente ético. Alertando ainda para os que mais beneficiarão dos desenvolvimentos ilimitados da IA – os super-ricos – e com os desempregados a serem deixados para trás, “ética precisa-se”, declarou uma vez mais. E, a finalizar a sua intervenção, afirmou que “as máquinas têm de ser os novos escravos, podendo até ser programadas para serem masoquistas, para gostarem de ser escravos”, para que todos possamos beneficiar delas.
Editora Executiva