"Os algoritmos, os métodos e os processos da Inteligência Artificial estão atualmente muito ao serviço da área dos negócios, dos governos, das indústrias", mas é altura de "darmos um passo à retaguarda e olharmos a responsabilidade social que temos ao desenvolver estas ferramentas tão poderosas, que depois podem ser mal utilizadas", indicou o professor da Faculdade de Engenharia do Porto da Universidade do Porto (FEUP).

Para o especialista, que falava à Lusa à margem da 18.ª edição do Encontro Português de Inteligência Artificial (EPIA), que se realiza na FEUP, entre hoje e sexta-feira, é necessário a existência de regras e princípios que façam com que sistemas baseados em Inteligência Artificial sejam usados para "benefício da humanidade" e "seguindo os Direitos Humanos", o que "não está assim muito transparente" na atualidade.

Eugénio Oliveira, que coordena de uma sessão do EPIA 2017 sobre o impacto social da Inteligência Artificial, indicou que esta está presente em múltiplos aspetos com impacto social, desde o reconhecimento automático de imagens e de texto até à pesquisa que se realiza em plataformas como a Google, que a utiliza "para sugerir os ‘links’ que mais nos interessam".

Existem igualmente "muitos sistemas de controlo automatizados", que conseguem extrair padrões que permitem prever alguns comportamentos futuros em diversas áreas, através da análise de grande volume de dados (‘big data').

No entanto, segundo um relatório que foi encomendado pelo Departamento de Defesa dos Estados Unidos sobre o impacto da Inteligência Artificial, divulgado há menos de dois meses, há uma chamada de atenção para o facto de esta poder ser utilizada com dados falsos, o que permite tirar "conclusões completamente erradas", contou o professor.

Veja ainda: Robôs humanóides recebem e encaminham doentes em hospital belgas

"É relativamente fácil, por alteração dos dados iniciais que se fornecem aos programas, ter depois conclusões que levam, por exemplo, a políticas de ataque e de defesa, a nível militar, baseados nesses dados falsos (‘fake data')", explicou, acrescentando que essa situação pode levar "a terríveis decisões, que colocam em risco muita coisa na Humanidade".

De acordo com o especialista, o desenvolvimento atual do ‘hardware' "é de tal ordem" que já permite uma densificação do processamento que "não está muito longe do se passa em alguns cérebros", colocando-se inclusivamente a possibilidade de alguns desses sistemas virem a desenvolver "algum tipo de consciência", num futuro próximo.

Ao nível do ‘software', continuou o professor, embora a evolução não seja tão grande, há uma aproximação entre os estudos de neurocientistas e alguns tópicos de Inteligência Artificial, "como é o caso do ‘deep learning' aplicado sobre o ‘big data'", que resolvem facilmente todas as questões de traduções e de reconhecimentos de faces, com uma aceleração enorme.

Esta simbiose entre a aceleração "que é necessária e que está a acontecer neste momento na Inteligência Artificial" e "os perigos que daí advêm, se não houver os cuidados suficientes para que todos esses movimentos sejam feitos sobre regras", são algumas questões ao nível ético e moral que se colocam nesta área, concluiu Eugénio Oliveira.