
Virgínia Dignum, Diretora do Laboratório de Política de Inteligência Artificial da Universidade de Umeå, fala ao Oeiras Valley da sua relação com o concelho de Oeiras, da sua investigação em inteligência artificial responsável, das iniciativas em que participou com entidades internacionais e propõe-nos uma reflexão sobre as potencialidades, as limitações e os perigos do uso da inteligência artificial, em particular enquanto é utilizada com insuficiente regulação associada.
Que benefícios, preocupações e riscos associa ao uso da inteligência artificial?
Em termos de desafios e riscos, penso que o mais importante neste momento é conseguir desenvolver a inteligência artificial de uma maneira que seja benéfica para todos, que seja benéfica para pessoas, para sociedades, para o nosso planeta em geral, e que não seja só desenvolvida com o âmbito de facilitar a vida de poucos e transtornando a vida de muitos. Os riscos que vemos neste momento são riscos que têm a ver com a falta de justiça, com a discriminação, com a falta de privacidade, com a quantidade enorme de recursos – não só energéticos, mas também recursos naturais – que são necessários para desenvolver a inteligência artificial da maneira que está desenvolvida, e a falta geral de uma política de governança dos sistemas a nível nacional, mas também a nível internacional e global.
De que forma temos caminhado no sentido de alcançar uma inteligência artificial responsável?
Pelo menos neste momento toda a gente fala de inteligência artificial responsável, que é uma coisa que não se falava aqui há uns três ou quatro anos. O facto de haver o conhecimento geral de que é preciso pensar na responsabilidade em relação à inteligência artificial é um passo para a frente.
No entanto, é importante entendermos que inteligência artificial responsável não quer dizer que os sistemas sejam responsáveis pelas ações que tomam. Inteligência artificial responsável tem a ver com a capacidade humana, organizacional, institucional, de ter a responsabilidade e a tomada de contas pelos resultados e pelo efeito dos resultados que os sistemas fazem. Inteligência artificial não é só a técnica, mas é mais do que isso, é o sistema tecno-social em que estes sistemas estão a ser usados. Portanto, a responsabilidade não é da máquina, a responsabilidade é nossa.
Neste momento, é o utilizador o responsável pelo uso de inteligência artificial?
Não é só o utilizador, é fácil pôr a culpa no utilizador, mas quem proporciona a existência desses sistemas é que é o responsável.
Se não houver acesso a sistemas que dêem respostas, que dêem a impressão de que a pessoa se deve suicidar, ou automutilar ou o que quer que seja, o utilizador também não pode utilizar esses sistemas. Não é só o utilizador, mas também é a facilidade que existe neste momento de desenvolver e de distribuir sistemas sem qualquer controlo, a pessoas que nem sempre estão em estado de perceberem qual é que é a intenção do sistema e qual é que é o resultado ou a consequência de utilizar o sistema. Por um lado, temos de criar muito mais leis que limitem ou que governem a distribuição de sistemas, a distribuição das capacidades que estamos a ver neste momento, mas por outro lado também temos de ter muito mais atenção a programas de educação e de treino que nos proporcionem a todos nós sabermos como utilizar o sistema. Também todos nós temos de ter uma carta de condução antes de começar a conduzir carros. Não temos cartas de condução para utilizar sistemas de inteligência artificial, talvez seja uma das coisas que temos de começar a pensar. Não é para todos, mas para certo tipo de sistemas, talvez seja necessário ter mais capacidade de perceber como é que o sistema funciona e como é que se pode utilizar o sistema de uma maneira segura, e para isso educação e treino é importante.
Mas por outro lado também temos de limitar as capacidades de distribuir qualquer tipo de sistema sem controle nenhum. Também não aceitamos que a indústria farmacêutica comece a distribuir medicamentos sem terem controle nenhum de qualidade e de resultados antes de os expor no mercado. Neste momento, qualquer um pode pôr no mercado aquilo que lhe apetecer em relação à inteligência artificial. É uma questão complexa, é fácil dar a culpa ao utilizador, mas não é só do utilizador, é tanto do distribuidor e do desenvolvedor, mas também dos sistemas de governança que existem que permitem que esses sistemas sejam distribuídos sem qualquer controlo.
Como tem a sua investigação contribuído para este caminho para uma inteligência artificial responsável?
No meu grupo de investigação trabalhamos em duas áreas. Primeiro, trabalhamos numa área mais técnica de desenvolvimento de algoritmos e de sistemas de prova, sobre os princípios éticos da inteligência artificial. Por exemplo, estamos a desenvolver provas de discriminação, portanto de poder medir a quantidade de discriminação que o sistema faz. Também estamos a trabalhar na área da explicação, portanto, providenciar explicações diretamente do sistema de uma maneira que seja melhor de ser entendida por aquele que recebe o resultado e também estamos a trabalhar na área da transparência, portanto desenvolver sistemas que sejam mais fáceis de entender como é que os sistemas chegam ao resultado do que os sistemas atuais. Ao mesmo tempo trabalhamos na área de políticas humanas e políticas sociais, tanto desenvolvendo os mecanismos e dando ajuda a governos e a policymakers para desenvolverem os seus próprios processos, para garantir que os sistemas estão a ser governados de uma maneira transparente e também de uma maneira que facilite e que apoie o contributo para o desenvolvimento humano dos sistemas que estamos a desenvolver.
Por que razão uma decisão baseada em dados pode não ser a melhor?
Porque os dados nem sempre são os dados corretos. Primeiro, os dados que temos são sempre dados históricos, não temos dados sobre o futuro, só temos dados sobre o passado. Se o passado é muito diferente do futuro em que vão ser utilizados esses dados, a qualidade dos dados ou o efeito de uma decisão desenvolvida nesses dados, não é necessariamente correta. Por outro lado, dados não são um recurso natural, os dados não existem, os dados são construídos por nós, e a maneira como os construímos limita a maneira como os dados são, portanto se formos só agora, hoje, andar por aí por Oeiras a recolher dados e só olharmos para as cores, não temos dados sobre o som. Se só tivemos sensores de movimento não temos dados sobre a temperatura, portanto os dados limitam-se de uma maneira natural e também de uma maneira, por definição, os dados limitam aquilo que nós recordamos sobre a situação.
O que vemos sempre, é que os dados também são influenciados pelo sistema cultural e económico em questão. Portanto, dados de médicos normalmente são dados de adultos, não têm dados de crianças porque é mais complicado tirar medidas a crianças e depois calcula-se só a criança é para aí um quarto de um adulto, vamos dividir o medicamento para a criança por quatro, o que não é verdade. Mas, portanto, temos de fazer com os dados que temos e como digo os dados não são, não é recurso natural é uma coisa que nós construímos. E como construímos, introduzimos vieses.
Há coisas que não se conseguem marcar, não se conseguem construir em dados. E também, não é só, nem tudo se consegue registar em dados, mas também não temos muitas vezes as ferramentas suficientes para registar tudo o que sabemos sobre a situação que estamos a estudar. Portanto, se não tivermos ferramentas de temperatura, não podemos registar dados de temperatura, mesmo que saibamos que esses dados serão possivelmente relevantes para o estudo que estamos a fazer. Portanto aquilo que temos, as ferramentas que temos, as crenças que temos sobre aquilo que é importante, e aquilo que para que decidimos olhar quando estamos a recolher dados, tudo isso influencia os dados que temos.
E a inteligência artificial não tem outra maneira de olhar para a realidade senão através dos dados que são construídos por nós. E, portanto, quando a inteligência artificial olha para o mundo, está a olhar para os dados que lhe damos, se esses dados não são corretos ou não são completos, não podemos esperar que o sistema seja muito melhor do que os dados que lhe damos.
De que forma considera que a sua ligação a Oeiras influenciou a sua vida profissional?
Fiz o liceu em Oeiras numa altura em que deve ter sido uma das alturas mais críticas para o Liceu de Oeiras, estudei no Liceu, acho que ainda se chama Escola Secundária Sebastião em Silva, em Oeiras. Estudei nos anos 70, a seguir à Revolução, em que havia penso que dez vezes mais alunos no Liceu do que aqueles que a construção do Liceu permitia. Aprendi durante o meu Liceu em Oeiras, a trabalhar em condições difíceis, digamos. Havia barracões por todo lado, havia ratos por todo lado, havia a polícia de choque que estava lá mais vezes do que não e aquilo era uma confusão enorme, agora olhando para aquele Liceu até não reconheço nada do que havia na altura em que lá estudei.
A partir do Liceu, os meus estudos foram feitos em Lisboa. Ia todos os dias de Oeiras para Lisboa, para a Faculdade de Ciências, e, portanto, uma relação profissional com Oeiras não tenho muita, o que tenho é uma ligação de associação muito grande, portanto eu fui guia muitos anos, portanto escuteira, muitos anos. Fui também eu que comecei tanto a 1.ª Companhia de Guias de Oeiras como a 2.ª Companhia de Guias de Oeiras, fui eu a iniciante. E, portanto, a minha ligação à vida associativa de Oeiras é muito grande e aquilo que aprendi como guia e, portanto, que Oeiras me proporcionou como guia foi importantíssimo para o meu desenvolvimento pessoal e também para o meu desenvolvimento profissional, porque como uma miúda de 17 anos já estava a liderar uma companhia de guias com crianças dos 6 aos 15 anos, ou o que é que seja, e com várias dezenas de crianças. Portanto, aprendi de uma maneira muito forte, questões de liderança, mas também questões de resolver problemas, questões da importância da qualidade do ambiente, da importância da qualidade social, e, portanto, isso foi uma parte da minha vida muito importante que está necessariamente ligada a Oeiras. Guias é o ramo feminino do escutismo internacional. Em Portugal há três associações de escuteiros, o Corpo Nacional de Escutas, a Associação de Escoteiros de Portugal e a Associação de Guias de Portugal. As duas primeiras são mistas, mas a Associação de Guias de Portugal é só feminina, portanto as Guias são as “escuteiras” que fazem parte da Associação de Guias de Portugal.
Em que situações prevê que uma boa decisão é melhor que uma ótima decisão?
Não há muitas situações em que uma decisão ótima é muito melhor do que uma decisão boa. O custo de uma decisão ótima é normalmente muito maior do que o custo de uma decisão boa.
Portanto para calcular a qualidade e a necessidade de pedir uma decisão ótima, temos de tomar em conta não só a qualidade da resposta, mas também o custo da resposta. E, portanto, se for, em muitos casos, por exemplo, pedir uma recomendação de um filme ou dum livro para comprar, a diferença não é muito grande sendo ótima [a decisão] ou sendo boa. E por outro lado, o custo é muito maior, portanto temos de ter em atenção também, como eu digo, calcular ou tomar uma decisão ponderada entre a qualidade da resposta e o custo da resposta em relação à situação em que [a decisão] está a ser tomada.
Como pode a sociedade civil ajudar a monitorizar o uso ético de IA pelas organizações?
Para já, temos de ser todos muito mais críticos sobre aquilo que estamos a utilizar e aquilo que está a ser utilizado sobre nós. Temos que ter muito mais a capacidade de exigir ou de tentar que a sociedade civil, organizações de sociedade civil, exijam por nós sobre a transparência daquilo que é, das decisões que estão a ser tomadas sobre nós, o tipo de dados que está a ser utilizado, as situações em que o resultado da inteligência artificial é copiado ou utilizado pela pessoa que está a tomar a decisão, portanto transparência é importantíssimo e isso é uma coisa que temos e que podemos e que devemos exigir, não é só aceitar que o computador disse que sim ou que o computador disse que não, essa é uma resposta que podemos nunca aceitar.
Para isso, precisamos de muito mais uma capacidade de educação geral da população para termos todos uma ideia melhor sobre o que é a inteligência artificial, o que é que não é inteligência artificial, o que é que a inteligência artificial não pode fazer e em que situações é que inteligência artificial está a ser utilizada sem que nós saibamos e de uma maneira que está a influenciar a decisão das pessoas que estão a tomar a decisão. Mesmo na semana passada aqui na Suécia, onde vivo, houve um escândalo sobre o sistema de apoio a famílias, portanto de subsídios a famílias, em que muitas das decisões são calculadas por um sistema de inteligência artificial, embora a decisão seja tomada por uma pessoa que trabalha lá para os serviços dos subsídios. A razão que eles dizem por que estão a funcionar de uma maneira correta é porque a decisão não é tomada pelo sistema automaticamente, mas é tomada por uma pessoa. Mas mesmo nesse caso não é completamente objetivo, porque se o sistema diz “esta pessoa não deve receber subsídio”, o empregado das finanças que está a tomar a decisão tem mais razão para aceitar aquilo que o sistema diz do que para ir pensar por si próprio o que é que seria a decisão.
E, portanto, mesmo de uma maneira secundária, os sistemas estão a influenciar a decisão daqueles que a estão a tomar, sem que nós saibamos, mesmo eles não percebem que estão a ser influenciados pelo sistema. Portanto é exigir mais transparência, exigir mais claridade sobre quando é que os sistemas estão a ser utilizados, de que maneira é que estão a ser utilizados e por quem, é uma coisa que podemos todos fazer, mesmo se não percebermos nada de inteligência artificial.
Considera que estamos a delegar demasiadas decisões à inteligência artificial?
Não sei se estamos, não quero dizer que estejamos a delegar demasiadas decisões, mas estamos a delegar decisões que talvez não devamos delegar. Há decisões que não têm problema nenhum delegar à inteligência artificial. Eu se precisar de calcular uma raiz quadrada prefiro pedir o resultado ao meu calculador do que a si. Não sei qual é que é a sua capacidade matemática, mas de qualquer maneira, mesmo a minha própria ou qualquer outro, uma raiz quadrada, o calculador faz melhor que eu. O Google Maps também provavelmente sabe melhor ir daí, de onde está, para a estação de Oeiras do que se perguntar a uma pessoa na rua. Portanto, há muitas situações em que não tem problema nenhum, ou não tem grandes problemas em pedirmos a decisão a sistema automático. Mas temos é que saber, para já, quando é que podemos tomar a decisão nós próprios, qual é a qualidade das decisões que a inteligência artificial está a tomar e quem é que está a decidir se a decisão da inteligência artificial é copiada diretamente ou é avaliada de outra maneira.
Que balanço retira da sua participação no Grupo de Peritos de Alto Nível em IA e da Iniciativa IEEE em Design Eticamente Alinhado, entre outras iniciativas em que esteve envolvida?
As duas iniciativas a que se refere são duas das muitas em que estive envolvida, também estive envolvida com a Comissão Europeia, com a UNESCO, com a OCDE e com outras, mas as duas a que se refere são importantes porque uma foi a primeira e a outra foi a mais recente. Portanto, a IEEE foi uma iniciativa de peritos, uma iniciativa de cientistas, começou em 2015, penso eu, portanto já há bastante tempo, em que nos juntamos em torno da questão de qual é a responsabilidade e a ética daquilo que estamos a fazer.
Foi uma iniciativa importante, foi uma das primeiras em que de uma maneira coesa e construtiva, um grupo grande, éramos à volta de 600 pessoas no mundo todo, nos debruçámos sobre a questão de qual é a ética daquilo que estamos a fazer. Até aí, muito poucas vezes se tinha feito essa pergunta e de definitivamente nunca tinha sido feito uma pergunta com uma escala tão grande como foi feita nessa altura. O que mudou desde 2015, quando começámos, até agora, é que agora, a última das Nações Unidas, neste momento, instituições internacionais, governos nacionais, governos regionais como a Comissão Europeia e outros, estão muito mais conscientes da necessidade de, não só suportar e acolher este tipo de iniciativa, mas também tomarem a iniciativa por si próprios. Portanto, entre 2015, em que um grupo de cientistas se juntou à volta dessa pergunta, e 2023/24, em que as Nações Unidas decidiram que era importante tomar uma decisão, ou pelo menos debruçar-se sobre a questão, a grande diferença é o alcance e a importância que está a ser dada a essa a essa pergunta. Já não é uma coisa que só nós os cientistas estamos a perguntar, mas é uma coisa que influencia todos e, portanto, merece a atenção das Nações Unidas, da Comissão Europeia e de qualquer outra organização deste tamanho.
Primeiro, respondendo diretamente à sua pergunta, aquela que teve mais impacto foi o trabalho que fizemos para a Comissão Europeia, em 2019, quando começámos a trabalhar sobre os princípios para uma inteligência artificial de confiança, que acabaram por dar muito do conteúdo e da base para o Ato [legislativo] de Inteligência Artificial, a primeira lei mundial com alcance de gerir a inteligência artificial a nível regional, dentro da União Europeia, essa é aquela que teve o resultado mais visível e mais concreto. Uma das coisas comuns entre todas essas iniciativas, e muito mais que existem neste momento, é que, primeiro as discussões são de extremamente alto nível, muito a nível abstrato, não é fácil mas é possível chegar a acordo sobre princípios abstratos, toda a gente concorda que a inteligência artificial tem que ser de confiança, que a inteligência artificial tem que ser responsável, ninguém quer uma inteligência artificial irresponsável ou sem ser de confiança, que não seja ética, portanto nos princípios abstratos é possível alcançar acordo e muitas destas iniciativas que vemos por aí, todas elas, de uma maneira ou de outra falam sobre princípios democráticos, sobre os direitos humanos, sobre a transparência, sobre o efeito ambiental, portanto, mais ou menos falam todas sobre a mesma coisa.
Mas o que eu queria dizer é que nesses princípios abstratos é possível chegarmos a acordo. Neste momento penso que não é necessário continuarmos a discussão dos princípios abstratos, temos de começar muito mais a trabalhar a implementação destes acordos, destes princípios, destas diretivas que existem. Existem diretivas suficientes, não existe suficientemente implementação do que estamos a exigir que a inteligência artificial seja. É fácil exigir que a inteligência artificial seja de confiança, o que é que isso quer dizer e de que maneira é que um programador de sistemas pode garantir que a inteligência artificial seja de confiança nos programas que está a construir, é uma área em que temos de começar a trabalhar muito mais. Podemos dizer que a inteligência artificial tem de estar alinhada com os direitos humanos. Se eu sou uma programadora destes sistemas, como é que eu vou fazer isso? E mais importante ainda, como é que eu vou demonstrar que o meu sistema é alinhado com os direitos humanos? São perguntas mais técnicas, mas por outro lado são perguntas que são muito mais importantes neste momento de discutirmos do que virmos outra vez com outro documento a dizer quais é que são as diretivas que é preciso seguir.