Comissão Europeia quer inteligência artificial mais ética

As aceleradas mudanças do mundo tecnológico levaram Comissão a criar rascunho com diretrizes para garantir que a IA respeita princípios éticos.

Por enquanto, o documento ainda está em formato de rascunho, tendo sido apresentado a 18 de dezembro. Contém as orientações éticas para o uso de inteligência artificial (IA), elaborado por um grupo de especialistas (AI HLEG) ao serviço da Comissão Europeia. No total, são 52 peritos que têm como missão pensar e elaborar diretrizes e princípios para este admirável mundo novo.

É um desafio feito para os tempos modernos: perceber como é que a IA pode ser utilizada de forma ampla, mas sem perder de vista a necessidade do respeito por princípios éticos e pela privacidade. A lista de peritos é extensa e conta com nomes do mundo académico e de grandes empresas europeias. Na lista figuram organizações como a Airbus Defence and Space, Bosch ou a Bayer. Do mundo da tecnologia, há espaço para gigantes como a SAP ou a IBM.

Não é de agora que a Comissão Europeia mostra que está atenta ao panorama da inteligência artificial. Ainda no início de dezembro, publicava um Plano Coordenado para a Inteligência Artificial: “como a eletricidade o fez no passado, a IA está a transformar o nosso mundo” figurava na introdução desta estratégia europeia. Se, por um lado, o documento salienta as vantagens da IA, seja no setor da saúde, poupança energética ou na administração pública, também alertava para as preocupações que podem surgir de usos menos éticos desta tecnologia.

“A IA deve ser desenvolvida, implementada e usada com um propósito ético, assente e refletida em direitos fundamentais”, refere o rascunho de princípios éticos, salientando que a tecnologia deverá basear-se em valores sociais, como o respeito pelos direitos humanos e orientando-se pela justiça.

Também está salientado que estas diretrizes devem funcionar como “um documento vivo que precisa de ser atualizado regularmente” para conseguir acompanhar o progresso tecnológico.

Uma abordagem humana

Este rascunho sublinha uma abordagem para conseguir chegar a esta IA em que se pode confiar: recorrer a princípios centrados nos humanos. Para isso, os peritos elaboraram uma lista de dez temas-chave, em que a responsabilização está presente para a receita da “inteligência artificial boa”.

Segue-se o governo dos dados, uma criação não discriminatória da IA e também vários pontos de respeito: assegurar a privacidade, segurança e transparência. Há ainda outra questão que é uma aposta destes especialistas: a supervisão humana quando o tema é a autonomia da inteligência artificial.

Mas nem todos os pontos são consensuais. Temas como a utilização de IA para sistemas de avaliação de pessoas, seja em que contexto for, suscitam preocupações aos especialistas. A esta equação junta-se a preocupação com o uso de IA para sistemas automáticos de armamento letal. Nesta questões, devidamente assinaladas ao longo do rascunho, é encorajada a participação dos cidadãos.

Uma discussão em aberto

Até ao próximo dia 18 de janeiro, qualquer pessoa vai poder dar o seu parecer. É possível fazer notas e comentários a este rascunho de orientações éticas através de um formulário online, disponibilizado por Bruxelas. Os comentários podem ser feitos tanto a secções específicas do documento como a um âmbito mais alargado.

“Ainda não temos dados sobre número de participações ou feedback, ainda é demasiado cedo para processar essa informação”, diz Nathalie Smuha, da Direção-Geral das Redes de Comunicação, Conteúdos e Tecnologias da Comissão Europeia. “Contamos que esses dados estejam disponíveis após a data final da consulta, no final de janeiro.” Bruxelas vai reunir-se novamente com o grupo de peritos em IA, após o fim do período de consulta. Uma versão final do documento vai ser discutida em março de 2019.

“Prazo de discussão é muito curto”

O período de consulta deste rascunho é “muito curto”, defende Manuel Lopes Rocha, sócio e coordenador da equipa de propriedade intelectual da PLMJ Advogados, que salienta a presença de grandes empresas europeias na lista de peritos envolvidos na elaboração deste conjunto de guias.

Ainda assim, reconhece que, comparando com a documentação criada pelo Parlamento Europeu, este rascunho foca-se mais nas questões éticas, deixando de fora o mundo da robótica. Além disso, os pontos funcionam quase numa lógica de “regras de conduta para as empresas”.

Quais as primeiras impressões sobre este rascunho da Comissão Europeia?

Este rascunho surge no desenvolvimento de um documento europeu de 25 de abril de 2018. Já introduz documentação sobre a questão ética, a chamada ethics by design. Acho que a documentação criada pelo Parlamento Europeu foi mais detalhada nesta questão. Em termos jurídicos, fica um pouco aquém, é menos detalhado e menos preciso. Parece apostar muito na ideia de normas mais sobre a responsabilidade, seguros e compensações. Por exemplo, o documento do Parlamento Europeu já trata outras coisas, já aborda temas sobre robótica. É nessa discussão que se fala sobre a criação de personalidade jurídica para os robôs.

Bruxelas fala nestas normas como uma forma de garantir maior competitividade. Concorda?

Há aqui a questão da implementação das normas éticas desde o princípio, a própria construção da inteligência artificial a obedecer a padrões éticos. Antigamente as normas éticas não eram para isso. Hoje estas normas têm um âmbito muito mais geral. Agora o âmbito da criação normativa passa para o mundo ético. À norma ética vai faltar a sanção - se bem que aqui a sanção é a falta de competitividade.

A falta de confiança por parte do utilizador seria a sanção neste caso?

Sim, neste caso seria uma sanção indireta.

Mais Notícias

Outros Conteúdos GMG

Patrocinado

Apoio de