Tenham lá calma com o ChatGPT

O lançamento do "bot" de conversação ChatGPT, no final de Novembro do ano passado, foi um sucesso inquestionável. Apenas dois meses depois, o sistema da OpenAI tem 100 milhões de utilizadores ativos, o que o torna a aplicação de consumo de crescimento mais rápido da história. É só passar os olhos por meios de comunicação e redes sociais para encontrar análises maravilhadas sobre a polidez, rapidez e facilidade da interacção com esta máquina alimentada a Inteligência Artificial. Só há um problema: a aparência de veracidade do ChatGPT não corresponde à realidade.

Embora responda a todo o tipo de perguntas com firmeza e confiança, há inúmeros casos de completa invenção de factos. O "bot" dá informações erradas e nalguns casos parece mesmo ser criativo a inventar nomes ou situações. É um mistério como ou porque o faz, uma vez que um dos grandes problemas deste sistema é que não conseguimos ver as fontes da informação reportada. A total opacidade do que alimenta o ChatGPT torna-o, neste momento, praticamente inútil para uma utilização séria.

Vejamos um caso cómico indicado pelo Mashable, que testou o sistema com várias perguntas. Quando questionado sobre a cor dos uniformes dos soldados franceses nas guerras napoleónicas, o ChatGPT disse "azul escuro." A verdade é que os soldados envergavam uniformes vermelhos. É um facto incorrecto, mas entregue com uma certeza desarmante.

Esse é um dos grandes perigos deste tipo de sistema e algo que tem de ser endereçado à medida que criamos uma geração habituada a confiar na IA. Se já estamos em crise por causa da desinformação deliberada, imagine-se uma situação em que as próprias máquinas a quem atribuímos neutralidade entregam petas em vez de factos.

É certo que o sistema está em beta e que a OpenAI avisa para a possibilidade de ocorrerem erros enquanto o algoritmo é treinado. Mas então, porquê colocar cá fora um sistema defeituoso? Porquê usar o treino de leigos para aperfeiçoar uma máquina com ambições tão poderosas? A Microsoft investiu 10 mil milhões de dólares na OpenAI e há rumores de que pretende integrar a tecnologia para melhorar o seu motor de busca Bing. Com que salvaguardas? É que um dos motivos pelos quais a Google tem sido tão reticente em lançar aplicações de consumo entusiasmantes nesta área é o potencial de dar asneira e manchar a sua reputação. Para não falar de outras consequências ainda mais nefastas.

Em conversas com especialistas sobre este tema, ouvi vários avisos sobre o risco de lançar sistemas inacabados como o ChatGPT. Também ouvi sobre o seu potencial, mas de uma perspectiva mais alargada. Não é apenas este sistema, são os modelos de desenvolvimento de IA que deram um salto gigantesco nos últimos anos e vão provocar mudanças sísmicas em várias áreas. A chamada "IA generativa", que gera conteúdos novos a partir de um pedido, irá ter impacto em todo o lado. Ritu Jyoti, especialista em IA da consultora IDC, sublinhou isto mesmo.

"Não será limitado à geração de texto, como o ChatGPT. Há o DALL-E e o DALL-E 2, usado para criar imagens fantásticas que substituem as imagens de arquivo", exemplificou. "Pode ser usado para criar todo o metaverso, para criar os avatares digitais." Pode auxiliar profissionais de vendas e marketing nos emails, edição de copy e produtividade pessoal, CRM e suporte ao cliente. Pode ajudar os programadores a serem mais produtivos, com sistemas que fazem "autocomplete" do código que estão a escrever.

"Quero sublinhar que isto não é apenas só chatbots", disse Jyoti. "Isto vai ser muito transformador nos próximos anos. Desde que seja usado com as proteções adequadas, de uma forma muito confinada."

Aqui está a chave: quem vai impor essas protecções? Na Europa já sabemos que há trabalho a ser feito para não sermos apanhados na curva, mas nos Estados Unidos, o epicentro desta inovação, regulação da Big Tech é quase uma miragem.

Foi isso que apontou a académica e fundadora da DataEthics.eu Gry Hasselbalch, que disse que um sistema como o ChatGPT provavelmente não poderia ter sido lançado assim na Europa.

"Há requisitos chave que têm de ser cumpridos para um sistema destes ser posto no mercado. É injusto lançar um sistema destes no mercado perante uma sociedade apanhada de surpresa", referiu. O ambiente na Europa difere do americano, em que as empresas preferem lançar e partir que esperar e salvaguardar. Isso facilita a inovação tanto quanto o descontrolo.

"O problema é que muitas vezes estes sistemas são lançados no mercado e os utilizadores é que os testam." Foi isso que aconteceu com as redes sociais, argumentou Hasselbalch, dizendo que o mundo se tornou um enorme laboratório de testes. As consequências? "Sistemas de vigilância maciços, controlo, monitorização por defeito, em que não sabemos que dados estão a ser recolhidos e isso é devido a essa abordagem: movemo-nos rapidamente e partimos coisas."

Não obstante o factor "uau" do ChatGPT e o incrível avanço na IA de que é sintoma, convém dar um passo atrás e insistir nas salvaguardas. Antes mesmo de ponderarmos que efeito um sistema automatizado terá, por exemplo, na educação e na perda de capacidades de pesquisa e raciocínio crítico. Evitar a ideia de que é preciso atirar com tecnologia para cima de tudo. "Muitas vezes esquecemo-nos que a coisa mais importante é questionar o que queremos melhorar na humanidade", defende defende Hasselbalch. "Em muitas áreas, mesmo a IA adotada por bons motivos, não faz sentido. Não acrescenta valor."

Mais Notícias

Outros Conteúdos GMG

Patrocinado

Apoio de