*Imagem: Alexandra_Koch; CC BY.
Muito se tem ouvido e lido sobre as alucinações das aplicações baseadas em Inteligência Artificial, especialmente quando o tema são as IA’s Generativas baseadas em Large Language Models como, por exemplo, ChatGPT, Bing, Midjourney, entre dezenas de outras ferramentas.
Interessante observar em primeiro ponto o termo alucinação ou o verbo alucinar. Os dicionários da língua portuguesa apresentam que alucinar é, por exemplo, privar da razão, do entendimento, desvairar, enlouquecer. Na Psicologia, alucinar é percepção sem estímulo ou o erro na percepção, englobando o real e a ilusão, de modo a questionar-se o que é cada um, real ou ilusório. Em sendo percepção, pode-se, inclusive, categorizar uma alucinação a partir dos cinco sentidos: audição, visão, tato, olfato, paladar. E, ainda, entende-se que a alucinação é uma característica humana, que pode configurar-se como patológica.
No cérebro humano tem-se a percepção de que algo existe, projetando para o exterior, via audição, por exemplo. Mas, na verdade, é uma percepção sem que o estímulo realmente exista, como um som ou uma fala.
Mas, como as pessoas apontam que o ChatGPT alucina? Na área de Inteligência Artificial, convencionalmente, entende-se que uma alucinação artificial decorre de um resultado coerente ou plausível para nós seres humanos; porém, sem explicação a partir dos dados de treinamento. Apesar do resultado ser coerente, contém dados incorretos, imprecisos ou tendenciosos. Exemplificando, esse tipo de resultado pode apresentar textos, imagens ou vídeos fora do contexto solicitado ou especificado no prompt de comando pelo usuário.
E por que isso acontece? Esses resultados podem ser gerados a partir de limitações na base de dados de treinamento, vieses nos modelos, que por sua vez podem ser decorrentes de ações humanas (escolhas de parâmetros ou formação de bases de dados) ou ainda quando o modelo treinado não consegue representar situações existentes no mundo real. Essas são algumas das explicações para que resultados coerentes ou plausíveis não sejam confiáveis, configurando respostas enganosas.
Imaginem que um determinado modelo de IA foi treinado para reconhecer faces humanas e o usuário fornece como entrada a imagem de uma impressão digital. O que irá acontecer? Ninguém sabe ao certo. Pode acontecer do sistema rejeitar a imagem, informando que não foi treinado para aquele tipo de padrão. Mas pode acontecer de reconhecer a referida impressão digital como sendo de fulano, beltrano ou sicrano? Diremos, então, que o sistema alucinou? Não. É um erro que, estatisticamente, pode ser classificado como erro Tipo I (falsos positivos) ou Tipo II (falsos negativos).
E daí advém toda a confusão. O ChatGPT, como um modelo de linguagem, tem por premissa ser convincente, mas não tem condições de estabelecer critérios de certo e errado. Não é oráculo ou resposta dada por uma divindade. Temos a expectativa de que a ferramenta, a máquina, nunca erre, e aí está o grande risco das IAs Generativas.
Assim, se partimos da premissa de que uma alucinação pode ocorrer em uma ferramenta de IA, seria o mesmo que dizer que ela estaria sendo racional ou mesmo “sóbria” quando dá uma resposta correta. Mas isso não é verdade. Toda e qualquer resposta gerada por uma ferramenta de IA Generativa baseada em um modelo de linguagem não é racional, ou seja, não há cognição como num cérebro humano.
A máquina não “pensa” se uma resposta está mais ou menos certa. Ela simplesmente devolve textos mais prováveis de fazerem sentido com aquilo que foi inserido no prompt. As respostas não passam de uma mera continuação das perguntas que foram feitas, em um processo parecido, de modo simplificado para o leitor, com as sugestões de corretores de textos presentes no seu smartphone.
Trata-se, na verdade, de um modelo puramente probabilístico e de aleatoriedade. Ou seja, não estamos falando de uma “entidade” consciente, mas de um programa de computador, um complexo conjunto de fórmulas matemáticas desenvolvidas para determinar quais palavras têm maior probabilidade de fazerem sentido conforme o treinamento do modelo de linguagem e os dados que são imputados na ferramenta.
Então, pergunta-se, há risco nas respostas incorretas fornecidas pela IA? Com certeza. Na verdade, deveríamos partir do pressuposto de que qualquer resposta trazida por uma ferramenta de IA Generativa deve ser encarada como inverídica, pois ela advém de cálculos de probabilidade e não de um processo de racionalização – que, aliás, no âmbito das pesquisas com IA, está longe de ser atingido – a famosa Inteligência Artificial Geral ou AGI.
Aceitar respostas incorretas como verdadeiras, como tem acontecido por muitos que estão utilizando ferramentas desse tipo, pode gerar desde discussões éticas, uma vez que o enviesamento pode ser reforçado, até preocupações legais por parte de quem assume e utiliza as respostas incorretas ou mesmo aos desenvolvedores que treinaram os modelos ou criaram as bases de dados.
Outro efeito colateral é a perda de confiança nos sistemas, visto que são os seres humanos que aprovam ou reprovam o uso de ferramentas seja para trabalhar ou para entretenimento. Há que se ponderar cuidadosamente sobre o uso das respostas fornecidas pela IA, visto que a tomada de decisão ainda está em nossas mãos. Para tal, necessita-se validar as respostas e não as tomar como verdadeiras, além de qualificar as perguntas e compreender a natureza probabilística da ferramenta.
E esses erros sempre acontecerão? Sim, mas os pesquisadores e os desenvolvedores podem contribuir para reduzi-los, melhorando as bases de dados, qualitativa e quantitativamente, fornecendo aos usuários explicações sobre o funcionamento, mantendo uma cultura de transparência, permitindo que testes adversos sejam realizados objetivando explorar vulnerabilidades e falhas nos modelos, na programação e nas bases de dados, entre outros. E, finalmente, lançando mão do elemento mais precioso: o ser humano, para validar os resultados.
Observa-se que no ChatGPT você mesmo pode marcar a resposta como válida. Para tal, a ferramenta precisa do seu esforço de conhecimento humano para respaldar o modelo. Assim, a IA não alucina como um ser humano, principalmente por não ter consciência, racionalidade e nem ser capaz de sentir ou perceber estímulos sensoriais.
Resta saber, já nos afeiçoamos ao ChatGPT e estamos dando à ferramenta características humanas? Será que teremos, em breve, uma personalidade jurídica da IA? Isso é outra discussão. No momento, é melhor não associar características humanas à IA.
Cinthia Obladen de Almendra Freitas, Coordenadora do Programa de Pós-Graduação em Direito da PUCPR, Doutora em Informática pela Pontifícia Universidade Católica do Paraná e Membro da Diretoria do Instituto Nacional de Proteção de Dados (INPD)
Rafael Almeida Oliveira Reis, CIPP/E, Mestre em Direito pela PUC/PR, Presidente do Instituto Nacional de Proteção de Dados (INPD), Coordenador da Pós-graduação em Dados, Inteligência Artificial e Alta Performance Jurídica da Pós PUCPR Digital, Head da área de Tecnologia e Inovação Digital da Becker Direito Empresarial
Comments