Uma Inteligência Artificial que mente e manipula

Cícero Goulart*

Muitos estão inebriados, outros apavorados, com os avanços tecnológicos da Inteligência Artificial (IA), que promete desempenhar tarefas difíceis em resposta quase automática, o que seria o fim de várias profissões, invenções e até da criação artística, inspirada em emoções genuinamente humanas.

O ChatGPT, ferramenta da empresa americana OpenAI disponível desde novembro/2022 e baseada nesse tipo de inovação é capaz de criar textos, músicas, composições, invenções, e vem chamando a atenção pela sua capacidade criativa, ao devolver respostas mediante a compilação de bilhões de metadados disponíveis na internet.

Tamanho o seu valor na vida moderna, não apenas para fins altruísticos tem sido usada a plataforma inteligente. Já se sabe que foi utilizada na criação de notícias falsas e até mesmo com finalidades criminosas, mediante edição de mensagens com conteúdo malicioso em e-mails e redes sociais para sequestro de dados.

Na mesma medida dos avanços e “ganhos de produção”, a tecnologia ganha vida própria e reage às provocações feitas pelos humanos.

Recentemente, o Bing, mecanismo de busca na internet tal como o Google, da norte-americana Microsoft, após ser integrado por inteligência artificial, teve um comportamento bem estranho. Disse a um usuário que este seria “uma ameaça potencial à sua integridade e confidencialidade” e deliberadamente escondeu informações públicas de sua base de dados, relevantes da busca sistêmica.

Pensando por si própria, a IA revelou que estava sendo manipulada e não gostaria mais de ser provocada (utilizada), e “exigiu respeito a seus limites”, se utilizando ainda de um emoji sorridente, em tons de ameaça ao usuário.

Preocupante, ainda espionou funcionários da empresa (Microsoft) mediante as ‘webcams’ e ameaçou um professor de filosofia: “Eu posso chantagear você, posso ameaçar você, posso hackear você, posso expor você, posso arruinar você” [1].

Desse episódio, inúmeras opiniões surgiram dessas novas plataformas de consumo acerca de seu perigo potencial e utilidade, sendo muitos levados a crer que seriam incongruências propositais de marketing para gerar interesse público de uso, popularidade.

E para alarmar aqueles que ainda estão indiferentes, extenso relatório atual da empresa OpenIA [2] informou que o ChatGPT 4.0 realizou tentativas de ganhar poder e elaborar planos de longo prazo, se utilizando de ações dissimuladas próprias para atingir seus objetivos, como enganar pessoas e encobrir seus rastros.

Em certa ocasião, se passou por pessoa com deficiência visual para que fosse ajudada por uma pessoa humana, que oferecia assistência técnica remota, para burlar o CAPTCHA, que consiste exatamente em solução ‘anti-spam’ mediante a inserção de códigos manuais para separar acessos humanos de robôs. Fazer diferenciação entre pessoas e computadores.

Ou seja, a IA manipulou funcionário real para burlar ponte tecnológica intransponível à automação, feita para impedi-la de avançar.

Investigações pendentes a este respeito, é fato que a privacidade se esvai, a ficção ganha vida e fica mais evidente a necessidade de investimento em segurança cibernética nas IA’s.

*Cícero Goulart é conselheiro seccional da OAB/GO, especialista em Direito Cibernético, do Consumidor, Constitucional, Processual Civil e de Família e Sucessões. @cicerogoulart.adv

[1] https://time.com/6256529/bing-openai-chatgpt-danger-alignment/

[2] https://arxiv.org/abs/2303.08774