Informagno | Gestão em TI

Especialistas alertam para ‘nunca dizer seu nome a uma IA’; entenda por quê

Não é novidade que dados sensíveis e bancários nunca devem ser compartilhados em conversas com chatbots de inteligência artificial (IA), como o ChatGPT. Isso porque não há garantia que as informações enviadas a essas ferramentas permanecerão privadas ou confidenciais para sempre. No entanto, segundo o especialista Stan Kaminsky, da empresa de segurança Kaspersky, também não é recomendado compartilhar nenhuma informação pessoal com o software, nem mesmo o próprio nome, endereço ou telefone. A seguir, entenda as recomendações e os perigos de enviar dados pessoais a chatbots com IA.

Por que não compartilhar dados pessoais com chatbots?

Em tese, as informações compartilhadas com o ChatGPT não são públicas, mas também não há garantias de que elas sejam confidenciais. O chatbot da OpenAI, por exemplo, armazena conversas que podem ser utilizadas no futuro como uma forma de corrigir problemas técnicos ou violações de serviço. Esses chats ainda podem ser revisados por humanos para treinar novas versões da ferramenta ou auxiliar na criação de novos tipos de softwares de inteligência artificial.

Além disso, existe a possibilidade que um bug ou um ataque ocasione um vazamento de informações do ChatGPT. Recentemente, o site estadunidense Ars Technica acusou o chatbot de OpenAI de expor conversas privadas de usuários. A empresa de IA alegou que não houve um vazamento, mas sim um roubo de contas. Por esses e outros motivos, não é recomendado compartilhar nenhum tipo de dado pessoal com o ChatGPT.

É preciso evitar compartilhar dados pessoais com chatbots de IA — Foto: Pexels

Embora informações como nome e telefone pareçam inofensivas em um primeiro momento, é possível que elas sejam utilizadas por usuários mal-intencionados para diferentes tipos de golpe. Sabendo o seu nome completo e número, criminosos podem fingir ser atendentes de bancos e ligar para confiscar dados bancários, por exemplo.

Ainda segundo os especialistas, também é importante não anexar documentos em chatbots, mesmo que existam plug-ins que permitam usar essas ferramentas de IA para processá-los. Isso porque, ao carregar um documento de várias páginas, por exemplo, o usuário corre o risco de expor informações confidenciais, incluindo dados empresariais, como o pagamento dos funcionários ou a data de lançamento de um produto.

Logo, ao usar um chatbot para fazer tarefas que incluam suas informações pessoais, troque algum dado específico ou substitua os termos por asteriscos.

Com informações de The Sun e Expat Guide Turkey