Riscos ocultos ao compartilhar dados em plataformas de IA
Plataformas como ChatGPT, Gemini e outras de inteligência artificial têm se tornado confiáveis para muitas pessoas, atuando como confidentes, médicos e psicólogos. Elas se tornaram espaços onde usuários compartilham dados pessoais, incluindo questões emocionais, financeiras e de saúde. No entanto, recentes investigações revelaram riscos ocultos ligados à privacidade dessas plataformas, especialmente com o uso de extensões de navegador que interceptam e vendem esses dados.
Extensão de navegador captura e vende conversas com IA
Uma investigação da empresa de segurança KOI apontou que a extensão gratuita Urban VPN Proxy, para Chrome, captura conversas de até dez plataformas, incluindo ChatGPT, Claude, Gemini, Microsoft Copilot, entre outras. A coleta de dados, ativada por padrão, ocorre continuamente, mesmo com a VPN desconectada, e inclui mensagens, respostas, metadados e informações do modelo de IA utilizado, sem opções visíveis para desativação.
“Qualquer usuário que utilize plataformas como ChatGPT enquanto o Urban VPN estava instalado desde julho deve presumir que suas conversas foram compartilhadas com terceiros”, afirmou Joan Cwaik, especialista em tecnologia e professor universitário. Segundo ele, essa prática é comum neste tipo de extensão, que possui permissões para interceptar tráfego e ler conteúdos de páginas.
Venda de dados e riscos para a privacidade
Os dados coletados, que incluem informações sensíveis como dados médicos, financeiros e códigos proprietários, são vendidos a anunciantes por empresas afiliadas, como a BiScience, investigada por sua prática de venda de informações. “A BiScience passou de coletar apenas navegação para armazenar conversas completas de IA, aumentando a sensibilidade dos dados utilizados”, explicou o relatório da KOI.
Joan Cwaik explicou que essa cadeia de coleta e venda de dados é operacional e legal, dado que as permissões necessárias já existem nas extensões. A prática, porém, expõe os usuários a riscos de vazamento e uso indevido de informações pessoais.
Uso de dados para treinamento e proteção das informações
Embora as versões gratuitas de plataformas de IA frequentemente utilizem os dados para treinar modelos, as versões corporativas ou empresariais adotam regras mais rígidas de proteção à privacidade. Segundo Juan Pablo Cosentino, da IAE Business School, “se a ferramenta é gratuita, é provável que seus dados sejam utilizados para treinamento”.
Além disso, muitos usuários desconhecem que ao compartilhar informações na IA, podem estar contribuindo para melhorar o sistema, devido ao padrão de coleta, a menos que desativem manualmente essa opção. Os termos de uso de plataformas como o ChatGPT deixam claro que os dados podem ser utilizados para aprimorar os serviços, o que gera preocupações quanto à confidencialidade.
Perigos de uso indiscriminado de IA no ambiente de trabalho
Especialistas alertam sobre o aumento do uso de ferramentas de IA sem aprovação das empresas, o que aumenta o risco de vazamento de informações confidenciais. Dados de um estudo da Microsoft de outubro de 2025 indicaram que 71% dos funcionários utilizam ilegalmente esses recursos, e 77% compartilham dados sensíveis com sistemas como o ChatGPT.
Matias Hilaire, CEO da The App Master, explicou que o uso não autorizado de IA pode comprometer a segurança empresarial, pois funcionários colam documentos sensíveis em chats públicos ou contas gratuitas. “É fundamental que companhias tenham políticas claras de uso de IA e que supervisões sejam feitas para evitar vazamentos”, ressaltou.
Implicações para a privacidade e a segurança
O risco de vazamento de dados, tanto pessoais quanto corporativos, é uma preocupação crescente. Mesmo com as ressalvas de plataformas que afirmam não usar dados de contas pagas para treinamento, o fato é que muitas informações sensíveis podem estar expostas em versões gratuitas ou por extensões de terceiros.
A recomendação dos especialistas é que os usuários atentem às permissões concedidas às extensões, desativem funções de coleta de dados e adotem práticas de segurança digital mais rigorosas. As empresas, por sua vez, devem estabelecer políticas que restrinjam o compartilhamento de informações confidenciais por meio dessas ferramentas.
Para saber mais detalhes, acesse a matéria completa no Globo.
Com informações do Jornal Diário do Povo
Share this content:










Publicar comentário