Em um mundo cada vez mais digital, a interação com chatbots de Inteligência Artificial (IA), como o ChatGPT, tornou-se rotina para muitos. No entanto, a facilidade de comunicação pode levar a um descuido significativo: compartilhar informações pessoais.
Especialistas em segurança cibernética alertam sobre os riscos associados a fornecer dados como nome e número de telefone a sistemas de IA. Stan Kaminsky, da renomada empresa Kaspersky, enfatiza que tais informações devem ser guardadas com o mesmo zelo dedicado a dados bancários e sensíveis.
Não diga seu nome para o ChatGPT ou outra IA!
A razão por trás deste conselho é simples: não há garantias de confidencialidade nas interações com chatbots. Embora seja tentador personalizar a conversa revelando seu nome, essa prática pode abrir portas para utilizações indevidas dos dados.
As conversas mantidas com a IA, além de poderem ser armazenadas para melhorias técnicas da plataforma, também podem ser acessíveis a humanos, que, por sua vez, têm acesso a essas informações. Este cenário representa um campo fértil para ações mal-intencionadas.
O alerta ganha contornos mais graves com relatos, como o do site estadunidense Ars Technica, sobre possíveis vazamentos de conversas privadas pela OpenAI, desenvolvedora do ChatGPT.
Embora a empresa tenha atribuído o problema a roubos de conta, fica o sinal de alerta: informações aparentemente inofensivas podem ser usadas em golpes sofisticados. Cibercriminosos, munidos do nome e telefone do usuário, podem engendrar fraudes, passando-se por instituições confiáveis para solicitar dados sigilosos.
Veja mais sobre: Alerta: relatório aponta que ChatGPT vazou dados sensíveis de usuários
Prevenção: A Melhor Estratégia
Diante desse cenário, a recomendação é clara: evite compartilhar informações pessoais com chatbots. Se necessário interagir de forma que inclua dados pessoais, opte por anonimizar a informação, substituindo-a por asteriscos ou outros termos genéricos.
Esta precaução simples pode ser a barreira que impede que seus dados caiam em mãos erradas, garantindo segurança e privacidade em suas interações digitais.
Confira os cuidados gerais que você deve ter ao usar IA:
- Evite Compartilhar Dados Pessoais: Seja reticente em fornecer informações como seu nome completo, endereço, número de telefone ou qualquer dado financeiro ao interagir com sistemas de IA.
- Use Pseudônimos: Caso precise de uma interação mais personalizada, opte por usar pseudônimos em vez de seu nome real.
- Desconfie de Solicitações de Informações: Lembre-se de que um chatbot não precisa de dados sensíveis para funcionar adequadamente. Seja cético quanto a qualquer solicitação de informações pessoais.
- Revise as Políticas de Privacidade: Antes de usar uma nova plataforma de IA, dedique um tempo para entender como suas informações serão coletadas, armazenadas e utilizadas.
- Controle as Permissões de Acesso: Seja meticuloso ao conceder permissões a aplicativos e serviços baseados em IA. Permita apenas o necessário para a funcionalidade que você deseja utilizar.
- Mantenha Seus Dispositivos Atualizados: Assegure-se de que seus dispositivos estejam sempre atualizados com as últimas versões de software e patches de segurança para proteger contra vulnerabilidades que possam ser exploradas.
- Use Senhas Fortes: Proteja suas contas com senhas fortes e únicas, especialmente em plataformas que utilizam IA, para evitar acessos não autorizados.
- Verifique a Fonte: Certifique-se de que está interagindo com uma fonte legítima, especialmente quando a IA é utilizada para comunicação por empresas e serviços.
- Não Anexe Documentos Pessoais: Evite enviar documentos pessoais ou sensíveis através de plataformas de chatbot, pois você não pode garantir a segurança dessas informações durante a transmissão ou armazenamento.
Leia sobre: Aprenda como bloquear o Story do Instagram para pessoas chatas