7 detalhes para manter a privacidade dos chatbots de IA

Os chatbots de IA, do ChatGPT ao Gemini e Claude, para citar alguns, tornaram-se extremamente populares. Eles fornecem respostas rápidas e decompõem conceitos complexos quando usados ​​de forma adequada. Muitas dessas ferramentas também auxiliam na tomada de decisões e no raciocínio. Os chatbots de IA são eficientes e podem aumentar sua produtividade. A melhor parte é que você pode usá-los em qualquer lugar através de seu smartphone ou tablet Android ou em sua mesa através de uma interface web.



Como os chatbots de IA parecem coloquiais e sem julgamentos, é fácil divulgar informações confidenciais sem perceber. Quer você use essas ferramentas em sua vida pessoal ou no trabalho, compartilhar demais pode levar a consequências negativas indesejadas. Embora nem todos tenham as mesmas necessidades de privacidade, é melhor não revelar esses tipos de dados a um bot de IA.


Relacionado

Como criar chatbots de IA personalizados com Gemini Gems

Crie um chatbot personalizado usando Gemini Gems


Gemini listando os e-mails mais recentes em um telefone Android

Não há razão para inserir suas informações de contato, como número de telefone, endereço ou endereço de e-mail, em uma plataforma de IA. Mesmo se você achar que fornecer essas informações pode ajudar o chatbot a compartilhar melhores respostas, é melhor evitá-lo.

Embora a empresa com a qual você os compartilha não faça uso indevido de seus dados, existe a possibilidade de um hacker roubar as informações. Os cibercriminosos podem usar esses detalhes para enviar links de phishing ou acessar suas contas de mídia social. Mantenha suas informações de contato privadas para manter sua segurança.


6 Credenciais de login

Gerando senhas exclusivas usando ChatGPT

Outra coisa que você não deseja compartilhar com os chatbots de IA são suas informações de login. Usar bots de IA para gerar nomes de usuário e senhas ou monitorar suas credenciais pode colocar sua segurança online em risco em caso de violação de dados.

Se você está procurando uma alternativa eficaz, os gerenciadores de senhas podem armazenar suas senhas para que você não precise se lembrar delas. Muitas dessas ferramentas também geram senhas novas e complexas para suas contas online, o que significa que você não precisará depender de um bot de IA.

5 Informações de identificação pessoal (PII)

Você nunca deve compartilhar informações de identificação pessoal (PII) com chatbots de IA. Isso inclui dados que podem ajudar terceiros a identificá-lo, como seu número de seguro social, carteira de motorista ou detalhes do passaporte, para citar alguns.


Os hackers podem usar indevidamente essas informações em uma violação de dados para cometer roubo de identidade ou fraude financeira. As consequências de tal incidente podem ser duradouras e prejudicar suas finanças.

Como adicionar esboço no Google Docs

Fonte: mockup.photos

Várias organizações, mesmo aquelas que constroem os seus próprios modelos de IA, restringem a utilização de IA generativa no trabalho, e por boas razões. As informações inseridas em uma plataforma de IA podem se tornar parte de conjuntos de dados de treinamento. O chatbot pode usar essas informações em suas respostas a outros usuários. Isto poderia ter consequências desastrosas.

Antes de compartilhar dados relacionados ao trabalho com um chatbot de IA, verifique as políticas da sua organização em relação ao uso de IA generativa no local de trabalho. Se você tiver permissão para usar IA, faça-o com cautela. Usar IA para acelerar seus projetos de trabalho pode ser tentador, mas inserir informações em um modelo de IA não é muito diferente de publicá-las online. Você não sabe quem pode acessá-lo ou usá-lo.


3 Dados médicos

Um telefone mostrando os sinais vitais de uma pessoa em um aplicativo de condicionamento físico e uma seta apontando para o logotipo do Google

Muitas pessoas recorrem aos chatbots de IA para debater possíveis diagnósticos, receber conselhos e compreender melhor a sua saúde. Recentemente, as pessoas também carregaram seus raios X e exames em plataformas de IA para obter uma melhor interpretação de seus resultados. No entanto, só porque você pode, não significa que deva, principalmente no que diz respeito à sua saúde.

Os dados médicos estão sujeitos às leis de privacidade de saúde, como a HIPAA nos EUA. Isso evita que terceiros acessem seus dados sem o seu consentimento. Como os aplicativos de consumo não estão sujeitos às regulamentações da HIPAA, eles não oferecem o mesmo nível de proteção. Se você não quiser que seus dados médicos sejam usados ​​em um conjunto de dados de treinamento, guarde as informações para você.


Relacionado

Google Gemini: tudo o que você precisa saber sobre a IA multimodal de última geração do Google

O Google Gemini está aqui, com uma abordagem totalmente nova para IA multimodal

2 Propriedade intelectual

É melhor não compartilhar sua propriedade intelectual, seja ela escrita, arte ou ideias não publicadas, com a IA. O problema não é tanto que as empresas de IA possam usar as informações que você compartilha para obter lucro. Em vez disso, quando o seu IP está em uma plataforma online, outras pessoas podem acessá-lo.

Seja através de uma violação de dados ou de os dados se tornarem públicos através de treinamento, outras partes poderão usar sua propriedade intelectual para ganho comercial ou pessoal. A menos que você se sinta confortável em perder o controle sobre seu IP, mantenha-o fora das plataformas de IA.

1 Detalhes financeiros

markus-winkler-Finance-unsplash

Fonte: Markus Winkler/Unsplash


Os modelos de IA podem ser úteis na geração de orçamentos, na identificação de onde é possível reduzir despesas e na decomposição de conceitos financeiros complexos. No entanto, embora esses chatbots possam ajudar com recomendações gerais, não compartilhe seus recibos de pagamento, detalhes de investimento, conta bancária ou detalhes de cartão de crédito em nenhuma plataforma.

Embora as empresas de tecnologia que desenvolvem chatbots de IA tentem manter suas plataformas seguras, podem existir vulnerabilidades. Os hackers podem explorar essas falhas para acessar seus dados e usá-los por motivos nefastos. Um consultor financeiro é uma opção mais segura do que um chatbot de IA.

Usando chatbots de IA com segurança

Você tem controle limitado sobre o armazenamento dos dados que compartilha por meio de solicitações. Da mesma forma, as empresas podem alterar as suas políticas e partilhar os seus dados com mais fornecedores. A escolha de plataformas confiáveis ​​como ChatGPT ou Gemini atenua alguns desses problemas, uma vez que provavelmente possuem sistemas seguros e melhores políticas de privacidade.

Ainda assim, é melhor ser cauteloso e limitar as informações que você compartilha com qualquer chatbot de IA. Trate suas solicitações nas plataformas de IA da mesma forma que trataria as informações que você compartilha nas redes sociais ou blogs. Suponha que pessoas que você não conhece possam usar as informações de maneiras que você não pretendia.


Se as plataformas permitirem, limpe seus históricos de bate-papo e opte por não permitir que seus dados sejam usados ​​para fins de treinamento para proteger sua privacidade. Além disso, fique atento às políticas de privacidade e retenção de dados para saber como a empresa utiliza as informações que você compartilha.