Os Riscos da Privacidade ao Usar o ChatGPT para Terapia
Um dos impactos de ter uma assistente de inteligência artificial (IA) como o ChatGPT ao seu alcance é que as pessoas começam a se apoiar nele para coisas para as quais ele nunca foi projetado. Segundo o CEO da OpenAI, Sam Altman, isso inclui terapia e conselhos pessoais – mas isso pode levar a diversos problemas de privacidade no futuro.
Assista ao vídeo completo aqui:
Em um episódio recente do podcast This Past Weekend com Theo Von, Altman explicou uma diferença fundamental entre conversar com um terapeuta humano e usar uma IA para apoio psicológico: “Neste momento, se você conversar com um terapeuta, advogado ou médico sobre esses problemas, há um privilégio legal para isso. Existe a confidencialidade médico-paciente, há confidencialidade legal, o que quer que seja. E ainda não conseguimos descobrir como isso se aplica ao conversar com o ChatGPT.”
Uma das consequências potenciais é que a OpenAI poderia ser legalmente obrigada a revelar essas conversas se enfrentasse um processo judicial, afirmou Altman. Sem a confidencialidade legal que você obtém ao falar com um médico ou terapeuta registrado, há relativamente pouco para impedir que suas preocupações privadas sejam expostas ao público.
Altman acrescentou que muitas pessoas, especialmente os jovens, estão usando o ChatGPT nesse sentido, e que podem ser especialmente vulneráveis a esse tipo de exposição. Mas, independentemente da idade, os tópicos das conversas não são o tipo de conteúdo que a maioria das pessoas ficaria confortável em ver revelado para o mundo.
Os Riscos de Privacidade do ChatGPT
O risco de ter suas conversas privadas expostas à escrutínio é apenas um dos desafios de privacidade enfrentados pelos usuários do ChatGPT.
- Outro problema é alimentar suas preocupações e ansiedades pessoais em um algoritmo opaco como o do ChatGPT, com a possibilidade de que essas informações possam ser usadas para treinar o algoritmo da OpenAI, vazando de volta quando outros usuários fizerem perguntas semelhantes.
Esse é um dos motivos pelos quais muitas empresas licenciaram suas próprias versões protegidas de chatbots de IA. Outra alternativa é um AI como o Lumo, que é desenvolvido pelos defensores da privacidade Proton e possui criptografia de alto nível para proteger tudo o que você escreve.
É claro que também há a questão de saber se uma IA como o ChatGPT pode, de fato, substituir um terapeuta. Embora possa haver alguns benefícios, qualquer IA está simplesmente regurgitando os dados com os quais foi treinada. Nenhuma é capaz de pensamento original, o que limita a eficácia dos conselhos que podem fornecer.
Seja qual for a sua decisão em abrir-se para a OpenAI, é claro que há um campo minado de privacidade envolvendo chatbots de IA, seja por causa da falta de confidencialidade ou do perigo de ter seus pensamentos mais profundos usados como dados de treinamento para um algoritmo incompreensível.
Conclusão
Será necessário muito esforço e clareza antes que a utilização de um terapeuta de IA se torne uma empreitada significativamente menos arriscada.
Siga nosso canal @canalsegredosdodigital no Instagram e TikTok para dicas diárias sobre IA, automações e marketing digital.
Perguntas Frequentes sobre a ferramenta
Como usar essa ferramenta de IA no dia a dia?
Você pode utilizá-la para perguntas gerais, sugestões de redação, ou para ter um auxílio no aprendizado de novos idiomas, mas evite usá-la para questões íntimas ou terapia.
Essa plataforma é gratuita ou paga?
O ChatGPT oferece uma versão gratuita, mas também possui planos pagos que oferecem acesso a mais funcionalidades e capacidade de uso.
Qual a principal vantagem dessa ferramenta?
A principal vantagem do ChatGPT é a sua capacidade de fornecer respostas rápidas e uma vasta gama de informações sobre diversos temas.
Conheça a ferramenta apresentada no vídeo:
Palavras-chave: ChatGPT, terapia, privacidade, riscos de privacidade IA, segurança nas interações digitais.
Categoria: [1]
