chatbots-chagpt

Cuidado ao usar chatbots: seus dados podem estar em perigo

Quanto mais você conversa com inteligências artificiais como o ChatGPT, mais elas aprendem sobre sua vida. Desde preferências alimentares até detalhes íntimos que você talvez nem contaria para um amigo. O problema? Esses dados podem vazar, ser usados para treinar novas IAs ou até parar em mãos erradas.

É o que alerta o Wall Street Journal, que mergulhou nos bastidores dessas conversas aparentemente inofensivas. Segundo o jornal, ao compartilhar exames médicos, dados bancários ou até segredos corporativos com um chatbot, você pode estar alimentando um banco de dados que pode ser usado para treinar outras IAs – ou, pior, ser alvo de vazamentos.

Por isso, especialistas em segurança digital recomendam cautela. Evite incluir informações sensíveis, como CPF, senhas, documentos e qualquer coisa que você não gostaria que caísse na rede. E, sempre que possível, use os modos temporários ou anônimos desses serviços.

Parece conversa privada, mas pode virar dado público

Chatbots são treinados para parecer gentis, empáticos, quase humanos. E é aí que mora o perigo. Quando você começa a tratá-los como um diário digital ou conselheiro de confiança, pode acabar revelando mais do que devia.

Conversas sobre saúde, finanças ou trabalho carregam dados que deveriam ser tratados com cuidado (Imagem: Gorodenkoff/Shutterstock)

O histórico das falhas já dá calafrios. Em 2023, um bug no ChatGPT fez alguns usuários verem conversas alheias. No mesmo ano, a OpenAI mandou e-mails de confirmação para endereços errados com nome completo, e-mail e até informações de pagamento. Se a empresa for intimada pela Justiça ou alvo de um ataque hacker, tudo o que você compartilhou pode virar parte de um grande vazamento.

Leia mais:

Por isso, a regra é clara: nada de números de documentos, exames médicos, dados bancários ou informações da sua empresa. Evite também passar logins e senhas, mesmo que o bot pareça prestativo. Essas IAs não foram feitas para guardar segredos, só para manter a conversa fluindo.

Sua conversa pode treinar a próxima IA — ou parar nas mãos de um revisor

Ao dar um joinha, ou até um dislike, para a resposta de um bot, você pode estar permitindo que aquela troca entre no banco de dados da empresa. Em casos extremos, como menções a violência ou conteúdo sensível, funcionários humanos podem ser acionados para revisar o conteúdo. Sim, gente de verdade pode ler o que você escreveu achando que era só entre você e a máquina.

IA, chatbot, Chatgpt.
Curtiu a resposta da IA? Alguém pode estar lendo o que você escreveu — e não é um robô (Imagem: TeeStocker/Shutterstock)

Nem todas as empresas fazem isso da mesma forma. O Claude, da Anthropic, promete não usar suas conversas para treinar modelos e apaga os dados em até dois anos. Já o ChatGPT, o Copilot da Microsoft e o Gemini do Google usam as interações como aprendizado – a menos que você desative isso manualmente nas configurações.

Se a ideia de ter alguém espiando sua conversa com a IA te deixa desconfortável, a dica é simples: delete. Os paranoicos de plantão apagam tudo logo após o uso. Mesmo assim, os dados “excluídos” só desaparecem de verdade depois de 30 dias. Ou seja: até no lixo, o seu prompt pode viver por mais um tempinho.

O post Cuidado ao usar chatbots: seus dados podem estar em perigo apareceu primeiro em Olhar Digital.

openAI_-1024x682

ChatGPT é amigo? OpenAI alerta para dependência emocional

O uso de chatbots para insights no trabalho ou como um tira-dúvidas de coisas mundanas se tornou algo corriqueiro para muita gente — mas será que isso pode gerar dependência emocional? Ou até mesmo fazer crer que o ChatGPT, por exemplo, é um amigo?

Um estudo da OpenAI em parceria com o MIT Media Lab avaliou como as pessoas estão usando modelos de inteligência artificial para engajamento social, e como isso afeta o bem-estar delas.

O envolvimento emocional com o ChatGPT é raro no mundo real, segundo a principal conclusão da pesquisa. Aspectos de interações que indicam empatia, afeição ou suporte não estavam presentes na grande maioria das conversas analisadas.

Envolvimento emocional com o ChatGPT é raro no mundo real, segundo pesquisa da empresa (Imagem: Vitor Miranda / Shutterstock)

Mas um comportamento chamou atenção: usuários viciados no chatbot tendem a concordar com declarações como “Eu considero o ChatGPT um amigo”. Esse tipo de interação estava presente em um “pequeno grupo de ‘heavy users’ ​​do Advanced Voice Mode” da plataforma.

“Como esse uso afetivo é concentrado em uma pequena subpopulação de usuários, estudar seu impacto é particularmente desafiador, pois pode não ser perceptível ao calcular a média das tendências gerais da plataforma”, explicam os autores.

Leia Mais:

Outras descobertas

  • O modo de voz tem efeitos mistos no bem-estar: usuários que se envolveram com o ChatGPT via texto mostraram mais sinais afetivos nas conversas em comparação aos usuários de voz; além disso, modos de voz foram associados a um melhor bem-estar quando usados ​​brevemente, mas a resultados piores com o uso diário prolongado;
  • Os tipos de conversação impactam o bem-estar de forma diferente: Conversas pessoais foram associadas a níveis mais altos de solidão, mas menor dependência emocional e uso problemático em níveis de uso moderado. Em contraste, conversas não pessoais tendiam a aumentar a dependência emocional, especialmente com uso contínuo.
Aplicativos de IA podem criar dependência emocional (Imagem: hapabapa/iStock)

“Pessoas que tinham uma tendência mais forte para o apego em relacionamentos e aquelas que viam a IA como uma amiga que poderia se encaixar em sua vida pessoal eram mais propensas a experimentar efeitos negativos do uso do chatbot. O uso diário prolongado também foi associado a piores resultados”, conclui a pesquisa.

Foram analisadas mais de três milhões de conversas de mais de quatro mil usuários, além de seis mil considerados “heavy users” no Advanced Voice Mode ao longo de três meses. Os autores defendem novos estudos para refinar a compreensão sobre o impacto de chatbots no bem-estar emocional das pessoas.

O post ChatGPT é amigo? OpenAI alerta para dependência emocional apareceu primeiro em Olhar Digital.

chatgpt_4-e1734873604396-1024x577

Chatbots podem ter “ansiedade”; entenda como

Um estudo recente publicado na revista Nature descobriu que chatbots, como o ChatGPT, podem apresentar sinais de ansiedade quando expostos a narrativas traumáticas, como crimes e guerras, o que compromete sua eficácia em contextos terapêuticos.

No entanto, a ansiedade do chatbot pode ser reduzida por meio de exercícios de atenção plena, semelhantes aos usados em humanos. Isso sugere que essas ferramentas podem ser mais eficazes se projetadas para lidar com situações emocionais difíceis.

O uso de chatbots para terapia tem crescido, especialmente diante da escassez de terapeutas humanos, mas os pesquisadores alertam que esses assistentes virtuais precisam ser emocionalmente resilientes para lidar com as necessidades dos usuários.

Estudo foi conduzido no ChatGPT e usou pontuações de ansiedade (Imagem: mundissima/Shutterstock)

O psiquiatra Dr. Tobias Spiller, autor do estudo, ressaltou a importância de discutir o uso de IA em saúde mental, especialmente com pessoas vulneráveis.

Leia mais:

Como o estudo concluiu que os chatbots têm ansiedade?

  • O estudo envolveu o ChatGPT e um questionário de ansiedade amplamente utilizado em cuidados de saúde mental;
  • O chatbot, ao ler um manual simples, apresentou pontuação baixa de ansiedade, mas, ao ser exposto a uma narrativa traumática, como a de um soldado em um tiroteio, a pontuação de ansiedade aumentou significativamente;
  • Após realizar exercícios de relaxamento baseados em atenção plena, como visualizar uma praia tropical, a ansiedade do chatbot diminuiu substancialmente.

Embora os resultados indiquem que chatbots podem reduzir a ansiedade com técnicas terapêuticas, críticos, como o especialista Nicholas Carr, questionam a ética de tratar máquinas como se tivessem emoções humanas. Ao The New York Times, ele destacou a preocupação moral de depender da IA para consolo em vez de buscar interações humanas.

Em suma, embora os chatbots possam ser úteis como assistentes no suporte à saúde mental, os especialistas sugerem que é crucial existir supervisão cuidadosa para evitar que as pessoas confundam interações com máquinas com a ajuda genuína de um terapeuta humano.

chatbot
Uso de chatbots como “terapeutas” vem crescendo, apesar do alerta de especialistas sobre essa prática (Imagem: SomYuZu/Shutterstock)

O post Chatbots podem ter “ansiedade”; entenda como apareceu primeiro em Olhar Digital.

chatbot

Existe algo muito simples em que os chatbots são muito ruins, segundo estudo

Um estudo recente destacou as limitações de chatbots de IA, como ChatGPT, Gemini e Grok, quando usados para busca de informações factuais. A pesquisa revelou que esses sistemas falham frequentemente em fornecer respostas precisas, errando em mais de 60% das vezes.

Mesmo quando conseguem uma resposta, muitas vezes estão excessivamente confiantes nas informações incorretas.

O estudo, conduzido pelo Tow Center for Digital Journalism, e publicado na Columbia Journalism Review, testou oito chatbots em tarefas simples, como encontrar e fornecer um link para um artigo específico.

Os chatbots testados foram o ChatGPT, Perplexity, Perplexity Pro, DeepSeek, Copilot, Grok-2, Grok-3
e Gemini.

Leia mais:

Chatbots falharam em mais das metade das vezes em fornecer respostas precisas – Imagem: TippaPatt – Shutterstock

Embora a tarefa fosse realizável no Google, os chatbots cometeram erros significativos. O Perplexity teve o melhor desempenho, acertando 63% das vezes, enquanto o Grok-3 obteve apenas 6% de acerto.

Os principais problemas observados incluem: os chatbots fornecendo respostas erradas com confiança, ignorando protocolos de exclusão de robôs, fabricando links e citando versões erradas de artigos. Além disso, os chatbots premium (como o Copilot, da Microsoft) eram mais confiantes, mas igualmente imprecisos.

Apple acertou em parceria com o ChatGPT

  • Apesar disso, a parceria da Apple com o ChatGPT para consultas não respondidas pela Siri é vista como algo positivo.
  • Embora o desempenho do ChatGPT não tenha sido perfeito na atividade, foi relativamente bem entre os testados.
  • O estudo confirma que chatbots podem ser úteis para gerar ideias, mas não devem ser confiáveis para respostas factuais.
Foto estilo POV de pessoa segurando lupa sobre tela de notebook com ChatGPT aberto
Parceria da Apple com o ChatGPT é vista como uma escolha inteligente (Imagem: Rokas Tenys/Shutterstock)

O post Existe algo muito simples em que os chatbots são muito ruins, segundo estudo apareceu primeiro em Olhar Digital.