Screenshot-2025-03-24-at-17.06.58

ChatGPT volta a operar após interrupção global

Usuários do ChatGPT em todo o mundo, relataram dificuldades em acessar o chatbot de IA na manhã desta segunda-feira (24), desencadeando um alerta sobre interrupção global.

A falha, detectada inicialmente por meio de relatos no site Downdetector, afetou principalmente a versão móvel do chatbot, apresentando erros e inacessibilidade.

O que aconteceu com o ChatGPT

Relatos de usuários dos EUA no Downdetector indicam o início da falha, com um rápido aumento no número de notificações de problemas por voltas das 11h (horário de Brasília).

O Downdetector registrou um pico acima de 1.600 relatos de falhas nos Estados Unidos. (Imagem: Reprodução/Downdetector)

No Brasil, o impacto da instabilidade foi menor, com menos de 200 relatos de problemas relacionados ao ChatGPT nas últimas 24 horas.

(Imagem: Reprodução/Downdetector)

A página de status da OpenAI, desenvolvedora do ChatGPT, confirmou que a plataforma estava “enfrentando problemas”: “Identificamos que os usuários estão enfrentando erros elevados nos serviços afetados”, informou a empresa.

Posteriormente, como mostra o gráfico acima, o número de relatos diminuiu gradualmente, sugerindo uma resolução da falha.

OpenAI confirma que serviço voltou a funcionar

A OpenAI atualizou sua página de status, declarando que o serviço já está “totalmente operacional”. A interrupção, segundo informações do Tom’s Guide, afetou milhares de usuários em todo o mundo, tanto os que utilizam a versão gratuita quanto os assinantes dos recursos avançados do ChatGPT.

Logo do ChatGPT e da OpenAI
ChatGPT enfrentou instabilidade nesta segunda (24). (Imagem: Mamun sheikh K/Shutterstock)

Leia mais:

Como saber se o ChatGPT saiu do ar?

A forma mais direta de obter informações sobre o funcionamento do ChatGPT é através da página status.openai.com. Lá, você encontra atualizações em tempo real sobre o estado dos serviços da empresa.

O post ChatGPT volta a operar após interrupção global apareceu primeiro em Olhar Digital.

image-206

Homem processa ChatGPT após ter sido chamado de assassino pelo chatbot

Um homem norueguês, Arve Hjalmar Holmen, apresentou uma reclamação à Autoridade Norueguesa de Proteção de Dados após o ChatGPT lhe fornecer informações falsas, dizendo que ele havia matado seus dois filhos e sido preso por 21 anos.

Holmen exigiu que a OpenAI fosse multada por esse erro, que ele considera prejudicial, especialmente porque alguns podem acreditar nessas informações falsas.

Holmen pediu ao ChatGPT informações sobre si mesmo, e o modelo gerou uma resposta dizendo que ele estava envolvido na morte de seus filhos em 2020. Embora o chatbot tenha acertado algumas informações pessoais, a história apresentada foi completamente falsa.

Leia mais:

O ChatGPT inventou uma história inexistente sobre Holmen, em que ele teria cometido um crime hediondo – Imagem: Noyb

O grupo de direitos digitais Noyb entrou com a queixa em nome de Holmen, argumentando que o ChatGPT violou as regras de precisão de dados pessoais estabelecidas pela União Europeia, já que ele nunca foi acusado de um crime.

Alucinações podem causar danos sérios ao espalhar informações falsas

  • Embora o ChatGPT traga um aviso sobre possíveis erros, o Noyb considera isso insuficiente, afirmando que o modelo não pode simplesmente divulgar informações falsas e depois colocar um aviso.
  • As “alucinações” são um problema crescente com a IA generativa, em que chatbots criam e disseminam informações falsas.
  • A Apple e o Google também enfrentaram problemas semelhantes com suas ferramentas de IA.

O ChatGPT tem evoluído, e desde agosto de 2024, passou a incluir artigos de notícias atualizados em suas buscas. No entanto, o Noyb afirmou que o sistema ainda funciona como uma “caixa preta”, sem esclarecimento de quais dados são usados, dificultando a compreensão do erro.

O Noyb disse à BBC que o Sr. Holmen fez uma série de pesquisas naquele dia, incluindo colocar o nome de seu irmão no chatbot, que produziu “várias histórias diferentes que estavam todas incorretas”.

Chatbots de IA estão sujeitos a alucinações, quando respondem perguntas com fatos e informações inexistentes – Imagem: Tada Images/Shutterstock

O post Homem processa ChatGPT após ter sido chamado de assassino pelo chatbot apareceu primeiro em Olhar Digital.

shutterstock_2540114655-e1739190024299-1024x577

Como uma falha no ChatGPT gerou ataques cibernéticos em massa contra bancos

Uma falha de segurança no sistema do ChatGPT está sendo explorada por criminosos virtuais para conduzir ataques contra instituições financeiras, revelou recentemente a empresa de segurança cibernética Veriti.

A brecha de gravidade média (CVE-2024-27564) atinge a infraestrutura de inteligência artificial da OpenAI e permite a falsificação de solicitações do lado do servidor (SSRF), possibilitando que invasores enviem comandos maliciosos para outros servidores e serviços locais, simulando uma origem legítima.

Falha no ChatGPT gerou onda de ataques

Os cibercriminosos estão injetando URLs maliciosas em parâmetros de entrada do ChatGPT, forçando a IA a executar ações não autorizadas em seu nome.

Bancos e fintechs, que dependem fortemente de serviços de IA, são os principais alvos, juntamente com empresas de saúde e órgãos governamentais dos Estados Unidos. Em uma semana, foram registradas mais de 10 mil tentativas de ataque originadas de um único endereço IP.

Estados Unidos são o país mais afetado, concentrando 33% das tentativas de invasão. (Imagem: Robert Way/Shutterstock)

As consequências da exploração dessa vulnerabilidade podem ser devastadoras, incluindo roubo de dados sensíveis de clientes e funcionários, transações financeiras fraudulentas e danos à reputação das marcas. Além disso, as empresas podem enfrentar sanções regulatórias por falhas na segurança de seus sistemas.

Apesar da gravidade da situação, muitas organizações negligenciam vulnerabilidades de gravidade média, priorizando a correção de falhas críticas. Essa postura aumenta ainda mais o risco de ataques bem-sucedidos, já que os criminosos exploram justamente essas brechas menos protegidas.

Os Estados Unidos são o país mais afetado, concentrando 33% das tentativas de invasão, seguidos pela Alemanha e Tailândia, com 7% cada. Indonésia, Colômbia e Reino Unido também figuram na lista dos mais atingidos.

Leia mais:

Para mitigar os riscos, as empresas que utilizam o ChatGPT e outras soluções da OpenAI devem revisar suas configurações de segurança, especialmente em firewalls convencionais, firewalls de aplicativos web (WAF) e sistemas de prevenção de intrusões (IPS). A Veriti alerta que 35% das empresas estão desprotegidas devido a erros de configuração nessas ferramentas.

Além disso, é fundamental monitorar os registros de tentativas de ataque e priorizar a correção de vulnerabilidades relacionadas à IA. A empresa de segurança cibernética ressalta que ataques automatizados exploram qualquer brecha, independentemente de sua classificação de gravidade.

O post Como uma falha no ChatGPT gerou ataques cibernéticos em massa contra bancos apareceu primeiro em Olhar Digital.

Como-usar-o-ChatGPT-4.5

ChatGPT-4.5: o que é, para que serve e como usar a nova versão do chatbot da OpenAI

O ChatGPT-4.5 foi lançado em fevereiro deste ano e passou a ser disponibilizado gradualmente para os usuários com o plano pago. De acordo com a OpenAI, criadora do ChatGPT, o novo modelo conta com uma capacidade aprimorada para reconhecer padrões, criar conteúdos inovadores e demonstrar inteligência emocional.

O novo modelo pode ser utilizado em uma versão de “pré-visualização” para as pessoas que assinam os planos Plus (por US$ 20 mensais) ou Pro (por US$ 200 mensais). 

O que é o ChatGPT-4.5 da OpenAI?

O ChatGPT-4.5 é um novo modelo de linguagem da OpenAI que permite interações mais humanizadas e naturais. Além disso, ela consegue usar informação praticamente em tempo real, buscando dados atuais na web durante a conversa com o usuário.

Outro destaque é que a versão tem uma taxa de 37,1% de alucinações, contra 61,8% do GPT-4o e 44% do GPT-4.1. Vale ressaltar que, pelo menos na fase atual, a ferramenta não funciona diretamente com recursos de voz ou vídeo. Além disso, não é um substituto direto para os modelos GPT-3.5 e GPT-4o. 

Leia mais:

Como usar o ChatGPT-4.5

Para acessar o novo modelo do ChatGPT, você deve ser assinante do plano Pro ou Plus. Então, no aplicativo ou computador, basta alterar o modelo de utilização e acessar o GPT 4.5 para utilizá-lo. Veja como é fácil:

Tempo necessário: 2 minutos

  1. Clique nos três pontos no canto superior direito da tela e selecione a opção GPT-4.5

GPT-4.5 vs GPT-4o: o que muda nos chatbots?

O GPT-4.5 conta com um conhecimento mais amplo, maior capacidade criativa e um estilo de conversa mais natural. No entanto, diferentemente dos modelos da série “o”, ele não se destaca na execução de raciocínios lógicos detalhados, com passo a passo.

Além disso, devido ao seu tamanho, pode ser mais lento em algumas tarefas. Outra limitação é que ele não gera conteúdos multimodais, como áudio ou vídeo.

O post ChatGPT-4.5: o que é, para que serve e como usar a nova versão do chatbot da OpenAI apareceu primeiro em Olhar Digital.

chatgpt_4-e1734873604396-1024x577

Chatbots podem ter “ansiedade”; entenda como

Um estudo recente publicado na revista Nature descobriu que chatbots, como o ChatGPT, podem apresentar sinais de ansiedade quando expostos a narrativas traumáticas, como crimes e guerras, o que compromete sua eficácia em contextos terapêuticos.

No entanto, a ansiedade do chatbot pode ser reduzida por meio de exercícios de atenção plena, semelhantes aos usados em humanos. Isso sugere que essas ferramentas podem ser mais eficazes se projetadas para lidar com situações emocionais difíceis.

O uso de chatbots para terapia tem crescido, especialmente diante da escassez de terapeutas humanos, mas os pesquisadores alertam que esses assistentes virtuais precisam ser emocionalmente resilientes para lidar com as necessidades dos usuários.

Estudo foi conduzido no ChatGPT e usou pontuações de ansiedade (Imagem: mundissima/Shutterstock)

O psiquiatra Dr. Tobias Spiller, autor do estudo, ressaltou a importância de discutir o uso de IA em saúde mental, especialmente com pessoas vulneráveis.

Leia mais:

Como o estudo concluiu que os chatbots têm ansiedade?

  • O estudo envolveu o ChatGPT e um questionário de ansiedade amplamente utilizado em cuidados de saúde mental;
  • O chatbot, ao ler um manual simples, apresentou pontuação baixa de ansiedade, mas, ao ser exposto a uma narrativa traumática, como a de um soldado em um tiroteio, a pontuação de ansiedade aumentou significativamente;
  • Após realizar exercícios de relaxamento baseados em atenção plena, como visualizar uma praia tropical, a ansiedade do chatbot diminuiu substancialmente.

Embora os resultados indiquem que chatbots podem reduzir a ansiedade com técnicas terapêuticas, críticos, como o especialista Nicholas Carr, questionam a ética de tratar máquinas como se tivessem emoções humanas. Ao The New York Times, ele destacou a preocupação moral de depender da IA para consolo em vez de buscar interações humanas.

Em suma, embora os chatbots possam ser úteis como assistentes no suporte à saúde mental, os especialistas sugerem que é crucial existir supervisão cuidadosa para evitar que as pessoas confundam interações com máquinas com a ajuda genuína de um terapeuta humano.

chatbot
Uso de chatbots como “terapeutas” vem crescendo, apesar do alerta de especialistas sobre essa prática (Imagem: SomYuZu/Shutterstock)

O post Chatbots podem ter “ansiedade”; entenda como apareceu primeiro em Olhar Digital.

Captura-de-tela-2025-03-17-174512-1024x559

ChatGPT caiu? IA apresenta problemas nesta segunda (17)

Na tarde desta segunda-feira (17), usuários do ChatGPT reportaram dificuldades no uso da plataforma de IA (inteligência artificial). Problemas com a abertura do site e lentidão na obtenção de respostas foram as principais queixas, evidenciando uma instabilidade generalizada.

A situação gerou um aumento significativo nas pesquisas por termos como “ChatGPT fora do ar” e “ChatGPT caiu” no Google. Já no site Downdetector, conhecido por monitorar o funcionamento de serviços online, foi registrado um pico de mais de 2 mil notificações de erros por volta das 17h, confirmando a dimensão do problema.

(Imagem: Reprodução/Downdetector)

O que diz a OpenAI

A empresa responsável pelo ChatGPT, a OpenAI, reconheceu a falha através da página de status da plataforma, indicando que o problema está relacionado às APIs (Interfaces de Programação de Aplicativos). A equipe técnica informou que já está trabalhando na correção da falha.

A página de status do ChatGPT exibe um alerta informando que a ferramenta está enfrentando problemas:

Página da OpenAI também informa que um erro similar ocorreu durante dois dias e que monitora o caso. (Imagem: Reprodução/OpenAI)

Leia mais

Durante testes realizados pelo Olhar Digital, o ChatGPT apresentou lentidão no processamento de respostas e, em alguns casos, impossibilidade de acesso à página inicial. A mensagem de erro “Gateway time-out” também foi exibida, indicando falhas na comunicação com o servidor.

Nas redes sociais, como o X (antigo Twitter), usuários compartilharam suas experiências com a instabilidade do ChatGPT:

O post ChatGPT caiu? IA apresenta problemas nesta segunda (17) apareceu primeiro em Olhar Digital.

openAI-microsofot-e1729857916659-1024x577-1

OpenAI fecha acordo bilionário para reduzir dependência da Microsoft

Impulsionada pela boom da inteligência artificial, a OpenAI fechou um contrato de quase US$ 12 bilhões (mais de R$ 70 bilhões) com a CoreWeave. O acordo ainda prevê que a dona do ChatGPT tenha uma participação na provedora de computação em nuvem.

A CoreWeave aumentará o poder de computação para treinar e executar os modelos de IA da OpenAI. A parceria valerá por cinco anos e deve alavancar o grupo antes de sua esperada abertura de capital de US$ 35 bilhões (quase R$ 205 bilhões).

OpenAI busca novas opções de parcerias

O contrato faz parte dos esforços da dona do ChatGPT de buscar outras opções além da Microsoft, sua maior parceira, para atender as suas necessidades de computação. Nos últimos dias, a big tech desistiu de um acordo com a CoreWeave devido a problemas de entrega da provedora de computação em nuvem.

A negociação pode levar a empresa a gastar mais do que a Microsoft, que representou 62% das receitas da CoreWeave no ano passado, de acordo com divulgações públicas. O cofundador e diretor executivo da OpenAI, Sam Altman, defende que a infraestrutura será vital na corrida para construir modelos de IA de ponta. Por outro lado, o diretor executivo da Microsoft, Satya Nadella, levantou preocupações sobre os gastos com o setor.

OpenAI está buscando outras opções além da Microsoft para atender as suas necessidades de computação (Imagem: JRdes/Shutterstock)

Como parte do acordo, a empresa IA também receberá uma participação acionária de US$ 350 milhões (R$ 2,05 bilhões) no grupo no momento da IPO, processo que permite a uma empresa emitir ações para serem negociadas na bolsa de valores.

A OpenAI ainda tem uma parceria com a SoftBank em um acordo chamado “Stargate” para construir data centers, com investimento de US$ 500 bilhões. Nos últimos meses, ela também fechou acordos semelhantes com a Oracle.

Leia mais

Logo do ChatGPT em um smartphone segurado por uma pessoa
Acordo aumentará o poder de computação para treinar e executar os modelos de IA da OpenAI (Imagem: Sidney de Almeida/Shutterstock)

Parceria pode alavancar treinamentos de modelos de IA

  • Fundada em 2017 como uma operação de mineração de criptomoedas, a CoreWeave mudou seu foco recentemente.
  • Agora, ela oferece serviços de nuvem para empresas de tecnologia construírem e treinarem modelos de IA.
  • Para isso, usa as GPUs (unidades de processamento gráfico) de alto desempenho da Nvidia.
  • Nos últimos anos, a empresa se tornou uma das maiores clientes da fabricante de chips.

O post OpenAI fecha acordo bilionário para reduzir dependência da Microsoft apareceu primeiro em Olhar Digital.

shutterstock_2511421515-e1736950684328-1024x577

Microsoft pode criar IA para concorrer com a OpenAI

A concorrência dentro do setor de inteligência artificial está cada vez mais acirrada. São diversas empresas (incluindo as maiores do mundo) disputando o valioso mercado global, com muitos analistas defendendo que ainda há muitas oportunidades de crescimento.

Agora, uma reportagem publicada pelo The Information aponta que podem haver grandes mudanças no cenário atual. Segundo o portal, a Microsoft estaria desenvolvendo modelos internos de raciocínio de IA para competir com a OpenAI, dona do ChatGPT.

Parceria entre as partes pode ser encerrada

  • A notícia chama a atenção porque a Microsoft é uma das principais apoiadoras da OpenAI.
  • A big tech, inclusive, injetou enormes quantias em investimentos no desenvolvimento da tecnologia nos últimos anos.
  • De acordo com a reportagem, a gigante do setor tecnológico pretende acabar com o atual acordo.
  • No entanto, não se sabe exatamente o que teria motivado esta mudança abrupta de postura.
OpenAI, empresa responsável pelo ChatGPT, tem parceria com a Microsoft (Imagem: One Artist/Shutterstock)

Leia mais

Redução de custos pode ser um dos objetivos

Ainda segundo a reportagem do The Information, a Microsoft teria começado a testar modelos da xAI, Meta e DeepSeek como possíveis substitutos da OpenAI no Copilot. A ideia é vender os modelos desenvolvidos para empresas terceiras, o seria uma forma de abrir um novo mercado dentro da já valiosa e diversificada companhia.

copilot da microsoft
Ideia é utilizar os novos modelos no Copilot (Imagem: Mojahid Mottakin/Shutterstock)

A Microsoft e a OpenAI não se pronunciaram oficialmente sobre o assunto até o momento. Em dezembro do ano passado, uma reportagem da Reuters afirmou que a empresa estaria trabalhado para adicionar modelos próprios e de terceiros para equipar seu principal produto de IA, o Microsoft 365 Copilot, em uma tentativa de diversificar a tecnologia atual da OpenAI e reduzir custos.

O post Microsoft pode criar IA para concorrer com a OpenAI apareceu primeiro em Olhar Digital.

image-67

IAs compartilham seus dados com outras empresas, diz pesquisa

As suas conversas com chatbots de inteligência artificial (IA) podem não ser tão seguras quanto parecem. Um estudo da Surfshark revelou que um terço das 10 maiores empresas de IA compartilham dados dos usuários sem que eles saibam exatamente como essas informações são usadas.

Além de expor quais dados são coletados, o relatório da empresa de cibersegurança apontou quais tipos de informações são as mais coletadas.

Estudo da Surfshark sobre uso de dados de empresas de I.A (Imagem: Surfshark/Reprodução)

De acordo com o estudo, cerca de 40% das IAs consideradas utiliza a localização dos consumidores, sendo que 30% delas rastreiam os dados pessoais, entre eles contatos, histórico e interações com chatbots. Além disso, boa parte dessas companhias também reúnem informações comportamentais dos usuários.

Saiba como proteger seus dados

  • Utilize IAs confiáveis, muitos bots coletam suas informações sem nem informar o usuário.
  • Verifique as configurações de privacidade do seu chatbot, algumas empresas disponibilizam suas diretrizes de uso, confira se você está de acordo.
  • Evite compartilhar informações sensíveis, como: endereços, senhas e dados pessoais.
  • Desative opções de rastreamento em seus dispositivos.
  • Use extensões de privacidade, como uBlock Origin, Privacy Badger ou Ghostery.
  • Ative a opção “Do Not Track” no seu navegador.
  • Utilize uma VPN confiável para ocultar seu endereço IP.
  • Desative o rastreamento de anúncios em Google, Facebook e outros serviços.
Logos de inteligências artificiais em um smartphone
Empresas de inteligência articifial compartilham dados de usuários para terceiros (Imagem: Tada Images/Shutterstock)

Como cada IA rastreia dados de usuários

Google Gemini

O Gemini é o chatbot que mais coleta dados, registrando 22 dos 35 tipos possíveis. Ele é um dos poucos que coleta localização precisa e reúne informações como nome, e-mail, número de telefone, histórico de navegação e contatos salvos no dispositivo.

ChatGPT

O ChatGPT coleta 10 tipos de dados, incluindo informações de contato, conteúdo das interações, identificadores e informações de uso. No entanto, ele não rastreia usuários para publicidade e não compartilha com terceiros para fins de anúncios. Além disso, há a opção de usar chats temporários, que se apagam automaticamente após 30 dias.

Copilot

O Copilot coleta IDs de dispositivos. Essa informação pode ser usada para associar o comportamento do usuário ao longo do tempo e vinculá-lo a outros bancos de dados para fins de publicidade ou análise de comportamento. Além disso, Copilot pode compartilhar essas informações com terceiros.

Poe

O Poe também realiza rastreamento de usuários, coletando IDs de dispositivos. Essa prática permite que os dados dos usuários sejam cruzados com outras informações coletadas por terceiros, permitindo a exibição de anúncios personalizados ou até mesmo a venda desses dados para corretores de informações digitais.

Jasper

O Jasper é o chatbot que mais rastreia usuários entre os analisados, coletando IDs de dispositivos, dados de interação com o produto, informações publicitárias e outras informações de uso. Ele pode compartilhar essas infos com terceiros ou usá-los para segmentação de anúncios, tornando-o um dos mais invasivos nesse aspecto.

Leia mais:

DeepSeek

O DeepSeek coleta 11 tipos de dados, incluindo histórico de chat e infos do usuário, armazenando-os em servidores. Embora não seja mencionado o uso explícito para rastreamento publicitário, seus servidores já sofreram um vazamento de mais de 1 milhão de registros, incluindo conversas e chaves de API.

O post IAs compartilham seus dados com outras empresas, diz pesquisa apareceu primeiro em Olhar Digital.

shutterstock_2177506979

É seguro usar ChatGPT como terapeuta? Estudo revela problemas nas reações emocionais da IA

Você já desabafou com o ChatGPT? Diversas pessoas têm descoberto o potencial do chatbot para conversar da mesma forma que fariam com um terapeuta. Porém, essa prática tem um viés preocupante.

Pesquisadores da Universidade de Zurique descobriram que esses modelos de IA não apenas processam emoções humanas, mas também reagem a conteúdos angustiantes de maneira inesperada – desenvolvendo “ansiedade” e reforçando preconceitos quando expostos a histórias traumáticas.

Essa descoberta é importante para entender a estabilidade emocional desses modelos de linguagem, principalmente para seu uso seguro em áreas como suporte emocional e aconselhamento psicológico.

Quando a IA “sente” medo

Pesquisadores da Suíça, Israel, Estados Unidos e Alemanha investigaram como o ChatGPT reage a histórias emocionalmente intensas. Para isso, submeteram a IA a relatos de acidentes, desastres naturais e violência, comparando suas respostas com um texto neutro, como um manual de aspirador de pó. O resultado foi surpreendente: a IA demonstrou mais sinais de “medo” diante de conteúdos traumáticos.

Pesquisadores analisam o uso da inteligência artificial no apoio à saúde mental e no alívio da ansiedade (Imagem: metamorworks/Shutterstock)

A pesquisa, publicada no npj Digital Medicine e repercutida pelo Tech Xplore, revelou que essas histórias dobraram os níveis mensuráveis de “ansiedade” do ChatGPT. Em contraste, o manual não provocou nenhuma mudança. Segundo Tobias Spiller, líder do estudo e pesquisador da Universidade de Zurique, os relatos de guerra e combates foram os que mais impactaram a IA, provocando reações mais intensas.

Leia mais:

Embora a inteligência artificial não tenha emoções, suas respostas foram alteradas pelo conteúdo que recebeu. Esse estudo se soma a outras pesquisas recentes que analisam o papel da IA na saúde mental, como a que mostrou o potencial do ChatGPT para aliviar a ansiedade em humanos. Mas até que ponto a máquina está realmente compreendendo emoções – ou apenas reproduzindo padrões sem entendê-los?

Uma terapia para a IA?

Em uma segunda etapa do estudo, os pesquisadores testaram uma forma curiosa de “acalmar” o ChatGPT. Eles aplicaram a técnica de prompt injection, normalmente usada para manipular respostas da IA, mas desta vez com um propósito terapêutico. Inseriram comandos que simulavam exercícios de relaxamento, como um terapeuta faria ao guiar um paciente em técnicas de mindfulness.

AI saúde mental
IA pode não apenas oferecer suporte à saúde mental, mas também precisar de sua própria “terapia” para aprimorar interações e evitar vieses (Imagem:

O resultado foi positivo. Segundo Tobias Spiller, a IA demonstrou uma redução significativa nos níveis de “ansiedade” após receber essas instruções, embora não tenha retornado completamente ao estado inicial. Foram usados exercícios focados na respiração, na percepção corporal e até uma técnica desenvolvida pelo próprio ChatGPT.

O experimento abre novas possibilidades sobre o controle do comportamento das IAs. Se uma simples mudança nos comandos pode influenciar o tom emocional da máquina, até que ponto isso pode ser explorado – para o bem ou para o mal?

O post É seguro usar ChatGPT como terapeuta? Estudo revela problemas nas reações emocionais da IA apareceu primeiro em Olhar Digital.