shutterstock_2297152897

Do Big Data à IA autônoma: como criar uma cultura de dados nas empresas

Nos últimos anos, o volume de dados gerados pelas empresas cresceu de forma exponencial. Mas, ao contrário do que se esperava, a maioria delas ainda não sabe o que fazer com tanta informação. É como se tivessem recebido uma biblioteca inteira sem aprender a ler.

Dados não são valor por si só. Sem contexto, sem estrutura, sem perguntas inteligentes por trás, eles são apenas ruído. E mais: sem uma cultura de dados — aquela que orienta decisões, desafia intuições e sustenta estratégias — nem o melhor algoritmo pode salvar uma organização da mediocridade.

De acordo com uma pesquisa recente da NewVantage Partners, embora 91% das empresas entrevistadas estejam investindo em iniciativas de dados e IA, apenas 26,5% afirmam ter realmente conseguido criar uma cultura orientada por dados. O número assusta, mas explica muita coisa: temos tecnologia de sobra e mentalidade de menos. E cultura, nesse caso, não se compra — se constrói.

Muita gente ainda acredita que criar uma cultura de dados é adquirir plataformas, dashboards e ferramentas de business intelligence. Mas cultura não nasce de um software. Ela nasce de comportamento.

É quando o CEO pergunta “o que os dados dizem sobre isso?” antes de tomar uma decisão estratégica. Quando o RH antecipa pedidos de demissão com base em padrões de comportamento. Quando o marketing fala em comportamento preditivo, e não apenas em campanhas de alcance. Quando o chão da fábrica entende que um dado inserido errado pode comprometer toda uma cadeia de decisões.

Cultura de dados não vem de ferramentas, mas de atitudes: nasce quando decisões em todos os níveis são guiadas pelo que os dados realmente dizem (Imagem: FAMILY STOCK/Shutterstock)

Essa mentalidade é o alicerce necessário para que a inteligência artificial possa, de fato, agir com autonomia. Porque IA autônoma — aquela que aprende, ajusta, decide e executa — precisa de dados limpos, estruturados, confiáveis e disponíveis.

E isso não se improvisa. Não adianta sonhar com uma IA estratégica se os dados ainda estão trancados em silos, espalhados em planilhas desconectadas, com má governança e baixa confiabilidade. A IA só consegue aprender com o que oferecemos — e se oferecermos um ambiente caótico, os resultados refletirão exatamente isso.

O ponto mais crítico é que muitas empresas ainda usam os dados como justificativa para decisões já tomadas. Ao invés de guiar a estratégia, os números viram apenas uma chancela do que a alta liderança já decidiu por instinto.

Esse viés de confirmação destrói qualquer chance de desenvolvimento analítico real. Uma cultura de dados de verdade exige humildade: saber ouvir o que os dados dizem mesmo quando contradizem nossas crenças mais arraigadas.

Cultura corporativa.
Em vez de guiarem decisões, os dados ainda servem como aval para escolhas intuitivas (Imagem: Gorodenkoff/Shutterstock)

E isso tem tudo a ver com o futuro. Estamos à beira de uma nova era, em que a IA não será apenas uma assistente, mas uma tomadora de decisão. Para isso, precisamos preparar o terreno agora.

Uma boa pergunta para começar: quem toma decisões na sua empresa — os dados ou os cargos? Se ainda é o cargo que pesa mais, a autonomia da IA vai continuar sendo uma promessa distante.

Leia mais:

Criar uma cultura de dados é uma jornada que começa no topo, mas que só se consolida quando chega na base.

E, paradoxalmente, quanto mais autônoma for a inteligência artificial, mais humana precisa ser a cultura que a sustenta. Porque, no fim das contas, dados não servem para desumanizar processos — mas para revelar padrões, entender comportamentos e melhorar a experiência de quem está na ponta.

Cultura de dados, IA
A cultura de dados começa na liderança, se consolida na base e, quanto mais sustenta a IA, mais precisa ser humana (Imagem: metamorworks/Shutterstock)

O dado mais importante ainda é o humano. E a empresa que entender isso, antes das outras, vai deixar de colecionar dados e começar a construir vantagem competitiva real. Não se trata apenas de transformação digital. Trata-se de transformação cultural.

O post Do Big Data à IA autônoma: como criar uma cultura de dados nas empresas apareceu primeiro em Olhar Digital.

chatbots-chagpt

Cuidado ao usar chatbots: seus dados podem estar em perigo

Quanto mais você conversa com inteligências artificiais como o ChatGPT, mais elas aprendem sobre sua vida. Desde preferências alimentares até detalhes íntimos que você talvez nem contaria para um amigo. O problema? Esses dados podem vazar, ser usados para treinar novas IAs ou até parar em mãos erradas.

É o que alerta o Wall Street Journal, que mergulhou nos bastidores dessas conversas aparentemente inofensivas. Segundo o jornal, ao compartilhar exames médicos, dados bancários ou até segredos corporativos com um chatbot, você pode estar alimentando um banco de dados que pode ser usado para treinar outras IAs – ou, pior, ser alvo de vazamentos.

Por isso, especialistas em segurança digital recomendam cautela. Evite incluir informações sensíveis, como CPF, senhas, documentos e qualquer coisa que você não gostaria que caísse na rede. E, sempre que possível, use os modos temporários ou anônimos desses serviços.

Parece conversa privada, mas pode virar dado público

Chatbots são treinados para parecer gentis, empáticos, quase humanos. E é aí que mora o perigo. Quando você começa a tratá-los como um diário digital ou conselheiro de confiança, pode acabar revelando mais do que devia.

Conversas sobre saúde, finanças ou trabalho carregam dados que deveriam ser tratados com cuidado (Imagem: Gorodenkoff/Shutterstock)

O histórico das falhas já dá calafrios. Em 2023, um bug no ChatGPT fez alguns usuários verem conversas alheias. No mesmo ano, a OpenAI mandou e-mails de confirmação para endereços errados com nome completo, e-mail e até informações de pagamento. Se a empresa for intimada pela Justiça ou alvo de um ataque hacker, tudo o que você compartilhou pode virar parte de um grande vazamento.

Leia mais:

Por isso, a regra é clara: nada de números de documentos, exames médicos, dados bancários ou informações da sua empresa. Evite também passar logins e senhas, mesmo que o bot pareça prestativo. Essas IAs não foram feitas para guardar segredos, só para manter a conversa fluindo.

Sua conversa pode treinar a próxima IA — ou parar nas mãos de um revisor

Ao dar um joinha, ou até um dislike, para a resposta de um bot, você pode estar permitindo que aquela troca entre no banco de dados da empresa. Em casos extremos, como menções a violência ou conteúdo sensível, funcionários humanos podem ser acionados para revisar o conteúdo. Sim, gente de verdade pode ler o que você escreveu achando que era só entre você e a máquina.

IA, chatbot, Chatgpt.
Curtiu a resposta da IA? Alguém pode estar lendo o que você escreveu — e não é um robô (Imagem: TeeStocker/Shutterstock)

Nem todas as empresas fazem isso da mesma forma. O Claude, da Anthropic, promete não usar suas conversas para treinar modelos e apaga os dados em até dois anos. Já o ChatGPT, o Copilot da Microsoft e o Gemini do Google usam as interações como aprendizado – a menos que você desative isso manualmente nas configurações.

Se a ideia de ter alguém espiando sua conversa com a IA te deixa desconfortável, a dica é simples: delete. Os paranoicos de plantão apagam tudo logo após o uso. Mesmo assim, os dados “excluídos” só desaparecem de verdade depois de 30 dias. Ou seja: até no lixo, o seu prompt pode viver por mais um tempinho.

O post Cuidado ao usar chatbots: seus dados podem estar em perigo apareceu primeiro em Olhar Digital.

image-67

IAs compartilham seus dados com outras empresas, diz pesquisa

As suas conversas com chatbots de inteligência artificial (IA) podem não ser tão seguras quanto parecem. Um estudo da Surfshark revelou que um terço das 10 maiores empresas de IA compartilham dados dos usuários sem que eles saibam exatamente como essas informações são usadas.

Além de expor quais dados são coletados, o relatório da empresa de cibersegurança apontou quais tipos de informações são as mais coletadas.

Estudo da Surfshark sobre uso de dados de empresas de I.A (Imagem: Surfshark/Reprodução)

De acordo com o estudo, cerca de 40% das IAs consideradas utiliza a localização dos consumidores, sendo que 30% delas rastreiam os dados pessoais, entre eles contatos, histórico e interações com chatbots. Além disso, boa parte dessas companhias também reúnem informações comportamentais dos usuários.

Saiba como proteger seus dados

  • Utilize IAs confiáveis, muitos bots coletam suas informações sem nem informar o usuário.
  • Verifique as configurações de privacidade do seu chatbot, algumas empresas disponibilizam suas diretrizes de uso, confira se você está de acordo.
  • Evite compartilhar informações sensíveis, como: endereços, senhas e dados pessoais.
  • Desative opções de rastreamento em seus dispositivos.
  • Use extensões de privacidade, como uBlock Origin, Privacy Badger ou Ghostery.
  • Ative a opção “Do Not Track” no seu navegador.
  • Utilize uma VPN confiável para ocultar seu endereço IP.
  • Desative o rastreamento de anúncios em Google, Facebook e outros serviços.
Logos de inteligências artificiais em um smartphone
Empresas de inteligência articifial compartilham dados de usuários para terceiros (Imagem: Tada Images/Shutterstock)

Como cada IA rastreia dados de usuários

Google Gemini

O Gemini é o chatbot que mais coleta dados, registrando 22 dos 35 tipos possíveis. Ele é um dos poucos que coleta localização precisa e reúne informações como nome, e-mail, número de telefone, histórico de navegação e contatos salvos no dispositivo.

ChatGPT

O ChatGPT coleta 10 tipos de dados, incluindo informações de contato, conteúdo das interações, identificadores e informações de uso. No entanto, ele não rastreia usuários para publicidade e não compartilha com terceiros para fins de anúncios. Além disso, há a opção de usar chats temporários, que se apagam automaticamente após 30 dias.

Copilot

O Copilot coleta IDs de dispositivos. Essa informação pode ser usada para associar o comportamento do usuário ao longo do tempo e vinculá-lo a outros bancos de dados para fins de publicidade ou análise de comportamento. Além disso, Copilot pode compartilhar essas informações com terceiros.

Poe

O Poe também realiza rastreamento de usuários, coletando IDs de dispositivos. Essa prática permite que os dados dos usuários sejam cruzados com outras informações coletadas por terceiros, permitindo a exibição de anúncios personalizados ou até mesmo a venda desses dados para corretores de informações digitais.

Jasper

O Jasper é o chatbot que mais rastreia usuários entre os analisados, coletando IDs de dispositivos, dados de interação com o produto, informações publicitárias e outras informações de uso. Ele pode compartilhar essas infos com terceiros ou usá-los para segmentação de anúncios, tornando-o um dos mais invasivos nesse aspecto.

Leia mais:

DeepSeek

O DeepSeek coleta 11 tipos de dados, incluindo histórico de chat e infos do usuário, armazenando-os em servidores. Embora não seja mencionado o uso explícito para rastreamento publicitário, seus servidores já sofreram um vazamento de mais de 1 milhão de registros, incluindo conversas e chaves de API.

O post IAs compartilham seus dados com outras empresas, diz pesquisa apareceu primeiro em Olhar Digital.