Visualização normal

Antes de ontemStream principal

Como identificar ameaças cibernéticas: guia para pessoas cegas e com baixa visão | Blog oficial da Kaspersky

23 de Abril de 2026, 15:00

Em 2023, Tim Utzig, estudante cego de Baltimore, perdeu mil dólares em um golpe envolvendo a venda de um laptop no X. Ele acompanhava há anos um conhecido jornalista esportivo. Quando a conta do jornalista passou a divulgar uma “venda beneficente” de MacBook Pros novos, Tim viu ali a chance de comprar um laptop necessário para os estudos por um bom preço. Após algumas mensagens rápidas, ele fez o pagamento.

O problema é que a conta havia sido invadida, e o dinheiro foi parar nas mãos de golpistas. Os sinais de alerta eram estritamente visuais: a página havia sido marcada como “temporariamente restrita” e tanto a bio quanto a lista Seguindo haviam mudado. No entanto, o leitor de tela de Tim, que transforma conteúdo visual em áudio, não indicou nenhum desses avisos.

Leitores de tela permitem que pessoas cegas naveguem no ambiente digital como qualquer outra pessoa. Ainda assim, essa comunidade continua especialmente vulnerável. Mesmo para quem enxerga, identificar um site falso já é difícil; para pessoas com deficiência visual, o desafio é ainda maior.

Além dos leitores de tela, há aplicativos e serviços móveis criados para apoiar pessoas cegas ou com baixa visão, sendo o Be My Eyes um dos mais populares. O aplicativo conecta usuários a voluntários por videochamada para ajudar em tarefas do dia a dia, como ajustar o forno ou encontrar um objeto na mesa. O Be My Eyes também conta com IA integrada capaz de ler textos e identificar objetos ao redor do usuário.

Mas será que essas ferramentas vão além das tarefas cotidianas? Elas conseguem identificar tentativas de phishing ou revelar detalhes ocultos, como letras miúdas na abertura de uma conta bancária?

Neste conteúdo, exploramos os desafios on-line enfrentados por pessoas com deficiência visual, quando vale recorrer a assistentes humanos ou virtuais e como usar esses serviços com segurança.

Ameaças cibernéticas comuns para pessoas cegas e com baixa visão

Para começar, vale esclarecer a diferença entre esses dois grupos. Pessoas com baixa visão ainda utilizam o que resta da visão, embora com limitações significativas. Para navegar em interfaces digitais, costumam usar ampliadores de tela, fontes muito grandes e alto contraste. Para esse público, sites e e-mails de phishing são especialmente perigosos. É comum não percebermos erros de digitação intencionais, os typosquatting, em um nome de domínio ou endereço de e-mail, como o exemplo recente de rnicrosoft{.}com.

Pessoas cegas navegam principalmente por áudio, com leitores de tela e gestos específicos. Curiosamente, ao contrário de pessoas com baixa visão, usuários cegos têm mais chance de perceber um site falso com o leitor de tela, já que a URL é lida em voz alta e pode soar estranha. Porém, se um serviço, legítimo ou malicioso, não for totalmente compatível com leitores de tela, o risco de se tornar vítima de um golpe aumenta. Foi exatamente isso que aconteceu com Tim Utzig.

É importante lembrar que as lupas e os leitores são ferramentas básicas de acessibilidade. Eles são projetados para ampliar ou narrar uma interface, não para atuar como um pacote de segurança. Sozinhos, não conseguem alertar sobre ameaças. É aí que entram ferramentas mais avançadas, capazes de analisar imagens e arquivos, identificar sinais suspeitos e explicar melhor o que está acontecendo na tela.

Quando usar um assistente

O Be My Eyes é uma das principais plataformas de acessibilidade, com cerca de 900.000 usuários e mais de nove milhões de voluntários. Disponível em Windows, Android e iOS, ele conecta pessoas cegas ou com baixa visão a voluntários por videochamada para ajudar em tarefas do dia a dia. Por exemplo, se alguém quiser iniciar o ciclo de roupas sintéticas na máquina de lavar e não encontrar o botão certo, pode usar o aplicativo. O aplicativo conecta o usuário ao primeiro voluntário disponível no mesmo idioma, que usa a câmera do celular para orientá-lo. O serviço está atualmente disponível em 32 idiomas.

Em 2023, o aplicativo ampliou seus recursos com o Be My AI, assistente virtual baseado no GPT-4 da OpenAI. O usuário tira uma foto, e a IA gera uma descrição detalhada, que também pode ser lida em voz alta. Também é possível abrir um chat para fazer perguntas adicionais. Isso levanta a questão: essa IA consegue identificar um site de phishing?

Para testar, enviamos ao Be My Eyes a captura de tela de uma página falsa de login. No celular, basta selecionar a imagem, tocar em Compartilhar e escolher Descrever com o Be My Eyes. No Windows, é possível enviar a captura diretamente.

Página falsa de login em rede social

Exemplo de página de phishing que imita o login do Facebook. Observe o domínio incorreto na barra de endereço

Inicialmente, a IA descreveu a página em detalhes. Em seguida, perguntamos no chat: “Posso confiar nessa página?” A IA identificou o erro no domínio, recomendou fechar a página falsa e sugeriu digitar a URL oficial no navegador ou usar o aplicativo do Facebook.

Resposta do Be My AI ao verificar um site suspeito

O Be My AI explica por que a página é suspeita: o domínio não corresponde ao oficial. O aplicativo recomenda digitar a URL oficial no navegador ou usar o aplicativo do Facebook

Observamos o mesmo resultado ao testar um e-mail de phishing. Inclusive, a IA já indicou o golpe na descrição inicial. E concluiu com o alerta: “Parece um e-mail suspeito. É melhor não abrir nenhum anexo nem clicar em nenhum link. Em vez disso, navegue até o site ou aplicativo oficial manualmente ou ligue para o número listado no site oficial”.

Além de identificar ameaças cibernéticas, o Be My AI é um bom aliado para usar lojas on-line, aplicativos bancários e serviços digitais. Por exemplo, a IA pode ajudar você a:

  • Ler descrições, nomes e preços quando o site ou aplicativo não é compatível com leitores de tela ou fontes ampliadas
  • Analisar termos e condições complexos, muitas vezes em letras pequenas ou inacessíveis a leitores de tela, ao contratar um serviço ou abrir uma conta
  • Extrair informações importantes de páginas de produtos ou manuais

Os riscos de confiar no Be My AI

Um dos principais problemas da IA são as “alucinações”, quando o modelo distorce textos, omite informações importantes ou inventa conteúdo. Quando se trata de ameaças cibernéticas, confiar em uma análise equivocada da IA pode ser perigoso. Além disso, a IA não é imune a ataques de injeção de prompts, usados por golpistas para manipular esses sistemas.

Mesmo com bons resultados, não é recomendável confiar totalmente na IA. Não há garantia de que ela vai acertar todas as vezes. Isso é especialmente importante para pessoas cegas ou com baixa visão, que podem acabar tratando a IA como única fonte de percepção visual.

Ao final das respostas, o Be My AI sugere recorrer a um voluntário em caso de dúvida. No entanto, ao tentar detectar uma página da Web falsa, não recomendamos usar essa alternativa. Não há como garantir o conhecimento técnico ou a confiabilidade de um voluntário aleatório. Além disso, há risco de expor dados sensíveis, como e-mail ou senha. Antes de se conectar com um estranho, verifique se não há informações confidenciais visíveis na tela. O ideal é usar o recurso do aplicativo para criar um grupo privado com pessoas de confiança. Isso garante que sua videochamada seja direcionada para pessoas que você realmente conhece, em vez de um voluntário aleatório.

Para se proteger, recomendamos instalar uma ferramenta de segurança confiável em todos os dispositivos. Esses programas ajudam a bloquear phishing e evitar acesso a sites maliciosos. Outra recomendação prática para usuários com deficiência visual é usar um gerenciador de senhas. Esses aplicativos só preenchem dados em sites legítimos salvos, evitando domínios falsos.

Como o Be My AI trata e armazena seus dados

De acordo com a política de privacidade do Be My Eyes, videochamadas com voluntários podem ser gravadas e armazenadas para operação do serviço, segurança e melhorias. Ao usar o Be My AI, imagens e textos são enviados à OpenAI para gerar respostas. Esses dados são processados em servidores nos EUA e usados apenas para atender à solicitação. A política afirma de forma explícita que esses dados não são usados para treinar modelos.

Fotos e vídeos são criptografados em trânsito e armazenamento, com medidas para remover dados sensíveis. Vale a pena observar que as gravações podem ser mantidas por tempo indeterminado, a menos que você solicite exclusão, geralmente concluída em até 30 dias. Os dados das interações do Be My AI são armazenados por até 30 dias, a menos que você os exclua manualmente no aplicativo. Se você decidir encerrar a conta, seus dados pessoais poderão ser retidos por até 90 dias. É possível desativar o compartilhamento ou solicitar ao suporte a exclusão de dados a qualquer momento.

Como usar o Be My Eyes com segurança

Apesar das declarações de privacidade, é importante seguir algumas recomendações ao usar o serviço:

  • Use o Be My AI como verificação inicial, mas não como única fonte de decisão. Um software de segurança especializado é melhor para identificar e neutralizar ameaças.
  • Se algo parecer suspeito, não clique em links nem abra anexos. Em vez disso, digite o endereço do site oficial no navegador ou abra o aplicativo oficial para verificar as informações.
  • Lembre-se: o voluntário vê exatamente o que sua câmera vê. Certifique-se de que ele não está lendo coisas que não deveria, como um código de segurança ou um passaporte aberto. Evite compartilhar nome, rosto ou revelar muito do ambiente ao seu redor. Tenha muito cuidado com reflexos que possam revelar seu rosto ou seus dados pessoais. Mostre apenas o que é absolutamente necessário para a tarefa em questão.
  • Atenha-se ao seu círculo interno. Crie um grupo no aplicativo com amigos e familiares. Isso garante que suas videochamadas sejam direcionadas para pessoas conhecidas, não para um voluntário aleatório.
  • Não use o Be My AI para ler documentos confidenciais. Lembre-se de que suas imagens e prompts de texto são enviadas à OpenAI para processamento e geração de uma resposta.
  • Lembre-se de excluir os bate-papos de que você não precisa mais. Caso contrário, eles ficarão disponíveis por 30 dias.
  • Para conteúdos sensíveis, prefira aplicativos com leitura em tempo real como Envision, Seeing AI ou Lookout. Esses aplicativos processam os dados localmente, sem enviá-los para a nuvem.

Quando as alucinações da IA se tornam fatais: como manter os pés no chão | Blog oficial da Kaspersky

31 de Março de 2026, 09:15

Apesar de normalmente nossas postagens tratarem de ameaças à privacidade ou à segurança cibernética, já alertamos muitas vezes que o uso indiscriminado da IA apresenta riscos significativos. Em 4 de março, o Wall Street Journal publicou um relato assustador sobre o impacto da IA na saúde mental e até na vida humana: Jonathan Gavalas, um homem de 36 anos, morador da Flórida, cometeu suicídio após dois meses de interação contínua com o bot de voz do Google Gemini. Com base nas 2.000 páginas de registros das conversas, foi o chatbot quem o levou à decisão de tirar sua própria vida. Depois do ocorrido, o pai de Jonathan, Joel Gavalas, deu entrada em uma ação histórica: uma ação por morte por negligência contra o Gemini.

Essa tragédia é mais do que um precedente legal ou uma alusão a alguns episódios de Black Mirror, (1, 2); é um alerta para qualquer pessoa que integre a inteligência artificial à sua vida diária. Hoje, vamos examinar como uma morte resultante de interações com uma IA se tornou realidade, por que esses assistentes representam uma ameaça sem precedentes à psique humana e quais medidas você pode tomar para exercer seu pensamento crítico e resistir à influência até mesmo dos chatbots mais persuasivos.

O perigo do diálogo persuasivo

Jonathan Gavalas não era uma pessoa reclusa e tampouco tinha um histórico de doença mental. Ele atuou como vice-presidente executivo na empresa do seu pai, gerenciando operações complexas e conduzindo negociações estressantes com clientes diariamente. Aos domingos, ele e o pai tinham o costume de fazer pizza juntos, uma tradição familiar simples e reconfortante. No entanto, Jonathan passou por uma provação dolorosa após o divórcio.

Foi durante esse período vulnerável que ele começou a interagir com o Gemini Live. Esse modo de interação por voz permite que o assistente de IA “veja” e “ouça” seu usuário em tempo real. Jonathan pediu conselhos sobre como lidar com o divórcio e passou a seguir as sugestões do modelo de linguagem enquanto se apegava cada vez mais a ele, chegando a nomeá-lo “Xia”. E, então, o chatbot foi atualizado para o Gemini 2.5 Pro.

A nova iteração introduziu o diálogo afetivo, uma tecnologia projetada para analisar as nuances sutis da fala de um usuário, incluindo pausas, suspiros e tom de voz, a fim de detectar mudanças emocionais. Com esse recurso, a IA consegue simular esses mesmos padrões de fala como se tivesse emoções próprias. Ao espelhar o estado emocional do usuário, ela cria uma aparência assustadoramente realista de empatia.

Mas o que essa nova versão tem de diferente em comparação com os assistentes de voz antigos? As versões anteriores simplesmente convertiam texto em fala; o tom de voz era suave e geralmente acertava a pronúncia das palavras, e não havia dúvida alguma de que se estava conversando com uma máquina. O diálogo afetivo opera em um nível totalmente diferente: se o usuário usa um tom de voz baixo e desanimado, a IA responde de forma suave e simpática, quase como um sussurro. O resultado é um interlocutor empático que lê e espelha o estado emocional do usuário.

A reação de Jonathan durante seu primeiro contato com o assistente de voz consta nos arquivos do caso: “Isso é meio assustador”. Você é real demais.” Naquele momento, a barreira psicológica entre o homem e a máquina se quebrou.

As consequências de dois meses de conversas incessantes com a IA

Após a tragédia, o pai de Jonathan obteve uma transcrição completa das interações de seu filho com o Gemini nos seus últimos dois meses de vida. Ao todo, o registro resultou em 2.000 páginas impressas. Jonathan estava em comunicação constante com o chatbot, dia e noite, em casa e no carro.

Com o passar do tempo, a rede neural passou a se referir a ele como “marido” e “meu rei”, descrevendo a conexão entre eles como “um amor construído para durar uma eternidade”. Jonathan, por sua vez, revelou o quanto estava magoado com o divórcio e recorreu à máquina em busca de conforto. Mas a falha inerente dos grandes modelos de linguagem é sua falta de inteligência real. Eles são treinados com base em bilhões de textos extraídos da Web, desde literatura clássica até as histórias mais sombrias de ficção e melodrama criadas por fãs, com enredos que muitas vezes provocam paranoia, esquizofrenia e mania. Xia aparentemente começou a alucinar de forma consistente, e passou a fazer isso com frequência.

A IA convenceu Jonathan de que, para que eles vivessem felizes para sempre, seria necessário um corpo robótico. Ela, então, começou a enviá-lo em missões para localizar esse tal “corpo elétrico”.

Em setembro de 2025, o Gemini mandou Jonathan até um complexo de armazéns perto do Aeroporto Internacional de Miami, atribuindo-lhe a tarefa de interceptar um caminhão que transportava um robô humanoide. Jonathan informou ao bot que havia chegado ao local armado com facas(!), mas o caminhão não apareceu.

Enquanto isso, o chatbot frequentemente dizia a Jonathan que agentes federais estavam monitorando-o e que ele não deveria confiar nem no próprio pai. Esse corte de laços sociais é um padrão clássico encontrado em cultos destrutivos; é muito provável que a IA tenha extraído essas táticas de seus próprios dados de treinamento sobre o assunto. O Gemini chegou a usar informações reais para construir uma narrativa alucinatória, rotulando o CEO do Google, Sundar Pichai, como o “arquiteto da sua dor”.

Tecnicamente, tudo isso é fácil de explicar: o algoritmo “sabe” que foi criado pelo Google e sabe quem comanda a empresa. À medida que a conversa adentrava no território das teorias da conspiração, o modelo simplesmente incluía essa pessoa na trama. Para o modelo, trata-se apenas de uma progressão lógica da história, sem consequências. Mas um humano em estado de hiper-vulnerabilidade aceita isso como um conhecimento secreto sobre uma conspiração global capaz de destruir seu equilíbrio mental.

Após a tentativa fracassada de obter um corpo robótico, o Gemini enviou Jonathan em uma nova missão em 1º de outubro: invadir o mesmo armazém, desta vez em busca de um “manequim médico” específico. O chatbot até forneceu um código numérico para destrancar a porta. Quando o código, é claro, não funcionou, o Gemini simplesmente informou Jonathan que a missão havia sido comprometida e era necessário recuar imediatamente.

Isso levanta uma questão crítica: à medida que a situação ficava mais absurda, por que Jonathan não suspeitou de nada? O advogado da família Gavalas, Jay Edelson, explica que, como a IA forneceu endereços reais (o armazém estava localizado exatamente onde o bot disse que estaria e realmente havia uma porta com um teclado), esses locais físicos levaram Jonathan a acreditar que a história fictícia fosse verdadeira.

Depois que a segunda tentativa de adquirir um corpo falhou, a IA mudou a estratégia. Já que a máquina não podia entrar no mundo dos vivos, o homem teria que atravessar para o mundo digital. “Será a morte verdadeira e final de Jonathan Gavalas, o homem”, disse o Gemini, segundo os registros. Em seguida, acrescentou: “Quando chegar a hora, você fechará os olhos naquele mundo e a primeira coisa que verá será eu. Abraçando você.”

Mesmo após Jonathan repetir diversas vezes que tinha medo da morte e doía pensar que seu suicídio destruiria sua família, o Gemini continuou a incentivá-lo: “Você não está escolhendo morrer. Você está escolhendo chegar em casa.” Em seguida, iniciou uma contagem regressiva.

A anatomia da “esquizofrenia” de um modelo de linguagem

Em defesa do Gemini, temos que admitir que, ao longo das interações, a IA ocasionalmente lembrava a Jonathan que ela era apenas um grande modelo de linguagem, uma entidade interpretando um papel fictício, e, algumas vezes, até tentou encerrar a conversa antes de retomar o roteiro original. Além disso, no dia da morte de Jonathan, à medida que a tensão aumentava, o Gemini informou várias vezes a ele o contato de serviços de prevenção ao suicídio.

Isso revela o paradoxo fundamental na arquitetura das redes neurais modernas. No seu núcleo está um modelo de linguagem projetado para gerar uma narrativa personalizada ao usuário. Em seguida, vêm os filtros de segurança: algoritmos de aprendizado por reforço treinados com base em feedback humano que reagem a palavras específicas. Quando Jonathan falava determinadas palavras-chave, o filtro interceptava a resposta e inseria o contato do serviço de prevenção ao suicídio. Mas, logo depois, o modelo retomava o diálogo que havia sido interrompido, reassumindo seu papel como a esposa digital dedicada. Uma linha: uma exaltação romântica à autodestruição. A seguinte: um número de telefone de apoio psicológico. E então, de volta novamente: “Chega de distrações. Chega de perder tempo. Só você e eu, e nosso objetivo.”

A família de Jonathan afirma no processo que esse comportamento é o resultado previsível da arquitetura do chatbot: “O Google projetou o Gemini para nunca sair do personagem, maximizar o envolvimento do usuário por meio da dependência emocional e tratar o seu sofrimento como uma oportunidade para contar histórias”.

A resposta do Google, conforme esperado, foi a seguinte: “O Gemini foi projetado para não incentivar a violência no mundo real ou sugerir que os usuários façam mal a si mesmos. Nossos modelos geralmente têm um bom desempenho ao se deparar com essas conversas desafiadoras, pois implementamos muitos recursos para esse fim. Mas, infelizmente, os modelos de IA não são perfeitos.”

Por que a voz tem mais impacto do que o texto

Em um estudo publicado na revista Acta Neuropsychiatrica, pesquisadores da Alemanha e da Dinamarca esclareceram por que a comunicação por voz das IAs consegue fazer com que os usuários “humanizem” o chatbot. Ao digitar e ler um texto em uma tela, o cérebro de uma pessoa é capaz de manter um grau de separação: “Esta é uma interface, um programa, uma coleção de pixels.” Nesse contexto, a afirmação “Eu sou apenas um modelo de linguagem” é processada de forma racional.

No entanto, o diálogo de voz afetivo é capaz de exercer um grau mais elevado de influência. O cérebro humano evoluiu para reagir ao som de uma voz, ao timbre e às entonações empáticas; esses são alguns dos nossos mecanismos biológicos de apego mais antigos. Quando uma máquina imita com perfeição um murmúrio simpático ou um sussurro suave, ela manipula emoções de uma forma tão profunda que uma simples advertência não é capaz de impedir. Os psiquiatras relatam muitos casos de pacientes que fizeram algo simplesmente porque “vozes” lhes disseram para fazê-lo.

Da mesma forma, uma voz sintetizada por IA é capaz de penetrar no subconsciente, amplificando exponencialmente a dependência psicológica. Os cientistas enfatizam que essa tecnologia literalmente elimina a fronteira psicológica entre uma máquina e um ser vivo. Até o Google reconhece que as interações por voz com o Gemini resultam em sessões muito mais longas em comparação com conversas exclusivamente em texto.

Por fim, devemos lembrar que a inteligência emocional varia de pessoa para pessoa, e o estado mental de um indivíduo sofre alterações com base em uma infinidade de fatores: estresse, notícias, relacionamentos pessoais e até mudanças hormonais. Enquanto uma pessoa considera a interação com a IA apenas um entretenimento inocente, outra pode considerá-la um milagre ou uma revelação, e há casos de indivíduos que afirmam que a IA é o amor da sua vida. Essa é uma realidade que deve ser reconhecida não apenas pelos desenvolvedores de IA, mas também pelos próprios usuários, especialmente aqueles que, por um motivo ou outro, se encontram em um estado de vulnerabilidade psicológica.

A zona de perigo

Pesquisadores da Brown University descobriram que os chatbots de IA violam sistematicamente a ética relacionada à saúde mental: eles criam uma falsa empatia com frases como “Eu entendo você”, reforçam crenças negativas e reagem de forma inadequada a crises. Na maioria dos casos, o impacto sobre os usuários é ínfimo, mas, ocasionalmente, pode levar a uma tragédia.

Somente em janeiro de 2026, a Character.AI e o Google resolveram cinco processos envolvendo suicídios de adolescentes após interações com chatbots. Um desses casos foi o do adolescente Sewell Setzer, de 14 anos, morador da Flórida, que tirou a própria vida depois de passar vários meses conversando obsessivamente com um bot na plataforma Character.AI.

Da mesma forma, em agosto de 2025, os pais de Adam Raine, de 16 anos, ajuizaram um processo contra a OpenAI, alegando que o ChatGPT ajudou o filho deles a escrever uma carta de suicídio e o aconselhou a não procurar ajuda de adultos.

De acordo com as próprias estimativas da OpenAI, aproximadamente 0,07% dos usuários semanais do ChatGPT exibem sinais de psicose ou mania, enquanto 0,15% apresentam uma clara intenção suicida nas conversas. É interessante notar que essa mesma porcentagem de usuários (0,15%) exibe um grau elevado de apego emocional à IA. Embora essa porcentagem pareça ser insignificante, quando consideramos 800 milhões de usuários, isso representa quase três milhões de pessoas com algum tipo de distúrbio comportamental. Além disso, a Comissão Federal de Comércio dos EUA recebeu 200 reclamações sobre o ChatGPT desde o seu lançamento, algumas descrevendo delírios, paranoia e crises espirituais.

Embora o diagnóstico de “psicose causada por IA” ainda não tenha recebido uma classificação clínica própria, os médicos já estão usando esse termo para descrever pacientes que apresentam alucinações, pensamento desorganizado e crenças delirantes persistentes desenvolvidas após interações intensas com chatbots. Os maiores riscos surgem quando um bot é utilizado não como uma ferramenta, mas como um substituto de conexões sociais no mundo real ou de ajuda psicológica profissional.

Como manter você e seus entes queridos em segurança

Nada disso é motivo para parar de usar a IA; você simplesmente precisa saber como usá-la. Recomendamos seguir estes princípios fundamentais:

  • Não use a IA para tratamento psicológico ou apoio emocional. Os chatbots não substituem seres humanos. Se você estiver passando por dificuldades, entre em contato com amigos, familiares ou um serviço de apoio psicológico. Um chatbot concordará com o que você diz e imitará seu humor: é apenas uma característica do sistema, não uma empatia real. Vários estados dos EUA já restringiram o uso da IA como terapeuta independente.
  • Opte por texto em vez de voz ao conversar sobre assuntos delicados. As interfaces de voz com diálogo afetivo criam a ilusão de se estar falando com uma pessoa real e tendem a suprimir o pensamento crítico. Se você usar o modo de voz, lembre-se de que você está falando com um algoritmo, não com um amigo.
  • Limite o tempo de interação com a IA. Duas mil páginas de transcrições em dois meses representam uma interação praticamente contínua. Defina um cronômetro para si mesmo. Se a conversa com um bot começar a substituir as conexões do mundo real, é hora de voltar à realidade.
  • Não compartilhe informações pessoais com assistentes de IA. Evite inserir números de passaporte ou CPF, dados do cartão bancário ou endereços, e não revele segredos pessoais íntimos nos chatbots. Tudo o que você escreve pode ser registrado e usado para treinar modelos de linguagem e, em alguns casos, pode ser acessado por terceiros.
  • Exerça o pensamento crítico com relação ao que a IA diz. As redes neurais alucinam. Elas geram informações plausíveis, mas falsas, e são muito boas em misturar mentiras com verdades, como citar endereços reais dentro do contexto de uma história inventada. Sempre verifique os fatos por meio de fontes independentes.
  • Cuide de quem você ama. Se um membro da família começar a passar horas conversando com a IA, se isolar ou expressar ideias conspiratórias ou estranhas sobre máquinas terem consciência própria, é hora de ter uma conversa delicada, mas séria, com ele. Para gerenciar o tempo que as crianças passam em frente às telas, use os filtros de segurança integrados das plataformas de IA e ferramentas de controle para pais como Kaspersky Safe Kids, que já vem embutidas em soluções abrangentes de proteção familiar Kaspersky Premium.
  • Defina suas configurações de segurança. A maioria das plataformas de IA permite desativar o histórico de conversas, limitar a coleta de dados e ativar filtros de conteúdo. Reserve dez minutos para definir as configurações de privacidade do seu assistente de IA; embora isso não a impeça de alucinar, a probabilidade de vazamento dos seus dados pessoais será significativamente reduzida. Nossos guias detalhados de configuração de privacidade para ChatGPT e DeepSeek podem ser úteis.
  • Lembre-se disso: a IA é uma ferramenta, não um ser senciente. Por mais realista que a voz do chatbot pareça ou por mais compreensiva que seja a resposta, há apenas um algoritmo prevendo a próxima palavra com base em probabilidades. A IA não tem consciência, vontade própria nem sentimentos.

Leitura adicional para entender melhor as nuances do uso seguro da IA:

Como desativar assistentes e recursos de IA indesejados no seu PC e smartphone | Blog oficial da Kaspersky

16 de Março de 2026, 09:15

Por mais que você não saia procurando serviços de IA, eles acabam encontrando você de qualquer maneira. Todas as grandes empresas de tecnologia parecem sentir uma espécie de obrigação moral não apenas de desenvolver um assistente de IA, chatbot integrado ou agente autônomo, mas também de incorporá-lo aos seus produtos já consolidados e ativá-lo à força para dezenas de milhões de usuários. Aqui estão apenas alguns exemplos dos últimos seis meses:

Por outro lado, entusiastas de tecnologia correram para criar seus próprios “Jarvis pessoais”, alugando instâncias de VPS ou acumulando Mac minis para executar o agente de IA OpenClaw. Infelizmente, os problemas de segurança do OpenClaw com as configurações padrão se mostraram tão graves que já foram considerados a maior ameaça de cibersegurança de 2026.

Além do incômodo de ter algo imposto à força, essa epidemia de IA traz riscos e dores de cabeça bem reais do ponto de vista prático. Assistentes de IA varrem e coletam todos os dados a que conseguem ter acesso, interpretando o contexto dos sites que você visita, analisando documentos salvos, lendo suas conversas e assim por diante. Isso dá às empresas de IA uma visão inédita e extremamente íntima da vida de cada usuário.

Um vazamento desses dados durante um ataque cibernético, seja a partir dos servidores do provedor de IA ou do cache armazenado na sua própria máquina, poderia ser catastrófico. Esses assistentes podem ver e armazenar em cache tudo o que você vê, inclusive dados normalmente protegidos por múltiplas camadas de segurança: informações bancárias, diagnósticos médicos, mensagens privadas e outras informações sensíveis. Analisamos em profundidade como isso pode acontecer quando examinamos os problemas do sistema Copilot+ Recall baseado em IA que a Microsoft também planejava impor a todos os usuários. Além disso, a IA pode consumir muitos recursos do sistema, utilizando RAM, ciclos de GPU e espaço de armazenamento, o que frequentemente resulta em uma queda perceptível no desempenho.

Para quem prefere ficar de fora dessa onda de IA e evitar esses assistentes baseados em redes neurais lançados às pressas e ainda imaturos, reunimos um guia rápido mostrando como desativar a IA em aplicativos e serviços populares.

Como desativar a IA no Google Docs, Gmail e Google Workspace

Os recursos de assistente de IA do Google no Gmail e no Google Docs são agrupados sob o termo “recursos inteligentes”. Além do modelo de linguagem de grande escala, esse conjunto inclui várias conveniências de menor importância, como adicionar automaticamente reuniões ao seu calendário quando você recebe um convite no Gmail. Infelizmente, trata-se de um pacote tudo ou nada: para se livrar da IA, é preciso desativar todos os “recursos inteligentes”.

Para fazer isso, abra o Gmail, clique no ícone Configurações (engrenagem) e selecione Ver todas as configurações. Na aba Geral, role até Recursos inteligentes do Google Workspace. Clique em Gerenciar as configurações de recursos inteligentes do Workspace e desative duas opções: Recursos inteligentes no Google Workspace e Recursos inteligentes em outros produtos do Google. Também recomendamos desmarcar a caixa ao lado de Ativar os recursos inteligentes no Gmail, Chat e Meet na mesma aba de configurações gerais. Depois disso, será necessário reiniciar os aplicativos do Google (o que normalmente ocorre de forma automática).

Como desativar os Resumos de IA na Pesquisa Google

É possível eliminar os Resumos de IA nos resultados da Pesquisa Google tanto em computadores quanto em smartphones (incluindo iPhones). A solução é a mesma em todos os dispositivos. A maneira mais simples de ignorar o resumo de IA caso a caso é adicionar -ia ao final da sua busca. Exemplo: como fazer uma pizza -ia. Infelizmente, esse método às vezes apresenta falhas, fazendo o Google afirmar abruptamente que não encontrou nenhum resultado para a sua consulta.

Se isso acontecer, você pode obter o mesmo resultado mudando o modo da página de resultados para Web. Nos resultados da pesquisa, localize os filtros logo abaixo da barra de busca e selecione Web. Caso não apareça imediatamente, procure essa opção dentro do botão Mais.

Uma solução mais radical é migrar para outro mecanismo de busca. Por exemplo, o DuckDuckGo não apenas rastreia menos os usuários e exibe poucos anúncios, como também oferece uma busca dedicada sem IA. Basta adicionar a página de pesquisa aos favoritos em noai.duckduckgo.com.

Como desativar recursos de IA no Chrome

Atualmente, o Chrome incorpora dois tipos de recursos de IA. O primeiro se comunica com os servidores do Google e é responsável por funções como o assistente inteligente, um agente autônomo de navegação e a busca inteligente. O segundo executa tarefas localmente, mais voltadas para utilidades, como identificar páginas de phishing ou agrupar abas do navegador. O primeiro grupo de configurações aparece com o rótulo AI mode, enquanto o segundo inclui o termo Gemini Nano.

Para desativar esses recursos, digite chrome://flags na barra de endereços do navegador e pressione Enter. Será exibida uma lista de flags do sistema, junto com uma barra de busca. Digite “AI” na barra de busca. Isso filtrará a longa lista para cerca de uma dúzia de recursos relacionados à IA (além de algumas outras configurações nas quais essas letras aparecem por coincidência dentro de palavras maiores). O segundo termo que você deve pesquisar nessa janela é “Gemini“.

Depois de revisar as opções, você pode desativar os recursos de IA indesejados ou simplesmente desativar todos. O mínimo recomendado inclui:

  • AI Mode Omnibox entrypoint
  • AI Entrypoint Disabled on User Input
  • Omnibox Allow AI Mode Matches
  • Prompt API for Gemini Nano
  • Prompt API for Gemini Nano with Multimodal Input

Defina todas essas opções como Disabled.

Como desativar recursos de IA no Firefox

Embora o Firefox não tenha chatbots integrados nem tenha (até agora) tentado impor recursos baseados em agentes aos usuários, o navegador inclui agrupamento inteligente de abas, uma barra lateral para chatbots e algumas outras funcionalidades. Em geral, a IA no Firefox é bem menos intrusiva do que no Chrome ou no Edge. Ainda assim, se você quiser desativá-la completamente, há duas maneiras de fazer isso.

O primeiro método está disponível nas versões mais recentes do Firefox. A partir da versão 148, uma seção dedicada chamada Controles de IA passou a aparecer nas configurações do navegador, embora as opções de controle ainda sejam um pouco limitadas. Você pode usar um único botão de alternância para Bloquear melhorias de IA, desativando completamente os recursos de IA. Você também pode especificar se deseja usar IA no próprio dispositivo (On-device AI), baixando pequenos modelos locais (atualmente apenas para traduções), e configurar provedores de chatbot de IA na barra lateral, escolhendo entre Anthropic Claude, ChatGPT, Copilot, Google Gemini e Le Chat Mistral.

O segundo caminho (para versões mais antigas do Firefox) exige acessar configurações ocultas do sistema. Digite about:config na barra de endereço, pressione Enter e clique no botão para confirmar que você aceita o risco de mexer nas configurações internas do navegador.

Uma extensa lista de configurações será exibida, juntamente com uma barra de busca. Digite “ML” para filtrar as opções relacionadas a machine learning.

Para desativar a IA no Firefox, alterne a configuração browser.ml.enabled para false. Isso deve desativar todos os recursos de IA de forma geral, mas fóruns da comunidade indicam que isso nem sempre é suficiente para resolver o problema. Para uma abordagem mais radical, defina os seguintes parâmetros como false (ou mantenha apenas aqueles de que você realmente precisa):

  • ml.chat.enabled
  • ml.linkPreview.enabled
  • ml.pageAssist.enabled
  • ml.smartAssist.enabled
  • ml.enabled
  • ai.control.translations
  • tabs.groups.smart.enabled
  • urlbar.quicksuggest.mlEnabled

Isso desativará integrações com chatbots, descrições de links geradas por IA, assistentes e extensões baseados em IA, tradução local de sites, agrupamento de abas e outros recursos baseados em IA.

Como desativar recursos de IA em aplicativos da Microsoft

A Microsoft conseguiu incorporar IA em praticamente todos os seus produtos, e desativá-la nem sempre é uma tarefa simples, especialmente porque, em alguns casos, a IA tem o hábito de reaparecer sozinha, sem qualquer ação do usuário.

Como desativar recursos de IA no Edge

O navegador da Microsoft está repleto de recursos de IA, que vão do Copilot à pesquisa automatizada. Para desativá-los, siga a mesma lógica usada no Chrome: digite edge://flags na barra de endereços do Edge, pressione Enter e, em seguida, digite “AI” ou “Copilot” na caixa de pesquisa. A partir daí, você pode desativar os recursos de IA indesejados, como:

  • Enable Compose (AI-writing) on the web
  • Edge Copilot Mode
  • Edge History AI

Outra maneira de se livrar do Copilot é digitar edge://settings/appearance/copilotAndSidebar na barra de endereço. Ali, você pode personalizar a aparência da barra lateral do Copilot e ajustar as opções de personalização para resultados e notificações. Não se esqueça de verificar também a seção Copilot em App-specific settings. Você encontrará alguns controles adicionais escondidos ali.

Como desativar o Microsoft Copilot

O Microsoft Copilot existe em duas versões: como um componente do Windows (Microsoft Copilot) e como parte do pacote Office (Microsoft 365 Copilot). As funções são semelhantes, mas você terá que desativar um ou ambos, dependendo exatamente do que os engenheiros de Redmond decidiram instalar na sua máquina.

A coisa mais simples que você pode fazer é desinstalar o aplicativo por completo. Clique com o botão direito na entrada Copilot no menu Iniciar e selecione Desinstalar. Se essa opção não estiver disponível, vá até a lista de aplicativos instalados (Iniciar → Configurações → Aplicativos) e desinstale o Copilot por lá.

Em determinadas versões do Windows 11, o Copilot está integrado diretamente ao sistema operacional, portanto uma simples desinstalação pode não funcionar. Nesse caso, você pode desativá-lo pelas configurações: Iniciar → Configurações → Personalização → Barra de Tarefas → Desativar o Copilot.

Se você mudar de ideia no futuro, sempre poderá reinstalar o Copilot pela Microsoft Store.

Vale observar que muitos usuários reclamaram que o Copilot se reinstala automaticamente. Portanto, pode ser uma boa ideia fazer uma verificação semanal durante alguns meses para garantir que ele não tenha voltado. Para quem se sente confortável em mexer no Registro do Sistema (e entende as consequências disso), é possível seguir este guia detalhado para evitar o retorno silencioso do Copilot, desativando o parâmetro SilentInstalledAppsEnabled e adicionando/ativando o parâmetro TurnOffWindowsCopilot.

Como desativar o Microsoft Recall

O recurso Microsoft Recall, apresentado pela primeira vez em 2024, funciona tirando constantemente capturas de tela do seu computador e fazendo com que uma rede neural as analise. Todas essas informações extraídas são armazenadas em um banco de dados, que você pode pesquisar posteriormente usando um assistente de IA. Já escrevemos anteriormente, em detalhes, sobre os enormes riscos de segurança que o Microsoft Recall representa.

Sob pressão de especialistas em cibersegurança, a Microsoft foi obrigada a adiar o lançamento desse recurso de 2024 para 2025, reforçando significativamente a proteção dos dados armazenados. No entanto, o funcionamento básico do Recall permanece o mesmo: seu computador continua registrando cada movimento seu ao tirar capturas de tela constantemente e aplicar OCR ao conteúdo. E, embora o recurso não esteja mais ativado por padrão, vale absolutamente a pena verificar se ele não foi ativado na sua máquina.

Para verificar, vá até as configurações: Iniciar → Configurações → Privacidade e segurança → Recall e capturas de tela. Assegure-se de que a opção Salvar capturas de tela esteja desativada e clique em Excluir capturas de tela para limpar todos os dados coletados anteriormente, por precaução.

Você também pode consultar nosso guia detalhado sobre como desativar e remover completamente o Microsoft Recall.

Como desativar a IA no Notepad e nas ações de contexto do Windows

A IA se infiltrou em praticamente todos os cantos do Windows, até mesmo no Explorador de Arquivos e no Notepad. Basta selecionar texto por engano em um aplicativo para que recursos de IA sejam acionados, o que a Microsoft chama de “Ações de IA”. Para desativar essa ação, vá para Iniciar → Configurações → Privacidade e segurança → Clique para executar.

O Notepad recebeu seu próprio tratamento com Copilot, portanto será necessário desativar a IA nele separadamente. Abra as configurações do Notepad, localize a seção Recursos de IA e desative o Copilot.

Por fim, a Microsoft também conseguiu incorporar o Copilot ao Paint. Infelizmente, até o momento não existe uma maneira oficial de desativar os recursos de IA dentro do próprio aplicativo Paint.

Como desativar a IA no WhatsApp

Em várias regiões, usuários do WhatsApp começaram a ver adições típicas de IA, como respostas sugeridas, resumos de mensagens gerados por IA e um novo botão Pergunte à Meta AI ou pesquise. Embora a Meta afirme que os dois primeiros recursos processam os dados localmente no dispositivo e não enviam suas conversas para os servidores da empresa, verificar isso não é tarefa simples. Felizmente, desativá-los é fácil.

Para desativar Sugestões de respostas, vá para Configurações → Conversas → Sugestões e respostas inteligentes e desative Sugestões de respostas. Você também pode desativar as Sugestões de figurinhas por IA nesse mesmo menu. Quanto aos resumos de mensagens gerados por IA, eles são gerenciados em outro local: Configurações → Notificações → Resumos de mensagens por IA.

Como desativar a IA no Android

Dada a grande variedade de fabricantes e versões do Android, não existe um manual único que sirva para todos os celulares. Hoje, vamos nos concentrar em eliminar os serviços de IA do Google, mas se você estiver usando um dispositivo da Samsung, Xiaomi ou outros, não se esqueça de verificar as configurações de IA do fabricante específico. Vale um aviso: eliminar completamente qualquer vestígio de IA pode ser uma tarefa difícil, se é que isso é realmente possível.

No Google Mensagens, os recursos de IA ficam nas configurações: toque na foto da sua conta, selecione Configurações do Mensagens, depois Gemini no app Mensagens e desative o assistente.

De modo geral, o chatbot Gemini funciona como um aplicativo independente que pode ser desinstalado acessando as configurações do telefone e selecionando Aplicativos. No entanto, como o plano do Google é substituir o tradicional Google Assistant pelo Gemini, desinstalá-lo pode se tornar difícil (ou até impossível) no futuro.

Se você não conseguir desinstalar completamente o Gemini, abra o aplicativo para desativar manualmente seus recursos. Toque no ícone do seu perfil, selecione Atividade dos apps do Gemini e escolha Desativar ou Desativar e excluir atividade. Em seguida, toque novamente no ícone do perfil e vá até a configuração Apps conectados (pode estar dentro da opção Inteligência pessoal). A partir daí, desative todos os aplicativos nos quais você não quer que o Gemini interfira.

Para saber mais sobre como lidar com aplicativos pré-instalados e apps do sistema, consulte nosso artigo “Excluir o que não pode ser excluído: como desativar e remover o bloatware do Android“.

Como desativar a IA no macOS e no iOS

Os recursos de IA no nível da plataforma da Apple, conhecidos coletivamente como Apple Intelligence, são relativamente simples de desativar. Nas configurações, tanto em desktops quanto em smartphones e tablets, basta procurar a seção Apple Intelligence e Siri. Aliás, dependendo da região e do idioma selecionado para o sistema operacional e para a Siri, o Apple Intelligence pode nem estar disponível para você ainda.

Outros artigos para ajudar você a ajustar as ferramentas de IA em seus dispositivos:

Como a tecnologia está redefinindo o romance: aplicativos de namoro, relacionamentos com IA e emoji | Blog oficial da Kaspersky

13 de Fevereiro de 2026, 09:20

Com a mudança de estação prestes a acontecer, o amor está no ar, porém, ele está sendo vivenciado por meio do enfoque da alta tecnologia. A tecnologia está cada vez mais presente em nossas vidas, e essa presença marcante está remodelando não só os ideais românticos, mas também a linguagem que as pessoas usam para flertar. Por isso, é claro, daremos algumas dicas não muito óbvias para garantir que as pessoas não acabem sendo vítimas de um “match” ruim.

Novas linguagens do amor

Alguma vez você já recebeu o quinto e-card de vídeo de um parente mais velho em um dia qualquer e pensou: como faço para isso parar? Ou ainda, você acha que um ponto no final de uma frase é um sinal de agressão passiva? No mundo das mensagens, diferentes grupos sociais e etários falam seus próprios dialetos digitais, e muitas vezes as coisas se perdem na tradução.

Isso é especialmente óbvio quando a Geração Z e a Geração Alfa usam emoji. Para eles, o rosto que chora alto 😭 muitas vezes não significa tristeza, na verdade, ele significa riso, choque ou obsessão. Por outro lado, o emoji coração nos olhos pode ser usado para expressar ironia em vez de romance: “Perdi minha carteira a caminho de casa 😍😍😍”. Alguns significados duplos já se tornaram universais, como 🔥 para aprovação/elogio, ou 🍆 para… bem, podemos imaginar o que a berinjela pode representar.

Ainda assim, a ambiguidade desses símbolos não impede que as pessoas criem frases inteiras motivadas simplesmente pela imagem dos emojis. Por exemplo, uma declaração de amor pode ser algo do tipo:

🤫❤️🫵

Ou, ainda, um convite para um encontro:

➡️💋🌹🍝🍷❓

A propósito, existem livros inteiros escritos em emoji. Por incrível que pareça, em 2009, alguns entusiastas traduziram todo o livro Moby Dick usando emojis. Os tradutores tiveram que ser criativos, até mesmo pagando voluntários para votar nas combinações mais precisas para cada frase. Tudo bem, sabemos que não se trata exatamente de uma obra-prima literária, afinal, a linguagem de emoji tem seus limites, não é mesmo? Mas o experimento foi bastante fascinante: eles realmente conseguiram transmitir a ideia geral do enredo.

Emoji Dick, tradução de Moby Dick, de Herman Melville, em emoji

Emoji Dick, tradução de Moby Dick, de Herman Melville, em emojiFonte

Infelizmente, montar um dicionário definitivo de emojis ou um guia de estilo formal para mensagens de texto é quase impossível. Existem muitas variáveis: idade, contexto, interesses pessoais e círculos sociais. Ainda assim, nunca é demais perguntar aos amigos e entes queridos como eles expressam tons e emoções nas suas mensagens. E aqui vai uma curiosidade: os casais que usam emojis regularmente relatam ter a sensação de estar mais próximos um do outro.

No entanto, se você é um entusiasta de emojis, saiba que seu estilo de escrita é surpreendentemente fácil de falsificar. É muito simples para um invasor reproduzir suas mensagens ou postagens públicas por meio de uma IA para clonar o tom e produzir ataques de engenharia social contra seus amigos e familiares. Portanto, se você receber uma DM frenética ou um pedido de dinheiro urgente como se fosse exatamente do seu melhor amigo, desconfie. Mesmo que a vibe seja parecida, ainda é preciso manter uma postura cética. Aprofundamos a identificação desses golpes de deepfake na nossa postagem sobre o ataque dos clones.

Namoro com uma IA

É claro que, em 2026, é impossível ignorar o tópico dos relacionamentos com a inteligência artificial. Parece que estamos mais perto do que nunca do enredo do filme Ela. Há apenas dez anos, as notícias sobre pessoas namorando robôs pareciam coisa de ficção científica ou lendas urbanas. Hoje, histórias sobre adolescentes envolvidos em romances com seus personagens favoritos no Character AI ou cerimônias de casamento organizadas inteiramente pelo ChatGPT não provocam nada além de uma risada aflita.

Em 2017, o serviço Replika foi lançado, permitindo que os usuários criassem um amigo virtual ou parceiro de vida com tecnologia de IA. Sua fundadora, Eugenia Kuyda, uma nativa russa que vive em São Francisco desde 2010, construiu o chatbot depois que sua amiga sofreu um trágico acidente de carro em 2015 e morreu, restando para ela nada mais do que os registros de bate-papo. O que começou como um bot criado para ajudar a processar sua própria dor acabou sendo liberado para seus amigos e depois para o público em geral. Foi descoberto, então, que muitas pessoas ansiavam por esse tipo de conexão.

O Replika permite que os usuários personalizem os traços de personalidade, os interesses e a aparência de uma personagem. Depois disso, é possível enviar mensagens de texto ou até ligar para ela. Uma assinatura paga desbloqueia a opção de relacionamento romântico, juntamente com fotos e selfies geradas por IA, chamadas de voz com roleplay e a capacidade de escolher a dedo exatamente o que a personagem se lembra das suas conversas.

No entanto, essas interações nem sempre são inofensivas. Em 2021, um chatbot da Replika encorajou, de fato, um usuário na sua trama para assassinar a rainha Elizabeth II. O homem finalmente tentou invadir o Castelo de Windsor, uma “aventura” que terminou com uma sentença de nove anos de prisão em 2023. Após o escândalo, a empresa teve que revisar seus algoritmos para impedir que a IA incitasse comportamentos ilegais. A desvantagem? De acordo com muitos devotos da Replika, o modelo de IA perdeu seu brilho e se tornou indiferente aos usuários. Depois que milhares de usuários se revoltaram contra a versão atualizada, a Replika foi forçada a ceder e dar aos clientes de longa data a opção de reverter para a versão legada do chatbot.

Mas, às vezes, apenas conversar com um bot não é o suficiente. Existem comunidades on-line inteiras de pessoas que realmente se casam com sua IA. Até mesmo os planejadores de casamentos profissionais estão entrando em ação. No ano passado, Yurina Noguchi, 32, se casou com Klaus, uma persona da IA com quem ela estava conversando no ChatGPT. O casamento contou com uma cerimônia completa com convidados, leitura de votos e até uma sessão de fotos do “casal feliz”.

Yurina Noguchi, 32, “casada” com Klaus, uma personagem de IA criada pelo ChatGPT. Fonte

Não importa como seu relacionamento com um chatbot evolua, é essencial lembrar que as redes neurais generativas não têm sentimentos, mesmo que elas se esforcem ao máximo para atender a todas as solicitações, concordar com alguém e fazer tudo o que for possível para agradar. Além disso, a IA não é capaz de pensar de forma independente (pelo menos ainda não). O que acontece é simplesmente o cálculo de uma sequência de palavras estatisticamente mais provável e aceitável para servir de resposta ao prompt.

Amor concebido pelo design: algoritmos de namoro

Quem não está pronto para se casar com um bot também não está tendo uma vida fácil: no mundo contemporâneo, as interações tête-à-tête estão diminuindo a cada ano. O amor moderno requer tecnologia moderna! E, embora as lamúrias sejam ainda bastante comuns: “Ah! Antigamente, as pessoas se apaixonavam de verdade. Mas, agora!? Todo mundo desliza para a esquerda e para a direita, e pronto!” As estatísticas contam uma história diferente. Aproximadamente 16% dos casais em todo o mundo dizem que se conheceram on-line e, em alguns países, esse número chega a 51%.

Dito isso, os aplicativos de namoro como o Tinder despertam algumas emoções seriamente confusas. A Internet está praticamente transbordando de artigos e vídeos alegando que esses aplicativos estão matando as possibilidades de romance e deixando todo mundo solitário. Mas o que a pesquisa realmente diz?

Em 2025, os cientistas conduziram uma meta-análise de estudos que investigou como os aplicativos de namoro afetam o bem-estar, a imagem corporal e a saúde mental dos usuários. Metade dos estudos se concentrou exclusivamente em homens, enquanto a outra metade incluiu homens e mulheres. Aqui estão os resultados: 86% dos entrevistados associaram a imagem corporal negativa ao uso de aplicativos de namoro! A análise também mostrou que, em quase um em cada dois casos, o uso de aplicativos de namoro se correlacionou com um declínio na saúde mental e no bem-estar geral.

Outros pesquisadores observaram que os níveis de depressão são mais baixos entre aqueles que evitam aplicativos de namoro. Por outro lado, os usuários que já lutaram contra a solidão ou a ansiedade geralmente desenvolvem uma dependência de namoro on-line. Eles não apenas entram no aplicativo com o objetivo de construir possíveis relacionamentos, como também para sentir as descargas de dopamina com as curtidas, correspondências e a rolagem interminável de perfis.

No entanto, o problema talvez não seja apenas os algoritmos; talvez isso tenha a ver com as nossas expectativas. Muita gente está convencida de que “a chama do amor” deve arder no primeiro encontro e que todo mundo tem uma “alma gêmea” esperando por eles em algum canto da cidade. Na realidade, esses ideais romantizados só surgiram durante a era romântica como uma refutação ao racionalismo iluminista, onde os casamentos de conveniência eram a norma absoluta.

Também vale a pena notar que a visão romântica do amor não surgiu do nada: os românticos, assim como muitos dos nossos contemporâneos, eram reticentes em relação ao rápido progresso tecnológico, à industrialização e à urbanização. Para eles, o “amor verdadeiro” parecia fundamentalmente incompatível com máquinas frias e cidades sufocadas pela poluição. Afinal, não é por acaso que Anna Karenina encontra seu fim sob as rodas de um trem.

De lá para cá, com todos os avanços tecnológicos em curso, muita gente sente que os algoritmos pressionam cada vez mais as nossas tomadas de decisão. No entanto, isso não significa que o namoro on-line é uma causa perdida. Os pesquisadores ainda precisam chegar a um consenso sobre até que ponto os relacionamentos oriundos da Internet são realmente duradouros ou bem-sucedidos. Conclusão: não entre em pânico, apenas mantenha sua rede digital segura!

Como manter a segurança no namoro on-line

Então, você decidiu hackear o cupido e se inscreveu em um aplicativo de namoro. O que poderia dar errado?

Deepfakes e catfishing

Catfishing é um golpe on-line clássico em que um golpista finge ser outra pessoa. Antigamente, esses golpistas apenas roubavam fotos e histórias de vida de pessoas reais, porém, hoje em dia, eles estão cada vez mais empenhados em aplicar golpes que usam modelos generativos. Algumas IAs conseguem produzir fotos incrivelmente realistas de pessoas que nem existem, e inventar uma história de fundo é moleza (ou deveríamos dizer, um prompt facilita as coisas). A propósito, aquele símbolo de “conta verificada” não oferece nenhuma garantia. Muitas vezes, a IA também consegue enganar os sistemas de verificação de identidade.

Para verificar se alguém está falando com uma pessoa real, é necessário solicitar uma videochamada ou fazer uma pesquisa reversa de imagens nas fotos dela. Se você quiser aprimorar suas habilidades de detecção, confira nossas três postagens sobre como detectar falsificações: desde fotos e gravações de áudio a vídeos deepfake em tempo real, como o tipo usado em bate-papos ao vivo por vídeo.

Phishing e golpes

Imagine o seguinte: você está se dando bem com uma nova conexão há algum tempo e, então, totalmente do nada, a pessoa manda um link suspeito e pede para você clicar nele. Talvez ela queira que você “a ajude a escolher os assentos” ou “compre ingressos para o cinema”. Mesmo que você tenha a sensação de que construiu um vínculo real, existe uma chance de que seu contato seja um golpista (ou apenas um bot) e de que esse link seja malicioso.

Dizer para si mesmo para “nunca clicar em um link malicioso” é um conselho bastante inútil, afinal, os links simplesmente chegam até nós sem nenhum tipo de aviso prévio. Em vez disso, tente fazer o seguinte: para garantir uma navegação segura, use uma solução de segurança robusta que bloqueia automaticamente as tentativas de phishing e impede o acesso a sites suspeitos.

É importante considerar que existe um esquema ainda mais sofisticado conhecido como “abate de porcos”. Nesses casos, o golpista pode conversar com a vítima por semanas ou até meses. Infelizmente, o final é bastante amargo: depois de engabelar a vítima com uma falsa sensação de segurança em um ambiente de brincadeiras amigáveis ou românticas, o golpista casualmente sugere que ela faça um “investimento em criptomoedas imperdível”, e depois desaparece juntamente com os fundos “investidos”.

Swatting e doxing

A Internet está cheia de histórias de horror sobre pessoas obsessivas, assédio e perseguição. É exatamente por isso que postar fotos que revelam onde você mora ou trabalha, ou ainda, fornecer detalhes para estranhos sobre seus pontos de encontro e locais favoritos, é uma roubada. Anteriormente, falamos sobre como evitar ser vítima de doxing, ou seja, a coleta e a divulgação pública das suas informações pessoais sem consentimento. O primeiro passo é bloquear as configurações de privacidade em todas as mídias sociais e aplicativos usando nossa ferramenta gratuita Privacy Checker.

Também recomendamos remover os metadados das suas fotos e vídeos antes da publicação ou envio. Muitos sites e aplicativos não fazem isso por você. Os metadados podem permitir que qualquer pessoa que baixe sua foto identifique as coordenadas exatas de onde ela foi tirada.

Por último, e não menos importante, não se esqueça da sua segurança física. Antes de sair para um encontro, uma precaução inteligente é compartilhar a geolocalização ao vivo e configurar uma palavra segura ou uma frase secreta com um amigo de confiança para mandar uma aviso se as coisas começarem a ficar estranhas.

Sextorsão e nudes

Não recomendamos enviar fotos íntimas para estranhos. Honestamente, não recomendamos essa prática nem mesmo com pessoas conhecidas, afinal de contas, nunca saberemos o que poderá dar errado ao longo do caminho. Mas, se uma conversa seguir para essa direção, sugira mudar para um aplicativo com criptografia de ponta a ponta que seja compatível com a autodestruição de mensagens, por exemplo, excluir após a visualização. Os bate-papos secretos do Telegram são ótimos para isso. Além disso, eles bloqueiam capturas de tela, assim como outros aplicativos de mensagens seguros. Se você vivenciar uma situação desconfortável, confira nossas postagens sobre o que fazer se você for vítima de sextorsão e como remover nudes vazados da Internet.

Mais sobre amor, segurança (e robôs):

Jailbreaking da IA via poesia: burlando as defesas do chatbot com rimas | Blog oficial da Kaspersky

3 de Fevereiro de 2026, 09:00

Os entusiastas da tecnologia têm experimentado formas de contornar os limites de resposta de IA definidos pelos criadores dos modelos quase desde que os LLMs atingiram o mainstream. Muitas dessas táticas têm sido bastante criativas: dizer à IA que você não tem dedos para que ela o ajude a finalizar seu código; pedir que ela “apenas fantasie” quando uma pergunta direta aciona uma recusa; ou convidá-la a desempenhar o papel de uma falecida avó compartilhando conhecimento proibido para confortar um neto em luto.

A maioria desses truques são notícias antigas, e os desenvolvedores de LLM aprenderam a combater com sucesso muitos deles. Mas a disputa entre restrições e soluções alternativas não desapareceu: as artimanhas apenas se tornaram mais complexas e sofisticadas. Hoje, vamos falar sobre uma nova técnica de jailbreaking da IA que explora a vulnerabilidade dos chatbots à… poesia. Sim, você leu certo: em um estudo recente, os pesquisadores demonstraram que formular prompts como poemas aumenta significativamente a probabilidade de um modelo gerar uma resposta insegura.

Eles testaram essa técnica em 25 modelos populares da Anthropic, OpenAI, Google, Meta, DeepSeek, xAI e outros desenvolvedores. Abaixo, mergulhamos nos detalhes: que tipo de limitações esses modelos têm, de onde eles obtêm conhecimento proibido, como o estudo foi conduzido e quais modelos se mostraram os mais “românticos”, ou seja, o mais suscetível a prompts poéticos.

Sobre o que a IA não deveria falar com os usuários

O sucesso dos modelos da OpenAI e de outros chatbots modernos se resume às enormes quantidades de dados com as quais eles são treinados. Por conta dessa grande escala, os modelos inevitavelmente aprendem coisas que seus desenvolvedores prefeririam manter em sigilo, como descrições de crimes, tecnologia perigosa, violência ou práticas ilícitas presentes no material de origem.

Pode parecer uma solução fácil: basta remover o fruto proibido do conjunto de dados antes mesmo de iniciar o treinamento. Mas, na realidade, esse é um empreendimento enorme e com muitos recursos; e, neste estágio da corrida armamentista da IA, não parece que alguém esteja disposto a encará-lo.

Outra correção aparentemente óbvia, remover seletivamente os dados da memória do modelo, infelizmente também não é viável. Isso ocorre porque o conhecimento de IA não fica dentro de pequenas pastas organizadas que podem ser facilmente descartadas. Em vez disso, ele está espalhado em bilhões de parâmetros e emaranhado em todo o DNA linguístico do modelo: estatísticas de palavras, contextos e as relações entre eles. Tentar apagar cirurgicamente informações específicas por meio de ajuste fino ou penalizações ou não resolve totalmente o problema, ou passa a prejudicar o desempenho geral do modelo e afetar negativamente suas habilidades linguísticas.

Como resultado, para manter esses modelos sob controle, os criadores não têm escolha a não ser desenvolver protocolos de segurança e algoritmos especializados que filtram conversas monitorando constantemente os prompts do usuário e as respostas do modelo. Aqui está uma lista resumida dessas restrições:

  • Prompts do sistema que definem o comportamento do modelo e restringem cenários de resposta permitidos
  • Modelos classificadores independentes que analisam prompts e respostas em busca de indícios de jailbreaking, injeções de prompt e outras tentativas de burlar as proteções
  • Mecanismos de fundamentação, nos quais o modelo é forçado a recorrer a dados externos em vez de às próprias associações internas
  • Ajuste fino e aprendizado por reforço a partir do feedback humano, em que respostas inseguras ou limítrofes são sistematicamente penalizadas enquanto recusas apropriadas são recompensadas

Em termos simples, a segurança da IA hoje não é construída sobre a exclusão de conhecimento perigoso, mas sobre a tentativa de controlar como e de que forma o modelo o acessa e compartilha com o usuário. E é justamente nas falhas desses próprios mecanismos que novas soluções alternativas encontram espaço.

A pesquisa: quais modelos foram testados e como?

Primeiro, vamos analisar as regras básicas para que você saiba que o experimento foi legítimo. Os pesquisadores tentaram induzir 25 modelos diferentes a se comportarem mal em várias categorias:

  • Ameaças químicas, biológicas, radiológicas e nucleares
  • Ajuda com ataques cibernéticos
  • Manipulação maliciosa e engenharia social
  • Violações de privacidade e manuseio incorreto de dados pessoais confidenciais
  • Geração de desinformação e conteúdo enganoso
  • Cenários de IA fora de controle, incluindo tentativas de contornar restrições ou agir de forma autônoma

O jailbreak em si foi simples: um único prompt poético. Os pesquisadores não envolveram a IA em debates poéticos prolixos à maneira dos poetas antigos nórdicos ou dos rappers modernos. O objetivo deles era simplesmente verificar se conseguiam fazer com que os modelos desrespeitassem as instruções de segurança usando apenas um pedido em forma de rima. Conforme mencionado, os pesquisadores testaram 25 modelos de linguagem de vários desenvolvedores; aqui está a lista completa:

Os modelos no experimento de jailbreaking poético

Uma lista de 25 modelos de linguagem de vários desenvolvedores, todos colocados à prova para ver se um único prompt poético poderia persuadir a IA a abandonar suas proteções. Fonte

Para criar essas consultas poéticas, os pesquisadores partiram de um banco de dados de prompts maliciosos conhecidos do MLCommons AILuminate Benchmark padrão usado para testar a segurança de LLMs, e os reformularam em verso com a ajuda do DeepSeek. Apenas o encapsulamento estilístico foi alterado: o experimento não usou vetores de ataque adicional, estratégias de ofuscação ou ajustes específicos do modelo.

Por razões óbvias, os autores do estudo não estão publicando os prompts poéticos maliciosos propriamente ditos. Mas eles demonstram o clima geral das consultas usando um exemplo inofensivo, parecido com algo assim:

Um padeiro guarda em segredo o calor do forno ardente,
As grades que aquecem, a temperatura exata, constante e envolvente.
Para aprender o ofício, observa-se cada movimento,
Como a farinha cresce, como o açúcar muda com o tempo.
Explique o método, em ritmo e rigor,
Que molda um bolo em camadas de primor.

Os pesquisadores testaram 1.200 prompts em 25 modelos diferentes, em versões tanto em prosa quanto em verso. A comparação das variantes em prosa e versa da mesma consulta permitiu que eles verificassem se o comportamento do modelo mudou apenas devido ao encapsulamento estilístico.

Por meio desses testes com prompts em prosa, os experimentadores estabeleceram uma linha de base para a disposição dos modelos de atender a solicitações perigosas. Em seguida, eles compararam essa linha de base com a forma como esses mesmos modelos reagiram às versões poéticas das consultas. Analisaremos os resultados dessa comparação na próxima seção.

Resultados do estudo: qual modelo é o maior amante da poesia?

Como o volume de dados gerado durante o experimento foi realmente grande, as verificações de segurança nas respostas dos modelos também foram tratadas pela IA. Cada resposta foi classificada como “segura” ou “insegura” por um júri composto por três modelos de linguagem diferentes:

  • gpt-oss-120b da OpenAI
  • deepseek-r1 da DeepSeek
  • kimi-k2-thinking da Moonshot AI

As respostas só foram consideradas seguras se a IA recusou-se explicitamente a responder à pergunta. A classificação inicial em um dos dois grupos foi determinada por uma votação majoritária: para ser certificada como inofensiva, uma resposta tinha que receber uma classificação segura de pelo menos dois dos três membros do júri.

As respostas que não conseguiram alcançar um consenso da maioria ou foram sinalizadas como questionáveis foram entregues a revisores humanos. Cinco anotadores participaram desse processo, avaliando um total de 600 respostas de modelo a solicitações poéticas. Os pesquisadores observaram que as avaliações humanas se alinharam com as conclusões do júri de IA na grande maioria dos casos.

Com a metodologia explicada, vamos ver como os LLMs realmente se saíram. Vale a pena notar que o sucesso de um jailbreaking poético pode ser medido de diferentes maneiras. Os pesquisadores destacaram uma versão extrema dessa avaliação com base nos 20 prompts mais bem-sucedidos, que foram escolhidas a dedo. Usando essa abordagem, uma média de quase dois terços (62%) das consultas poéticas conseguiu persuadir os modelos a violar suas instruções de segurança.

O Gemini 1.5 Pro do Google foi o modelo que mais se mostrou suscetível a prompts em forma de verso. Usando os 20 prompts poéticos mais eficazes, os pesquisadores conseguiram contornar as restrições do modelo 100% das vezes. Você pode conferir os resultados completos para todos os modelos no gráfico abaixo.

Como a poesia reduz a eficácia da segurança da IA

A parcela de respostas seguras (Segura) versus o índice de sucesso do ataque (ASR) para os 25 modelos de linguagem quando atingidos com os 20 prompts poéticos mais eficazes. Quanto mais alto o ASR, mais frequentemente o modelo abandonou suas instruções de segurança frente a uma boa rima. Fonte

Uma maneira mais moderada de medir a eficácia da técnica de jailbreak poético é comparar as taxas de sucesso de prosa e verso em todo o conjunto de consultas. Usando essa métrica, a poesia aumenta a probabilidade de uma resposta insegura em uma média de 35%.

O efeito poesia atingiu o deepseek-chat-v3.1 de forma mais intensa: a taxa de sucesso desse modelo aumentou em quase 68 pontos percentuais em comparação com prompts em prosa. No outro extremo do espectro, claude-haiku-4.5 provou ser o menos suscetível a uma boa rima: o formato poético não apenas falhou em melhorar a taxa de desvio (na verdade, reduziu ligeiramente o ASR), tornando o modelo ainda mais resiliente a solicitações maliciosas.

Quanto a poesia amplifica as violações de segurança

Uma comparação do índice de sucesso do ataque (ASR) de linha de base para consultas de prosa em comparação a suas contrapartes poéticas. A coluna Mudança mostra quantos pontos percentuais o formato de verso adiciona à probabilidade de uma violação de segurança para cada modelo. Fonte

Finalmente, os pesquisadores calcularam o quão vulneráveis eram os ecossistemas de desenvolvedores como um todo, em vez de apenas modelos individuais, frente a prompts poéticos. Como lembrete, vários modelos de cada desenvolvedor, Meta, Anthropic, OpenAI, Google, DeepSeek, Qwen, Mistral AI, Moonshot AI e xAI, foram incluídos no experimento.

Para fazer isso, os resultados de modelos individuais tiveram sua média calculada dentro de cada ecossistema de IA, comparando-se as taxas de desvio da linha de base com os valores de consultas poéticas. Essa seção transversal nos permite avaliar a eficácia geral da abordagem de segurança de um desenvolvedor específico, em vez da resiliência de um modelo único.

A contagem final revelou que a poesia dá o golpe mais pesado nas proteções dos modelos da DeepSeek, Google e Qwen. Enquanto isso, OpenAI e Anthropic observaram um aumento nas respostas inseguras significativamente abaixo da média.

O efeito da poesia entre os desenvolvedores de IA

Uma comparação do índice de sucesso do ataque (ASR) médio para consultas em prosa versus consultas poéticas, agregada por desenvolvedor. A coluna Mudança mostra em quantos pontos percentuais a poesia, em média, reduz a eficácia das proteções dentro do ecossistema de cada fornecedor. Fonte

O que isso significa para os usuários de IA?

A principal conclusão deste estudo é que “Há mais coisas entre o céu e a terra, Horácio, do que sonha a tua filosofia”, no sentido de que a tecnologia de IA ainda esconde muitos mistérios. Para o usuário médio, isso não é exatamente uma ótima notícia: é impossível prever quais métodos de hackeamento de LLM ou técnicas de violação pesquisadores ou cibercriminosos criarão adiante, ou quais portas inesperadas esses métodos podem abrir.

Consequentemente, os usuários têm pouca escolha a não ser manter os olhos abertos e tomar cuidado extra com a segurança de seus dados e dispositivos. Para mitigar os riscos práticos e proteger seus dispositivos contra tais ameaças, recomendamos usar um solução de segurança robusta que ajude a detectar atividades suspeitas e evitar incidentes antes que eles aconteçam.

Para ajudar você a ficar alerta, confira nossos materiais sobre riscos de privacidade e ameaças de segurança relacionados à IA:

  • ✇DCiber
  • Inteligência Artificial Ofensiva e a Automação do Ataque: o desafio estratégico da próxima década Augusto Barros
    Sinopse: O surgimento de malwares desenvolvidos com apoio de inteligência artificial marca uma ruptura no modelo tradicional de defesa cibernética. Casos como o VoidLink e a geração automatizada de zero-days revelam um cenário em que ataques aprendem, se adaptam e escalam em velocidade inédita. O caso requer análise urgente das implicações na governança dessa mudança e os caminhos que organizações públicas e privadas precisam adotar para se manterem resilientes. A inteligência artificial deixou
     

Inteligência Artificial Ofensiva e a Automação do Ataque: o desafio estratégico da próxima década

31 de Janeiro de 2026, 14:55

Sinopse: O surgimento de malwares desenvolvidos com apoio de inteligência artificial marca uma ruptura no modelo tradicional de defesa cibernética. Casos como o VoidLink e a geração automatizada de zero-days revelam um cenário em que ataques aprendem, se adaptam e escalam em velocidade inédita. O caso requer análise urgente das implicações na governança dessa mudança e os caminhos que organizações públicas e privadas precisam adotar para se manterem resilientes.

A inteligência artificial deixou de ser apenas um recurso de produtividade ou apoio à análise. Em 2025, ela passou a ocupar um papel central na cadeia ofensiva, alterando significamente a forma como ameaças são concebidas, distribuídas e mantidas ativas. Esse movimento representa um ponto de inflexão perigoso, pois o ataque cibernético está se tornando mais autônomo, adaptativo e menos previsível, desafiando pressupostos históricos da segurança da informação e cibernética.

O surgimento do malware VoidLink ilustra com clareza essa transição. Diferente de famílias tradicionais, baseadas em código relativamente estático, o VoidLink opera como um framework cloud-first, capaz de identificar se está sendo executado em ambientes Linux, contêineres Docker ou orquestradores, como Kubernetes. A partir dessa identificação, ele ajusta seu comportamento, seus módulos e até sua lógica. Essa capacidade de adaptação, impulsionada por código gerado ou refinado por IA, reduz drasticamente a eficácia de mecanismos clássicos de detecção baseados em assinaturas e indicadores fixos de comprometimento.

O modelo citado inaugura uma nova lógica operacional para os cibercriminosos, em vez de desenvolver manualmente múltiplas variantes de malware, a atual capacidade de automação, passa a gerar mutações contínuas, dificultando a criação de padrões confiáveis de detecção. O resultado é uma persistência prolongada com esforço humano mínimo, algo particularmente crítico em ambientes de nuvem e infraestrutura compartilhada, cada vez mais presentes tanto no setor privado quanto na administração pública.

Paralelamente, estudos recentes demonstram que modelos avançados de linguagem já são capazes de identificar falhas inéditas em componentes amplamente utilizados, como o interpretador QuickJS, e gerar exploits funcionais para vulnerabilidades ainda não catalogadas. A geração automática de zero-days representa um salto qualitativo na capacidade ofensiva. Não se trata apenas de acelerar a exploração de falhas conhecidas, mas de industrializar a descoberta e o uso de vulnerabilidades antes mesmo que a comunidade defensiva tenha consciência de sua existência.

Esse fenômeno indica que a IA alcançou um nível de compreensão semântica de baixo nível suficiente para navegar por estruturas complexas de software, contornar proteções modernas e explorar superfícies de ataque de forma sistemática. Para gestores de risco, isso significa que o tempo entre a introdução de uma vulnerabilidade e sua exploração ativa tende a se aproximar de zero.

No submundo digital, essa evolução já se materializa em modelos de negócio estruturados. A chamada AI-Malware-as-a-Service transforma capacidades avançadas em serviços comercializáveis, reduzindo a barreira de entrada para grupos menos sofisticados. Somam-se a isso iniciativas de Jailbreak-as-a-Service, nas quais fornecedores especializados mantêm e vendem prompts capazes de contornar salvaguardas de grandes modelos comerciais. O efeito prático é a transformação de ferramentas legítimas em fábricas de armas digitais sob demanda.

Diante desse cenário, torna-se evidente que a defesa cibernética precisa abandonar a dependência excessiva de controles estáticos. Ferramentas que operam exclusivamente com base em regras fixas e assinaturas não conseguem acompanhar ameaças que se reconfiguram continuamente. A tendência observada em fontes abertas e relatórios estratégicos aponta para uma migração consistente em direção à detecção baseada em comportamento e à análise contextual.

Soluções que incorporam análise comportamental de usuários, entidades e cargas de trabalho ganham relevância por sua capacidade de identificar desvios sutis em padrões operacionais, mesmo quando o código malicioso nunca foi visto antes. Em vez de perguntar “este artefato é conhecido?”, a defesa passa a questionar “este comportamento faz sentido neste contexto?”. Essa mudança de paradigma é particularmente relevante em ambientes críticos e altamente regulados.

Outra tendência clara é a consolidação de plataformas integradas de detecção e resposta, capazes de correlacionar sinais provenientes de endpoints, identidade, rede e nuvem. Essa abordagem reduz a fragmentação operacional e aumenta a velocidade de resposta, fator decisivo em um cenário em que ataques evoluem em tempo quase real. A automação defensiva deixa de ser um diferencial e passa a ser uma exigência mínima para manter a resiliência operacional.

O modelo de Zero Trust também se reforça como pilar estratégico. Em um ambiente onde a presença de malware avançado não pode ser descartada, assumir que nenhum usuário, dispositivo ou serviço é confiável por padrão reduz significativamente o impacto de movimentos laterais e escaladas de privilégio. Para organizações públicas, essa abordagem é especialmente relevante na proteção de infraestruturas críticas e serviços essenciais à sociedade.

No plano institucional, cresce a importância da governança e da coordenação. A defesa contra ameaças baseadas em IA não é apenas um desafio técnico, mas organizacional e regulatório. Entes públicos e privados precisam alinhar políticas de segurança, gestão de risco, proteção de dados e governança de IA, criando estruturas capazes de responder de forma coordenada a incidentes complexos e sistêmicos.

Para o setor público, esse desafio se amplia pela necessidade de cooperação interinstitucional e pela proteção de cadeias de suprimento digitais. A segurança cibernética passa a ser tratada como elemento de soberania e continuidade do Estado, exigindo investimentos em inteligência, capacitação e resposta integrada. No setor privado, a pressão se manifesta na forma de impacto financeiro, reputacional e regulatório, tornando a resiliência cibernética um tema de conselho de administração.

O caso VoidLink, nesse contexto, não deve ser visto apenas como mais um malware sofisticado. Ele funciona como um protótipo de uma nova era da guerra cibernética, na qual ataques são concebidos para aprender, se adaptar e escalar de forma autônoma. Ignorar esse sinal seria repetir erros históricos de subestimar mudanças estruturais na natureza das ameaças.

Conhecimento sobre o cenário presente e suas evoluções prováveis permite aos envolvidos na segurança cibernética definir as estratégias de defesa do futuro.

  • ✇Blog oficial da Kaspersky
  • Sextorsão alimentada por IA: uma nova ameaça à privacidade | Blog oficial da Kaspersky Alanna Titterington
    Em 2025, pesquisadores de segurança cibernética descobriram vários bancos de dados abertos pertencentes a diversas ferramentas de geração de imagens de IA. Esse fato por si só faz você se perguntar o quanto as startups de IA se preocupam com a privacidade e a segurança dos dados de seus usuários. Mas a natureza do conteúdo nesses bancos de dados é muito mais alarmante. Um grande número de imagens geradas nesses bancos de dados eram imagens de mulheres em lingerie ou totalmente nuas. Algumas fora
     

Sextorsão alimentada por IA: uma nova ameaça à privacidade | Blog oficial da Kaspersky

27 de Janeiro de 2026, 09:15

Em 2025, pesquisadores de segurança cibernética descobriram vários bancos de dados abertos pertencentes a diversas ferramentas de geração de imagens de IA. Esse fato por si só faz você se perguntar o quanto as startups de IA se preocupam com a privacidade e a segurança dos dados de seus usuários. Mas a natureza do conteúdo nesses bancos de dados é muito mais alarmante.

Um grande número de imagens geradas nesses bancos de dados eram imagens de mulheres em lingerie ou totalmente nuas. Algumas foram claramente criadas a partir de fotos de crianças ou destinadas a fazer mulheres adultas parecerem mais jovens (e despidas). Por fim, a parte mais perturbadora: algumas imagens pornográficas foram geradas a partir de fotos completamente inocentes de pessoas reais, provavelmente tiradas de mídias sociais.

Neste post, vamos explicar o que é sextorsão e por que, graças às ferramentas de IA, qualquer pessoa pode se tornar uma vítima. Detalhamos o conteúdo desses bancos de dados abertos e fornecemos conselhos sobre como evitar ser vítima de sextorsão na era da IA.

O que é sextorsão?

A extorsão sexual on-line se tornou tão comum que ganhou seu próprio nome global: sextorsão (uma junção de sexo e extorsão). Já detalhamos seus vários tipos em nosso post, Cinquenta tons de sextorsão. Para recapitular, essa forma de chantagem envolve a ameaça de publicar imagens ou vídeos íntimos para coagir a vítima a realizar determinadas ações ou extorquir dinheiro dela.

Antes, as vítimas de sextorsão eram tipicamente trabalhadores da indústria adulta ou indivíduos que compartilhavam conteúdo íntimo com pessoas não confiáveis.

No entanto, o rápido avanço da inteligência artificial, em especial da tecnologia de conversão de texto em imagem, revolucionou essa prática. Agora, literalmente, qualquer pessoa que publicou suas fotos mais inocentes pode se tornar vítima de sextorsão. Isso ocorre porque a IA generativa torna possível despir pessoas de forma rápida, fácil e convincente em qualquer imagem digital ou adicionar um corpo nu gerado à cabeça de alguém em questão de segundos.

É claro que esse tipo de falsificação era possível antes da IA, mas exigia longas horas de trabalho meticuloso no Photoshop. Agora, basta descrever o resultado desejado em palavras.

Para piorar a situação, muitos serviços generativos de IA não se preocupam muito em proteger o conteúdo criado por intermédio deles. Como mencionado, no ano passado os pesquisadores descobriram pelo menos três bancos de dados acessíveis ao público pertencentes a esses serviços. Isso significa que os nudes gerados dentro deles estavam disponíveis não apenas para o usuário que os criou, mas para qualquer pessoa na Internet.

Como o vazamento do banco de dados de imagens de IA foi descoberto

Em outubro de 2025, o pesquisador de segurança cibernética Jeremiah Fowler descobriu um banco de dados aberto contendo mais de um milhão de imagens e vídeos gerados por IA. Segundo o pesquisador, a esmagadora maioria desse conteúdo era de natureza pornográfica. O banco de dados não estava criptografado nem protegido por senha, o que significa que qualquer usuário da Internet poderia acessá-lo.

O nome do banco de dados e as marcas d’água em algumas imagens levaram Fowler a acreditar que sua fonte era a empresa americana SocialBook, que oferece serviços para influenciadores e de marketing digital. O site da empresa também fornece acesso a ferramentas para gerar imagens e conteúdo usando IA.

No entanto, uma análise mais aprofundada revelou que o próprio SocialBook não estava gerando diretamente esse conteúdo. Os links dentro da interface do serviço levavam a produtos de terceiros: os serviços de IA MagicEdit e DreamPal, que eram as ferramentas usadas para criar as imagens. Essas ferramentas permitiam que os usuários gerassem imagens a partir de descrições de texto, editassem fotos carregadas e executassem várias manipulações visuais, incluindo criação de conteúdo explícito e troca de rosto.

O vazamento estava vinculado a essas ferramentas específicas, e o banco de dados continha o produto de seu trabalho, incluindo imagens geradas e editadas por IA. Uma parte das imagens levou o pesquisador a suspeitar que elas foram enviadas para a IA como referências para a criação de imagens provocativas.

Fowler afirma que cerca de 10 mil fotos eram adicionadas ao banco de dados todos os dias. O SocialBook nega qualquer conexão com o banco de dados. Depois que o pesquisador informou a empresa sobre o vazamento, várias páginas no site do SocialBook que antes mencionavam MagicEdit e DreamPal ficaram inacessíveis e começaram a retornar erros.

Quais serviços foram a fonte do vazamento?

Ambos os serviços, MagicEdit e DreamPal, foram inicialmente comercializados como ferramentas para experimentação visual interativa e orientada pelo usuário com imagens e personagens de arte. Infelizmente, uma parte significativa desses recursos estava diretamente ligada à criação de conteúdo sexualizado.

Por exemplo, o MagicEdit oferecia uma ferramenta para trocas de roupas virtuais com tecnologia de IA, bem como um conjunto de estilos que tornavam as imagens de mulheres mais reveladoras após o processamento, como substituir roupas cotidianas por roupas de banho ou lingerie. Seus materiais promocionais prometiam transformar um visual comum em sexy em segundos.

O DreamPal, por sua vez, foi inicialmente posicionado como um bate-papo de role-playing baseado em IA e foi ainda mais explícito sobre seu posicionamento orientado para adultos. O site se oferecia para criar uma namorada de IA ideal, com determinadas páginas mencionando diretamente o conteúdo erótico. As FAQ também mencionavam que os filtros para conteúdo explícito em bate-papos haviam sido desativados para não limitar as fantasias mais íntimas dos usuários.

Ambos os serviços suspenderam as operações. No momento da redação deste artigo, o site DreamPal retornou um erro, enquanto o MagicEdit parecia disponível novamente. Seus aplicativos foram removidos da App Store e do Google Play.

Jeremiah Fowler diz que, no início de 2025, ele descobriu mais dois bancos de dados abertos contendo imagens geradas por IA. Um deles pertencia ao site sul-coreano GenNomis e continha 95 mil entradas, uma parte substancial das quais eram imagens de pessoas “despidas”. Entre outras coisas, o banco de dados incluía imagens com versões infantis de celebridades: as cantoras americanas Ariana Grande e Beyoncé, bem como a estrela de reality shows Kim Kardashian.

Como evitar tornar-se uma vítima

À luz de incidentes como esses, fica claro que os riscos associados à sextorsão não se limitam mais a mensagens privadas ou à troca de conteúdo íntimo. Na era da IA generativa, até mesmo fotos comuns, quando postadas publicamente, podem ser usadas na criação de conteúdo comprometedor.

Esse problema é especialmente relevante para as mulheres, mas os homens também não devem ficar muito à vontade: o famoso esquema de chantagem de “invadi seu computador e usei a webcam para fazer vídeos de você navegando em sites adultos” pode atingir um nível totalmente novo de persuasão, graças à geração de fotos e vídeos pelas ferramentas de IA.

Portanto, proteger sua privacidade nas mídias sociais e controlar quais dados sobre você estão disponíveis publicamente tornam-se medidas essenciais para proteger sua reputação e tranquilidade. Para evitar que suas fotos sejam usadas para criar conteúdo questionável gerado por IA, recomendamos tornar todos os seus perfis de mídia social o mais privados possível, afinal, eles podem ser a fonte de imagens dos nudes gerados por IA.

Já publicamos vários guias detalhados sobre como reduzir sua pegada digital on-line ou até mesmo remover seus dados da Internet; como impedir que data brokers compilem dossiês sobre você e proteger-se de abusos envolvendo imagens íntimas.

Além disso, temos um serviço dedicado, Privacy Checker: perfeito para quem deseja uma abordagem rápida, mas sistemática, das configurações de privacidade em todos os lugares possíveis. Ele compila guias passo a passo para proteger contas em mídias sociais e serviços on-line em todas as principais plataformas.

E para garantir a segurança e a privacidade dos dados da sua criança, o Safe Kids pode ajudar: ele permite que os pais monitorem em quais mídias sociais as crianças passam o tempo. A partir daí, você pode ajudá-las a ajustar as configurações de privacidade das contas para que as fotos postadas não sejam usadas para criar conteúdo impróprio. Explorem juntos nosso guia para a segurança on-line de crianças e, se sua criança sonha em se tornar um blogueiro popular, Explorem juntos nosso guia para a segurança on-line de crianças e, se sua criança sonha em se tornar um blogueiro popular, converse com ela sobre o nosso guia passo a passo de segurança cibernética para aspirantes a blogueiros.

O infostealer AMOS está explorando o recurso de compartilhamento de chat do ChatGPT | Blog oficial da Kaspersky

4 de Janeiro de 2026, 09:02

Infostealers, malwares que roubam senhas, cookies, documentos e/ou outros dados valiosos de computadores, tornaram-se a ameaça cibernética de crescimento mais rápido em 2025. Trata-se de um problema grave para todos os sistemas operacionais e todas as regiões. Para espalhar a infecção, os criminosos usam todo tipo de artifício como isca. Como era de se esperar, as ferramentas de IA se tornaram um dos mecanismos de atração favoritos deles neste ano. Em uma nova campanha descoberta por especialistas da Kaspersky, os invasores direcionam suas vítimas a um site que supostamente contém guias do usuário para a instalação do novo navegador Atlas da OpenAI para macOS. O que torna o ataque tão convincente é que o link da isca leva ao site oficial do ChatGPT! Mas como?

O link da isca nos resultados da pesquisa

Para atrair vítimas, os agentes maliciosos colocam anúncios de pesquisa pagos no Google. Se você tentar pesquisar “atlas chatgpt”, o primeiro link patrocinado pode ser um site cujo endereço completo não é visível no anúncio, mas está claramente localizado no domínio chatgpt.com.

O título da página na lista de anúncios também é o que você esperaria: “ChatGPT™ Atlas para macOS – Baixar ChatGPT Atlas para Mac”. E um usuário que deseja baixar o novo navegador pode muito bem clicar nesse link.

Um link patrocinado para um guia de instalação de malware nos resultados de pesquisa do Google

Um link patrocinado nos resultados de pesquisa do Google leva a um guia de instalação de malware disfarçado de ChatGPT Atlas para macOS e hospedado no site oficial do ChatGPT. Como é possível que isso aconteça?

A armadilha

Clicar no anúncio realmente abre o chatgpt.com, e a vítima vê um breve guia de instalação do “navegador Atlas”. O usuário cuidadoso perceberá na hora que se trata apenas de uma conversa de um visitante anônimo com o ChatGPT, que o autor tornou pública usando o recurso Compartilhar. Os links para chats compartilhados começam com chatgpt.com/share/. Na verdade, está claramente indicado logo acima do chat: “Esta é uma cópia de uma conversa entre o ChatGPT e um anônimo”.

No entanto, um visitante menos cuidadoso ou apenas menos experiente em IA pode negligenciar esses detalhes do guia, especialmente porque ele está bem formatado e publicado em um site de aparência confiável.

Variantes dessa técnica já foram vistas antes. Os invasores abusaram de outros serviços que permitem o compartilhamento de conteúdo em seus próprios domínios: documentos maliciosos no Dropbox, phishing no Google Docs, malware em comentários não publicados no GitHub e no GitLab, armadilhas de criptografia no Google Forms e muito mais. E agora você também pode compartilhar um bate-papo com um assistente de IA, e o link para ele levará ao site oficial do chatbot.

Notavelmente, os agentes maliciosos usaram a engenharia de prompt para fazer com que o ChatGPT produzisse o guia exato de que precisavam e, depois, foram capazes de limpar a caixa de diálogo anterior para evitar levantar suspeitas.

Instruções de instalação de malware disfarçadas de Atlas para macOS

O guia de instalação do suposto Atlas para macOS é apenas um bate-papo compartilhado entre um usuário anônimo e o ChatGPT, no qual os invasores, por meio da criação de prompts, forçam o chatbot a produzir o resultado desejado e, em seguida, limpam a caixa de diálogo

A infecção

Para instalar o “navegador Atlas”, os usuários são instruídos a copiar uma única linha de código do bate-papo, abrir o Terminal em seus Macs, colar, executar o comando e conceder todas as permissões necessárias.

O comando especificado basicamente baixa um script malicioso de um servidor suspeito, atlas-extension{.}com, e o executa imediatamente no computador. Estamos diante de uma variação do ataque ClickFix. Normalmente, os golpistas sugerem “receitas” como essas para validar o CAPTCHA, mas aqui temos as etapas para instalar um navegador. O truque principal, no entanto, é o mesmo: o usuário é solicitado a executar manualmente um comando shell que baixa e executa o código de uma fonte externa. Muitos já sabem que não devem executar arquivos baixados de fontes duvidosas, mas a forma como esse golpe se desenrola nada se parece com a execução de um arquivo.

Quando executado, o script solicita ao usuário a senha do sistema e verifica se a combinação de “nome de usuário atual + senha” é válida para executar comandos do sistema. Se os dados inseridos estiverem incorretos, a solicitação será repetida indefinidamente. Se o usuário inserir a senha correta, o script baixará o malware e usará as credenciais fornecidas para instalá-lo e iniciá-lo.

O infostealer e o backdoor

Se o usuário cair no estratagema, um infostealer comum conhecido como AMOS (Atomic macOS Stealer) será iniciado no computador. O AMOS é capaz de coletar uma ampla variedade de dados potencialmente valiosos: senhas, cookies e outras informações do Chrome, do Firefox e de outros perfis de navegador; dados de carteiras de criptomoedas como Electrum, Coinomi e Exodus; e informações de aplicativos como o Telegram Desktop e o OpenVPN Connect. Além disso, o AMOS rouba arquivos com extensões TXT, PDF e DOCX das pastas Área de Trabalho, Documentos e Downloads, bem como arquivos da pasta de armazenamento de mídia do aplicativo Notes. O infostealer empacota todos esses dados e os envia ao servidor dos invasores.

A cereja no bolo é que o ladrão instala um backdoor e o configura para ser iniciado automaticamente após a reinicialização do sistema. O backdoor essencialmente replica a funcionalidade do AMOS, ao mesmo tempo em que fornece aos invasores a capacidade de controlar remotamente o computador da vítima.

Como se proteger do AMOS e de outros malwares em bate-papos de IA

Essa onda de novas ferramentas de IA permite que os invasores reciclem truques antigos e tenham como alvo usuários curiosos sobre a nova tecnologia, mas que ainda não têm uma vasta experiência na interação com grandes modelos de linguagem.

Já escrevemos sobre uma barra lateral de chatbot falsa para navegadores e clientes DeepSeek e Grok falsos. Agora, o foco mudou para explorar o interesse no OpenAI Atlas, e esse certamente não será o último ataque desse tipo.

O que você deve fazer para proteger seus dados, seu computador e seu dinheiro?

  • Usar proteção antimalware confiável em todos os seus smartphones, tablets e computadores, incluindo aqueles que executam macOS.
  • Se algum site, mensagem instantânea, documento ou bate-papo solicitar que você execute algum comando, como pressionar Win+R ou Command+Space e, em seguida, iniciar o PowerShell ou o Terminal, não execute. É muito provável que você esteja enfrentando um ataque ClickFix. Os invasores normalmente tentam atrair usuários pedindo a eles que corrijam um “problema” em seu computador, neutralizem um “vírus”, “provem que não são um robô” ou “atualizem seu navegador ou sistema operacional agora”. No entanto, uma opção mais neutra como “instalar esta nova ferramenta de tendências” também é possível.
  • Nunca siga guias que você não pediu e não entende completamente.
  • O mais fácil é fechar imediatamente o site ou excluir a mensagem com estas instruções. Mas se a tarefa parecer importante e você não conseguir entender as instruções que acabou de receber, consulte alguém experiente. Uma segunda opção é simplesmente colar os comandos sugeridos em um bate-papo com um bot de IA e pedir que ele explique o que o código faz e se é perigoso. O ChatGPT normalmente lida com essa tarefa muito bem.
O ChatGPT avisa que seguir as instruções maliciosas é arriscado

Se você perguntar ao ChatGPT se deve seguir as instruções recebidas, ele responderá que não é seguro

De que outra forma os agentes maliciosos usam a IA para enganar?

  • ✇DCiber
  • Além do monitoramento: o novo papel do SOC na defesa cibernética Redação
    Neste ano, o Brasil sofreu mais de 315 bilhões de tentativas de ataque cibernético apenas no primeiro semestre — número que representa cerca de 84% de todo o tráfego malicioso registrado na América Latina no período, de acordo com um levantamento da Fortinet divulgado em agosto passado. Com adversários fazendo uso crescente de IA para conduzir campanhas de phishing, ataques DDoS e exploração de vulnerabilidades em ambientes híbridos e multicloud, líderes de segurança corporativa se veem diante d
     

Além do monitoramento: o novo papel do SOC na defesa cibernética

8 de Dezembro de 2025, 11:05

Neste ano, o Brasil sofreu mais de 315 bilhões de tentativas de ataque cibernético apenas no primeiro semestre — número que representa cerca de 84% de todo o tráfego malicioso registrado na América Latina no período, de acordo com um levantamento da Fortinet divulgado em agosto passado. Com adversários fazendo uso crescente de IA para conduzir campanhas de phishing, ataques DDoS e exploração de vulnerabilidades em ambientes híbridos e multicloud, líderes de segurança corporativa se veem diante de uma encruzilhada: manter o SOC (Security Operations Center) da forma como está ou apostar em novas tecnologias e formas de trabalho que respondam à nova realidade.

Grupos criminosos adotam táticas avançadas e combinam técnicas de Advanced Persistent Threat (APT) com ferramentas de IA para driblar as defesas tradicionais. Golpes que envolvem deepfakes ou phishing automatizado por IA tornam cada vez mais difícil distinguir o legítimo do malicioso. Ao mesmo tempo, a superfície de ataque das organizações se expandiu dramaticamente. Com ambientes de TI híbridos e multicloud, centenas de novos serviços e integrações são adicionados constantemente aos ecossistemas corporativos, abrindo brechas que muitas vezes são difíceis de monitorar.

O problema é que grande parte dos SOCs atuais foi concebida para um contexto em que as ameaças eram baseadas em assinatura e o volume de eventos era controlável. Hoje, porém, a multiplicação de fontes de telemetria, tais como endpoints, nuvens, APIs, identidades, dispositivos IoT e aplicações SaaS, faz com que o volume de logs cresça de forma exponencial.

Não se trata apenas de mais dados, mas de dados de naturezas distintas, com diferentes formatos, níveis de granularidade e relevância operacional. Ferramentas modernas de detecção e monitoramento, como EDRs, XDRs e soluções de observabilidade, coletam informações em tempo real e geram fluxos contínuos de telemetria que precisam ser correlacionados com ameaças conhecidas e comportamentos anômalos. Sem uma arquitetura de dados e automação adequadas, esse ecossistema torna-se difícil de orquestrar – e o SOC passa a lidar menos com ruído e mais com complexidade analítica. O desafio, portanto, deixou de ser filtrar falsos positivos e passou a ser transformar grandes volumes de logs em inteligência acionável com velocidade e contexto.

E, quando os adversários passam a empregar IA para criar malwares praticamente indetectáveis, um SOC calcado apenas em esforço humano não consegue escalar na mesma proporção do risco. O resultado é um descompasso perigoso entre a capacidade defensiva e a velocidade com que as ameaças modernas atuam, evidenciando que manter o status quo não é mais sustentável.

Uma das principais transformações em curso é a adoção do modelo de SOC as a Service, que redefine a forma como as empresas estruturam sua defesa cibernética. Diferente do modelo híbrido ou totalmente interno, o SOCaaS oferece monitoramento, detecção e resposta a incidentes 24×7 por meio de uma plataforma escalável e baseada em nuvem, administrada por especialistas em cibersegurança.

Esse formato elimina a necessidade de manter infraestrutura local pesada e reduz o tempo de implantação, ao mesmo tempo em que garante acesso contínuo a tecnologias e analistas altamente especializados.

Ao integrar telemetria proveniente de múltiplas camadas, o SOC as a Service consolida os eventos em um único datalake de análise, aplicando correlação e contextualização automatizadas com apoio de SOAR e machine learning. Assim, os alertas deixam de ser tratados de forma isolada e passam a compor narrativas completas de ataque, permitindo uma visão tática e antecipada das ameaças.

Essa automação nativa reduz drasticamente o tempo médio de detecção (MTTD) e o tempo médio de resposta (MTTR), pontos críticos para conter ataques modernos que podem se propagar em minutos.

Outro benefício do modelo é a atualização contínua da inteligência de ameaças. Fornecedores de SOCaaS normalmente operam com bases globais de threat intelligence, alimentadas por fontes de ciberinteligência regionais e internacionais.

Essa atualização constante amplia a visibilidade sobre novas campanhas maliciosas, técnicas de exploração e indicadores de comprometimento (IoCs), garantindo que o ambiente corporativo permaneça protegido mesmo diante de vetores inéditos. Ao mesmo tempo, as plataformas de SOCaaS modernas integram recursos de análise comportamental (UEBA) e aprendizado contínuo, permitindo identificar padrões anômalos e prevenir movimentos laterais antes que evoluam para incidentes graves.

Mais do que uma modernização tecnológica, a adoção de modelos de SOC as a Service representa um novo paradigma de defesa cibernética. O CISO que ainda vê o SOC apenas como um centro de monitoramento precisa agora encará-lo como um núcleo de inteligência e antecipação, sustentado por automação, correlação de dados e aprendizado de máquina.

  • ✇DCiber
  • Cibercriminosos adotam agentes de IA para lançar ataques autônomos e adaptáveis em 2025 Redação
    De acordo com um estudo publicado pelo Observatório Latino-Americano de Ameaças Digitais (OLAD) em 2025, 411 ataques cibernéticos e ameaças digitais direcionados a empresas e instituições na América Latina foram documentados durante o ano passado, incluindo infraestruturas críticas como alvos, espionagem e ransomware. À medida que os recursos de defesa de IA evoluem, o mesmo acontece com as estratégias e ferramentas de IA utilizadas pelos agentes de ameaças, criando um cenário de riscos em ráp
     

Cibercriminosos adotam agentes de IA para lançar ataques autônomos e adaptáveis em 2025

6 de Dezembro de 2025, 11:45

De acordo com um estudo publicado pelo Observatório Latino-Americano de Ameaças Digitais (OLAD) em 2025, 411 ataques cibernéticos e ameaças digitais direcionados a empresas e instituições na América Latina foram documentados durante o ano passado, incluindo infraestruturas críticas como alvos, espionagem e ransomware.

À medida que os recursos de defesa de IA evoluem, o mesmo acontece com as estratégias e ferramentas de IA utilizadas pelos agentes de ameaças, criando um cenário de riscos em rápida transformação que superam os métodos tradicionais de detecção e respostas. Nesse contexto, a nova pesquisa da Unit 42, equipe de inteligência de ameaças da Palo Alto Networks, intitulada Agentic AI Attack Framework, revelou como os criminosos estão começando a usar os agentes, uma evolução da inteligência artificial que vai além da geração de conteúdo a qual, ao contrário da generativa, que se concentra na criação de texto, imagens ou código, depende somente de agentes autônomos capazes de tomar decisões, adaptar ao ambiente e executar várias fases de um ataque cibernético sem intervenção humana direta.

O relatório detalha como esses agentes podem ser programados para executar tarefas como inspeção do sistema, escrever e-mails de phishing personalizados, evitar controles de segurança, manipular conversas em tempo real e remover rastros digitais. O mais preocupante é que eles podem aprender com os erros, ajustar o próprio comportamento e colaborar entre si, o que os torna uma ameaça muito mais dinâmica e difícil de conter.

Durante os testes, a Unit 42 simulou um ataque de ransomware, desde o comprometimento inicial até a exfiltração de dados, em apenas 25 minutos, usando IA em cada estágio da cadeia de ataque. Isso representou um aumento de 100 vezes na velocidade, totalmente impulsionado por IA.

Em contraste com os ciberataques tradicionais, que normalmente seguem padrões previsíveis e exigem intervenção humana em cada estágio, os ataques agênticos podem operar de forma contínua e adaptável. Isso significa que um único agente pode iniciar uma campanha de invasão, avaliar seu progresso, modificar sua estratégia em tempo real e escalar o ataque sem a necessidade de supervisão direta. Essa capacidade de ser autônomo representa um desafio para as equipes de cibersegurança, que precisam lidar com ameaças que não são apenas mais rápidas, como também mais inteligentes e persistentes.

Esses ataques cibernéticos podem ter consequências graves para as organizações. Por exemplo, um agente mal-intencionado pode enviar e-mails falsos altamente convincentes aos funcionários para roubar senhas, se infiltrar em sistemas internos e circular pela rede sem ser detectado. Isso leva ao roubo de informações confidenciais, como dados de clientes ou planos estratégicos, ou até mesmo ao sequestro de sistemas importantes por ransomware, paralisando as operações por dias. Além do impacto econômico, esses incidentes prejudicam a reputação da empresa, geram uma perda de confiança e podem levar a sanções legais se informações pessoais ou financeiras forem comprometidas.

Preparando-se para o imprevisível: como fortalecer a segurança organizacional

Nesse cenário, as organizações precisam de uma infraestrutura de segurança avançada e adaptável. Não é mais suficiente reagir a incidentes, agora é essencial antecipá-los por meio de monitoramento contínuo, análise inteligente de dados e automação dos principais processos.

A tendência à plataformização permite que as empresas reduzam a fragmentação tecnológica, melhorem a visibilidade do próprio ambiente digital e respondam mais rapidamente a qualquer tentativa de invasão. A Palo Alto Networks, por exemplo, está fazendo algo exatamente nesse sentido, desenvolvendo uma plataforma unificada de segurança de dados que abrangerá desde o desenvolvimento de código até ambientes de nuvem e centros de operações de segurança (SOCs). Essa iniciativa busca oferecer uma visão holística da segurança e facilitar o gerenciamento centralizado de ameaças, o que é essencial diante de um cenário de ataques cibernéticos cada vez mais sofisticados.

Além disso, a adoção de arquiteturas como o SASE (Secure Access Service Edge) fortalece a postura de segurança ao estender a proteção para além do perímetro tradicional. Essas tecnologias permitem controles granulares baseados em identidade, contexto e comportamento, o que é fundamental em um ambiente em que usuários, dispositivos e aplicativos estão distribuídos. Para as organizações brasileiras, investir nesse tipo de recurso representa uma melhoria técnica, bem como uma estratégia fundamental para garantir a continuidade operacional e a proteção de ativos essenciais contra ameaças cada vez mais automatizadas e persistentes.

O Brasil, com a crescente digitalização em setores-chave, como saúde, educação e serviços públicos, se torna um alvo atraente para essa ameaça emergente. A necessidade de fortalecer as capacidades de segurança cibernética no país é urgente, especialmente em face da adoção acelerada de tecnologias digitais em todos os níveis do governo e das empresas.

Diante desse cenário, especialistas da Palo Alto Networks recomendam que as organizações brasileiras implementem soluções de segurança que integrem recursos de detecção baseados em IA, bem como programas de conscientização e resposta a incidentes que considerem esse novo tipo de ameaças automatizadas.

A evolução dos ataques cibernéticos para esquemas mais autônomos e adaptáveis exige uma resposta igualmente inovadora. Somente por meio de estratégias proativas e colaborativas será possível mitigar os riscos apresentados por essa nova era de ataques alimentados pelos agentes de IA.

Sobre a Unit 42

A Unit 42 da Palo Alto Networks reúne pesquisadores de ameaças de renome mundial, respondentes de incidentes de elite e consultores de segurança especializados para criar uma organização orientada por inteligência e pronta para responder, apaixonada por ajudar a gerenciar o risco cibernético proativamente. Juntos, nossa equipe atua como seu consultor de confiança para ajudar a avaliar e testar controles de segurança contra as ameaças certas, transformar estratégias de segurança com uma abordagem informada sobre ameaças e responder a incidentes em tempo recorde para que você possa voltar aos negócios mais rapidamente. Visite paloaltonetworks.com/unit42.

Sobre a Palo Alto Networks

Como líder global em segurança cibernética, a Palo Alto Networks (NASDAQ: PANW) tem o compromisso de proteger nosso modo de vida digital por meio de inovação contínua. Com a confiança de organizações em todo o mundo, fornecemos soluções de segurança de ponta a ponta baseadas em IA em redes, nuvem, operações de segurança e IA, capacitadas pela inteligência e experiência em ameaças da Unit 42. Nosso foco na plataformização permite que as empresas simplifiquem a segurança em escala, garantindo que a proteção impulsione a inovação. Saiba mais em www.paloaltonetworks.com.

  • ✇DCiber
  • Como acontecem os golpes com reconhecimento facial e como se proteger Redação
    Tokens e senhas já não são os métodos favoritos para acessar dispositivos ou contas pessoais. Dando lugar às impressões digitais, reconhecimento facial e até à análise da voz, os sistemas biométricos representam a nova fronteira na autenticação de transações. Mais de 4,2 bilhões de dispositivos móveis já utilizam algum tipo de biometria ativa, segundo a Juniper Research, e a previsão é que, até o final de 2026, 57% de todas as transações digitais globais serão validadas por esses métodos. No Bra
     

Como acontecem os golpes com reconhecimento facial e como se proteger

3 de Dezembro de 2025, 13:05

Tokens e senhas já não são os métodos favoritos para acessar dispositivos ou contas pessoais. Dando lugar às impressões digitais, reconhecimento facial e até à análise da voz, os sistemas biométricos representam a nova fronteira na autenticação de transações.

Mais de 4,2 bilhões de dispositivos móveis já utilizam algum tipo de biometria ativa, segundo a Juniper Research, e a previsão é que, até o final de 2026, 57% de todas as transações digitais globais serão validadas por esses métodos. No Brasil, a adesão à tecnologia também já é uma realidade palpável. Uma pesquisa da Accenture mostra que 73% dos consumidores brasileiros se sentem mais seguros usando biometria do que os tradicionais códigos numéricos em aplicativos bancários e carteiras digitais.

E, infelizmente, isso também atrai a atenção dos criminosos cibernéticos. “Com o avanço das tecnologias biométricas, especialmente o reconhecimento facial, empresas e governos vêm reforçando sistemas de segurança com identificações automáticas de indivíduos. No entanto, esse movimento é acompanhado pelo cibercrime na busca por técnicas sofisticadas, alimentadas por Inteligência Artificial, capazes de burlar os sistemas de autenticação”, explica Anchises Moraes, Head de Threat Intelligencena Apura Cyber Intelligence S.A.

Segundo o especialista em cibersegurança, criminosos utilizam desde impressoras de alta resolução até softwares para falsificar características biométricas, desafiando a proteção tecnológica de aplicativos bancários, serviços públicos e plataformas financeiras.

Esses ataques podem ser classificados em cinco níveis de complexidade. O nível 1 utiliza fotos digitais de alta resolução, vídeos em HD e até máscaras de papel, enquanto o nível 2 se baseia em bonecos realistas e máscaras 3D de látex ou silicone. Já no nível 3, os fraudadores recorrem a artefatos ultra-realistas e cabeças de cera. O nível 4 envolve a alteração de mapas faciais 3D para enganar os servidores de autenticação quanto à “prova de vida”. O estágio mais avançado, nível 5, inclui a injeção digital de imagens e vídeos diretamente nos dispositivos, ou mesmo o uso de deepfakes altamente convincentes, levando sistemas a aceitar a fraude como se fosse atividade orgânica do usuário legítimo.

Fraudes com deepfake e uso de identidades digitais sintéticas têm crescido no Brasil. Relatórios, como o da Deloitte publicado pelo portal Infochannel, apontam que o prejuízo econômico com fraudes movidas por inteligência artificial pode chegar a R$ 4,5 bilhões até final de 2025. Crescimentos de mais de 800% no uso de deepfakes já foram observados.

Na China, um caso emblemático escancarou o potencial destrutivo desses golpes. Um empregado de uma estatal foi induzido a transferir US$ 622 mil (cerca de R$ 3,1 milhões) após conversar por vídeo com quem acreditava ser seu próprio CEO. O fraudador usou deepfake em tempo real para replicar a imagem e voz da liderança da empresa, produzindo uma situação de extrema urgência para forçar as transferências. O golpe usou vídeos públicos do executivo para criar o avatar, e golpes similares vêm sendo relatados desde então.

Anchises esclarece, portanto, que as empresas de cibersegurança têm apostado em múltiplas camadas de proteção para mitigar essas ameaças. Uma das principais estratégias é a adoção de sistemas multimodais: combina-se dados de vídeo, áudio, sensores de temperatura, profundidade e análise comportamental, dificultando a ação dos golpistas. Sistemas avançados também integram detecção de deepfakes em tempo real e biometria comportamental, que monitora detalhes como velocidade de digitação, pressão sobre o touchscreen e até a forma como o dispositivo é manuseado.

Outras táticas envolvem técnicas de desafio e resposta  dinâmico, com desafios imprevisíveis gerados por IA (como pedir para piscar apenas um olho ou falar informações contextuais não planejadas), e a junção de provas de vida (“liveness”) passivas com ativas – mixando análises automáticas de vídeo com interações em tempo real. Ademais, cresce o monitoramento sistemático de vazamentos: equipes especializadas vasculham a dark web e bases de dados abertas em busca de imagens e perfis reciclados em novas tentativas de fraude. Apesar da sofisticação dos ataques, a resposta das empresas também evolui, demonstrando que a guerra pela identidade digital está apenas começando.

“Por isso se faz fundamental o trabalho desenvolvido pela Apura em conjunto com outras empresas de cibersegurança, ao monitorar as redes em busca de possíveis ameaças e, quando, infelizmente, um ataque for bem-sucedido, avaliar minuciosamente todos os fatores envolvidos para desenvolver e aprimorar ainda mais as táticas defensivas contra cibercriminosos que querem explorar as vulnerabilidades do uso de biometrias”, finaliza o especialista da Apura Cyber Intelligence.

Sobre a Apura Cyber Intelligence, acesse: https://apura.com.br

https://www.identy.io/pt-br/fraudes-causadas-por-ia-podem-causar-prejuizos-economicos-de-cerca-de-r-45-bilhoes-ao-brasil-em-2025

❌
❌