Breno Rodrigo de Oliveira Alencar, Coordenador do NUPEC
A difusão recente da inteligência artificial generativa inaugurou um novo ciclo de crimes digitais, em que golpes tradicionalmente baseados em persuasão e mentira passam a operar com imagens, áudios e vídeos sinteticamente produzidos. No Brasil, esse cenário ficou particularmente evidente na Black Friday de 2025, quando veículos especializados em consumo alertaram para a explosão de golpes que utilizam IA para criar sites, anúncios e atendimentos falsos de grandes varejistas, tornando a fraude quase indistinguível das ofertas legítimas. Pesquisas associadas ao site Reclame AQUI indicam que 63% dos consumidores brasileiros não conseguem identificar quando uma oferta é fruto de um golpe com IA, enquanto 76% chegam à data inseguros diante das chamadas “fraudes 3.0”, que combinam engenharia social e conteúdos sintéticos.
No noticiário internacional, casos envolvendo celebridades ajudam a dimensionar a sofisticação desse fenômeno. Em 2025, o tenista Rafael Nadal precisou divulgar comunicados oficiais em diferentes mídias denunciando vídeos deepfake que imitavam sua imagem e voz para promover supostos investimentos financeiros, classificados por ele como publicidade enganosa e totalmente desvinculada de sua atuação profissional. A imprensa europeia e espanhola destacou que situações semelhantes vêm atingindo outras figuras públicas e marcas, consolidando um repertório de golpes em que o capital simbólico da fama é apropriado por terceiros e reempacotado em conteúdos falsos que circulam com rapidez em plataformas digitais.
Paralelamente, órgãos de segurança e instituições multilaterais alertam para a escala global do problema. O Parlamento Europeu registra que ataques com deepfakes – incluindo fraudes financeiras e de identidade – se tornaram rotineiros, com estimativas de um ataque a cada cinco minutos em 2024, afetando empresas e indivíduos em diferentes países. No contexto norte-americano, comunicados recentes do FBI apontam o uso de IA para criar vídeos, fotos e vozes falsas em esquemas de sequestro virtual e de impostores que se passam por autoridades públicas, explorando vínculos familiares e de confiança para exigir transferências urgentes de dinheiro. Ao mesmo tempo, relatórios de cibersegurança descrevem um ambiente em que quase todo crime organizado relevante passa a ter pegada digital e incorporação de ferramentas de IA generativa.
Nesse panorama mais amplo, o chamado “golpe da ligação muda” emerge, na imprensa brasileira, como uma modalidade emblemática de fraude mediada por IA. Reportagens e alertas de entidades de defesa do consumidor e órgãos públicos descrevem ligações silenciosas ou breves, realizadas por discadores automáticos, cujo objetivo é registrar alguns segundos da voz da vítima para posterior clonagem com IA e uso em extorsões, pedidos falsos de socorro ou simulações de contato bancário. A combinação entre infraestrutura de chamadas em massa, vazamento de dados pessoais e capacidade de replicar vozes de forma convincente torna esse golpe um ponto de observação privilegiado para compreender como tecnologias emergentes reconfiguram velhos esquemas de engano, aumentando sua escala, verossimilhança e potencial de dano social.
IA e golpes cibernéticos
A literatura sobre golpes mediados por inteligência artificial parte, em grande medida, da noção de deepfake, entendida como conteúdo sintético produzido por técnicas de IA com a intenção de ser percebido como autêntico. No campo do áudio, isso inclui tanto síntese de voz a partir de texto quanto conversão de voz entre locutores, permitindo imitar timbre, ritmo e entonação de indivíduos específicos. A revisão de Khanjani et al. (2023) mostra que, desde 2016, houve uma explosão de métodos de geração de áudio sintético, enquanto as técnicas de detecção avançam de forma mais lenta, produzindo um cenário assimétrico em que capacidades ofensivas superam, em escala e qualidade, as capacidades defensivas.
Nesse contexto, golpes com IA são compreendidos como formas de engenharia social potencializadas por mídias sintéticas. Em vez de depender apenas de argumentos persuasivos, os criminosos passam a explorar a “prova sensível” fornecida por vozes e imagens forjadas, o que reforça a credibilidade da narrativa fraudulenta. Estudos recentes sobre golpes de voz destacam que a combinação entre voice cloning e canais de comunicação síncrona – telefone tradicional, chamadas VoIP e aplicativos de mensagem – torna possível simular, em tempo real, a presença de familiares, gestores ou funcionários de instituições financeiras (Blancaflor, 2024).
Um eixo central da literatura é a categoria de vishing (voice phishing), isto é, o phishing realizado por meio de chamadas de voz. Toapanta et al. (2024) definem o vishing como ataque em que o agressor, apoiado em técnicas de engenharia social, se passa por pessoa ou instituição confiável para obter dados sensíveis ou transferências financeiras. Tradicionalmente, esse tipo de golpe dependia da habilidade do golpista em imitar sotaques, vocabulário e situações cotidianas; com a IA, a etapa de imitação é parcialmente automatizada, permitindo que o atacante se concentre no roteiro persuasivo.
O trabalho de Toapanta et al. (op. cit) descreve o ritual do ataque em etapas relativamente constantes: coleta prévia de informações sobre a vítima; obtenção de amostras de voz; geração ou adaptação da voz sintética; construção de um enredo crível (problema bancário, emergência familiar, benefício financeiro); e, por fim, a etapa de monetização, geralmente via transferências instantâneas. Do ponto de vista sociológico, esse encadeamento pode ser lido como um ritual comunicativo que combina preparação técnica e exploração de vínculos afetivos, em que cada passo reforça o anterior e reduz o espaço de dúvida da vítima.
Além da clonagem integral de voz, a literatura recente destaca o surgimento dos ataques de partial fake speech, nos quais apenas segmentos da fala são sintetizados, enquanto o restante permanece genuíno. Essa estratégia aumenta a verossimilhança, pois preserva ruídos de fundo, hesitações e trechos espontâneos, tornando o áudio mais plausível para ouvidos humanos e sistemas automáticos. Os experimentos de Alali e Theodorakopoulos (2025) demonstram que tanto pessoas quanto mecanismos de reconhecimento de locutor são facilmente enganados por esses áudios híbridos, o que amplia significativamente o potencial de uso fraudulento em contextos de autenticação por voz.
Do ponto de vista das características técnicas, os estudos convergem em três elementos: a possibilidade de clonar vozes com poucos segundos de amostra; a capacidade de gerar fala em tempo quase real; e a facilidade de integração dessas vozes a roteiros dinâmicos de atendimento, por meio de sistemas conversacionais e discadores automáticos (Khanjani et al., 2023; Toapanta et al., op. cit). Relatos experimentais e de campo sugerem que 10 a 30 segundos de fala podem ser suficientes para produzir uma réplica de voz com alta similaridade perceptiva, o que torna práticas aparentemente banais – atender uma ligação desconhecida e dizer “alô” – material valioso para ataques subsequentes.
Outra característica recorrente nos resultados alcançados por estes estudos é a centralidade da confiança auditiva. A voz, enquanto marcador identitário, carrega uma longa história de uso como índice de autenticidade nas relações cotidianas e institucionais, seja no reconhecimento familiar, seja em sistemas de biometria vocal. Alali e Theodorakopoulos (op.cit.) mostram que os indivíduos tendem a confiar mais em áudios que contenham elementos paralinguísticos familiares, como risos, suspiros e pequenas pausas, o que é facilmente replicável por modelos generativos treinados com amostras de contexto suficiente.
Relatórios de caráter acadêmico e técnico produzidos na Europa indicam que a dificuldade em distinguir vozes sintéticas de vozes reais é um fenômeno de larga escala. Documento do Parlamento Europeu sintetiza pesquisas em que uma parcela significativa de adultos relata não se sentir capaz de identificar vozes clonadas, ao mesmo tempo em que aumentam os relatos de exposição a golpes de vishing com IA (European Parliament, 2025). Esse descompasso entre sofisticação tecnológica e literacia digital cria terreno fértil para a consolidação de um “regime de dúvida”, em que a própria experiência auditiva passa a ser questionada.
De modo geral, a literatura recente sugere que golpes com IA devem ser compreendidos como evolução de práticas clássicas de fraude, e não como ruptura absoluta. Revisões sobre tendências de phishing destacam que a IA adiciona camadas de automação e personalização – como geração de roteiros adaptativos, segmentação de vítimas e uso de vozes sintéticas – a técnicas já conhecidas de abuso de confiança e exploração de vulnerabilidades emocionais (Kymatio, 2025; Blancaflor, 2024). O “ritual” do golpe permanece estruturado em torno da construção de urgência e credibilidade; o que muda é o repertório técnico mobilizado para tornar esse ritual mais convincente, escalável e difícil de detectar, especialmente quando analisado apenas pelo ouvido humano.
Ligação muda e captura da voz com IA
O chamado golpe da ligação muda é descrito como uma modalidade específica de fraude com IA em que o objetivo inicial da chamada não é conversar, mas capturar biometria vocal, o chamado “roubo da voz”, em que discadores automáticos são utilizados para realização de ligações breves, muitas vezes silenciosas, para gravar alguns segundos de fala da vítima e, em seguida, usar IA para cloná-la em outros golpes. Empresas de cibersegurança e portais brasileiros de tecnologia reforçam que a mesma lógica se repete em diferentes contextos: ligações “erradas”, chamadas que caem em poucos segundos e contatos insistentes de números desconhecidos passam a ser interpretados como etapas preparatórias para ataques com voz sintetizada (Oblock, 2025; Canaltech, 2025).
Do ponto de vista técnico, a primeira camada do golpe se ancora em infraestruturas de telefonia e VoIP. Estudos sobre vishing mostram que fraudadores usam discadores automáticos e plataformas de robocall para disparar grandes volumes de chamadas, muitas das quais terminam em silêncio, falha aparente ou desligamento rápido, justamente a fase em que são coletados padrões de voz e de resposta da vítima (Figueiredo et al., 2025; Triantafyllopoulos, 2025). Órgãos reguladores, como a FCC norte-americana, por sua vez, registram preocupação específica com robocalls que utilizam vozes geradas por IA, a ponto de proibir o uso de vozes sintéticas em chamadas automáticas por entender que se tornaram vetor relevante de fraude (FCC, 2024).
Uma vez capturado o áudio inicial pela ligação muda, entra em cena o ecossistema de ferramentas de clonagem, em que trechos de fala coletados são alimentados em modelos de síntese de voz, capazes de reproduzir timbre, ritmo e prosódia com elevado grau de semelhança (Group-IB, 2025). De acodo com Netlas (2025), o setor de voice cloning movimentou bilhões de dólares em 2023 e deve crescer de forma acelerada até 2033, com aplicações legítimas em acessibilidade e entretenimento, mas também com usos abusivos em fraude, extorsão e roubo de identidade.
A fonte de áudio, contudo, nem sempre é apenas a ligação telefônica. Poucos segundos de vídeos em redes sociais – como Instagram, TikTok ou YouTube – bastam para clonar a voz de uma pessoa, permitindo que golpistas simulem pedidos de ajuda ou instruções financeiras (The Guardian, 2024). A UNESCO identificou casos em que vozes extraídas de vídeos públicos foram usadas em tentativas de golpe contra idosos, evidenciando a convergência entre dados expostos em plataformas digitais e ataques por telefone (UNESCO, 2025). Nesse cenário, a ligação muda aparece como mais um mecanismo de coleta, especialmente em contextos em que a vítima pouco se expõe on-line.
Após a clonagem, a segunda etapa do golpe se desloca para aplicativos de mensagens e chamadas criptografadas, com destaque para o WhatsApp ou ligações VoIP, no qual áudios sintéticos são enviados a familiares e amigos da vítima com narrativas de sequestro, acidente ou urgência médica, buscando disparar transferências imediatas via PIX (Bitdefender, 2024). Casos similares, envolvendo supostos sequestros de filhos ou netos, foram documentados no Canadá e nos Estados Unidos, em que a voz clonada é usada como prova sensível do falso cativeiro (CBC, 2025; Axios, 2025).
O uso de sites fraudulentos funciona como complemento ao golpe da ligação muda. Pesquisas realizadas pelo site Reclame AQUI sobre a chamada “Era do Golpe 3.0” mostram que páginas que imitam bancos, carteiras digitais ou grandes varejistas são acionadas na sequência da ligação ou do áudio em aplicativo, para que a vítima insira dados ou conclua pagamentos (Reclame AQUI, 2024; Reclame AQUI, 2025).Em muitos casos, a própria voz clonada conduz a vítima, por telefone ou mensagem, até o site falso, aumentando a sensação de autenticidade da transação e explorando a confiança espontânea em interfaces conhecidas (Canaltech, 2025).
Triantafyllopoulos (2025) e Mahapatra et al. (2025) destacam justamente esse encadeamento entre chamada de voz, app de mensagem e site malicioso, o que torna o ataque distribuído e mais difícil de rastrear. A ligação muda é, nesse sentido, o primeiro “portal” de uma cadeia que atravessa diferentes plataformas: telefonia tradicional, redes sociais, mensageiros criptografados, páginas web e aplicativos bancários. Cada meio acrescenta uma camada de verossimilhança e acelera a resposta emocional da vítima, reduzindo o tempo disponível para verificar a autenticidade dos contatos e links recebidos. No Brasil esses golpes se apoiam em aplicativos amplamente legitimados no cotidiano: WhatsApp, aplicativos dos próprios bancos, plataformas de comércio eletrônico e perfis “oficiais” em redes sociais como Instagram e Facebook (Agência Brasil, 2025; Fast Company Brasil, 2025; NetLab, 2025). É nesse uso híbrido – criminoso, mas ancorado em infraestruturas legítimas – que reside boa parte de sua força simbólica: a vítima não está navegando em um “mundo paralelo do crime”, mas em interfaces familiares, supostamente seguras.
Relatórios do setor financeiro reforçam que as próprias aplicações de pagamento instantâneo se tornaram parte do roteiro do golpe. A FEBRABAN, ao discutir novas regras de segurança do PIX, enfatiza que bancos têm observado aumento de fraudes mediadas por interações em WhatsApp e telefone, nas quais o criminoso orienta passo a passo o uso de aplicativos oficiais para concluir a transação (FEBRABAN, 2024; FEBRABAN, 2025). Casos internacionais, como a transferência milionária induzida por videoconferência falsa em empresa de engenharia britânica, mostram que a lógica é semelhante em ambientes corporativos, ainda que com outros valores e plataformas envolvidas (The Guardian, 2024).
Em síntese, o golpe de IA baseado na ligação muda envolve um encadeamento de aplicativos e sites: discadores e serviços de telefonia para coleta de voz; modelos de IA e serviços de clonagem para sintetizar a fala; redes sociais, mensageiros e ligações VoIP para distribuir o áudio falsificado; e, por fim, sites de phishing e aplicativos financeiros para concretizar o prejuízo econômico. O que distingue essa modalidade não é apenas a sofisticação da tecnologia, mas a forma como ela se infiltra em plataformas já naturalizadas no cotidiano, tornando o golpe menos visível enquanto altera, silenciosamente, a ecologia comunicacional em que se dão as relações de confiança.
Arquitetura sociotécnica dos golpes cibernéticos
A arquitetura sociotécnica do golpe com IA parte da ideia de que fraude não é só “malandragem individual”, mas o resultado de um arranjo entre infraestruturas técnicas, instituições e subjetividades. Na sociedade em rede descrita por Castells, o poder circula em circuitos de comunicação que conectam plataformas, telecomunicações, bancos e usuários (Castells, 2009). A “ligação muda” só funciona porque se apoia nesse ecossistema de telefonia digital, apps de mensagem, bases de dados vazadas e meios de pagamento instantâneos.
Essa arquitetura se insere no que Zuboff chama de capitalismo de vigilância: modelos de negócio baseados em extrair dados da experiência cotidiana para prever e influenciar comportamentos (Zuboff, 2019). Corrêa e Cocco (2024) mostram como esse regime se materializa em arquiteturas extrativistas, nas quais algoritmos, sensores e plataformas capturam “excedente comportamental” e o convertem em valor econômico. O golpe de IA se apropria dessa infraestrutura: aproveita a coleta massiva de dados, a onipresença de dispositivos e a assimetria entre grandes plataformas e usuários comuns (Corrêa; Cocco, 2024).
No plano técnico, Schmitt e Flechais (2024) descrevem três pilares pelos quais a IA generativa amplifica ataques de engenharia social: criação realista de conteúdo, personalização avançada e automação da infraestrutura (Schmitt; Flechais, 2024). No golpe da ligação muda, discadores automáticos testam milhares de números, registram quais linhas estão ativas e em que horários alguém atende, compondo bancos de dados que alimentam scripts e modelos de voz. Em seguida, sistemas de síntese vocal e deepfake “encarnam” vozes de familiares ou atendentes de instituições confiáveis, prontos para serem acionados quando a vítima retorna a chamada.
Na dimensão social, essa arquitetura depende da engenharia social como técnica de exploração do “fator humano”. Estudos em segurança cibernética mostram que ataques bem-sucedidos combinam informações contextuais (dados vazados, hábitos digitais, vínculos afetivos) com canais percebidos como legítimos, como telefonia ou aplicativos bancários (Siddiqi et al., 2022). O silêncio inicial da ligação, seguido de uma chamada de retorno ou mensagem, serve para disparar curiosidade, medo de problema financeiro ou preocupação com um parente — emoções que reconfiguram a percepção de risco.
A psicologia cognitiva ajuda a entender por que essa combinação é tão eficaz. Tarefas rotineiras, como atender ligações ou responder mensagens, costumam acionar o “pensamento rápido”, baseado em atalhos mentais e heurísticos (Kahneman, 2013). Em situações de urgência, medo ou sobrecarga informacional, tendemos a confiar em sinais superficiais de autenticidade — voz familiar, número “parecido” com o do banco, tom burocrático do atendente — em vez de mobilizar uma análise mais lenta e crítica (Tversky; Kahneman, 1974; Tonetto, 2006).
Cialdini (2009) mostra que princípios como autoridade, escassez, reciprocidade e prova social estruturam muitas situações de persuasão. Nos golpes com IA, esses princípios são “codificados” na interação: a voz clonada de um gerente de banco aciona a autoridade; a ameaça de bloqueio imediato da conta evoca a escassez temporal; o argumento de que “todos os clientes estão sendo migrados para esse novo sistema de segurança” mobiliza a prova social. A IA permite ajustar essas narrativas em tempo real, a partir das respostas da vítima.
Do lado dos criminosos, a arquitetura sociotécnica inclui um ecossistema subterrâneo de dados vazados, ferramentas de IA como serviço e mão de obra precarizada que opera call centers clandestinos. Pesquisas sobre “decepção digital” mostram que a IA reduz custos e barreiras de entrada, permitindo que atores com baixa qualificação técnica acessem modelos de voz, scripts de ataque e painéis de automação prontos, vendidos em fóruns e mercados ilegais (Schmitt; Flechais, 2024). A distância mediada pela tela e pela voz artificial também reforça o “efeito de desinibição online”, diminuindo a empatia do agressor em relação às vítimas (Suler, 2004).
Essa infraestrutura não afeta todos de forma igual. Autores como O’Neil (2016) e Eubanks (2018) mostram como sistemas algorítmicos tendem a reforçar desigualdades pré-existentes, penalizando mais fortemente populações pobres e racializadas. No contexto brasileiro, grupos com menor letramento digital, maior dependência de benefícios eletrônicos e serviços bancários via celular ficam mais expostos a essa combinação de vigilância comercial, vazamentos de dados e abordagens fraudulentas (O’Neil, 2016; Eubanks, 2018).
Podemos afirmar, portanto, que a arquitetura sociotécnica do golpe da ligação muda articula três camadas: uma infraestrutura de capitalismo de vigilância e extração de dados; capacidades técnicas de IA generativa que automatizam e personalizam a fraude; e dispositivos de persuasão que exploram heurísticas cognitivas e vulnerabilidades sociais. Enxergar o golpe apenas como “esperteza de criminosos” obscurece esse arranjo sistêmico e desloca a responsabilidade para as vítimas. Compreender a arquitetura completa é condição para pensar mecanismos de combate que incluam regulação das plataformas, proteção de dados, desenho de sistemas mais seguros e políticas públicas focadas em justiça digital.
Cibersegurança e enfrentamento aos golpes com IA
Os mecanismos de combate aos golpes com IA têm sido descritos na literatura de cibersegurança como estratégias de defesa em camadas, que combinam soluções técnicas, organizacionais, regulatórias e educativas. Estudos sobre golpes telefônicos com IA enfatizam que não existe contramedida única: é necessário articular detecção de mídia sintética, autenticação reforçada, monitoramento de transações e protocolos claros de resposta a incidentes (YILDIRIM; BÜTÜNER; ÜNAL, 2025). Esse paradigma de “defesa em profundidade” é especialmente importante em ataques que exploram voz clonada e chamadas automatizadas.
Do ponto de vista técnico, uma primeira frente é a detecção automática de áudios falsificados. Estudos sobre audio deepfake detection mostram avanços expressivos em métodos baseados em aprendizado profundo, capazes de identificar artefatos espectrais, inconsistências de fase e padrões de ruído típicos de síntese de voz (ZHANG, 2025; WANI et al., 2024). Esses trabalhos sistematizam bancos de dados e competições (ADD, ASVspoof) voltados a treinar modelos que distingam fala humana de fala gerada por text-to-speech e voice conversion, o que é fundamental para barrar áudios clonados antes que cheguem a sistemas de autenticação ou a centrais de atendimento.
A literatura de anti-spoofing em verificação de locutor reforça essa direção. Li et al. (2024) mapeiam contramedidas que combinam front-ends robustos (características espectrais, prosódicas e de fase) com classificadores especializados para detectar ataques de síntese e conversão de voz (LI et al., 2024). Em paralelo, surveys sobre detecção de speech deepfake discutem técnicas recentes baseadas em arquiteturas de atenção, modelos auto-supervisionados e grafos espectro-temporais, voltadas a identificar falsificação parcial de segmentos de áudio (LI; AHMADIADLI, 2025; PHAM et al., 2025). Essas abordagens são relevantes para golpes que utilizam pequenos trechos de voz clonada inseridos em chamadas aparentemente naturais.
Outra linha de defesa recai sobre a própria arquitetura de autenticação por voz. Estudos sobre ameaças a sistemas de autenticação vocal destacam a necessidade de combinar biometria de voz com mecanismos adicionais de “prova de vivacidade” (detecção de reprodução, análise de silêncio, variação dinâmica de desafios) e com fatores independentes, como tokens físicos ou senhas de uso único (YE et al., 2025; LI et al., 2024). A recomendação recorrente é abandonar esquemas de autenticação baseados apenas em voz, especialmente em operações financeiras de alto valor, e migrar para modelos multi-factor em que a voz desempenhe papel complementar, e não exclusivo.
No nível da infraestrutura de telecomunicações, políticas de autenticação de chamadas têm sido centrais. Nos Estados Unidos, o arcabouço STIR/SHAKEN busca garantir a autenticidade do identificador de chamadas, reduzindo caller ID spoofing por meio de certificação criptográfica entre operadoras (FCC, 2020). Em 2024, a Federal Communications Commission esclareceu que vozes geradas por IA em robocalls se enquadram na legislação que regula chamadas não solicitadas, propondo medidas específicas para mitigar abusos de IA em chamadas automáticas (FCC, 2024). Essas iniciativas não eliminam o golpe, mas tornam mais difícil mascarar a origem de ligações em massa usadas para capturar voz em esquemas como o da ligação muda.
Na esfera financeira, relatórios setoriais apontam a necessidade de controles específicos para deepfakes. O white paper do FS-ISAC sobre “Deepfakes in the Financial Sector” propõe uma taxonomia de riscos e recomenda mitigação baseada em detecção de mídia sintética, análise comportamental de usuários, limites adaptativos de transação e verificação fora de banda para operações de alto risco (FS-ISAC, 2024). A Securities and Exchange Commission norte-americana tem defendido que instituições adotem mecanismos de detecção de deepfake integrados a seus sistemas de prevenção à fraude, combinando análise de padrões de uso, anomalias de dispositivo e monitoramento de canais de atendimento (CARPENTER, 2025).
No Brasil, a FEBRABAN e eventos como o Febraban Tech 2024 destacam o uso de IA e machine learning pelos bancos para bloquear ataques em tempo real, analisando grandes volumes de transações e comportamentos para identificar desvios sutis associados a golpes, inclusive aqueles iniciados por engenharia social com IA (FEBRABAN, 2024). Esses sistemas de prevenção inteligente, ao cruzar dados alternativos, contexto de transação e histórico do usuário, podem sinalizar transferências suspeitas resultantes de ligações fraudulentas e, em alguns casos, acionar bloqueios automáticos ou confirmações adicionais antes da conclusão do PIX.
A literatura em cibersegurança também enfatiza a importância de playbooks organizacionais e fluxos de verificação padronizados. Estudos sobre phishing na era da IA sugerem que empresas e órgãos públicos adotem roteiros de validação de identidade que incluam perguntas dinâmicas, confirmação por canais independentes e registro sistemático de ligações suspeitas (JABIR, 2025; VENNELA et al., 2026). Yıldırım, Bütüner e Ünal (2025) reforçam que, no contexto de golpes telefônicos com IA, contramedidas eficazes envolvem tanto ferramentas de detecção automatizada quanto a capacitação de equipes de atendimento para reconhecer sinais de clonagem de voz e scripts típicos de engenharia social (YILDIRIM; BÜTÜNER; ÜNAL, 2025).
Do ponto de vista macro, agências como a Europol argumentam que o combate a golpes com IA demanda coordenação internacional e atualização constante das capacidades de investigação digital. O relatório EU-SOCTA 2025 alerta que o uso de IA por grupos criminosos exige investimento em perícia de mídia sintética, compartilhamento de inteligência e desenvolvimento de ferramentas de análise baseadas em IA para apoiar o trabalho policial (EUROPOL, 2025). Ao mesmo tempo, recomenda que reguladores e plataformas digitais fortaleçam mecanismos de reporte e remoção rápida de conteúdos fraudulentos, incluindo anúncios, perfis e canais usados para golpes.
Por fim, a literatura especializada converge na ideia de que educação digital e sensibilização pública continuam sendo componentes indispensáveis do enfrentamento. Relatórios de cibersegurança aplicada a serviços financeiros e de telecomunicações mostram que a maioria dos ataques com IA ainda depende de respostas precipitadas das vítimas; logo, campanhas que ensinem práticas de verificação em múltiplos canais, desconfiança sistemática diante de urgências e uso de palavras-código familiares reduzem significativamente a eficácia dos golpes (FS-ISAC, 2024; FINSIDERS, 2025).Em síntese, os mecanismos de combate ao golpe articulam tecnologias avançadas de detecção, reformulação de sistemas de autenticação, políticas regulatórias e iniciativas de letramento digital, compondo um campo em disputa entre capacidades ofensivas e defensivas que se atualizam continuamente.
Conclusão
Os elementos analisados ao longo do artigo mostram que o golpe com IA, tendo o “golpe da ligação muda” como caso paradigmático, não é um desvio pontual, mas expressão de uma reconfiguração mais ampla dos crimes digitais na era da inteligência artificial generativa. O cruzamento entre discagem massiva, clonagem de voz, deepfakes audiovisuais e meios de pagamento instantâneos produz um ambiente em que velhas práticas de engano ganham escala industrial, apoiadas em infraestruturas globais de telecomunicações, plataformas digitais e vazamentos sistemáticos de dados pessoais.
A arquitetura sociotécnica do golpe evidencia que a vulnerabilidade não está apenas no “erro da vítima”, mas na assimetria estrutural entre usuários comuns e atores – lícitos e ilícitos – que exploram o capitalismo de vigilância, o excesso de exposição de dados e a erosão da confiança em canais tradicionais, como a telefonia e a própria voz. Ao mesmo tempo, os mecanismos de defesa descritos na literatura de cibersegurança indicam um cenário de disputa permanente: de um lado, ferramentas de IA abertas, baratas e potentes; de outro, esforços de detecção de mídia sintética, autenticação multifatorial, regulação de chamadas e investimento em perícia digital que ainda correm atrás do prejuízo.
Por fim, o enfrentamento aos golpes com IA exige ir além de soluções tecnicistas e responsabilizações individuais, articulando políticas públicas de proteção de dados, regulação de plataformas, boas práticas do sistema financeiro e, sobretudo, estratégias de letramento digital crítico. Sem fortalecer a capacidade das pessoas de reconhecer manipulações, checar informações por múltiplos canais e reivindicar sistemas mais justos e transparentes, as defesas tecnológicas tendem a ser sempre parciais. Reconhecer o “golpe da ligação muda” como fenômeno sociotécnico complexo é passo decisivo para que a sociedade reivindique não apenas segurança, mas também justiça digital em um contexto de crescente automação da fraude.
🇬🇧 AI-powered scams are getting more sophisticated: they clone voices from silent calls, use deepfakes of celebrities, and exploit fear to steal money via PIX transfers and fake websites. Understanding how these scams work is the first step to staying safe: question urgency, verify through more than one channel, and never act on a call or audio alone.
🇪🇸 Las estafas impulsadas por inteligencia artificial se están volviendo cada vez más sofisticadas: clonan voces a partir de llamadas silenciosas, usan deepfakes de celebridades y explotan el miedo para robar dinero mediante transferencias vía PIX y sitios web falsos. Entender cómo funcionan estas estafas es el primer paso para estar seguro: cuestione la urgencia, verifique por más de un canal y nunca actúe solo basándose en una llamada o un audio.
🇨🇳 利用人工智能的诈骗手段日趋复杂:他们会在无声通话中复制人声,使用名人深度伪造技术,并利用人们的恐惧心理,通过巴西即时支付系统PIX和虚假网站敲诈勒索。了解这些诈骗手法是保护自己的第一步:对对方的紧急程度保持警惕,通过多种渠道核实信息,切勿仅凭语音或电话就采取行动。
Referências
CORREIO BRAZILIENSE. Golpes cibernéticos se tornam mais comuns e perigosos com IA, dizem especialistas. Correio Braziliense, Brasília, 2025. Disponível em: https://www.correiobraziliense.com.br/cbradar/golpes-ciberneticos-se-tornam-mais-comuns-e-perigosos-com-ia/. Acesso em: 9 dez. 2025.
DIÁRIO DO COMÉRCIO. Consumidores não reconhecem golpes com inteligência artificial. Diário do Comércio, Belo Horizonte, 2025. Disponível em: https://diariodocomercio.com.br/economia/consumidores-nao-reconhecem-golpes-inteligencia-artificial/. Acesso em: 9 dez. 2025.
DIÁRIO DO COMÉRCIO. Golpes financeiros com inteligência artificial causam prejuízos em BH. Diário do Comércio, Belo Horizonte, 2025. Disponível em: https://diariodocomercio.com.br/economia/golpes-financeiros-prejuizo-bh/. Acesso em: 9 dez. 2025.
BAND. Phishing: o golpe digital silencioso que ameaça milhões de brasileiros. Band – Sala Digital, São Paulo, 26 ago. 2025. Disponível em: https://www.band.com.br/sala-digital/noticias/phishing-202508261752. Acesso em: 9 dez. 2025.
EUROPEAN PARLIAMENT. Scam calls in times of generative AI. Brussels: European Parliamentary Research Service, 2025. Disponível em: https://www.europarl.europa.eu. Acesso em: 9 dez. 2025.
EUROPOL. Failure to answer: how scam calls powered by generative AI challenge law enforcement. The Hague: Europol, 2025. Disponível em: https://www.europol.europa.eu. Acesso em: 9 dez. 2025.
FEDERAL BUREAU OF INVESTIGATION (FBI). Public Service Announcement I-051525-PSA: Smishing and Vishing Campaign Impersonating Senior U.S. Officials. Washington, DC, 15 maio 2025. Disponível em: https://www.ic3.gov/PSA/2025/PSA250515. Acesso em: 9 dez. 2025.
FEDERATION OF BANKS OF BRAZIL (FEBRABAN). Pesquisa FEBRABAN de Tecnologia Bancária 2025 – Vol. 1. São Paulo, 2025. Disponível em: https://febraban.org.br. Acesso em: 9 dez. 2025.
FINANCIAL TIMES. Voice phishing is AI fraud in real time. Financial Times, Londres, 9 nov. 2025. Disponível em: https://www.ft.com/content/2134dc55-c994-426e-98eb-ee4221819053. Acesso em: 9 dez. 2025.
FDR. Golpes com inteligência artificial explodem na Black Friday; saiba como se proteger. FDR, São Paulo, 29 nov. 2025. Disponível em: https://fdr.com.br/2025/11/29/golpes-com-inteligencia-artificial-explodem-na-black-friday/. Acesso em: 9 dez. 2025.
FS-ISAC. The rise of deepfakes: financial sector braces for impact. 2024. Disponível em: https://www.fsisac.com. Acesso em: 9 dez. 2025.
GE. Nadal denuncia uso de sua imagem em golpes com inteligência artificial. GE – Globo Esporte, Rio de Janeiro, 23 set. 2025. Disponível em: https://ge.globo.com/tenis/noticia/2025/09/23/nadal-denuncia-uso-de-sua-imagem-em-golpes-com-inteligencia-artificial.ghtml. Acesso em: 9 dez. 2025.
KHANJANI, Zahra; WATSON, Gabrielle; JANEJA, Vandana P. Audio deepfakes: a survey. Frontiers in Big Data, v. 5, n. 1001063, 2023. Disponível em: https://doi.org/10.3389/fdata.2022.1001063. Acesso em: 9 dez. 2025.
KIM, Jiwon et al. A multimodal voice phishing detection system integrating text and audio analysis. Applied Sciences, v. 15, n. 20, p. 11170, 2025. Disponível em: https://doi.org/10.3390/app152011170. Acesso em: 9 dez. 2025.
R7. Criminosos utilizam deepfake para aplicar golpes com inteligência artificial. R7 – Balanço Geral, São Paulo, 1 abr. 2025. Disponível em: https://record.r7.com/balanco-geral/criminosos-utilizam-deepfake-para-aplicar-golpes-com-inteligencia-artificial-01042025/. Acesso em: 9 dez. 2025.
RECLAME AQUI. Golpe da ligação muda: entenda como funciona e como se proteger. Reclame AQUI, São Paulo, 2022. Disponível em: https://www.reclameaqui.com.br/noticias/golpe-da-ligacao-muda/. Acesso em: 9 dez. 2025.
TECHRADAR. AI impersonation scams are sky-rocketing in 2025, security experts warn – here’s how to stay safe. TechRadar, 2025. Disponível em: https://www.techradar.com/computing/cyber-security/ai-impersonation-scams-are-sky-rocketing-in-2025-security-experts-warn-heres-how-to-stay-safe. Acesso em: 9 dez. 2025.
TIME. Trump officials keep getting impersonated by A.I. ‘vishing’ scammers — what to know and how to protect yourself. Time, Nova York, 9 jul. 2025. Disponível em: https://time.com/7301176/impersonation-ai-voice-vishing-scam-rubio-wiles-trump-fbi-advice/. Acesso em: 9 dez. 2025.
THE WASHINGTON POST. Deepfake of North Carolina lawmaker used in award-winning Whirlpool video. The Washington Post, Washington, DC, 30 nov. 2025. Disponível em: https://www.washingtonpost.com/nation/2025/11/30/deep-fake-whirlool-brazil/. Acesso em: 9 dez. 2025.
UNITED STATES. Federal Communications Commission (FCC). Declaratory Ruling 24-17, CG Docket No. 23-322: TCPA – AI-Generated Voices in Robocalls. Washington, DC, 2024. Disponível em: https://www.fcc.gov. Acesso em: 9 dez. 2025.
ZHANG, Bowen et al. Audio deepfake detection: what has been achieved and what lies ahead. Sensors, v. 25, n. 7, p. 1989, 2025. Disponível em: https://doi.org/10.3390/s25071989. Acesso em: 9 dez. 2025.
ZSCALER. Zscaler ThreatLabz 2024 Phishing Report. San Jose, 2024. Disponível em: https://www.zscaler.com. Acesso em: 9 dez. 2025.



