Grandes veículos brasileiros como SBT, Terra e IG foram enganados por vídeos completamente falsos que mostravam uma nevasca fictícia na Rússia. As imagens, geradas por inteligência artificial, retratavam montanhas de neve engolindo prédios inteiros na cidade de Kamchatka. O problema? Tudo era mentira digital — e o que mais impressiona é que estava claramente marcado como conteúdo de IA nos vídeos originais.
Nota editorial: Este artigo tem caráter analítico e opinativo, baseado em informações públicas e reportagens jornalísticas (com links para as fontes). Não imputa crimes, ilegalidades ou intenções a pessoas ou instituições. Limita-se à análise crítica de decisões e seus efeitos no debate público, sob perspectiva editorial libertária.
A vergonha que já começou em 2026
O caso expõe uma realidade que especialistas já vinham alertando: grandes empresas de comunicação não conseguem mais distinguir realidade de ficção digital com facilidade. Segundo pesquisadores, 2026 tende a ser o ano da superprodução de fake news, não só por maldade, mas porque a tecnologia agora permite, acelera e barateia esse tipo de produção.
Os vídeos mostravam neve acumulada a alturas impossíveis, chegando a 30 metros de altura, superando edifícios de vários andares. Aliás, qualquer pessoa com conhecimentos básicos de física saberia que tal acumulação seria estruturalmente impossível sem o colapso dos próprios prédios. Mas isso não impediu os veículos brasileiros de transformar ficção em manchete.
O que mais chama atenção é que os criadores originais do conteúdo não tentaram enganar ninguém. Eles marcaram claramente os vídeos como “gerado por IA” nas plataformas onde foram publicados inicialmente. O problema não foi malícia dos criadores, mas o que críticos chamam de preguiça jornalística dos reprodutores.
Débora Blando, conhecida por suas crenças místicas, chegou a retuitar o conteúdo falso, amplificando ainda mais a desinformação. Isso mostra como celebridades podem se tornar catalisadoras involuntárias de mentiras digitais, especialmente quando o conteúdo confirma suas predisposições pessoais.
Carol Capelo e a indústria do medo fabricado
Entre os propagadores do conteúdo falso, destacou-se Carol Capelo, conhecida por vídeos sobre mistérios e teorias conspiratórias. Ela não apenas reproduziu as imagens falsas como inventou detalhes adicionais sobre o que as pessoas supostamente estavam fazendo na neve falsa.
“O que está acontecendo no céu? O que está acontecendo no Oriente Médio?”, sempre começava suas narrativas com essas perguntas retóricas, criando um clima de mistério artificial. Observadores do mercado digital apontam que Capelo prosperou economicamente com esse tipo de conteúdo, monetizando o que críticos classificam como exploração do medo e da ignorância de seu público.
O caso revela como funciona o que especialistas chamam de economia da desinformação: criadores como Capelo sabem exatamente o que estão fazendo, segundo análises do comportamento online. Não é ignorância, é modelo de negócio. Eles fabricam crises e catástrofes porque isso gera engajamento, que se traduz em dinheiro através de publicidade e doações.
Ela chegou a inventar que a nevasca era “a quantidade esperada para três meses” e que “não nevava dessa maneira há pelo menos 146 anos” na região. Todos esses “dados” eram completamente inventados, criados para dar verossimilhança à mentira. É a técnica clássica da desinformação profissional: misturar detalhes específicos e falsos com eventos reais para confundir a audiência.
O precedente perigoso dos jogos ultrarrealistas
Este não é o primeiro caso de mídia brasileira sendo enganada por conteúdo digital. A Record já havia caído numa pegadinha similar ao exibir gameplay de jogo como se fosse teste real para motoristas do presidente americano. Na época, chegaram a fazer uma matéria completa explicando “como o motorista consegue dirigir de ré” em situações de ataque.
A evolução dos gráficos em jogos eletrônicos criou um novo problema para o jornalismo: as simulações digitais estão tão perfeitas que podem facilmente passar por registros reais. Isso exige um nível de verificação técnica que muitas redações simplesmente não possuem.
O problema se agrava quando consideramos que as ferramentas de IA generativa democratizaram a criação de conteúdo hiper-realista. Qualquer pessoa com acesso básico à tecnologia pode hoje produzir vídeos que enganariam profissionais experientes. Pesquisadores da USP alertam que a IA chegou ao ponto em que essas montagens já quase não conseguem se diferenciar de um vídeo real.
A questão se torna ainda mais séria quando pensamos nas possíveis aplicações maliciosas: vídeos falsos de políticos em situações comprometedoras, declarações inventadas de autoridades, ou até mesmo “evidências” de crimes que nunca aconteceram. O caso da nevasca russa pode parecer inofensivo, mas estabelece um precedente preocupante.
SBT mantém o erro, Terra recua
A reação dos veículos após descobrirem o erro foi reveladora. O Terra rapidamente retirou a matéria do ar quando alertado sobre a falsidade do conteúdo. Já o SBT, mesmo avisado, manteve a reportagem publicada, demonstrando uma postura que críticos consideram irresponsável diante da própria audiência.
Essa diferença de postura expõe como algumas empresas de mídia lidam com seus próprios erros. Enquanto umas reconhecem rapidamente os equívocos e os corrigem, outras preferem ignorar as correções, talvez por orgulho ou simplesmente por negligência administrativa.
O mais grave é que manter conteúdo sabidamente falso no ar não prejudica apenas a credibilidade do veículo, mas contribui ativamente para a desinformação pública. Cada pessoa que acessa essa matéria falsa pode reproduzi-la em suas redes sociais, multiplicando exponencialmente o alcance da mentira.
É importante notar que os alertas sobre a falsidade do conteúdo chegaram aos veículos ainda na madrugada do dia seguinte à publicação. Isso significa que houve tempo mais do que suficiente para correções responsáveis. A escolha de manter o erro é, portanto, uma decisão editorial consciente.
Por que a verificação falhou
O caso expõe falhas sistêmicas no processo de verificação jornalística brasileiro. Especialistas apontam que conteúdo falso pode gerar mais audiência que reportagem factual. Isso cria um incentivo perverso: na corrida por cliques, a mentira bem produzida pode superar a verdade mal contada.
A pressão por velocidade na era digital fez com que muitas redações abandonassem etapas básicas de verificação. Ver um vídeo “viral” nas redes sociais e republicá-lo sem checagem se tornou prática comum, especialmente quando o conteúdo é visualmente impactante.
Além disso, há uma questão de formação técnica. Muitos jornalistas não possuem conhecimento suficiente sobre tecnologias digitais para identificar sinais de manipulação por IA. É necessário treinamento específico para reconhecer inconsistências visuais, artefatos digitais e outros indicadores de conteúdo sintético.
O problema se complica quando consideramos que “A ascensão de ferramentas generativas baseadas em IA tornam mais difícil para jornalistas verificar a autenticidade de conteúdos”, segundo pesquisas recentes sobre o tema.
O que vem pela frente em 2026
Se 2025 já trouxe o primeiro grande escândalo de IA no jornalismo brasileiro, 2026 promete ser ainda mais desafiador. Especialistas alertam que as eleições municipais de 2026 serão um teste de fogo para essa nova realidade.
Imagine vídeos falsos de candidatos em situações comprometedoras, declarações inventadas de autoridades, ou “evidências” fabricadas de corrupção. O potencial de manipulação eleitoral através de IA é imenso e ainda não temos estruturas adequadas para combatê-lo.
A situação se torna mais preocupante quando consideramos que muitos eleitores têm dificuldade em distinguir fontes confiáveis de desinformação mesmo sem IA envolvida. Com conteúdo sintético perfeito, essa confusão pode se multiplicar exponencialmente.
Na perspectiva libertária, é necessária urgente regulamentação que torne obrigatória a identificação clara de conteúdo gerado por IA. Qualquer vídeo, áudio ou imagem sintética deveria carregar marcação visível e indelével de sua origem artificial. A ausência dessa marcação deveria ser considerada prática abusiva, com punições severas.
A responsabilidade dos intermediários digitais
Plataformas como Twitter, Instagram e TikTok têm responsabilidade direta na propagação desse tipo de desinformação. Seus algoritmos frequentemente priorizam conteúdo engajador sobre conteúdo verdadeiro, criando incentivos econômicos para a produção de mentiras virais.
O modelo de negócios baseado em atenção e engajamento é fundamentalmente incompatível com a busca pela verdade. Quanto mais polêmico e chocante o conteúdo, maior seu alcance algorítmico. Isso transforma a desinformação em estratégia comercial viável.
Além disso, essas plataformas poderiam facilmente implementar sistemas de detecção automática de conteúdo gerado por IA. A tecnologia existe, mas sua implementação reduziria o engajamento e, consequentemente, a receita publicitária. É um conflito direto entre interesse comercial e responsabilidade social.
A questão se complica porque muitas dessas plataformas são controladas por empresas estrangeiras, dificultando a aplicação de regulamentações nacionais. É necessária coordenação internacional para estabelecer padrões mínimos de identificação e controle de conteúdo sintético.
Daniel Lopes e o ecossistema da conspiração
O caso também revelou a conexão entre diferentes tipos de desinformadores. Figuras como Daniel Lopes, especialista em teorias sobre invasões alienígenas e fim do mundo, fazem parte do mesmo ecossistema que sustenta creators como Carol Capelo. Eles se alimentam mutuamente, criando uma rede de referências cruzadas que dá aparente credibilidade a suas narrativas fantásticas.
Esse ecossistema funciona como um mercado: cada conspiração ou catástrofe inventada atende a um nicho específico de consumidores de conteúdo sensacionalista. Alguns preferem alienígenas, outros catástrofes climáticas, outros ainda teorias políticas. Mas todos compartilham a mesma metodologia: inventar crises para monetizar o medo.
O problema é que esse conteúdo não existe no vácuo. Ele influencia decisões reais de pessoas reais. Indivíduos podem tomar atitudes extremas baseados em informações completamente falsas, desde mudanças de investimento até comportamentos de risco para a saúde.
A questão se torna especialmente grave quando consideramos o impacto educacional. Jovens que consomem regularmente esse tipo de conteúdo podem desenvolver uma visão distorcida da realidade, prejudicando sua capacidade de tomada de decisão ao longo da vida.
O mais grave é que esse modelo de negócio da desinformação é extremamente lucrativo. Enquanto jornalistas sérios lutam por recursos para fazer reportagens investigativas, criadores de fake news podem gerar receitas substanciais simplesmente inventando histórias sensacionalistas.
A democratização das ferramentas de IA agrava exponencialmente esse problema. Agora, qualquer desinformador pode produzir “evidências” visuais convincentes para suas teorias, dando-lhes uma aparência de credibilidade que nunca tiveram antes. É o fim da era em que mentiras eram facilmente identificáveis por sua baixa qualidade de produção.
A perspectiva libertária sobre o futuro digital
Na visão libertária, surge uma questão fundamental: se grandes veículos de comunicação não conseguem mais distinguir realidade de ficção digital, como pode o cidadão comum se proteger? A resposta passa necessariamente por educação digital massiva e maior responsabilidade individual na verificação de informações.
Para defensores da liberdade individual, é preocupante como a facilidade de criar desinformação pode ser explorada para justificar maior controle estatal sobre o fluxo de informações. O desafio está em combater mentiras sem criar censura, em proteger a verdade sem destruir a liberdade de expressão.
Este primeiro grande escândalo de IA do jornalismo brasileiro em 2025 é apenas um aperitivo do que está por vir. A menos que tomemos medidas drásticas agora, 2026 pode se tornar o ano em que perdemos completamente a capacidade de distinguir verdade de mentira no ambiente digital.
E você, consegue imaginar as consequências de viver numa sociedade onde qualquer vídeo pode ser falso e qualquer evidência pode ser fabricada?
Este artigo pode ser atualizado caso surjam novos fatos ou manifestações dos citados.
Versão: 21/01/2026 18:40
Fontes
- SBT News – Vídeo: Nevasca histórica encobre prédios e deixa mortos em Kamchatka, na Rússia
- Público – Desinformação russa está a infiltrar-se na IA
- Terra – Carol Capel bomba com vídeos sobre mistérios e alienígenas
- Jornal da USP – Como IA, deepfakes e agências de checagem atuam na desinformação
- Estado de Minas – O perigo da ascensão das fake news geradas pelas IAs no Brasil



