Famosos viram vítimas de vídeos falsos com IA — Dr. Tiago Juvêncio explica como agir nesses casos no O Globo

Dr. Tiago Juvêncio
Dr. Tiago Juvêncio
Direito Criminal
08/04/2025
Famosos viram vítimas de vídeos falsos com IA — Dr. Tiago Juvêncio explica como agir nesses casos no O Globo

O uso crescente da inteligência artificial em crimes tem preocupado especialistas e autoridades. Fraudes financeiras, falsificação de documentos, invasões cibernéticas e, especialmente, a criação de "deepfakes" — vídeos e áudios manipulados digitalmente — se tornaram parte de uma nova realidade criminosa potencializada por essa tecnologia.

De acordo com a consultoria Gartner, até 2027, ferramentas baseadas em IA devem ser responsáveis por 17% dos crimes cibernéticos. Em 2024, os ataques já mostram sinais de sofisticação, com um aumento de 11% nos casos em relação ao ano anterior.

Entre as vítimas das "deepfakes", estão nomes conhecidos como Paolla Oliveira, William Bonner, Neymar, Ana Maria Braga, Eliana e Drauzio Varella. Vozes e imagens desses artistas têm sido utilizadas em conteúdos falsos, muitas vezes ligados a tentativas de golpe financeiro, e produzidos com alto nível de realismo — o suficiente para enganar parte do público.

— Qualquer pessoa pode usar a IA para facilitar crimes. Ela permite automatizar fraudes, falsificar documentos com perfeição ou criar "deepfakes" para enganar e prejudicar — afirma o advogado Tiago Juvêncio, especialista em direito digital.

Apesar da gravidade, o Brasil ainda não possui uma legislação específica e abrangente para o uso da inteligência artificial. Projetos como o PL 2338/2023 tramitam no Congresso com o objetivo de regulamentar o tema, mas, por enquanto, o país vive um cenário de insegurança jurídica.

— A gente ainda está em um vácuo jurídico. Existem normas como a LGPD e a Lei Carolina Dieckmann, que cobrem partes do problema, mas nenhuma delas trata exclusivamente das complexidades da IA — explica Juvêncio.

Outro ponto crítico é a responsabilização quando a IA comete um crime de forma autônoma. Como a tecnologia não possui personalidade jurídica, a lei atual determina que a responsabilidade recaia sobre os desenvolvedores, as empresas que utilizam o sistema ou os usuários — a depender do caso.

Para o setor corporativo, o especialista recomenda a adoção de medidas preventivas.

— Ter políticas internas claras, treinar os funcionários, inserir cláusulas contratuais específicas e investir em auditorias e programas de compliance são ações essenciais para mitigar riscos — orienta.

Além da falta de regulação, desafios como o rastreamento dos autores, a complexidade técnica dos sistemas e as dificuldades na coleta de provas digitais dificultam as investigações.

— A apuração desses crimes exige conhecimento técnico e jurídico. Não é simples entender como um sistema de IA atuou em determinado caso — conclui o advogado.

Fonte: O Globo

Se você precisa de mais informações sobre o tema ou de assistência, entre em contato conosco!

Blog Tiago Juvêncio

Tiago Juvencio