23º Salvador, Bahia
previsao diaria
Facebook Instagram
WHATSAPP
Receba notícias no WhatsApp Entre no grupo do MASSA!
Home / Entretenimento

culpa da IA - 11/07/2025, 15:02 - Da Redação

Maia Lozano denuncia vídeo íntimo falso com Fiuk: "Deepfake"

Influenciadora afirmou que vende conteúdo, mas nunca gravou com Fiuk

Imagem ilustrativa da imagem

A influenciadora e criadora de conteúdo adulto Maia Lozano, ex-namorada do cantor Fiuk, se manifestou nas redes sociais após descobrir que sua imagem está sendo usada em vídeos pornográficos falsos, gerados por inteligência artificial.

Leia Também:

O material, que circula em grupos do Telegram, simula cenas íntimas entre Maia e Fiuk e está sendo vendido por R$ 99. Trata-se de deepfakes, que são vídeos manipulados digitalmente com o uso de IA para parecerem reais.

“Olha, o trabalho ficou até bem feito. Mas é fake, gente. Dá para ver que foi criado por IA. O rosto até lembra, mas o corpo não é meu. E nunca gravei nada com o Fiuk. Isso é invenção digital com cara de golpe”, afirmou Maia, em vídeo publicado nos stories.

A influenciadora disse que começou a receber prints e links de seguidores que a alertaram sobre o conteúdo falso. “A chamada dizia que era vídeo vazado. Dei risada, o povo acredita em tudo. Mas o mais grave é usarem minha imagem para ganhar dinheiro com mentira. Isso é crime e vou buscar meus direitos”, declarou.

Apesar do tom descontraído, Maia afirmou que já contratou um advogado especializado em direito de imagem e deve registrar queixa nos próximos dias. Ela reforçou que seus conteúdos verdadeiros estão disponíveis apenas na plataforma Privacy, onde possui selo de verificação.

“Lá é tudo de verdade, com qualidade, sem truque digital. O curioso é que muitos seguidores me acompanham, sabem que nunca gravei nada com o Fiuk e ainda assim compram esse conteúdo falso. Deve ser fetiche (risos). Mas é sério: se a galera continuar acreditando em vídeo de IA, logo aparece até versão hot da Ana Maria Braga”, ironizou.

Maia fez um alerta sobre o uso irresponsável da inteligência artificial, especialmente no mercado adulto. “Hoje aconteceu comigo, mas amanhã pode ser com qualquer mulher. Isso é uma forma de violência digital. E pior: tem gente lucrando com nossas imagens sem qualquer autorização. Precisamos discutir esse tema com seriedade”, finalizou.

exclamção leia também