
A influenciadora e criadora de conteúdo adulto Maia Lozano, ex-namorada do cantor Fiuk, se manifestou nas redes sociais após descobrir que sua imagem está sendo usada em vídeos pornográficos falsos, gerados por inteligência artificial.
Leia Também:
O material, que circula em grupos do Telegram, simula cenas íntimas entre Maia e Fiuk e está sendo vendido por R$ 99. Trata-se de deepfakes, que são vídeos manipulados digitalmente com o uso de IA para parecerem reais.
“Olha, o trabalho ficou até bem feito. Mas é fake, gente. Dá para ver que foi criado por IA. O rosto até lembra, mas o corpo não é meu. E nunca gravei nada com o Fiuk. Isso é invenção digital com cara de golpe”, afirmou Maia, em vídeo publicado nos stories.
A influenciadora disse que começou a receber prints e links de seguidores que a alertaram sobre o conteúdo falso. “A chamada dizia que era vídeo vazado. Dei risada, o povo acredita em tudo. Mas o mais grave é usarem minha imagem para ganhar dinheiro com mentira. Isso é crime e vou buscar meus direitos”, declarou.
Apesar do tom descontraído, Maia afirmou que já contratou um advogado especializado em direito de imagem e deve registrar queixa nos próximos dias. Ela reforçou que seus conteúdos verdadeiros estão disponíveis apenas na plataforma Privacy, onde possui selo de verificação.
“Lá é tudo de verdade, com qualidade, sem truque digital. O curioso é que muitos seguidores me acompanham, sabem que nunca gravei nada com o Fiuk e ainda assim compram esse conteúdo falso. Deve ser fetiche (risos). Mas é sério: se a galera continuar acreditando em vídeo de IA, logo aparece até versão hot da Ana Maria Braga”, ironizou.
Maia fez um alerta sobre o uso irresponsável da inteligência artificial, especialmente no mercado adulto. “Hoje aconteceu comigo, mas amanhã pode ser com qualquer mulher. Isso é uma forma de violência digital. E pior: tem gente lucrando com nossas imagens sem qualquer autorização. Precisamos discutir esse tema com seriedade”, finalizou.