Recentemente, a Apple tomou a decisão de retirar uma série de aplicativos da App Store após uma investigação da BBC, que indicou que esses aplicativos estavam sendo promovidos no TikTok como ferramentas capazes de criar deepfakes de remoção de roupas sem o consentimento dos indivíduos retratados. Esses aplicativos, comumente conhecidos como ‘nudify’ ou de ‘remoção de roupas’, utilizam inteligência artificial para apagar digitalmente as vestimentas de pessoas em imagens, resultando em fotos ou vídeos nus ou parcialmente nus.
Nas descrições oficiais disponíveis na App Store e nos sites dos desenvolvedores, esses aplicativos eram apresentados como uma maneira divertida de ‘apimentar selfies’. No entanto, em anúncios patrocinados no TikTok, as empresas promoviam seus serviços como uma forma de gerar imagens sexualizadas de mulheres sem qualquer autorização. Alguns dos anúncios inclusive incentivavam os usuários a baixar os aplicativos para ‘ver as fotos mais quentes da sua paixão’, enquanto outros alegavam que os mesmos ‘permitiam tirar a roupa de qualquer pessoa’. Diversas propagandas prometiam até a absurda capacidade de ‘colocar qualquer um de biquíni’. Para proteger as vítimas de possíveis abusos, optamos por não divulgar os nomes dos aplicativos, uma vez que a criação de imagens sexualmente explícitas sem consentimento é ilegal em muitos países, incluindo o Reino Unido.
Os aplicativos de ‘nudificação’ têm se tornado um fenômeno preocupante globalmente, com escândalos de grande escala sendo reportados em países como Espanha, Coreia do Sul e Estados Unidos. Em várias situações, vítimas, frequentemente meninas em idade escolar, foram alvo de chantagens com imagens manipuladas utilizando inteligência artificial. O professor Arvind Narayanan, do Centro de Política de Tecnologia da Informação de Princeton, salienta que as empresas de tecnologia possuem uma responsabilidade moral de limitar a proliferação desses aplicativos. ‘Deveria haver muito mais barreiras para impedir o acesso a essa tecnologia’, enfatiza, e defende que autoridades globais deveriam atuar para banir esses aplicativos das lojas virtuais e impedir que redes sociais se beneficiem de anúncios relacionados.
A BBC identificou quatro desses aplicativos que patrocinavam anúncios no TikTok, os quais agora foram removidos pela plataforma. Contudo, vídeos similares que parecem ter sido postados por contas associadas aos desenvolvedores ainda permanecem disponíveis no site. Em resposta à reportagem da BBC, a Apple retirou os aplicativos da App Store, esclarecendo que três deles foram removidos ‘até que os desenvolvedores solucionem as falhas encontradas’. Um quarto aplicativo, que se destacava na criação de vídeos com mulheres dançando em pouca roupa a partir de fotos, foi removido e teve a conta do desenvolvedor encerrada. A Play Store do Google também se manifestou, afirmando que está investigando a situação.
Dentre os aplicativos analisados pela BBC, o mais popular já havia sido baixado mais de um milhão de vezes, conforme os dados disponibilizados pela Play Store. Embora o aplicativo não pareça permitir a produção de imagens completamente nuas, ele facilita a geração de imagens sugestivas sexualmente de qualquer pessoa. O desenvolvedor oferece ‘pacotes’ com diversas poses, incluindo algumas que apresentam mulheres em situações constrangedoras. Em uma resposta enviada por e-mail, o criador do aplicativo alegou que não tinha a intenção de promovê-lo como uma ferramenta para criação de deepfakes sem consentimento, assegurando que irá revisar suas práticas.