Vítimas de crimes sendo utilizadas em deepfakes por inteligência artificial é um pesadelo real
Uma subcultura no TikTok está ressuscitando vítimas brutais de crimes por meio da inteligência artificial (IA), muitas delas crianças pequenas, através de vídeos que atingem milhões de pessoas. A maioria desses vídeos não possui aviso antecipado de conteúdo perturbador e mostram as vítimas narrando a partir da primeira pessoa os detalhes sangrentos dos seus assassinatos ou ataques. Ainda que algumas contas afirmem que não usam imagens reais das vítimas para não desrespeitar as famílias, a proliferação desses deepfakes no TikTok é apenas uma dentre muitas questões éticas criadas pela enorme popularização do gênero true-crime.
O caso de Royalty Marie Floyd, que foi encontrada morta na casa de sua avó em Mississippi em 2018, é um exemplo dessa tendência preocupante. O vídeo mais recente postado pela conta @truestorynow no TikTok mostra uma bebê fofa com olhos azuis gigantes e uma tiara florida que se identifica como Rody Marie Floyd. Ela conta que sua avó a trancou em um forno a 230 graus porque estava chorando com fome. Entretanto, a bebê não é real e foi criada por inteligência artificial (IA). Além disso, há imprecisões no vídeo produzido pela IA: a bebê não se chama Rody Marie e sim Royalty Marie, e ela era negra quando morreu aos 20 meses, e não branca.
Paul Bleakley, especialista em justiça criminal da Universidade de New Haven, diz que esses vídeos são estranhos e assustadores, parecendo ser feitos para provocar reações emocionais fortes, porque é a forma mais certeira de conseguir views e likes. A plataforma TikTok proibiu a criação de deepfakes envolvendo pessoas privadas sem seu consentimento ou qualquer jovem em março, o que levou muitas contas a mudarem aparências das vítimas.
Com a rápida evolução das tecnologias de IA, há poucas regulamentações disponíveis para conter sua disseminação e a preocupação se amplia ainda mais no caso dos vídeos deepfake como o do suposto bebê Rody Marie Floyd, que utiliza nomes verdadeiros registrados em arquivos policiais sem autorização prévia da família. Isso evidentemente cria problemas legais relacionados à criação ilegal de imagens baseadas nas vítimas originais. A disseminação de imagens e vídeos deepfakes não é ilegal pelo menos em nível federal, mas alguns estados como Virginia e Califórnia já proíbem pornografia desse tipo.
Até onde esses elementos serão capazes de ir? Como Bleakley comenta: “Esse é sempre o problema inerente a qualquer novo avanço tecnológico. Até onde ele poderá chegar?”. A integração entre as novas tecnologias relacionadas à inteligência artificial e o universo da alta criminalidade é uma tendência preocupante e deve ser regulamentada para proteger as vítimas e suas famílias.
Notícia |
---|
Uma conta do TikTok chamada @truestorynow posta vídeos de vítimas reais de crimes contando suas histórias. |
O vídeo mais recente mostra uma bebê fofa com olhos azuis gigantes e uma tiara florida que se identifica como Rody Marie Floyd, mas na verdade ela se chama Royalty Marie Floyd e era negra quando morreu aos 20 meses. |
Os vídeos deepfake são produzidos por inteligência artificial (IA) e mostram as vítimas narrando a partir da primeira pessoa os detalhes sangrentos dos seus assassinatos ou ataques. |
A plataforma TikTok proibiu a criação de deepfakes envolvendo pessoas privadas sem seu consentimento ou qualquer jovem em Março. |
A proliferação desses vídeos deepfake no TikTok é apenas uma dentre muitas questões éticas criadas pela enorme popularização do gênero true-crime. |
Há uma preocupação constante sobre o sofrimento das famílias das vitimas e um potencial aumento no número de armchair sleuths e obsessivos por crimes verdadeiros. |
O caso Floyd mostra uma tendência preocupante de aumento da integração entre as novas tecnologias relacionadas à inteligência artificial e o universo da alta criminalidade. |
Com informações do site Rolling Stone.