Rumores de imagens falsas de prisão de Donald Trump levantam preocupações sobre manipulação de conteúdo por sistemas de inteligência artificial generativos. Essa tecnologia tem a capacidade de criar conteúdos altamente realistas, como vídeos de CEOs falando sobre prejuízos em suas empresas ou líderes mundiais ameaçando com ações militares. Com isso, é necessário tomar medidas para impedir manipulações da realidade.
Uma das medidas é a marcação invisível das imagens com marcas d’água, que funcionam como prova da autenticidade das imagens. Elas podem ser adicionadas às mesmas ao alterar levemente os valores dos pixels e também podem conter informações extras, como o software gerador e ID do usuário. Essa técnica também pode ser aplicada a áudio e vídeo para detectar manipulações simples como mudanças no tom ou iluminação.
Empresas que produzem esses sistemas de IA devem se responsabilizar por adicionar marcas d’água aos conteúdos gerados. Caso isso não ocorra, regulamentações poderão ser estabelecidas para impor essa medida. Alguns gatekeepers – como Apple, Google e Microsoft – poderiam impor por banimento aqueles que não cumprem essa norma.
Além disso, outra medida pode ser a assinatura dos conteúdos originais a partir de um app especializado. Dessa forma, não seria possível adulterar as informações já criptografadas no momento da gravação. Com essas medidas, será possível preservar a autenticidade das informações apresentadas online e evitar distrações provenientes de notícias falsas ou manipuladas pelo uso dessas tecnologias emergentes.
Essas preocupações reforçam a importância de se pensar em formas de regular e controlar o uso de tecnologias que podem prejudicar a veracidade das informações na era digital.
Rumores sobre acusação de Trump | Imagens de sua prisão foram falsas e criadas por sistemas de IA generativos |
---|---|
Generative AI pode criar conteúdos realistas | Possibilidade de criação de vídeos manipulados de CEOs e líderes mundiais |
Marcação invisível com marcas d’água | Prova de autenticidade de imagens, áudio e vídeo |
Responsabilidade das empresas de IA | Adicionar marcas d’água aos conteúdos gerados ou sofrer banimento |
Assinatura de conteúdos originais | Criptografia no momento da gravação para evitar adulterações |
Com informações do site Gizmodo.