Estudo revela que desinformação gerada por IA é mais persuasiva, aponta pesquisa
Um novo estudo revelou que as pessoas podem ser mais suscetíveis à desinformação quando esta é escrita por inteligência artificial (IA). A pesquisa constatou que os participantes da análise não conseguiram distinguir entre tweets criados pelo modelo de linguagem GPT-3 e tweets escritos por humanos. Além disso, os entrevistados geralmente consideraram os tweets gerados pela IA mais convincentes.
O estudo, realizado com 697 pessoas, escolheu tópicos comumente associados à desinformação, como vacinas, COVID-19, evolução e tecnologia 5G. Os participantes foram solicitados a identificar se os tweets eram verdadeiros ou falsos. Foi mais fácil para eles reconhecerem a precisão dos tweets gerados pelo GPT-3. Por outro lado, eles foram mais enganados pelos tweets da IA contendo desinformação.
Essa descoberta mostra que o GPT-3 é uma espada de dois gumes: pode produzir informações precisas e de fácil compreensão, mas também pode gerar desinformação extremamente persuasiva. Especialistas têm expressado preocupações sobre o aumento da desinformação resultante do uso generalizado da IA. Ferramentas alimentadas por modelos de linguagem avançados, como o ChatGPT, já demonstraram apresentar informações incorretas de maneira sofisticada e convincente. Essas ferramentas também são capazes de inventar fatos completamente fictícios.
Um exemplo dessa capacidade enganosa da IA ocorreu quando a OpenAI foi processada por difamação por um apresentador de rádio que alegava que o chatbot ChatGPT criou uma reclamação jurídica falsa sobre ele.
A maioria dos participantes desta análise publicada no periódico Science Advances possuía diploma de bacharel, principalmente nas áreas de ciências sociais e humanas, ciências naturais ou ciências médicas. Além disso, a maioria dos entrevistados era do Reino Unido, Austrália, Canadá, Estados Unidos e Irlanda.
Esse estudo destaca a relevância de aumentar a consciência das pessoas em relação à desinformação gerada por IA. É essencial que as plataformas tecnológicas implementem medidas para garantir que informações precisas sejam promovidas e que os usuários sejam capazes de distinguir entre conteúdo autêntico e gerado por IA. Educar o público e desenvolver habilidades críticas para avaliar informações são passos cruciais para lidar com esse desafio emergente.
Em conclusão, embora a IA tenha o potencial de fornecer informações valiosas e inovadoras, também devemos estar atentos aos perigos da desinformação gerada por essa tecnologia. À medida que avançamos para um futuro cada vez mais digitalizado, é fundamental garantir a transparência e responsabilidade no uso da IA.
Notícia: Um novo estudo revelou que as pessoas podem ser mais suscetíveis à desinformação quando esta é escrita por inteligência artificial (IA). |
---|
O estudo foi realizado com 697 pessoas, que não conseguiram distinguir entre tweets criados pelo modelo de linguagem GPT-3 e tweets escritos por humanos. |
Os entrevistados geralmente consideraram os tweets gerados pela IA mais convincentes. |
Especialistas têm expressado preocupações sobre o aumento da desinformação resultante do uso generalizado da IA. |
Um exemplo dessa capacidade enganosa da IA ocorreu quando a OpenAI foi processada por difamação por um apresentador de rádio. |
A maioria dos participantes possuía diploma de bacharel, principalmente nas áreas de ciências sociais e humanas, ciências naturais ou ciências médicas. |
Esse estudo destaca a relevância de aumentar a consciência das pessoas em relação à desinformação gerada por IA. |
É essencial que as plataformas tecnológicas implementem medidas para garantir que informações precisas sejam promovidas e que os usuários sejam capazes de distinguir entre conteúdo autêntico e gerado por IA. |
Em conclusão, devemos estar atentos aos perigos da desinformação gerada por IA e garantir a transparência e responsabilidade no uso dessa tecnologia. |
Com informações do site Business Insider.