Inteligências Artificiais ainda não são completamente confiáveis na busca de informações na internet, aponta estudo
Um estudo realizado pelo Washington Post apontou que as inteligências artificiais, apesar de impressionantes, ainda têm muito a evoluir antes de se tornarem ferramentas completamente seguras e confiáveis para busca de informações na internet.
O experimento foi conduzido por 10 jornalistas do Washington Post, que fizeram 47 perguntas ao Bing AI da Microsoft, um chatbot do tipo “answer engine”, com tecnologia semelhante ao ChatGPT, uma inteligência artificial também desenvolvida pela Microsoft. O objetivo era avaliar a efetividade do bot na busca de informações complexas.
Os resultados mostraram que, embora em geral os usuários possam confiar nas respostas dadas pelo ChatGPT e pelo Bing AI, há momentos em que as inteligências artificiais se equivocam muito. O problema ocorre porque esses bots apresentam as informações como verdades definitivas, mesmo quando estão completamente errados.
No caso específico avaliado pelo estudo, o chatbot citou um artigo do veículo de propaganda russo conhecido como Pravda como prova da morte de uma combatente voluntária na Ucrânia, chamada Rebekah Maciorowski. No entanto, a informação se mostrou completamente errada – Rebekah está viva.
Foram feitas 47 perguntas ao Bing Chatbot, que respondeu utilizando mais de 700 citações de diversas fontes. Ao final do experimento, chegou-se ao resultado de que 6 em cada 10 fontes utilizadas pelo bot eram boas e adequadas, enquanto três em cada 10 respostas foram consideradas medianas e quase 1 em cada 10 fontes eram inadequadas ou incorretas.
Os chatbots são parte da evolução das buscas através da inteligência artificial, mas ainda há muito a ser desenvolvido nessa tecnologia antes que se torne completamente confiável na busca de informações na internet. O estudo conduzido pelo Washington Post mostra que, apesar dos avanços, ainda há desafios a serem superados.
Notícia | O relatório apresenta resultados de experimento com Bing AI da Microsoft para avaliar eficácia de pesquisas através do chatbot |
---|---|
Participantes | 10 jornalistas do Washington Post |
Perguntas feitas | 47 |
Fontes utilizadas | Mais de 700 citações |
Resultado | 6 em cada 10 fontes eram boas e adequadas, 3 em cada 10 foram consideradas medianas e quase 1 em cada 10 fontes eram inadequadas ou incorretas |
Preocupação | Chatbots podem fornecer informações equivocadas como verdades absolutas |
Objetivo da Microsoft | Entregar fontes críveis nas buscas feitas através do Bing chatbot ou da barra de buscas tradicional e encorajar os usuários a explorarem as citações para verificarem informações detalhadas |
Com informações do site The Washington Post.