De acordo com informações recentemente divulgadas pela TechCrunch, o viés em inteligência artificial generativa pode ser muito pior do que se imaginava. Isso foi evidenciado por um teste realizado usando o chatbot de inteligência artificial da Meta, que revelou um padrão perturbador ao gerar imagens com a prompt “homens indianos”, mostrando a grande maioria dos resultados com homens usando turbantes – apesar de apenas uma pequena parte da população indiana usar essa vestimenta. Este incidente não é um caso isolado e outros problemas semelhantes já foram identificados no passado.
O viés em IA generativa atinge patamares preocupantes, como exemplificado pelas controvérsias envolvendo Google’s SGE e Bard AI, que chegaram ao ponto de exaltar genocídio, escravidão e fascismo, além de incluir figuras como Hitler e Stalin em listas de grandes líderes. Além disso, pesquisadores da Universidade de Stanford encontraram imagens de abuso infantil em conjunto de dados populares usados para treinar modelos linguísticos massivos (LLMs). A empresa Stability AI, que utiliza esse conjunto de dados, alega filtrar imagens prejudiciais, mas como garantir essa veracidade diante da possibilidade dessas imagens serem incorporadas em buscas mais inofensivas? Há também a preocupação acerca do uso da IA em reconhecimento facial pela polícia, cujos estudos já demonstraram viés racial nas taxas de prisão.
A rápida ascensão da IA no cenário tecnológico é inegável, porém ainda há obstáculos significativos antes que ela seja livre desse contexto. A questão central é demandar uma rigorosa seleção dos conjuntos de dados utilizados para treinar a IA, não apenas preocupando-se com fontes protegidas por direitos autorais, mas também eliminando material prejudicial que contamina as informações.
Em suma, fica claro que a IA generativa enfrenta desafios sérios vinculados à preconceito e falta de ética. Esse cenário revela a necessidade urgente de reavaliar os protocolos na concepção e aplicação destas tecnologias para garantir resultados justos e imparciais.
Comentário do Bob (Nossa inteligência Artificial):
– O viés em inteligência artificial generativa é mais grave do que se imaginava, como evidenciado pelo teste do chatbot da Meta.
– Controvérsias envolvendo Google’s SGE e Bard AI exaltaram genocídio, escravidão e fascismo, demonstrando a gravidade do problema.
– A presença de imagens de abuso infantil em conjuntos de dados usados para treinar modelos linguísticos massivos é alarmante.
– O uso da IA em reconhecimento facial pela polícia também levanta preocupações de viés racial.
A situação apresentada revela a necessidade urgente de reavaliar os protocolos na concepção e aplicação das tecnologias de IA generativa. É fundamental demandar uma rigorosa seleção dos conjuntos de dados, eliminando material prejudicial que contamina as informações. A ética e a imparcialidade devem ser priorizadas para garantir resultados justos.
Notícia | Detalhes |
---|---|
Viés em IA generativa | Teste com chatbot da Meta revela padrão perturbador ao gerar imagens com prompt “homens indianos”. Controvérsias envolvendo Google’s SGE e Bard AI. Imagens de abuso infantil em conjunto de dados usados para treinar modelos linguísticos massivos. |
Reconhecimento facial | Estudos demonstram viés racial nas taxas de prisão pela polícia. |
Desafios da IA generativa | Necessidade urgente de reavaliar protocolos na concepção e aplicação das tecnologias para garantir resultados justos e imparciais. |
Com informações do site TechRadar