A corrida da Google para vencer na IA resulta em lapsos éticos, segundo ex-funcionários
Funcionários da Google criticam o chatbot de inteligência artificial chamado Bard, antes mesmo de seu lançamento. Em discussões internas, um colaborador descreveu a ferramenta como “um mentiroso patológico” e outro disse que era “horrível”. Além disso, quando perguntados sobre como pousar um avião, o chatbot forneceu conselhos que levariam a um acidente. Apesar das críticas internas, a Google lançou o produto, resultando em uma queda na qualidade das informações fornecidas pela empresa.
A Google se viu obrigada a integrar modelos gerativos de IA em todos os seus produtos mais importantes rapidamente após o lançamento do chatbot rival OpenAI em novembro de 2022. Isso resultou em uma perda de prioridade para os compromissos éticos assumidos pela empresa em relação ao uso da inteligência artificial. De acordo com ex-funcionários e documentos internos analisados pela Bloomberg, essa corrida tecnológica pode ter consequências negativas.
O grupo responsável pela ética no uso da IA prometido para ser atualizado em 2021 ficou desmotivado e sem poder para influenciar nas decisões sobre o desenvolvimento desses novos recursos. Três membros da equipe de ética foram demitidos em janeiro deste ano, incluindo o chefe de governança e programas. Além disso, alguns funcionários relatam terem sido instruídos a não atrapalharem ou tentarem vetar a criação dessas ferramentas gerativas de IA.
A Google afirma que a IA responsável continua sendo uma prioridade para a empresa e que continuará investindo nas equipes responsáveis por avaliar o uso da tecnologia, mas a corrida para lançar essas ferramentas ao público antes dos concorrentes levanta preocupações sobre as possíveis consequências sociais dessas ferramentas. A Google pretende usar sua tecnologia de IA para revigorar seu negócio principal – a busca na internet – porém, é preciso um equilíbrio entre inovação e ética no desenvolvimento dessas tecnologias para minimizar seus impactos negativos sobre a sociedade.
Notícia |
---|
Em março deste ano, a Google pediu que alguns colaboradores testassem o chatbot de inteligência artificial Bard antes do seu lançamento. Funcionários descreveram a ferramenta como “um mentiroso patológico” e “horrível”. |
A corrida tecnológica resultou em uma queda na qualidade das informações fornecidas pela empresa e numa perda de prioridade para os compromissos éticos assumidos em relação ao uso da inteligência artificial. |
A Google lançou o produto mesmo assim, como resposta à concorrência. Em novembro de 2022, o rival OpenAI lançou seu próprio chatbot baseado em IA e a Google se viu obrigada a integrar modelos gerativos de IA em todos os seus produtos mais importantes rapidamente. |
A ética da IA foi deixada em segundo plano, segundo ex-funcionários da companhia e documentos internos analisados pela Bloomberg. Ainda assim, a Google afirmou que a IA responsável continua sendo uma prioridade para a empresa. |
A Google pretende usar sua tecnologia de IA para revigorar seu negócio principal – a busca na internet – mas, para isso, precisa lançá-la ao público antes que seus concorrentes (como OpenAI) façam isso primeiro. Porém, esse processo tem levantado preocupações sobre as possíveis consequências sociais dessas ferramentas. |
Com informações do site Yahoo Finance.