Uso de ferramentas de AI se populariza, mas receios sobre impacto são levantados
O uso de ferramentas de AI, como o ChatGPT, tem se popularizado cada vez mais. A combinação de poder computacional e disponibilidade de dados tem impulsionado a tecnologia AI, e modelos como o ChatGPT e o Bard têm causado grande impressão porque chegaram às nossas casas, com cerca de 100 milhões de pessoas usando-os atualmente.
Prevê-se que um quarto de todos os empregos seja afetado pela AI, e algumas empresas estão segurando a contratação para ver quais trabalhos podem ser automatizados. Os medos em torno da IA podem mover mercados, conforme vimos ontem quando as ações da Pearson caíram por preocupações de que a IA interromperia seus negócios.
Receios apocalípticos não devem ser motivo para pânico
Acima do debate diário pairam os avisos às vezes apocalípticos sobre os perigos de longo prazo das tecnologias de IA – frequentemente vindos de vozes altas e autoritárias pertencentes a executivos e pesquisadores que desenvolveram essas tecnologias.
No mês passado, líderes de ciência, tecnologia e negócios assinaram uma carta pedindo uma pausa no desenvolvimento da IA. E nesta semana, o pesquisador pioneiro em IA Geoffrey Hinton disse temer que a AI pudesse se tornar rapidamente mais inteligente do que a humanidade e pudesse ser facilmente usada para fins maliciosos.
Contexto social é fundamental para entender impacto da IA
Embora haja riscos preocupantes, as pessoas estão começando a entender que esses sistemas são sociais além do técnico. Ou seja, não são apenas ferramentas neutras, mas um pacote inextricável de código, dados, parâmetros subjetivos e pessoas. Os usos finais da IA e a direção que ela desenvolve não são inevitáveis.
Pesquisadores como Joy Buolamwini, Ruha Benjamin e Timnit Gebru têm destacado há muito tempo como o contexto em que as tecnologias de IA são produzidas e usadas pode influenciar o que obtemos. Eles explicam por que sistemas de IA podem produzir resultados discriminatórios, como alocar menos crédito para as mulheres, não reconhecer rostos negros, determinar incorretamente que famílias imigrantes estão em maior risco de cometer fraudes.
Regulação e responsabilidade são necessárias
Felizmente, países ao redor do mundo já estão lidando com essas questões. Os EUA, a UE, Índia, China e outros estão implementando controles e revisando abordagens regulatórias. Enquanto isso, padrões globais estão emergindo. O presidente Joe Biden quer um projeto de lei dos direitos das pessoas na era da inteligência artificial e a ONU anunciou um pacto digital global para garantir que os direitos humanos existentes possam ser mantidos na era digital.
Empresas estão cientes desses problemas enquanto trabalham em novos sistemas. A OpenAI, empresa por trás do ChatGPT, reconhece bem os problemas e riscos. Na minha opinião, regras do jogo são necessárias e acordos globais são vitais se quisermos mudar de desenvolvimento um tanto descuidado da IA para a adoção responsável e democrática dessa nova potência.
Notícia | As ferramentas de AI, como o ChatGPT, estão em todos os lugares. Prevê-se que um quarto de todos os empregos seja afetado pela AI e algumas empresas estão segurando a contratação para ver quais trabalhos podem ser automatizados. |
---|---|
Riscos da IA | A IA pode produzir resultados discriminatórios, como alocar menos crédito para as mulheres, não reconhecer rostos negros e determinar incorretamente que famílias imigrantes estão em maior risco de cometer fraudes. É necessário chegar a um consenso sobre a direção correta para inovação técnica, o uso responsável dessas tecnologias e as restrições impostas a elas. |
Regulamentação | Países ao redor do mundo estão implementando controles e revisando abordagens regulatórias. Padrões globais estão emergindo e o presidente Joe Biden quer um projeto de lei dos direitos das pessoas na era da inteligência artificial. A ONU anunciou um pacto digital global para garantir que os direitos humanos existentes possam ser mantidos na era digital. |
Com informações do site The Guardian.