Instituto Futuro da Vida pede pausa de seis meses em treinamento de sistemas de IA
O Instituto Futuro da Vida solicitou uma pausa de seis meses no treinamento de sistemas de Inteligência Artificial (IA) mais poderosos que o GPT-4. A ideia é criar protocolos de segurança compartilhados e supervisionados por especialistas independentes, garantindo a segurança dos sistemas. A professora Baobao Zhang, especialista em ética e governança da IA, respondeu algumas perguntas sobre a preocupação levantada pela carta.
A carta se refere à corrida desenfreada das grandes empresas de tecnologia e startups menores que tentam lançar sistemas de IA gerativa, incluindo modelos grandes de linguagem, modelos de texto para imagem e modelos multimodais. O principal problema é que esses modelos são implantados em diferentes ambientes sem auditorias e proteções suficientes.
Recentemente, vimos muitas pessoas sendo enganadas por imagens sintéticas geradas por um sistema AI chamado Midjourney. Dado que esses sistemas são relativamente generalizados, é muito difícil para quem desenvolve ou implanta sistemas de IA saber quais riscos eles poderiam representar. Por isso, é fundamental estudarmos e anteciparmos como esses sistemas poderosos podem afetar a sociedade antes de implantá-los.
Zhang também destaca a falta de supervisão ética nas empresas que desenvolvem essa tecnologia. Ela argumenta que as equipes internas de ética em IA podem ter pouco poder para desacelerar ou interromper o implante desses sistemas, já que essas empresas estão sob pressão econômica.
Sobre uma pausa de seis meses na experimentação da IA gerativa, Zhang afirma que sozinha não será suficiente. É preciso pensar em medidas mais amplas e mais duráveis para o desenvolvimento desses sistemas de IA mais generalistas. Além disso, é importante considerar como é possível garantir que os desenvolvedores respeitem a moratória de seis meses.
Por fim, Zhang recomenda que os pesquisadores trabalhem com cientistas sociais, grupos da sociedade civil e jornalistas ao desenvolver novos modelos. É crítico estudarmos e anteciparmos como os sistemas de IA poderosos podem impactar a sociedade antes de implementá-los. E por ser um momento confuso para o público em geral, Zhang afirma existir um consenso entre especialistas sobre o potencial impacto positivo ou negativo da IA gerativa. E um dos riscos é a proliferação de propaganda e desinformação.
Instituto Futuro da Vida | Solicita pausa de 6 meses no treinamento em IA mais poderosos que o GPT-4. |
---|---|
Corrida desenfreada | Grandes empresas e startups estão lançando modelos de IA gerativa sem auditorias e proteções suficientes. |
Falta de supervisão ética | Equipes internas de ética em IA podem ter pouco poder para desacelerar ou interromper o implante desses sistemas. |
Pausa de seis meses | Não será suficiente. É preciso pensar em medidas mais amplas e duráveis para o desenvolvimento desses sistemas. |
Recomendação | Pesquisadores devem trabalhar com cientistas sociais, grupos da sociedade civil e jornalistas para estudar e antecipar os impactos da IA gerativa. |
Descoberta nova espécie de macaco na Amazônia
Com informações do site G1