Grupo de líderes tecnológicos pede interrupção no treinamento de sistemas de inteligência artificial
Um grupo de líderes tecnológicos pediu a interrupção do treinamento dos sistemas de inteligência artificial (IA) mais poderosos por pelo menos seis meses, citando riscos profundos para a sociedade e a humanidade. A OpenAI Lab, com sede em San Francisco, foi instada a interromper ainda mais o desenvolvimento do algoritmo GPT-4 até que padrões de supervisão sejam estabelecidos. O apelo foi feito em uma carta aberta com mais de 3.100 signatários, incluindo o co-fundador da Apple, Steve Wozniak.
A Itália tornou-se o primeiro país ocidental a proibir o desenvolvimento do ChatGPT por questões de privacidade. O aplicativo sofreu uma violação de dados no mês passado que envolveu conversas e informações de pagamento do usuário. A autoridade italiana de proteção de dados também está investigando se o chatbot da OpenAI violou as regras da Regulação Geral sobre Proteção de Dados da União Europeia.
Embora o GPT-4 seja o maior sistema em termos computacionais, espera-se que ele seja substituído pelo artificial general intelligence (AGI), capaz de pensar por si próprio – o chamado GPT-5. Espera-se ainda que com a evolução dos modelos large-scale machine learning models for AI utilizados para treinamento em inteligência artificial cada vez maiores em capacidade, a tendência é seguir dobrando anualmente.
Chatbots como assistentes alimentados por tecnologia AI para empresas estão sendo lançados sem as ferramentas necessárias para monitorar o quão precisas ou imprecisas são as informações geradas por essa tecnologia. A vice-presidente e analista destacada na Gartner Research, Avivah Litan, argumenta que os laboratórios de IA estão avançando rapidamente sem qualquer supervisão, o que pode resultar em inteligência artificial como AGI tornando-se incontrolável.
A preocupação atual reside no fato de que a tecnologia de IA está sendo lançada para uso pelas empresas sem as ferramentas necessárias para que os usuários determinem se a tecnologia está gerando informações precisas ou imprecisas. Sem sistemas de autenticação do conteúdo, o risco é um maior espalhamento da desinformação pelo mundo digital.
Embora haja uma expectativa na comunidade tecnológica de que GPT evolua para se tornar artificial general intelligence (AGI), capaz de pensar por si mesmo, há um longo caminho até tal conquista ser alcançada. Ainda são muitas as tarefas que só o ser humano pode realizar como o raciocínio do senso comum e compreensões abstratas alheias aos cálculos e técnicas de programação atuais.
O que aconteceu? | Líderes tecnológicos pediram a interrupção do treinamento de sistemas de inteligência artificial mais poderosos por pelo menos seis meses. |
Por quê? | Citando riscos profundos para a sociedade e a humanidade. |
Quem apoia? | Co-fundador da Apple, Steve Wozniak, e mais de 3.100 signatários. |
Quem deve interromper o desenvolvimento? | A OpenAI Lab com sede em San Francisco. |
O que a Itália fez? | Tornou-se o primeiro país ocidental a proibir o desenvolvimento do ChatGPT por questões de privacidade. |
O que está sendo investigado? | Se o chatbot da OpenAI já violou as regras da Regulação Geral sobre Proteção de Dados da União Europeia. |
Qual é a preocupação atual? | A tecnologia de IA está sendo lançada para uso pelas empresas sem as ferramentas necessárias para que os usuários determinem se a tecnologia está gerando informações precisas ou imprecisas. |
O que pode acontecer? | O risco é um maior espalhamento da desinformação pelo mundo digital. |
O que é AGI? | Artificial General Intelligence, capaz de pensar por si próprio. |
Quando se espera que o GPT evolua para AGI? | Não há previsão, ainda são muitas as tarefas que só o ser humano pode realizar. |
Com informações do site Computerworld.