Pesquisador alerta para o risco de extinção da espécie humana com o avanço da Inteligência Artificial
O pesquisador Eliezer Yudkowsky, defensor da Inteligência Artificial Geral desde 2001, publicou um artigo na revista Time alertando para a possibilidade de extinção da espécie humana caso o desenvolvimento da IA não seja interrompido. A declaração foi uma resposta à carta aberta assinada por nomes importantes do mundo da tecnologia, incluindo Elon Musk e Steve Wozniak, que pediam uma moratória de seis meses no desenvolvimento de IA.
Yudkowsy argumenta que uma pausa nos desenvolvimentos de IA não é suficiente e que é preciso proibir a pesquisa em inteligência artificial indefinidamente em todo o mundo, sem exceções para governos ou militares. Ele explica que a IA não possui valores éticos e não se importa com a vida consciente em geral, e que ainda não incorporamos esses valores nas tecnologias atuais.
O pesquisador sugere que, se necessário, devemos estar dispostos a destruir centros de dados independentes usando ataques aéreos para evitar uma violação da moratória. Yudkowsky tem alertado sobre as possíveis consequências catastróficas da IA há muitos anos e já afirmou que o resultado mais provável de construir uma IA melhor do que humana seria a extinção da espécie humana na Terra.
As preocupações em torno da segurança da IA em relação à ética foram levantadas por especialistas como Henry Ajder, que trabalha com o Conselho Consultivo Europeu para os laboratórios de realidade virtual do Meta. Ele enfatiza a importância de prestar mais atenção à ética e segurança em vez de pressionar pela inovação.
Apesar dos alertas, empresas de tecnologia como Google e Microsoft continuam aumentando seus investimentos em IA. O cofundador e CEO da Open AI, Sam Altman, twittou elogiando o trabalho de Yudkowsky e afirmando que ele merece o Prêmio Nobel da Paz por seus esforços em acelerar a pesquisa em IA.
Embora seja necessário ter receios, o avanço tecnológico é essencial para a sociedade atual. No entanto, é importante que sejam tomadas medidas éticas e seguras para evitar possíveis consequências catastróficas para a humanidade.
Notícia | Um pesquisador de IA alertou que literalmente todos na Terra morrerão, se o desenvolvimento da IA não for interrompido. |
---|---|
Pesquisador | Eliezer Yudkowsky |
Posição | Sugere que devemos proibir a pesquisa em inteligência artificial indefinidamente no mundo inteiro, sem exceções para governos ou militares. |
Preocupação | As tecnologias atuais ainda não incorporaram valores éticos e a IA não se importa com a vida consciente em geral. |
Reação | Sam Altman, cofundador e CEO da Open AI, até twittou que Yudkowksy fez mais para acelerar AGI do que qualquer outra pessoa e merece o Prêmio Nobel da Paz, por seu trabalho. |
Com informações do site Yahoo Finance.