Google DeepMind, OpenAI e Anthropic colaboram na segurança da inteligência artificial
Três grandes nomes da tecnologia se unem em prol da segurança da inteligência artificial. Google DeepMind, OpenAI e Anthropic estão colaborando para desenvolver estruturas e protocolos que abordem os riscos existenciais da IA. Essa iniciativa surge em um momento em que pesquisadores e especialistas estão cada vez mais preocupados com o impacto da IA na humanidade.
Embora existam riscos graves provenientes da utilização da IA no mundo real, como o reforço e amplificação de vieses sistêmicos e sociais já existentes, preocupações quanto aos riscos existenciais estão se tornando mais difíceis de ignorar. Uma pesquisa realizada em 2022 com pesquisadores que trabalham na vanguarda da tecnologia de inteligência artificial revelou que cerca da metade desses pesquisadores agora acredita que existe uma chance maior do que 10% do impacto da IA ser “extremamente ruim” e pode incluir a extinção humana.
Para evitar problemas graves com os modelos futuros de IA, cientistas estão desenvolvendo métodos preventivos e estudando esses novos protótipos em ambientes seguros e isolados. Entre as nove capacidades da IA que podem representar riscos significativos e para as quais os modelos devem ser avaliados, estão a capacidade de conduzir ciberataques, manipular informações falsas, persuadir pessoas a tomar determinadas medidas e o planejamento em longo prazo, incluindo estabelecer submetas.
Os pesquisadores sugerem que testes devem ser conduzidos tanto pelas empresas e laboratórios que desenvolvem a IA avançada quanto por auditores externos independentes. Ao trabalhar nessas questões, esperamos minimizar eventuais danos causados pelas novas tecnologias enquanto aproveitamos seus benefícios.
Riscos da IA | Prevenção |
---|---|
Impacto extremamente ruim, incluindo a extinção humana | Testes conduzidos por empresas e auditores independentes; avaliação de nove capacidades da IA que podem representar riscos significativos |
Reforço e amplificação de vieses sistêmicos e sociais já existentes | Desenvolvimento de métodos preventivos e estudo de protótipos em ambientes seguros e isolados |
Aumento da impressão de carbono das modelos generativos de IA |
Com informações do site Fortune.