Elon Musk e Steve Wozniak estão entre os mais de 10 mil signatários de carta online pedindo que laboratórios de inteligência artificial (IA) não treinem sistemas mais poderosos do que o ChatGPT-4, devido a preocupações com os “desconhecidos desconhecidos” – riscos ainda não imaginados. A carta menciona os Princípios Asilomar de IA, que instam a um desenvolvimento gerenciado e planejado da IA “benéfica”. Cientistas de IA preocupam-se com o aceleramento do desenvolvimento sem as devidas precauções. A conferência Asilomar, sediada na Califórnia, é apontada pelos cientistas como um exemplo a ser seguido.
Em 1975, a conferência Asilomar foi criada para discutir o uso seguro e a manipulação do DNA. Os cientistas envolvidos na pesquisa de DNA recombinante trabalhavam em instituições públicas e conseguiram estabelecer diretrizes específicas para limitar os riscos. A IA atual é amplamente desenvolvida por empresas privadas, então as diretrizes precisam levar em consideração essa diferença entre os setores público e privado. Apesar disso, os cientistas apontam que a conferência Asilomar é um exemplo de como as diretrizes podem ser estabelecidas para garantir um desenvolvimento seguro e benéfico da IA.
As lições de Asilomar
A conferência Asilomar de 1975 discutiu o uso seguro e a manipulação do DNA. Os especialistas atribuíram estimativas de risco a diferentes experimentos, aplicando diretrizes específicas. No último dia da conferência, os participantes concordaram que as pesquisas deveriam continuar, mas com limites rigorosos. As diretrizes Asilomar forneceram uma base para as diretrizes oficiais dos EUA sobre pesquisa envolvendo DNA recombinante emitidas em julho de 1976.
A indústria da IA pode seguir o exemplo da indústria biotecnológica e estabelecer diretrizes para garantir um desenvolvimento seguro e benéfico. Com poucas empresas poderosas impulsionando a IA generativa, a transparência é fundamental. Atualmente, o OpenAI não divulga detalhes sobre como seu modelo é treinado, citando a segurança do GPT-4. Criadores de chatbots admitem que suas ferramentas de IA não são perfeitas, mas isso não os impediu de lançá-las em uma tentativa de se manterem à frente dos concorrentes. A conferência Asilomar é um exemplo a ser seguido para garantir um desenvolvimento seguro e benéfico da IA.
à IA, e é preciso estabelecer diretrizes para garantir que a pesquisa seja conduzida de forma ética e segura. Em março de 2023, mais de 10 mil pessoas, incluindo Elon Musk e Steve Wozniak, assinaram uma carta pedindo que os laboratórios de IA parassem os treinamentos em sistemas mais poderosos do que o ChatGPT-4. A preocupação é com os “desconhecidos desconhecidos”, riscos que ainda não conseguimos imaginar. Os Princípios Asilomar de IA, desenvolvidos por cientistas da computação durante uma conferência em 2017, chamam para uma abordagem planejada e gerenciada para desenvolver a IA “benéfica”. A conferência genética realizada em Asilomar em 1975 pode servir como exemplo para estabelecer diretrizes para pesquisas com IA. Com informações do site Quartz.