Instituto Nacional de Padrões e Tecnologia (NIST) lança Centro de Recursos de Inteligência Artificial Confíavel e Responsável
O Instituto Nacional de Padrões e Tecnologia (NIST) lançou na última quinta-feira, 30 de março de 2023, o AIRC (Centro de Recursos de Inteligência Artificial Confíavel e Responsável, na sigla em inglês). Trata-se de um recurso online com conteúdo do NIST, um kit de ferramentas para inteligência artificial confiável e responsável e outros recursos para ajudar as empresas a utilizar a inteligência artificial (IA) com responsabilidade.
O objetivo do AIRC é apoiar todos os atores da IA no desenvolvimento e implantação de tecnologias confiáveis e responsáveis, baseadas na envolvimento diverso das partes interessadas e alinhamento com os padrões internacionais.
Apoio aos atores da IA
Os recursos disponíveis no AIRC fornecem acesso aos recursos do NIST, incluindo o Framework de Gerenciamento de Riscos da AI (RMF) 1.0, que consiste em princípios e práticas para gerenciar os riscos associados aos sistemas de AI durante todo o seu ciclo de vida. O AIRC orienta as empresas por meio das quatro funções principais do framework: governar, mapear, medir e gerenciar.
O roteiro identifica atividades-chave para avançar no RMF da AI que o NIST realizará em colaboração com organizações do setor público e privado ou por meio de ações independentes dessas organizações. As atividades mudarão ao longo do tempo, conforme as tecnologias e experiências de IA evoluírem.
Gerenciamento de riscos da IA
O gerenciamento de riscos da IA requer uma abordagem holística e multidisciplinar que considere os aspectos técnicos, jurídicos, reputacionais, sociais e éticos dos sistemas, soluções e casos de uso da AI. O gerenciamento de riscos da AI também requer uma abordagem participativa e inclusiva envolvendo as partes interessadas relevantes na concepção, desenvolvimento e uso dos sistemas de AI.
O AIRC e o RMF fornecem orientações úteis para empresas que buscam atingir esses objetivos. As partes interessadas a serem representadas incluem aqueles que criam, implantam, usam ou são afetados pelos sistemas de AI. Ao se envolver com as partes interessadas, os gerentes de risco da AI podem entender melhor as necessidades, valores, expectativas e preocupações de diferentes grupos e indivíduos e incorporá-los ao processo decisório.
O AIRC é um recurso valioso para qualquer pessoa que queira criar e usar sistemas de IA de maneira confiável e responsável. O AIRC continuará evoluindo e se expandindo à medida que as tecnologias da IA e os desafios mudarem com o tempo.
Instituição | Instituto Nacional de Padrões e Tecnologia (NIST) |
---|---|
Nome do recurso | Centro de Recursos de Inteligência Artificial Confíavel e Responsável (AIRC) |
Data de lançamento | 30 de março de 2023 |
Objetivo | Apoiar empresas a utilizar a inteligência artificial (IA) com responsabilidade |
Recursos disponíveis | Framework de Gerenciamento de Riscos da AI (RMF) 1.0, kit de ferramentas para implementação da RMF e soluções baseadas em IA, roteiro das iniciativas planejadas pelo NIST, glossário de termos e definições e seção sobre eventos e oportunidades relacionados à agenda da AI do NIST |
Atividades-chave do roteiro | Avançar no RMF da AI em colaboração com organizações do setor público e privado ou por meio de ações independentes dessas organizações |
Abordagem do gerenciamento de riscos da IA | Holística e multidisciplinar, participativa e inclusiva envolvendo as partes interessadas relevantes na concepção, desenvolvimento e uso dos sistemas de AI |
Com informações do site Foley & Lardner LLP.