Relatório vazado indica que inteligência artificial de código aberto pode superar a Google e a OpenAI
Um relatório recentemente vazado, supostamente ligado à Google, sugere que sistemas de inteligência artificial de código aberto podem superar os desenvolvidos pela empresa e pela OpenAI. Esse vazamento trouxe à tona uma discussão em andamento na comunidade de IA sobre como esses sistemas devem ser compartilhados com pesquisadores e o público em geral.
A questão da abertura ou fechamento dos sistemas de IA é vista por muitos como binária. Sistemas abertos descentralizam o poder, permitindo que muitas pessoas trabalhem coletivamente para garantir que reflitam suas necessidades e valores. Por outro lado, sistemas fechados são protegidos contra atores fora da organização do desenvolvedor, mas não podem ser auditados ou avaliados por pesquisadores externos.
Existem opções intermediárias entre esses extremos. No meio do gradiente estão sistemas que são mais conhecidos pelo público, como o ChatGPT e o Midjourney, que compartilham o modelo por meio de uma plataforma para que o público possa gerar saídas.
Não há um conjunto padronizado de normas de lançamento para esses sistemas, nem um órgão estabelecido para definir os padrões. Desde o lançamento do GPT-2 em 2019, houve discussões crescentes sobre como implantar com responsabilidade sistemas cada vez mais poderosos e quais deveriam ser as obrigações de publicação ou lançamento.
Desde então, sistemas em diferentes modalidades, especialmente das grandes organizações, deslocaram-se em direção ao fechamento, levantando preocupações quanto à concentração de poder nas organizações de alto recurso capazes de desenvolver e implantar esses sistemas.
Notícia: | Relatório vazado afirma que IA de código aberto superará Google e OpenAI |
---|---|
Discussão em andamento: | Como compartilhar sistemas de IA com pesquisadores e público em geral |
Opções de sistemas: | Sistemas abertos, fechados e intermediários |
Desenvolvimento aberto: | Permite mais contribuições, mas aumenta potencial de danos e uso indevido |
Desenvolvimento fechado: | Protege contra atores externos, mas não pode ser auditado por pesquisadores externos |
Opções intermediárias: | Sistemas públicos com modelo compartilhado (ChatGPT e Midjourney) |
Padrões de lançamento: | Não há um conjunto padronizado de normas ou órgão estabelecido para definir padrões |
Preocupações: | Concentração de poder nas organizações de alto recurso capazes de desenvolver e implantar sistemas de IA |
Com informações do site WIRED.