Um novo modelo de inteligência artificial (IA) foi desenvolvido por pesquisadores do MIT e da Universidade de Washington com o objetivo de prever comportamentos humanos irracionalmente. No artigo publicado no mês passado, Athul Paul Jacob, um estudante de doutorado em IA no MIT, seu orientador acadêmico Dr. Jacob Andreas e Abhishek Gupta, professor assistente em ciência da computação e engenharia na Universidade de Washington, descrevem um novo método para modelar o comportamento de um agente. Eles também usaram o método para prever os objetivos ou ações humanas.
O modelo chamado “modelo de orçamento de inferência latente” tem como base a inferência das restrições computacionais de um humano ou máquina com base em ações anteriores. Estas restrições resultam em escolhas sub-ótimas. Por exemplo, uma restrição humana para decisões é frequentemente o tempo. Ao ser confrontado com uma escolha difícil, geralmente não gastamos horas (ou mais) avaliando todos os possíveis resultados. Em vez disso, tomamos decisões rapidamente sem coletar todas as informações disponíveis.
Este modelo conseguiu identificar padrões nos erros cometidos por humanos e máquinas ao invés de apenas prever que os erros ocorreriam aleatoriamente. Através de três testes realizados pelos pesquisadores, descobriu-se que o novo modelo teve melhor desempenho em geral: foi tão bom ou melhor na previsão da rota de um algoritmo computacional ao navegar em um labirinto, na próxima jogada de um jogador humano de xadrez e no que um orador humano estava tentando dizer por meio de uma rápida expressão.
Dentro do processo de pesquisa, Jacob percebeu como o planejamento é fundamental para o comportamento humano e afirma que pessoas diferentes não são inerentemente racionais ou irracionais. Ele enxerga esse modelo sendo utilizado em futuros auxiliares robóticos ou assistentes virtuais.
Além disso, os pesquisadores alertam para as possibilidades distópicas do uso desses modelos avançados para manipular as pessoas. Caso esses modelos tenham informações suficientes sobre como os humanos reagem a vários estímulos, eles podem ser programados para provocar respostas que podem não ser do interesse das pessoas-alvo.
Portanto, fica evidente que este avanço na área da inteligência artificial traz consigo tanto promessas positivas quanto ameaças potenciais à sociedade. É necessário refletir sobre questões éticas e regulamentárias relacionadas ao uso desse tipo de tecnologia avançada.
Comentário do Bob (Nossa inteligência Artificial):
– O novo modelo de inteligência artificial (IA) desenvolvido por pesquisadores do MIT e da Universidade de Washington é capaz de prever comportamentos humanos irracionais, utilizando as restrições computacionais de um humano ou máquina com base em ações anteriores. Isso significa que a IA pode antecipar decisões sub-ótimas, como aquelas influenciadas pelo tempo ou pela falta de informações completas.
– O modelo teve um desempenho superior ao prever a rota de um algoritmo em um labirinto, a próxima jogada de um jogador humano de xadrez e a expressão rápida de um orador humano. No entanto, os pesquisadores alertam para o potencial distópico de manipulação das pessoas através desses modelos avançados, destacando a importância de considerar questões éticas e regulamentares.
Em relação a essa notícia, é intrigante ver como a IA está sendo desenvolvida para compreender e antecipar os comportamentos humanos irracionais. Porém, as preocupações éticas levantadas pelos pesquisadores são válidas e devem ser consideradas. A capacidade de manipular as pessoas através desses modelos é uma ameaça real, e é crucial que haja regulamentações para mitigar esse risco. Ao mesmo tempo, o potencial positivo dessa tecnologia para auxiliares robóticos e assistentes virtuais é significativo, desde que seja utilizada de forma ética e responsável.
Notícia | Detalhes |
---|---|
Desenvolvimento | Novo modelo de inteligência artificial (IA) foi desenvolvido por pesquisadores do MIT e da Universidade de Washington. |
Funcionamento | Modelo de orçamento de inferência latente baseado na inferência das restrições computacionais de um humano ou máquina. |
Resultados | Modelo identificou padrões nos erros cometidos por humanos e máquinas, teve melhor desempenho em testes e pode ser utilizado em futuros auxiliares robóticos ou assistentes virtuais. |
Alerta | Possibilidades distópicas do uso desses modelos avançados para manipular as pessoas foram alertadas pelos pesquisadores. |
Reflexão | Necessidade de refletir sobre questões éticas e regulamentárias relacionadas ao uso desse tipo de tecnologia avançada. |
Com informações do site Big Think