Inteligência Artificial é reprovada em testes no mundo real

Listen to this article

Inteligência Artificial é reprovada em testes no mundo real

Testar a inteligência artificial

Com as crescentes preocupações com os riscos da inteligência artificial, e com o fato de que as decisões da inteligência artificial nem sempre são inteligentes, pesquisadores decidiram que era hora de começar a simular as complexidades do mundo real nesses sistemas antes que eles sejam liberados para uso.

“Embora o aprendizado profundo tenha realmente sido muito bem-sucedido em obter desempenho de ponta em ambientes acadêmicos selecionados, ele ainda precisa ser testado na presença das complexidades do mundo real,” disse Abhishek Gupta, do Instituto de Tecnologia da Manufatura de Cingapura.

E os resultados não foram nem um pouco entusiasmantes para a inteligência artificial: As simulações mostraram que mesmo pequenas alterações nos dados podem alterar totalmente os resultados, mostrando que o aprendizado profundo é na verdade um “aprendizado” pouco seletivo e relativo.

Pior do que isso, as simulações mostram que é muito fácil enganar esses sistemas de análise automatizada.

Inteligente e ingênua

O trabalho se concentrou no desempenho da inteligência artificial baseada em visão de máquina, a tecnologia que vem sendo usada nos carros sem motorista e em vigilância.

Usando seis videogames Atari, incluindo o clássico jogo Pong, os pesquisadores simularam perturbações visuais que podem acontecer no mundo real, devido a reflexos, por exemplo. E eles foram conservadores, alterando um pequeno número de píxeis em quadros selecionados no ambiente do jogo. A seguir, examinaram o desempenho do algoritmo no ambiente perturbado, medindo a “recompensa acumulada”, um termômetro da qualidade das decisões de um algoritmo.

Surpreendentemente, o que se viu foi que uma alteração de um único píxel nas imagens de entrada foi suficiente para fazer com que a recompensa acumulada despencasse para todos os quatro algoritmos testados, incluindo algoritmos amplamente usados, como o Deep Q Networks.

Segundo a equipe, esses resultados indicam que, embora os modelos de aprendizado profundo prosperem em ambientes já testados e padronizados, eles estariam mal equipados para lidar com um ambiente altamente variável, como estradas e áreas densamente povoadas, potencialmente em detrimento da segurança.

“A maior parte do trabalho se concentrou em obter modelos de aprendizado profundo ou inteligência artificial altamente precisos,” disse Gupta. “No entanto, essa vulnerabilidade precisa ser considerada antes que essas inteligências artificiais sejam colocadas em uso operacional, para garantir a integridade e a confiabilidade da sua implantação.”

origem: Inovação Tecnológica

 Sirlei Madruga de Oliveira

 Editora do Guia do CFTV

 sirlei@guiadocftv.com.br

 


Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?

Importante:

Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’

Sirlei Madruga

Sirlei Maria Guia do CFTV

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.