Ícone do site GuiadoCFTV

Inteligência Artificial precisa de inteligência social para não ferir humanos

Listen to this article

Inteligência artificial humanizada

Engenheiros e programadores envolvidos com a inteligência artificial devem buscar os conhecimentos e conceitos de uma ampla gama de disciplinas das ciências sociais, incluindo aquelas que adotam métodos qualitativos, para reduzir o dano potencial de suas criações e para melhor servir a sociedade como um todo.

Inteligência Artificial
Devido ao embasamento meramente quantitativo da área, muitos pesquisadores têm-se perguntado se a inteligência artificial é mesmo inteligente.

Esta é a mensagem de Mona Sloane (Universidade de Nova Iorque) e Emanuel Moss (Universidade Municipal de Nova Iorque), em um artigo que marca o lançamento de uma revista do grupo Nature dedicada à “inteligência de máquina”.

“Há evidências crescentes de que a IA pode exacerbar a desigualdade, perpetuar a discriminação e infligir danos. Para alcançarmos uma tecnologia socialmente justa, precisamos incluir a noção mais ampla possível de ciência social, que inclua disciplinas que desenvolveram métodos para lidar com a vastidão do mundo social e que nos ajude a entender como e por que os males da IA surgem como parte de um sistema tecnossocial grande, complexo e emergente,” escreveram eles.

Estudos têm mostrado que os mecanismos de busca de informações na internet, baseados no aprendizado de máquina e na inteligência artificial, podem apresentar discriminações e preconceitos. Ao mesmo tempo, analistas têm listado os perigos que a Inteligência Artificial trará à humanidade e levantado dúvidas sobre como os carros autônomos tomarão decisões socialmente aceitáveis em situações de potenciais acidentes.

 

Ciências sociais dando suporte à inteligência artificial

Os dois pesquisadores defendem que as abordagens das ciências sociais podem aumentar amplamente o valor da inteligência artificial, ao mesmo tempo evitando as armadilhas já documentadas. Para isso, é necessário ir além da garimpagem de dados e seus métodos quantitativos, incorporando os muitos métodos qualitativos das ciências sociais.

Eles reconhecem que os engenheiros de IA estão procurando incutir “alinhamentos de valor” – a ideia de que as máquinas deveriam agir de acordo com os valores humanos – em suas criações, mas acrescentam que “é excepcionalmente difícil definir e codificar algo tão fluido e contextual quanto ‘valores humanos’ em uma máquina.”

Algo que realmente incomoda os cientistas é que, embora saibamos programar suas caixas-pretas, continuamos sem saber como a inteligência artificial funciona.

Para resolver essa lacuna, os dois autores oferecem um modelo para a inclusão das ciências sociais na inteligência artificial por meio de uma série de recomendações:

“À medida que avançamos alinhando os elementos sociais, culturais e tecnológicos de nossas vidas, precisamos integrar diferentes tipos de conhecimento ao desenvolvimento tecnológico. Um futuro mais socialmente justo e democrático para a IA na sociedade não pode simplesmente ser calculado ou projetado; ele deve ser vivido, narrado e extraído de um profundo entendimento sobre a sociedade,” concluem Sloane e Moss.

 

Origem: Inovação Tecnológica 

 

Marcelo Peres

mpperes@guiadocftv.com.br

Guia do CFTV

Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?

Gostaria de sugerir alguma notícia ou entrar em contato, clique Aqui!

Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’

Sair da versão mobile