Inteligência Artificial precisa de inteligência social para não ferir humanos

Inteligência artificial humanizada

Engenheiros e programadores envolvidos com a inteligência artificial devem buscar os conhecimentos e conceitos de uma ampla gama de disciplinas das ciências sociais, incluindo aquelas que adotam métodos qualitativos, para reduzir o dano potencial de suas criações e para melhor servir a sociedade como um todo.

Inteligência Artificial
Inteligência Artificial
Devido ao embasamento meramente quantitativo da área, muitos pesquisadores têm-se perguntado se a inteligência artificial é mesmo inteligente.

Esta é a mensagem de Mona Sloane (Universidade de Nova Iorque) e Emanuel Moss (Universidade Municipal de Nova Iorque), em um artigo que marca o lançamento de uma revista do grupo Nature dedicada à “inteligência de máquina”.

“Há evidências crescentes de que a IA pode exacerbar a desigualdade, perpetuar a discriminação e infligir danos. Para alcançarmos uma tecnologia socialmente justa, precisamos incluir a noção mais ampla possível de ciência social, que inclua disciplinas que desenvolveram métodos para lidar com a vastidão do mundo social e que nos ajude a entender como e por que os males da IA surgem como parte de um sistema tecnossocial grande, complexo e emergente,” escreveram eles.

Estudos têm mostrado que os mecanismos de busca de informações na internet, baseados no aprendizado de máquina e na inteligência artificial, podem apresentar discriminações e preconceitos. Ao mesmo tempo, analistas têm listado os perigos que a Inteligência Artificial trará à humanidade e levantado dúvidas sobre como os carros autônomos tomarão decisões socialmente aceitáveis em situações de potenciais acidentes.

 

Ciências sociais dando suporte à inteligência artificial

Os dois pesquisadores defendem que as abordagens das ciências sociais podem aumentar amplamente o valor da inteligência artificial, ao mesmo tempo evitando as armadilhas já documentadas. Para isso, é necessário ir além da garimpagem de dados e seus métodos quantitativos, incorporando os muitos métodos qualitativos das ciências sociais.

Eles reconhecem que os engenheiros de IA estão procurando incutir “alinhamentos de valor” – a ideia de que as máquinas deveriam agir de acordo com os valores humanos – em suas criações, mas acrescentam que “é excepcionalmente difícil definir e codificar algo tão fluido e contextual quanto ‘valores humanos’ em uma máquina.”

Inteligência Artificial precisa de inteligência social para não ferir humanos
Algo que realmente incomoda os cientistas é que, embora saibamos programar suas caixas-pretas, continuamos sem saber como a inteligência artificial funciona.

Para resolver essa lacuna, os dois autores oferecem um modelo para a inclusão das ciências sociais na inteligência artificial por meio de uma série de recomendações:

  • A pesquisa social qualitativa pode ajudar a compreender as categorias pelas quais entendemos a vida social e quais estão sendo usadas na IA. “Por exemplo, os tecnólogos não são treinados para entender como as categorias raciais na aprendizagem de máquina são reproduzidas como uma construção social que tem efeitos na vida real sobre a organização e a estratificação da sociedade,” observam Sloane e Moss. “Mas essas questões são discutidas em profundidade nas ciências sociais, o que pode ajudar a criar o pano de fundo sócio-histórico contra o qual a história de atribuir categorias como ‘raça’ pode ser explicitada.”
  • Uma abordagem qualitativa de coleta de dados pode estabelecer protocolos para ajudar a diminuir o preconceito e os vieses: “Os dados sempre refletem os preconceitos e interesses daqueles que fazem a coleta. A pesquisa qualitativa é explícita sobre a coleta de dados, enquanto as práticas de pesquisa quantitativa em IA não.”
  • A pesquisa qualitativa tipicamente requer que os pesquisadores reflitam sobre como suas intervenções afetam o mundo no qual fazem suas observações. “Uma abordagem quantitativa não exige que o pesquisador ou projetista de IA se inclua no mundo social. Portanto, não requer uma avaliação de quem está e quem não está incluído em decisões vitais do projeto de IA,” escreveram eles.

“À medida que avançamos alinhando os elementos sociais, culturais e tecnológicos de nossas vidas, precisamos integrar diferentes tipos de conhecimento ao desenvolvimento tecnológico. Um futuro mais socialmente justo e democrático para a IA na sociedade não pode simplesmente ser calculado ou projetado; ele deve ser vivido, narrado e extraído de um profundo entendimento sobre a sociedade,” concluem Sloane e Moss.

 

Origem: Inovação Tecnológica 

 

Marcelo Peres

mpperes@guiadocftv.com.br

Guia do CFTV

Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?

Gostaria de sugerir alguma notícia ou entrar em contato, clique Aqui!

Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’

Eng° Marcelo Peres

Eng° Eletricista Enfase em Eletrônica e TI, Técnico em Eletrônica, Consultor de Tecnologia, Projetista, Supervisor Técnico, Instrutor e Palestrante de Sistemas de Segurança, Segurança, TI, Sem Fio, Usuário Linux.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.