Inteligência Artificial Humilde: conheça essa tendência

Listen to this article

Pesquisa aponta que 86% das empresas disseram que a IA se tornou uma tendência tecnológica.

Depois de tantos anos tentando se manter entre os temas mais ‘hypados’, em 2021 a Inteligência Artificial foi subestimada no tribunal da opinião pública. Mas, felizmente, os cientistas de dados estão acordando para a fragilidade do poder de decisão da tecnologia e criaram controles compensatórios, que incluem a IA Auditável e a IA Humilde.

Neste ano, veremos ambas se juntando a IA Explicável e a IA Ética, sob o guarda-chuva da IA Responsável ― considerada um padrão que deve ser utilizado no desenvolvimento de sistemas de inteligência artificial confiáveis e seguros

Bernard Marr trouxe à tona uma discussão concisa sobre os impactos negativos da inteligência artificial em que lista ao menos cinco pontos de atenção:

  •  Viés da inteligência artificial
  • • Perda de empregos
  • • Mudança na experiência humana
  • • Ataques hackers
  • • Terrorismo via IA

Em 15 de setembro de 2021, com o lançamento da norma IEEE 7000 ― que traz a premissa de ser o primeiro padrão a mostrar às empresas de tecnologia uma maneira muito prática de construir tecnologia, valor humano e social, em vez de apenas dinheiro ―, o mundo deu um passo gigantesco para alcançar a IA Responsável.

Sara Spiekermann, da Universidade de Economia e Negócios de Viena , que estava envolvida nos esforços do IEEE 7000, diz que o que determina uma boa IA é aquela oferece às empresas o controle sobre:

  • • A qualidade dos dados utilizados no sistema de IA
  • • Os processos seletivos que alimentam a IA
  • • Design de algoritmo
  • • A evolução da lógica da IA
  • • As melhores técnicas disponíveis para um nível de transparência que mostre como a IA está aprendendo e chegando às suas conclusões

Acredito que transparência e ética por design são os únicos caminhos a seguir. Escrevi e falei extensivamente sobre essa crença desde 2020, quando previ que seria o ano em que a IA cresceria. Com o IEEE 7000, parece que alcançar esse objetivo está cada vez mais próximo.

IA Auditável e IA Humilde

Para construir sistemas de IA que cumpram a implementação de padrões da IA Responsável, como o IEEE 7000, dois novos ramos de IA se tornarão comuns em 2022:

IA Auditável, é a inteligência artificial que produz uma trilha de cada detalhe sobre si mesma e engloba todos os pontos mencionados acima: dados, variáveis, transformações e processos de modelo, incluindo aprendizado de máquina, design de algoritmos e lógica de modelo. A IA Auditável deve ser apoiada por estruturas de governança de desenvolvimento de modelos firmemente estabelecidas e adotadas, como as baseadas em blockchain. A IA Auditável aborda essencialmente o requisito de transparência da norma IEEE 7000.

As aspirações para alcançar a IA Responsável irão além das promessas vazias, para modelar etapas de governança de desenvolvimento que são formais, transcritas programaticamente e imutavelmente apoiadas pela tecnologia blockchain.

É importante ressaltar que a IA Auditável fornece uma prova de trabalho de adesão aos padrões de desenvolvimento do modelo de IA Responsável, e apoia diretamente sua função conectada, a AI Humilde.

Já a IA Humilde, é a inteligência artificial que sabe que não tem certeza sobre a resposta certa. A IA Humilde aborda a incerteza da decisão e usa medidas de incerteza (como um score numérico de incerteza) para quantificar os níveis de confiança do modelo em sua própria decisão, com detalhes da decisão individual e o elemento de dados.

Dito de outra forma, a IA Humilde nos ajuda a ganhar mais confiança em cada pontuação que produz e no consumidor que ela impacta.

Embora eu tenha escrito sobre a IA Humilde no passado, vejo um movimento de abandono dos modelos complexos para modelos mais simples que melhor suportem as evidências.

A capacidade de determinar se um modelo é apropriado vai variar entre os itens pontuados, por exemplo, para alguns clientes o modelo é muito certo e tem grande confiança estatística, e para outros não. Este é um componente crítico da IA Responsável, de tal forma que quando a confiança do modelo é insuficiente, esses clientes podem ser pontuados por um modelo de recuo que tem melhor confiança estatística e, portanto, receber um resultado mais justo. Isso se alinha diretamente com o IEEE 7000, e aproveita a percepção de que a decisão do modelo de IA pode ser mais ou menos certa para diferentes indivíduos. A IA Responsável exige que essa incerteza se reflita na decisão.

Scott Zoldi  Scott Zoldi é CAO da FICO.

origem: Inteligência Artificial Humilde: conheça essa tendência (terra.com.br)

Sirlei Madruga de Oliveira

Editora do Guia do CFTV

 sirlei@guiadocftv.com.br

Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?

Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’

Quer enviar suas notícias? Envie um e-mail para noticias@guiadocftv.com.br

Sirlei Madruga

Sirlei Maria Guia do CFTV

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.