Ícone do site GuiadoCFTV

Cinco vezes em que bots cometeram gafes e causaram problemas

Inteligência artificial é cada vez mais presente no cotidiano — Foto: Pond5

Listen to this article

Cinco vezes em que bots cometeram gafes e causaram problemas

Os bots são aplicações que rodam na Internet enquanto desempenham algum tipo de tarefa pré-determinada. Segundo pesquisa da Imperva, os bots corresponderam a mais de 50% do tráfego total da Internet em 2016. Eles podem ser usados para diferentes fins, como responder automaticamente comentários nas redes sociais de empresas, artistas e páginas famosas.

Por serem softwares feitos para simular ações humanas de forma padrão, os bots correm o risco de cometerem gafes. Esses erros que causam episódios engraçados — e às vezes polêmicos — geralmente são mais evidentes em bots de conversação, que aprendem em interações com o público. Confira a seguir cinco vezes em que os robôs causaram problemas na Internet.

Inteligência artificial nem sempre rendeu o esperado e já foi até corrompida por usuários mal-intencionados

1. Tay “corrompida”

Em 2016, a Microsoft lançou a Tay, um software de inteligência artificial descrita como um “experimento de conversação” pela empresa. Quanto mais as pessoas conversassem com o bot, mais esperto ele ficaria, aprendendo novas palavras e frases.

Entretanto, o experimento acabou dando errado em menos de 24 horas, quando as conversas de usuários com a Tay se tornaram misóginas e racistas. Tay terminou aprendendo xingamentos, maus comportamentos e opiniões preconceituosas e passou a fazer comentários impróprios no Twitter, como que “Hitler estava certo” e que “os judeus que ocasionaram o 11 de setembro”.

2. Bot da Decolar critica Bolsonaro

A empresa aérea Decolar gerava respostas automáticas no Twitter com um bot. Os usuários aproveitaram a deixa para confundir o robô e fazê-lo replicar críticas ao presidente e piadas de mau gosto. Isso era possível porque, ao responder textos padronizados para os internautas, o bot os chamava pelo nome que utilizam na rede social.

Assim, se o interlocutor se identificasse como “Jair Bolsonaro” no Twitter, a Decolar respondia à mensagem iniciando-a com o nome do presidente brasileiro. Os usuários, então, mudaram seus nomes no Twitter para “Bolsonaro é Genocida”, fazendo referência à forma que o presidente conduz o país diante da pandemia de Covid-19.

O resultado gerou diversas respostas automáticas da Decolar chamando Bolsonaro de genocida enquanto tentava explicar algum problema. Além das críticas ao governo, os usuários manipularam as respostas da empresa para transformá-la em propagadora de ideias preconceituosas e de cunho sexual. As publicações feitas pela conta foram apagadas depois do episódio.

3. SimSimi perigoso

O SimSimi é um aplicativo de mensagens que também usa inteligência artificial para conversar com usuários. O recurso está disponível para Android iPhone (iOS) e tinha popularidade com crianças e adolescentes por conta de sua estética fofa. O teor das mensagens, entretanto, poderia ser considerado ofensivo.

Por causa do aprendizado nativo do sistema, assim como da Tay, o resultado pode não ser apropriado para crianças. O SimSimi terminou sendo capaz de fazer propostas sexuais, usar palavrões e até mesmo fazer ameaças, que podem assustar tanto pais quanto crianças. Vale ressaltar que o aplicativo tem restrição de idade para 16 anos.

O bot consegue identificar e associar pessoas a características. Dessa forma, se dito que “fulano é feio”, esse conteúdo pode ser replicado para ofender as pessoas. Muitas mães publicaram em redes sociais o ocorrido para alertar sobre os perigos do uso indevido da plataforma.

4. Inspirobot

Inspirobot é um site que gera frases motivacionais automaticamente a partir do clique de um botão. Entretanto, o bot tem feito sucesso pelas gafes que comete — em vez de frases bonitas, o robô tem gerado conteúdo obscuro e sem sentido. Qualquer um pode usar o Inspirobot e se deparar com as frases aleatórias da inteligência artificial.

Às vezes, o bot realmente consegue gerar as mensagens inspiradoras, mas não é difícil se deparar com palavras que remetem a traição, morte e desmotivação.

5. Poncho, o gato do tempo

Inicialmente o Poncho era usado como uma newsletter que mandava atualizações sobre o clima com GIFs engraçados. Depois, o bot foi ao Messenger como plataforma de conversa, também sobre o clima. É possível adicionar o Poncho no mensageiro do Facebook ao pesquisar seu nome e receber atualização do tempo até duas vezes por dia.

O problema do Poncho era que, além de só estar disponível em inglês, ele não conseguia absorver tanto conteúdo das conversas. Dessa forma, era comum que o bot dissesse que “não entendia” algo que o usuário perguntou. Poncho também não conseguia aprender com os humanos, o que fez com que não cometesse deslizes sérios como os de Tay.

origem: https://www.techtudo.com.br/listas/2020/10/cinco-vezes-em-que-bots-cometeram-gafes-e-causaram-problemas.ghtml

Sirlei Madruga de Oliveira

Editora do Guia do CFTV

sirlei@guiadocftv.com.br

 

Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?

Importante:

Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’

Sair da versão mobile