Especialistas querem interruptor físico para desligar as IAs

Listen to this article

Um grupo de pesquisadores publicou nesta semana um artigo no qual defendem um interruptor físico para desligar inteligências artificiais. O paper, publicado pela célebre Universidade de Cambridge, tem entre seus autores alguns membros da OpenAI, criadora do ChatGPT e principal empresa do ramo de IA generativa. A ideia dos cientistas é que o hardware dessa tecnologia conte com elementos físicos para interromper seu funcionamento — se necessário.

A proposta dos pesquisadores pode ser comparada como um kill switch para IA. Kill switch é o nome dado para botões ou outros mecanismos de segurança que desligam uma máquina em caso de emergências. Por exemplo, aquele grampo de esteiras das academias que devem ser presas a camiseta. Caso o corredor caia, o grampo puxa o cordão e desliga a máquina.

Kill switch para IAs é defendida até por membros da OpenAI

Entre os 19 autores do artigo, cinco são integrantes da OpenAI. A empresa é, na atualidade, a principal referência em inteligência artificial. A popularidade do ChatGPT e seus recursos, ainda que suscetível à falha e “preguicite”, cresceu rapidamente após o seu lançamento no fim de 2022 — seguido de uma queda em junho de 2023.

OpenAI
Cinco integrantes da OpenAI estão entre os 19 autores do artigo (Imagem: Vitor Pádua / Tecnoblog)

Essa ascensão do ChatGPT gerou uma corrida de IAs generativas e levantou o debate sobre possíveis riscos dessa tecnologia. Google lançou o Gemini (que antes se chamava Bard), a Meta lançou IA generativa para figurinhas, ferramentas de criação de fotos e vídeos estão ganhando mais espaço, Elon Musk saiu às compras para lançar sua própria IA, Samsung estreou a Galaxy AI na linha Galaxy S24, Tim Cook falou de IA no iPhone — você já deve ter entendido.

A proposta dos pesquisadores para solucionar possíveis problemas de segurança é incluir kill switches diretamente no hardware da IA. No artigo, os cientistas destacam que como há poucas fornecedoras de GPU (para não dizer que é basicamente a Nvidia nesse segmento), ficaria fácil controlar quem tem acesso a essa tecnologia, o que facilita também identificar o mal uso de IAs.

Pelo artigo, temos a impressão de que os pesquisadores defendem que é fácil aplicar o mecanismo de kill switch nas GPUs. Os cientistas sugerem que o botão de segurança no hardware permitirá que órgãos reguladores o ativem se identificarem alguma violação. Além do mais, o próprio kill switch poderia se ativar em caso de mal uso.

Os autores propõem também uma licença de operação para as empresas, que deveria ser renovada periodicamente para autorizar a pesquisa e desenvolvimento de IA — nada diferente do que ocorre com alvarás. Sem renovação, o sistema seria interrompido. Obviamente, essas propostas de controle remoto trazem outro risco: elas viram alvos de ciberataques.

 

 

 

 

 

 

 

João Marcelo de Assis Peres

joao.marcelo@guiadocftv.com.br

GuiadoCFTV

Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?

Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’

Quer enviar suas notícias? Envie um e-mail para noticias@guiadocftv.com.br

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.