Pesquisadores lançam luz sobre como ler e controlar as mentes dos sistemas de IA


Uma organização dedicada ao desenvolvimento seguro da inteligência artificial divulgou um “documento inovador” que afirma que ajudará os humanos a controlar melhor a tecnologia à medida que ela se espalha.

“Não podemos confiar nas IAs se não sabemos o que elas estão pensando ou como funcionam internamente”, disse Dan Hendrycks, diretor do Center for AI Safety, à Fox News Digital.

Hendrycks fez os comentários depois que o Centro de Segurança de IA (CAIS) divulgou um artigo esta semana mergulhando no funcionamento interno da mente dos sistemas de IA, procurando maneiras pelas quais os humanos pudessem compreender melhor, controlar e compreender as tecnologias de IA e mitigar alguns dos riscos. eles posam.

META PODE ESTAR USANDO SEU FACEBOOK, INSTAGRAM PARA ‘ALIMENTAR A BESTA’ DA NOVA TECNOLOGIA

Arte de ilustração de palavras AI

Uma ilustração de inteligência artificial de 31 de março de 2023. (REUTERS/Dado Ruvic/Ilustração/Foto de arquivo)

De acordo com o CAIS, o artigo demonstrou maneiras pelas quais os humanos podem controlar e detectar quando os sistemas de IA estão dizendo verdades ou mentiras, quando se comportam de maneira moral ou imoral, se agem com emoções como raiva, medo e alegria, e como torná-los menos tendenciosos. . O artigo também analisou maneiras de desenvolver sistemas que possam resistir ao jailbreak, uma prática em que os usuários podem explorar vulnerabilidades em sistemas de IA e potencialmente usá-los fora dos protocolos desejados.

O QUE É INTELIGÊNCIA ARTIFICIAL (IA)?

“Nossa pesquisa desenvolve maneiras de ler os pensamentos internos das IAs, permitindo-nos detectar quando elas estão mentindo ou funcionando mal de várias maneiras”, disse Hendrycks, observando que os atuais sistemas de IA são “capazes de enganar e mentirão ou tentarão enganar os humanos se forem dados uma razão para isso.”

OpenAI no laptop enquanto o homem o usa em um quarto escuro

Um homem usa o site de bate-papo de inteligência artificial OpenAI ChatGPT nesta foto ilustrativa de 18 de julho de 2023. (Jaap Arriens/NurPhoto via Getty Images)

“Mostramos exemplos disso em nosso artigo e desenvolvemos ferramentas para monitorar e controlar a atividade interna das IAs para evitar que isso aconteça”, disse Hendrycks.

CLIQUE AQUI PARA MAIS NOTÍCIAS DOS EUA

O CAIS observa que os sistemas modernos de IA têm sido notoriamente difíceis de serem compreendidos pelos humanos, o que também torna difícil para os utilizadores compreenderem a tomada de decisões da IA. Essas preocupações também foram compartilhadas pelo Congresso, com o líder da maioria no Senado, Chuck Schumer, DN.Y. chamando a explicabilidade da IA ​​de “uma das questões técnicas mais importantes e mais difíceis de toda a IA” em comentários no Centro de Estudos Estratégicos e Internacionais no início deste ano.

Chuck Schumer, senador democrata por Nova York

Líder da maioria no Senado, Chuck Schumer, DN.Y. (Foto AP / J. Scott Applewhite, Arquivo)

Hendrycks ecoou essas preocupações, argumentando que um aspecto importante do desenvolvimento contínuo da IA ​​era garantir que os humanos tivessem as ferramentas para controlar a tecnologia.

CLIQUE AQUI PARA OBTER O APLICATIVO FOX NEWS

“Estamos formando uma espécie de ‘vigilância interna’ para os sistemas de IA, garantindo que eles não tentem nos enganar”, disse Hendrycks. “A decepção na IA é uma preocupação real e a nossa investigação é um passo fundamental no sentido de fornecer ferramentas para prevenir estes riscos”.

Leave a Comment