Instituto Pensar - Riscos da Nova Tecnologia da IA

Riscos da Nova Tecnologia da IA

Foto Eoin Ryan.

por Cade Metz em 22/10/2018.

SAN FRANCISCO - Em julho, dois dos maiores laboratórios de inteligência artificial do mundo revelaram um sistema capaz de ler lábios.

Projetado por pesquisadores do Google Brain e DeepMind - os dois grandes laboratórios de propriedade da empresa controladora do Google, a Alphabet - a instalação automatizada pode, às vezes, superar os leitores profissionais de bordas. Ao ler os lábios em vídeos reunidos pelos pesquisadores, identificou a palavra errada cerca de 40 por cento do tempo, enquanto os profissionais perderam cerca de 86 por cento.

Em um artigo que explicava a tecnologia, os pesquisadores descreveram isso como uma maneira de ajudar pessoas com deficiências da fala. Em teoria, eles disseram, isso poderia permitir que as pessoas se comuniquem apenas movendo seus lábios.

Mas os pesquisadores n√£o discutiram a outra possibilidade: melhor vigil√Ęncia.

Um sistema de leitura labial é o que os formuladores de políticas chamam de "tecnologia de uso duplo" e reflete muitas novas tecnologias que emergem dos principais laboratórios de IA. Sistemas que geram vídeo automaticamente podem melhorar a produção de filmes - ou alimentar a criação de notícias falsas . Um drone auto-voador poderia capturar vídeo em um jogo de futebol - ou matar no campo de batalha.

Agora, um grupo de 46 acadêmicos e outros pesquisadores, chamado Future of Computing Academy ( Academia do Futuro da Computação) , está instando a comunidade de pesquisadores a repensar a forma como compartilha a nova tecnologia. Ao publicarem novas pesquisas, dizem eles, os cientistas devem explicar como isso pode afetar a sociedade de maneiras negativas e positivas.

"A ind√ļstria de computadores pode se tornar como as ind√ļstrias de petr√≥leo e tabaco, onde estamos construindo a pr√≥xima coisa, fazendo o que nossos chefes nos dizem para fazer, sem pensar nas implica√ß√Ķes", disse Brent Hecht, professor da Northwestern University que lidera o grupo. . "Ou podemos ser a gera√ß√£o que come√ßa a pensar mais amplamente."

Ao publicar um novo trabalho, os pesquisadores raramente discutem os efeitos negativos. Isto é em parte porque eles querem colocar seu trabalho sob uma luz positiva - e em parte porque eles estão mais preocupados em construir a tecnologia do que em usá-la.

Como muitos dos principais pesquisadores de intelig√™ncia artificial migram para laborat√≥rios corporativos como o Google Brain e o DeepMind, atra√≠dos por grandes sal√°rios e op√ß√Ķes de a√ß√Ķes , eles tamb√©m devem obedecer √†s exig√™ncias de seus empregadores. Empresas p√ļblicas, particularmente gigantes do consumidor como o Google, raramente discutem as poss√≠veis desvantagens de seu trabalho.

Hecht e seus colegas est√£o solicitando revistas especializadas para rejeitar artigos que n√£o exploram essas desvantagens. Mesmo durante esse raro momento de auto-reflex√£o na ind√ļstria de tecnologia, a proposta pode ser dif√≠cil de vender. Muitos pesquisadores, preocupados com a possibilidade de os revisores rejeitarem os pap√©is por causa das desvantagens, recusam a ideia.

Ainda assim, um n√ļmero crescente de pesquisadores est√° tentando revelar os perigos potenciais da IA ​​Em fevereiro, um grupo de proeminentes pesquisadores e formuladores de pol√≠ticas dos Estados Unidos e da Gr√£-Bretanha publicou um artigo dedicado aos usos maliciosos da IA. Outros est√£o construindo tecnologias como forma de mostrando como a IA pode dar errado.

E, com tecnologias mais perigosas, a comunidade de IA pode ter que reconsiderar seu compromisso com a pesquisa aberta. Algumas coisas, segundo o argumento, s√£o melhor mantidas a portas fechadas.

Matt Groh, pesquisador do MIT Media Lab, construiu recentemente um sistema chamado Deep Angel , que pode remover pessoas e objetos das fotos. Um experimento de ci√™ncia da computa√ß√£o que funciona como uma quest√£o filos√≥fica, tem como objetivo estimular a conversa√ß√£o sobre o papel da IA ​​na era da not√≠cia falsa. "Estamos bem conscientes de qu√£o impactantes not√≠cias falsas podem ser", disse Groh. "Agora, a quest√£o √©: como lidamos com isso?"

Se as máquinas puderem gerar fotos e vídeos confiáveis, talvez tenhamos que mudar a maneira como visualizamos o que acaba na Internet.

O sistema de leitura labial do Google pode ajudar na vigil√Ęncia? Talvez n√£o hoje. Enquanto treinavam seu sistema, os pesquisadores usaram v√≠deos que capturaram os rostos de frente e de perto. Imagens de c√Ęmeras a√©reas de rua "n√£o s√£o suficientes para a leitura labial", disse Joon Son Chung, pesquisador da Universidade de Oxford.

Em um comunicado, um porta-voz do Google disse o mesmo, antes de apontar que os " princ√≠pios da IA " da empresa afirmavam que ela n√£o projetaria ou compartilharia tecnologia que pudesse ser usada para vigil√Ęncia "violando as normas internacionalmente aceitas".

Mas as c√Ęmeras est√£o ficando melhores e menores e mais baratas, e os pesquisadores est√£o constantemente refinando as t√©cnicas de IA que impulsionam esses sistemas de leitura labial. O jornal do Google √© apenas outro em uma longa linha de avan√ßos recentes. Pesquisadores chineses acabam de lan√ßar um projeto que visa usar t√©cnicas semelhantes para ler os l√°bios "em estado selvagem", acomodando diferentes condi√ß√Ķes de ilumina√ß√£o e qualidade de imagem.

Stavros Petridis, pesquisador do Imperial College de Londres, reconheceu que esse tipo de tecnologia poderia eventualmente ser usado para vigil√Ęncia, mesmo com c√Ęmeras de smartphones. "√Č inevit√°vel", disse ele. "Hoje, n√£o importa o que voc√™ construa, h√° boas aplica√ß√Ķes e aplicativos ruins."



0 Coment√°rio:


Nome: Em:
Mensagem: