Riscos da Nova Tecnologia da IA.
Foto Eoin Ryan.
por Cade Metz em 22/10/2018.
SAN FRANCISCO - Em julho, dois dos maiores laboratórios de inteligência artificial do mundo revelaram um sistema capaz de ler lábios.
Projetado por pesquisadores do Google Brain e DeepMind - os dois grandes laboratórios de propriedade da empresa controladora do Google, a Alphabet - a instalação automatizada pode, às vezes, superar os leitores profissionais de bordas. Ao ler os lábios em vídeos reunidos pelos pesquisadores, identificou a palavra errada cerca de 40 por cento do tempo, enquanto os profissionais perderam cerca de 86 por cento.
Em um artigo que explicava a tecnologia, os pesquisadores descreveram isso como uma maneira de ajudar pessoas com deficiências da fala. Em teoria, eles disseram, isso poderia permitir que as pessoas se comuniquem apenas movendo seus lábios.
Mas os pesquisadores não discutiram a outra possibilidade: melhor vigilância.
Um sistema de leitura labial é o que os formuladores de políticas chamam de "tecnologia de uso duplo" e reflete muitas novas tecnologias que emergem dos principais laboratórios de IA. Sistemas que geram vídeo automaticamente podem melhorar a produção de filmes - ou alimentar a criação de notícias falsas . Um drone auto-voador poderia capturar vídeo em um jogo de futebol - ou matar no campo de batalha.
Agora, um grupo de 46 acadêmicos e outros pesquisadores, chamado Future of Computing Academy ( Academia do Futuro da Computação) , está instando a comunidade de pesquisadores a repensar a forma como compartilha a nova tecnologia. Ao publicarem novas pesquisas, dizem eles, os cientistas devem explicar como isso pode afetar a sociedade de maneiras negativas e positivas.
"A indústria de computadores pode se tornar como as indústrias de petróleo e tabaco, onde estamos construindo a próxima coisa, fazendo o que nossos chefes nos dizem para fazer, sem pensar nas implicações", disse Brent Hecht, professor da Northwestern University que lidera o grupo. . "Ou podemos ser a geração que começa a pensar mais amplamente."
Ao publicar um novo trabalho, os pesquisadores raramente discutem os efeitos negativos. Isto é em parte porque eles querem colocar seu trabalho sob uma luz positiva - e em parte porque eles estão mais preocupados em construir a tecnologia do que em usá-la.
Como muitos dos principais pesquisadores de inteligência artificial migram para laboratórios corporativos como o Google Brain e o DeepMind, atraídos por grandes salários e opções de ações , eles também devem obedecer às exigências de seus empregadores. Empresas públicas, particularmente gigantes do consumidor como o Google, raramente discutem as possíveis desvantagens de seu trabalho.
Hecht e seus colegas estão solicitando revistas especializadas para rejeitar artigos que não exploram essas desvantagens. Mesmo durante esse raro momento de auto-reflexão na indústria de tecnologia, a proposta pode ser difícil de vender. Muitos pesquisadores, preocupados com a possibilidade de os revisores rejeitarem os papéis por causa das desvantagens, recusam a ideia.
Ainda assim, um número crescente de pesquisadores está tentando revelar os perigos potenciais da IA Em fevereiro, um grupo de proeminentes pesquisadores e formuladores de políticas dos Estados Unidos e da Grã-Bretanha publicou um artigo dedicado aos usos maliciosos da IA. Outros estão construindo tecnologias como forma de mostrando como a IA pode dar errado.
E, com tecnologias mais perigosas, a comunidade de IA pode ter que reconsiderar seu compromisso com a pesquisa aberta. Algumas coisas, segundo o argumento, são melhor mantidas a portas fechadas.
Matt Groh, pesquisador do MIT Media Lab, construiu recentemente um sistema chamado Deep Angel , que pode remover pessoas e objetos das fotos. Um experimento de ciência da computação que funciona como uma questão filosófica, tem como objetivo estimular a conversação sobre o papel da IA na era da notícia falsa. "Estamos bem conscientes de quão impactantes notícias falsas podem ser", disse Groh. "Agora, a questão é: como lidamos com isso?"
Se as máquinas puderem gerar fotos e vídeos confiáveis, talvez tenhamos que mudar a maneira como visualizamos o que acaba na Internet.
O sistema de leitura labial do Google pode ajudar na vigilância? Talvez não hoje. Enquanto treinavam seu sistema, os pesquisadores usaram vídeos que capturaram os rostos de frente e de perto. Imagens de câmeras aéreas de rua "não são suficientes para a leitura labial", disse Joon Son Chung, pesquisador da Universidade de Oxford.
Em um comunicado, um porta-voz do Google disse o mesmo, antes de apontar que os " princípios da IA " da empresa afirmavam que ela não projetaria ou compartilharia tecnologia que pudesse ser usada para vigilância "violando as normas internacionalmente aceitas".
Mas as câmeras estão ficando melhores e menores e mais baratas, e os pesquisadores estão constantemente refinando as técnicas de IA que impulsionam esses sistemas de leitura labial. O jornal do Google é apenas outro em uma longa linha de avanços recentes. Pesquisadores chineses acabam de lançar um projeto que visa usar técnicas semelhantes para ler os lábios "em estado selvagem", acomodando diferentes condições de iluminação e qualidade de imagem.
Stavros Petridis, pesquisador do Imperial College de Londres, reconheceu que esse tipo de tecnologia poderia eventualmente ser usado para vigilância, mesmo com câmeras de smartphones. "É inevitável", disse ele. "Hoje, não importa o que você construa, há boas aplicações e aplicativos ruins."
Fonte: New York Times.
0 Comentário:
Nome: | Em: | |
Mensagem: |