quarta-feira, 15 abril, 2026

Google proíbe o uso da sua tecnologia de inteligência artificial para as forças armadas

Foto: logotipo do Google na sede do Google em Bruxelas. (AP Photo / Virginia Mayo, Arquivo)

por Bryan Lynn 13/06/2018

O Google diz que não permitirá mais que sua inteligência artificial , ou tecnologia AI, seja usada em atividades envolvendo armas.

O diretor executivo da empresa, Sundar Pichai , anunciou a decisão em um post na Internet . Ele escreveu que a nova política era um dos vários “princípios” recém-lançados que visavam orientar o trabalho da IA ​​da empresa no futuro.

Os princípios são um conjunto de diretrizes éticas que abrangem o desenvolvimento e a venda da tecnologia e das ferramentas de IA da empresa.

O Google diz que não vai mais projetar ou lançar AI para armas ou outras tecnologias cujo objetivo principal seja causar danos às pessoas. Também não permitirá que sua tecnologia de inteligência artificial seja usada para atividades de vigilância que violem as “normas aceitas internacionalmente”.

“Acreditamos que esses princípios são a base certa para nossa empresa e o futuro desenvolvimento da IA”, escreveu Pichai.

Esse acordo, conhecido como Projeto Maven, envolve o uso da tecnologia AI do Google para examinar imagens de drones para os militares dos EUA.

Recentemente, um funcionário do Google disse aos funcionários que o Projeto Maven não seria estendido depois que terminar no ano que vem. Espera-se que o Google discuta com oficiais militares como concluir o projeto sem violar seus novos princípios.

Kirk Hanson é diretor do Markkula Center for Applied Ethics da Universidade de Santa Clara, na Califórnia. O centro examina como a ética pode ser usada para orientar o desenvolvimento tecnológico.
Ele disse à VOA que a oposição dos funcionários do Google ao acordo militar dos EUA foi baseada em temores de que a tecnologia AI possa levar à criação de “armas autônomas “.

“Se você tem inteligência artificial que identifica alvos e lança armas automaticamente, você tem o que é conhecido como uma arma autônoma – não há nenhuma decisão humana de lançar a arma.”

Hanson disse que outras empresas também podem enfrentar pressão de funcionários ou do público se a tecnologia da inteligência artificial for usada para desenvolver armas autônomas. Assim como nos veículos sem motorista , os sistemas de armas autônomas podem não ser tão seguros quanto seus prometedores prometem.

“Deveríamos estar mais preocupados sobre como uma arma autônoma poderia cometer um erro. Esse sistema de alvos de inteligência artificial é tão bom quanto achamos que é? E até que tenhamos confiança de que esses sistemas não cometerão erros, teremos muitas dúvidas sobre o uso da inteligência artificial “.

Hanson diz que, embora o Projeto Maven não use diretamente o Google AI para alimentar armas autônomas, os sistemas de inteligência artificial ajudam no direcionamento militar.

“Se você tem uma melhor segmentação, presumivelmente isso é bom. Mas os críticos dizem que, se você tem um melhor direcionamento, aumenta seu nível de confiança na segmentação, o que pode levá-lo a aplicar uma decisão autônoma independente por máquina, que lançará as armas. “

Um alto funcionário do Departamento de Defesa foi questionado sobre o uso de armas autônomas durante um evento no ano passado no Centro de Estudos Estratégicos e Internacionais em Washington. O general da Força Aérea Paul J. Selva, vice-presidente do Joint Chiefs of Staff, disse que tais sistemas nunca deveriam ser usados ​​para substituir comandantes humanos.

O chefe do Google, Pichai, disse que a empresa não pretende deixar de fornecer tecnologia de inteligência artificial para todos os usos militares. Ele disse que o Google ainda buscará projetos do governo em áreas como treinamento militar, segurança na internet e busca e resgate.

Eu sou Bryan Lynn.
Bryan Lynn escreveu esta história para o VOA Learning English, baseado em informações do Google, e reportagens da repórter da Associated Press e VOA News, Michelle Quinn. Kelly Jean Kelly foi a editora.