News

Mudança de política de IA do Google: não há mais proibição de armas e tecnologia de vigilância


Nova Délhi:

Em um afastamento significativo de seus compromissos anteriores de não usar a inteligência artificial nos campos de armas ou vigilância, o Google atualizou suas diretrizes éticas sobre o mesmo.

Os princípios originais da IA ​​de 2018 da Companhia proibiram explicitamente os pedidos de IA em quatro áreas: armas, vigilância, tecnologias que podem causar danos gerais e usar o direito da violação do direito internacional e dos direitos humanos.

Agora, em um Postagem do blogDemis Hassabis, chefe da IA ​​no Google, e James Manyika, vice -presidente sênior de tecnologia e sociedade, explicaram a mudança. Eles apontaram para a crescente presença da IA ​​e a necessidade de empresas nas nações democráticas trabalharem com governos e segurança nacional.

“Há uma competição global que ocorre para a liderança de IA dentro de uma paisagem geopolítica cada vez mais complexa”, escreveram Hassabis e Manyika. “Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores essenciais como liberdade, igualdade e respeito pelos direitos humanos”.

Os princípios atualizados se concentram na supervisão humana e no feedback para garantir que a IA siga o direito internacional e os padrões de direitos humanos. O Google também promete testar os sistemas de IA para reduzir os efeitos prejudiciais não intencionais.

Essa mudança é uma grande mudança da posição anterior do Google, que chamou a atenção em 2018, quando a empresa enfrentou protestos internos sobre seu contrato do Pentágono. Conhecido como Projeto Maveno contrato envolveu o uso da IA ​​do Google para analisar imagens de drones. Milhares de funcionários assinaram uma carta aberta pedindo ao Google que não se envolva em projetos militares, dizendo: “Acreditamos que o Google não deveria estar no negócio da guerra”. Como resultado, o Google optou por não renovar o contrato.

Desde que o Openai lançou o ChatGPT em 2022, a IA avançou rapidamente, mas os regulamentos lutaram para acompanhar o ritmo. Essa mudança levou o Google a facilitar suas restrições auto-impostas. James Manyika e Demis Hassabis observaram que as estruturas de IA das nações democráticas ajudaram a moldar o entendimento do Google sobre os riscos e o potencial da IA.



Source

Related Articles

Back to top button