News

O Reino Unido quer fazer a sua “própria coisa” na regulamentação da IA, sugerindo uma divergência entre os EUA e a UE

Jaque Silva | Nurphoto | Imagens Getty

LONDRES — O Reino Unido afirma que quer fazer “a sua própria coisa” no que diz respeito à regulamentação da inteligência artificial, sugerindo uma possível divergência em relação às abordagens adoptadas pelos seus principais pares ocidentais.

“É realmente importante que nós, como Reino Unido, façamos o que queremos quando se trata de regulamentação”, disse Feryal Clark, ministro britânico de IA e governo digital, à CNBC em entrevista que foi ao ar na terça-feira.

Ela acrescentou que o governo já tem um “bom relacionamento” com empresas de IA como OpenAI e Google DeepMind, que abriram voluntariamente seus modelos ao governo para fins de testes de segurança.

“É realmente importante incorporarmos essa segurança logo no início, quando os modelos estão sendo desenvolvidos… e é por isso que trabalharemos com o setor em quaisquer medidas de segurança que surgirem”, acrescentou Clark.

Seus comentários ecoaram as observações do primeiro-ministro Keir Starmer na segunda-feira de que a Grã-Bretanha tem “liberdade agora em relação à regulamentação para fazê-lo da maneira que consideramos melhor para o Reino Unido” após o Brexit.

“Temos modelos diferentes em todo o mundo, temos a abordagem da UE e a abordagem dos EUA – mas temos a capacidade de escolher aquele que consideramos ser do nosso melhor interesse e pretendemos fazê-lo”, disse Starmer. em resposta à pergunta de um repórter após anunciar um Plano de 50 pontos para tornar o Reino Unido um líder global em IA.

Divergência dos EUA, UE

Até agora, a Grã-Bretanha absteve-se de introduzir leis formais para regular a IA, confiando, em vez disso, aos órgãos reguladores individuais a aplicação das regras existentes às empresas no que diz respeito ao desenvolvimento e utilização da IA.

Isto é diferente da UE, que introduziu legislação abrangente e pan-europeia destinada a harmonizar as regras para a tecnologia em todo o bloco, adoptando uma abordagem de regulamentação baseada no risco.

Os EUA, entretanto, carece de qualquer regulamentação de IA em nível federal e, em vez disso, adoptou uma colcha de retalhos de quadros regulamentares a nível estadual e local.

Durante a campanha eleitoral de Starmer no ano passado, o Partido Trabalhista comprometeu-se, no seu manifesto, a introduzir regulamentação centrada nos chamados modelos de IA de “fronteira” – referindo-se a grandes modelos de linguagem como o GPT da OpenAI.

No entanto, até agora, o Reino Unido ainda não confirmou os detalhes sobre a proposta de legislação de segurança da IA, afirmando em vez disso que consultará a indústria antes de propor regras formais.

“Trabalharemos com o setor para desenvolver isso e levá-lo adiante, de acordo com o que dissemos em nosso manifesto”, disse Clark à CNBC.

Chris Mooney, sócio e chefe comercial do escritório de advocacia Marriott Harrison, com sede em Londres, disse à CNBC que o Reino Unido está adotando uma abordagem de “esperar para ver” em relação à regulamentação da IA, mesmo enquanto a UE avança com sua Lei de IA.

“Embora o governo do Reino Unido diga que adotou uma abordagem ‘pró-inovação’ à regulamentação da IA, a nossa experiência de trabalho com clientes é que eles consideram a posição atual incerta e, portanto, insatisfatória”, disse Mooney à CNBC por e-mail.

Uma área em que o governo de Starmer falou sobre a reforma das regras para IA tem sido em torno dos direitos autorais.

No final do ano passado, o Reino Unido abriu um consulta que analisa a estrutura de direitos autorais do país avaliar possíveis exceções às regras existentes para desenvolvedores de IA que utilizam obras de artistas e editores de mídia para treinar seus modelos.

As empresas ficaram incertas

Sachin Dev Duggal, CEO da startup de IA Builder.ai, com sede em Londres, disse à CNBC que, embora o plano de ação de IA do governo “mostre ambição”, prosseguir sem regras claras é “quase imprudente”.

“Já perdemos janelas regulatórias cruciais duas vezes – primeiro com a computação em nuvem e depois com as mídias sociais”, disse Duggal. “Não podemos nos dar ao luxo de cometer o mesmo erro com a IA, onde os riscos são exponencialmente maiores”.

“Os dados do Reino Unido são a nossa joia da coroa; devem ser aproveitados para construir capacidades soberanas de IA e criar histórias de sucesso britânicas, e não simplesmente alimentar algoritmos estrangeiros que não podemos regular ou controlar eficazmente”, acrescentou.

Os detalhes dos planos trabalhistas para a legislação sobre IA foram inicialmente esperado que aparecesse no discurso do rei Carlos III de abertura do Parlamento do Reino Unido ano passado.

No entanto, o governo comprometeu-se apenas a estabelecer “legislação apropriada” sobre os modelos de IA mais poderosos.

“O governo do Reino Unido precisa fornecer clareza aqui”, disse John Buyers, chefe internacional de IA do escritório de advocacia Osborne Clarke, à CNBC, acrescentando que soube por fontes que uma consulta sobre leis formais de segurança de IA está “esperando para ser divulgada”.

“Ao emitir consultas e planos de forma fragmentada, o Reino Unido perdeu a oportunidade de fornecer uma visão holística do rumo que a sua economia de IA está a tomar”, disse ele, acrescentando que a falta de divulgação de detalhes das novas leis de segurança de IA levaria à incerteza dos investidores. .

Ainda assim, algumas figuras do cenário tecnológico do Reino Unido pensam que uma abordagem mais relaxada e flexível para regulamentar a IA pode ser a mais acertada.

“A partir de discussões recentes com o governo, fica claro que esforços consideráveis ​​estão em andamento nas salvaguardas de IA”, disse Russ Shaw, fundador do grupo de defesa Tech London Advocates, à CNBC.

Ele acrescentou que o Reino Unido está bem posicionado para adotar uma “terceira via” na segurança e regulamentação da IA ​​– regulamentações “específicas do setor” que regem diferentes setores, como serviços financeiros e cuidados de saúde.

Source

Related Articles

Back to top button