Meça o anonimato dos nossos dados na web com software revolucionário
O anonimato é essencial para proteger a liberdade de expressão e os direitos digitais nas nossas democracias. Baseia-se na ausência de identificação, vigilância ou rastreabilidade dos indivíduos. Porém, com os avanços da inteligência artificial, garantir esse anonimato está se tornando cada vez mais difícil. Julien Hendrickx, professor da École polytechnique da UCLouvain, Yves-Alexandre de Montjoye, engenheiro da UCLouvain e professor associado do Imperial College London, e Luc Rocher, ex-professor da UCLouvain na Universidade de Oxford, desenvolveram um novo modelo matemático para compreender melhor os riscos representados pela IA e ajudar os reguladores a proteger a privacidade individual. Os resultados deste estudo são publicados na prestigiada revista científica Comunicações da Natureza.
Em pesquisas anteriores (2019), esses cientistas já haviam conseguido demonstrar como é fácil reidentificar pessoas supostamente anonimizadas na web, com base em algumas informações parciais (idade, CEP, sexo). Este trabalho revelou a extensão dos riscos envolvidos na divulgação de dados sensíveis, mesmo após a anonimização.
Neste novo estudo, os pesquisadores propõem um modelo inovador (denominado Modelo de correção Pitman-Yor (PYC)) que avalia o desempenho de técnicas de identificação em larga escala, em diferentes contextos aplicacionais e comportamentais. Julien Hendrickx, coautor e professor da UCLouvain, explica: ” Nossa nova ferramenta se baseia em estatísticas bayesianas para saber o quão semelhantes são os indivíduos e extrapolar a precisão da identificação para populações maiores, com um desempenho até 10 vezes melhor que as regras anteriores. Este trabalho fornece, pela primeira vez, uma estrutura científica robusta para avaliar técnicas de identificação, para dados em grande escala. ”
O objetivo desta pesquisa – Ajudar a compreender melhor os riscos representados pela IA e permitir que os reguladores protejam melhor a privacidade das pessoas. Embora regulamentos como o RGPD enquadrem estritamente a utilização e partilha de dados pessoais, os dados anonimizados escapam a estas restrições. Foi, portanto, essencial determinar se os dados são verdadeiramente anónimos ou podem ser reidentificados, a fim de contribuir para o respeito pela privacidade.
Exemplos – Em estudos médicos, a ferramenta, desenvolvida na UCLouvain, pode ajudar a determinar se as informações sobre os pacientes podem ser utilizadas para rastrear a sua identidade e, assim, ajudar a prevenir tal identificação. No dia a dia, a nova ferramenta também permite monitorar (e assim contrariar) a precisão de códigos publicitários e rastreadores invisíveis que identificam usuários online com base em pequenos detalhes como fuso horário ou configurações do navegador, técnica conhecida como “device fingerprinting”. .
Finalmente, os cientistas explicam como este método pode ajudar as organizações a encontrar um melhor equilíbrio entre os benefícios das tecnologias de IA e a necessidade de proteger os dados pessoais dos indivíduos, tornando as interações diárias com a tecnologia mais seguras e protegidas. ” Acreditamos que este trabalho é um passo crucial no desenvolvimento de métodos rigorosos para avaliar os riscos representados por técnicas de IA cada vez mais avançadas e pela natureza da identificação online de vestígios humanos. Esperamos que este trabalho seja de grande ajuda para cientistas, responsáveis pela protecção de dados, membros de comités de ética e outros profissionais que procuram equilibrar a partilha de dados para investigação e a protecção da privacidade dos cidadãos.. “