News

Escândalo pornográfico 'prejudicial' de IA em vítimas de cicatrizes escolares nos EUA


Washington:

Com a voz tingida de raiva, uma mãe americana preocupada com o que o futuro reserva para a sua filha adolescente, apenas uma das dezenas de raparigas alvo de mais um escândalo de pornografia possibilitada pela IA que abalou uma escola dos EUA.

A controvérsia que envolveu a Lancaster Country Day School, na Pensilvânia, no ano passado, destaca um novo normal para alunos e educadores que lutam para acompanhar o boom de ferramentas de inteligência artificial baratas e facilmente disponíveis que facilitaram deepfakes hiperrealistas.

Uma mãe, que falou à AFP sob condição de anonimato, disse que sua filha de 14 anos a procurou “chorando histericamente” no verão passado, depois de encontrar fotos dela nua geradas por IA circulando entre seus colegas.

“Quais são as ramificações para ela a longo prazo?” disse a mãe, expressando temor de que as imagens manipuladas possam ressurgir quando a filha se inscrever na faculdade, começar a namorar ou entrar no mercado de trabalho.

“Você não pode dizer que eles são falsos.”

Várias acusações – incluindo abuso sexual de crianças e posse de pornografia infantil – foram apresentadas no mês passado contra dois adolescentes que as autoridades alegam terem criado as imagens.

Os investigadores descobriram 347 imagens e vídeos que afetaram um total de 60 vítimas, a maioria delas estudantes do sexo feminino da escola particular, no aplicativo de mensagens Discord.

Todos, exceto um, tinham menos de 18 anos.

'Preocupante'

O escândalo é o mais recente de uma onda de incidentes semelhantes em escolas de todos os estados dos EUA – da Califórnia a Nova Jersey – levando a um alerta do FBI no ano passado de que esse tipo de material de abuso sexual infantil, incluindo imagens realistas geradas por IA, era ilegal. .

“A ascensão da IA ​​generativa colidiu com um problema antigo nas escolas: o ato de compartilhar imagens íntimas não consensuais”, disse Alexandra Reeve Givens, executiva-chefe da organização sem fins lucrativos Center for Democracy & Technology (CDT).

“Na era digital, as crianças precisam desesperadamente de apoio para enfrentar o assédio provocado pela tecnologia.”

Uma pesquisa do CDT em escolas públicas em setembro passado descobriu que 15% dos alunos e 11% dos professores conheciam pelo menos um “deepfake que retrata um indivíduo associado à sua escola de maneira sexualmente explícita ou íntima”.

Essas imagens não consensuais podem levar a assédio, intimidação ou chantagem, causando por vezes consequências devastadoras para a saúde mental.

A mãe que falou à AFP disse conhecer vítimas que evitaram a escola, tiveram problemas para comer ou necessitaram de cuidados médicos e aconselhamento para lidar com a situação.

Ela disse que ela e outros pais levados ao escritório de um detetive para examinar os deepfakes ficaram chocados ao descobrir imagens impressas empilhadas com “pé e meio” de altura.

“Tive que ver fotos da minha filha”, disse ela.

“Se alguém olhasse, pensaria que é real, o que é ainda mais prejudicial.”

'Exploração'

Os supostos perpetradores, cujos nomes não foram divulgados, são acusados ​​de retirar fotos das redes sociais, alterá-las usando um aplicativo de IA e compartilhá-las no Discord.

A mãe disse à AFP que as imagens falsas de sua filha foram alteradas principalmente a partir de fotos públicas na página do Instagram da escola, bem como de uma captura de tela de uma ligação do FaceTime.

Uma simples pesquisa online revela dezenas de aplicativos e sites que permitem aos usuários criar “nudes profundos”, remover roupas digitalmente ou sobrepor rostos selecionados em imagens pornográficas.

“Embora os resultados possam não ser tão realistas ou convincentes como uma versão profissional, estes serviços significam que não são necessárias competências técnicas para produzir conteúdo deepfake”, disse Roberta Duffield, diretora de inteligência da Blackbird.AI, à AFP.

Apenas alguns estados dos EUA aprovaram leis para lidar com deepfakes sexualmente explícitos, incluindo a Pensilvânia no final do ano passado.

A liderança da escola da Pensilvânia retirou-se depois que os pais das vítimas entraram com uma ação judicial acusando a administração de não relatar a atividade quando foram alertados pela primeira vez sobre ela, no final de 2023.

Os investigadores dizem que as escolas estão mal equipadas para enfrentar a ameaça da evolução da tecnologia da IA ​​a um ritmo rápido, em parte porque a lei ainda está a tentar recuperar o atraso.

“As meninas menores de idade estão cada vez mais sujeitas à exploração falsa por parte de amigos, colegas e colegas de escola”, disse Duffield.

“As autoridades educativas devem desenvolver urgentemente políticas claras e abrangentes relativamente à utilização da IA ​​e das tecnologias digitais.”

(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)


Source

Related Articles

Back to top button