A IA pode resolver problemas insolúveis – e os humanos não serão capazes de compreender os resultados
Inteligência artificial (AI) assumiu um papel central na ciência básica. Os cinco vencedores dos Prémios Nobel de 2024 em Química e Física compartilhou um tópico comum: IA.
Na verdade, muitos cientistas – incluindo os comités do Nobel – estão a celebrar a IA como uma força de transformação da ciência.
Como um dos laureados Em outras palavras, o potencial da IA para acelerar a descoberta científica torna-a “uma das tecnologias mais transformadoras da história da humanidade”. Mas o que essa transformação realmente significará para a ciência?
A IA promete ajudar os cientistas a fazer mais, mais rápido e com menos dinheiro. Mas também traz consigo uma série de novas preocupações — e se os cientistas avançarem com a adopção da IA, correm o risco de transformar a ciência em algo que escapa à compreensão e à confiança do público e que não consegue satisfazer as necessidades da sociedade.
As ilusões da compreensão
Os especialistas têm já identificado pelo menos três ilusões que podem enganar os pesquisadores que usam IA.
A primeira é a “ilusão de profundidade explicativa”. Só porque um modelo de IA é excelente em prever um fenômeno – como o AlphaFold, que ganhou o Prêmio Nobel em Química por suas previsões de estruturas de proteínas – isso não significa que possa explicá-las com precisão. Pesquisa em neurociência já mostrou que modelos de IA projetados para previsão otimizada podem levar a conclusões enganosas sobre os mecanismos neurobiológicos subjacentes.
Em segundo lugar está a “ilusão de amplitude exploratória”. Os cientistas podem pensar que estão a investigar todas as hipóteses testáveis na sua investigação exploratória, quando na verdade estão apenas a analisar um conjunto limitado de hipóteses que podem ser testadas através da IA.
Finalmente, a “ilusão de objetividade”. Os cientistas podem acreditar que os modelos de IA estão isentos de preconceitos ou que podem explicar todos os possíveis preconceitos humanos. Na realidade, porém, todos os modelos de IA refletem inevitavelmente os preconceitos presentes nos seus dados de treino e nas intenções dos seus desenvolvedores.
Ciência mais barata e mais rápida
Uma das principais razões para o crescente apelo da IA na ciência é o seu potencial para produzir mais resultados, mais rapidamente e a um custo muito menor.
Um exemplo extremo desse impulso é o “Cientista de IA” máquina desenvolvida recentemente pelo Sakana AI Labs. A visão da empresa é desenvolver um “sistema totalmente orientado por IA para descoberta científica automatizada”, onde cada ideia pode ser transformada em um artigo de pesquisa completo por apenas US$ 15 – embora os críticos digam que o sistema produziu “lixo científico sem fim“.
Queremos realmente um futuro onde os artigos de investigação possam ser produzidos com apenas alguns cliques, simplesmente para “acelerar” a produção de ciência? Isto corre o risco de inundar o ecossistema científico com papéis sem significado e valorsobrecarregando ainda mais um sistema de revisão por pares já sobrecarregado.
Poderemos encontrar-nos num mundo onde a ciência, tal como a conhecíamos, está enterrada sob o ruído do conteúdo gerado pela IA.
Falta de contexto
A ascensão da IA na ciência ocorre num momento em que a confiança do público na ciência e nos cientistas ainda é bastante alto mas não podemos considerar isso garantido. A confiança é complexa e frágil.
Como aprendemos durante o COVID pandemiachama para “confie na ciência” pode ser insuficiente porque as evidências científicas e os modelos computacionais são frequentemente contestados, incompletos ou abertos a várias interpretações.
No entanto, o mundo enfrenta uma série de problemas, como as alterações climáticas, a perda de biodiversidade e a desigualdade social, que exigem políticas públicas elaboradas com base no parecer de especialistas. Este julgamento também deve ser sensível a situações específicas, reunindo informações de diversas disciplinas e experiências vividas que devem ser interpretadas através da lente da cultura e dos valores locais.
Como um Relatório do Conselho Científico Internacional publicado no ano passado argumentou que a ciência deve reconhecer as nuances e o contexto para reconstruir a confiança do público. Deixar que a IA molde o futuro da ciência pode minar o progresso arduamente conquistado nesta área.
Se permitirmos que a IA assuma a liderança na investigação científica, corremos o risco de criar um monocultura do conhecimento que prioriza os tipos de questões, métodos, perspectivas e especialistas mais adequados para IA.
Isto pode nos afastar do abordagem transdisciplinar essencial para uma IA responsável, bem como o raciocínio público diferenciado e o diálogo necessários para enfrentar os nossos desafios sociais e ambientais.
Um novo contrato social para a ciência
No início do século 21, alguns argumentaram que os cientistas tinham uma contrato social renovado em que os cientistas concentram os seus talentos nas questões mais prementes do nosso tempo em troca de financiamento público. O objectivo é ajudar a sociedade a avançar em direcção a uma biosfera mais sustentável – que seja ecologicamente saudável, economicamente viável e socialmente justa.
A ascensão da IA apresenta aos cientistas uma oportunidade não apenas de cumprir as suas responsabilidades, mas de revitalizar o próprio contrato. No entanto, as comunidades científicas terão de abordar alguns questões importantes sobre o uso de IA primeiro.
Por exemplo, será a utilização da IA na ciência uma espécie de «terceirização» que poderá comprometer a integridade do trabalho financiado com recursos públicos? Como isso deve ser tratado?
E quanto ao crescente pegada ambiental da IA? E como podem os investigadores permanecer alinhados com as expectativas da sociedade ao mesmo tempo que integram a IA no pipeline de investigação?
A ideia de transformar a ciência com IA sem primeiro estabelecer este contrato social corre o risco de colocar a carroça na frente dos bois.
Deixar que a IA molde as nossas prioridades de investigação sem o contributo de diversas vozes e disciplinas pode levar a uma incompatibilidade com o que a sociedade realmente precisa e resultar em recursos mal atribuídos.
A ciência deve beneficiar a sociedade como um todo. Os cientistas precisam de se envolver em conversas reais sobre o futuro da IA dentro da sua comunidade de prática e com as partes interessadas na investigação. Estas discussões deverão abordar as dimensões deste contrato social renovado, reflectindo objectivos e valores partilhados.
É hora de explorar ativamente os vários futuros que a IA para a ciência permite ou bloqueia — e estabelecer os padrões e diretrizes necessários para aproveitar o seu potencial de forma responsável.
Este artigo editado foi republicado em A conversa sob uma licença Creative Commons. Leia o artigo original.