A IA está mudando a ciência – como? Quem deve se preocupar? 

Uma análise crítica do impacto da Inteligência Artificial (IA) na ciência a partir de diferentes perspectivas e intervenientes – desde financiadores públicos a instituições privadas de alta tecnologia – revela uma preocupação partilhada pela falta de transparência e cooperação na criação de uma abordagem mais centrada no ser humano que cumprir a promessa da ciência como um bem público global. […]

A IA está mudando a ciência – como? Quem deve se preocupar?

Uma análise crítica do impacto da Inteligência Artificial (IA) na ciência a partir de diferentes perspectivas e intervenientes – desde financiadores públicos a instituições privadas de alta tecnologia – revela uma preocupação partilhada pela falta de transparência e cooperação na criação de uma abordagem mais centrada no ser humano que cumprir a promessa da ciência como um bem público global.

'A questão não é mais if A IA está mudando a ciência, mas como”, Mathieu Denis abriu a palavra na edição deste ano Cúpula Global Digital com Propósito com uma sessão de painel sobre os impactos da IA sobre como a ciência é feita e organizada.

Menos de um ano desde o lançamento público inicial do ChatGPT 4, o interesse no tema da IA, bem como a sua aplicação em todo o ciclo de produção científica, explodiu. Yamine Ait-Ameur, Chefe do Departamento Digital e Matemática da Agência Nacional Francesa de Pesquisa (ANR), vê esse interesse em quase todas as disciplinas. E embora a Agência não utilize ferramentas de IA para avaliar propostas de investigação, está bem ciente de que não pode impor restrições semelhantes à utilização de IA a terceiros no seu trabalho científico.

Embora a utilização da IA ​​na ciência suscite muitas questões e, por vezes, dúvidas, há também muito entusiasmo quanto às suas promessas. O potencial existe, se criarmos estruturas adequadas. Ricardo Batista Leite, CEO da I-DAIR, uma colaboração de IA para investigação em saúde, relata lições do passado, quando tecnologias disruptivas, aplicadas a sistemas falidos, criaram mais fragilidades. As tecnologias de IA podem contribuir para o bem-estar público – se as concebermos especificamente para o fazer desde o início.

A actual vaga de desenvolvimento da IA, contudo, é impulsionada quase exclusivamente pelo sector privado, com recursos que ultrapassam em muito quaisquer investimentos públicos. E torna-se impossível falar sobre a conceção conjunta de uma IA mais responsável e inclusiva sem colmatar a divisão entre o setor público e o privado na investigação e desenvolvimento.

Christina Yan Zhang, CEO do Metaverse Institute, acredita piamente na cooperação público-privada em ciência e tecnologia. Ela concorda que o bem-estar humano deve ser colocado no centro do desenvolvimento tecnológico. No sistema científico atual, os investigadores são forçados a buscar métricas como citações de periódicos, em vez do impacto real.

Não é só isso, acrescenta Yamine Ait-Ameur. Há outro desafio importante para o uso da IA ​​na ciência. As ferramentas de IA muitas vezes podem produzir resultados melhores do que os humanos. AlphaFold, um sistema de aprendizagem profunda de IA treinado para prever a estrutura de proteínas, por exemplo, já está superando os métodos movidos a energia humana. Mas não podemos replicar, verificar e explicar de forma confiável os seus resultados. Enquanto não conseguirmos compreender os processos que acontecem nas “caixas negras” da IA, a utilização da IA ​​na ciência levantará enormes problemas técnicos e éticos.

O público presente na sessão do painel partilhou o sentimento de que as grandes mudanças que vemos agora na ciência são apenas o começo: “Estamos em meados do século XIX, no início da Revolução Industrial. Estamos tentando adaptar o sistema feudal ou estamos analisando o período emergente?”

Ricardo Batista Leite concorda. “Olharemos para este momento e nos perguntaremos se fizemos a coisa certa. Tivemos a oportunidade de virar a maré”, concluiu.

VER TODOS OS ITENS RELACIONADOS

Ir para o conteúdo