Seja um voluntário

Podcast com Qiufan Chen: Ficção científica e o futuro da ciência: valores e sentidos na inteligência artificial 

Qiufan Chen, premiado escritor chinês de ficção especulativa, compartilha sua visão sobre o potencial da ficção científica para moldar o futuro da ciência na nova série de podcasts do Center for Science Futures, em parceria com a Nature.

Cientistas e pesquisadores valorizam cada vez mais a ficção científica pelas suas contribuições na antecipação de cenários futuros. Como parte da sua missão de explorar as direções em que as mudanças na ciência e nos sistemas científicos nos estão a levar, o Centro para Futuros da Ciência conversou com seis importantes autores de ficção científica para reunir suas perspectivas sobre como a ciência pode enfrentar os muitos desafios sociais que enfrentaremos nas próximas décadas. O podcast é em parceria com Natureza.

No nosso quinto episódio, Qiufan Chen junta-se a nós para discutir agência e responsabilidade social na ciência como um empreendimento humano. Para Chen, isto é especialmente aplicável à inteligência artificial. Durante o podcast, ele nos mostra os impactos da IA ​​no futuro da pesquisa científica e como os desenvolvimentos da IA ​​podem ser mais regulamentados e, portanto, mais éticos.

Inscreva-se e ouça através da sua plataforma favorita


Qiu Fan Chen

Qiufan Chen é um premiado escritor chinês de ficção especulativa, autor de A Maré do Desperdício e co-autor de AI 2041: Dez Visões para o Nosso Futuro. Ele também é pesquisador na Universidade de Yale e membro do Berggruen Institute, EUA. A nossa principal discussão centra-se na inteligência artificial, na forma como podemos aproveitar o poder desta tecnologia e, ao mesmo tempo, evitar os perigos que ela representa. 


Cópia

Paulo Shrivastava (00:04):

Olá, sou Paul Shrivastava, da Universidade Estadual da Pensilvânia. E, nesta série de podcasts, falo com alguns dos principais escritores de ficção científica da atualidade. Quero ouvir as suas opiniões sobre o futuro da ciência e como esta deve transformar-se para enfrentar os desafios que enfrentaremos nos próximos anos.

Qiufan Chen (00:24):

A IA no futuro, talvez possa ser usada para nos ajudar a nos refletirmos como um espelho, para nos tornarmos um ser humano melhor.

Paulo Shrivastava (00:33):

Hoje estou conversando com Qiufan Stanley Chen, um premiado escritor chinês. Eu li seu romance, A Maré do Desperdício há muitos anos, e ficou impressionado com o seu retrato da situação difícil do lixo eletrônico. Seu mais recente livro em coautoria AI 2041: 10 Visões do Nosso Futuro, combina vividamente histórias imaginativas com previsões científicas. Falámos muito sobre inteligência artificial e como podemos aproveitar o poder desta tecnologia incrível, evitando ao mesmo tempo alguns dos perigos que ela representa. 

Muito obrigado por se juntar a nós, Stan. Bem-vindo. É incrível que a variedade de tópicos científicos sobre os quais você domina seja realmente notável. Como você se interessou por esses temas científicos?

Qiufan Chen (01:28):

Então, como fã de ficção científica, tenho que admitir que comecei com todos esses Star Wars, Star Trek, Jurassic Park, filmes e livros clássicos de ficção científica, animações de antigamente. Cada vez isso me deu muitas novas inspirações e ideias. Então, sempre fui totalmente fascinado por todos esses sinais, pela imaginação do futuro e do espaço sideral e até pelas espécies de milhões de anos atrás. Então, como os trouxemos de volta à vida.

Paulo Shrivastava (02:02):

Então, a ciência já existe há muito tempo. Qual é a sua visão geral sobre a ciência como um empreendimento humano?

Qiufan Chen (02:13):

Para mim, é definitivamente uma grande conquista. E, claro, nos faz viver em melhores condições como seres humanos. E, quando olhamos para a história, tenho de admitir que há muitos desafios, porque me parece que a agência não está absolutamente nas mãos de seres humanos. Às vezes sinto que talvez a ciência e a tecnologia, tal como algum tipo de espécie, como algum tipo de ser biológico, tenham o seu próprio propósito. Tem seu próprio ciclo de vida de nascimento. Quer ser e evoluir junto com o ser humano. Então, nós somos como o hospedeiro, eles são como o vírus. Podemos ver isso dessa maneira ou vice-versa. Então, sempre sinto que há um emaranhado profundo entre a ciência e os seres humanos. Então, às vezes sinto que mudamos muito com todo esse desenvolvimento da ciência e da tecnologia, mas nunca sabemos qual é o rumo que temos pela frente.

Paulo Shrivastava (03:24):

Bem, vamos tornar isso mais concreto e focar no que está em alta no momento, que é a inteligência artificial. Como podemos garantir que o desenvolvimento da IA ​​tenha em conta a justiça social e as considerações éticas e morais?

Qiufan Chen (03:40):

O problema é que não investimos totalmente para construir este tipo de regulamentação e estrutura para evitar eticamente que algo negativo acontecesse. Acho que precisamos de mais diversidade na IA, e especialmente no modelo de linguagem grande, porque estamos falando especificamente de alinhamento. Assim, mesmo entre seres humanos em diferentes países, culturas, línguas, não tínhamos este alinhamento partilhado como um padrão único. Então, como podemos ensinar a máquina, a IA, a estar alinhada com o sistema de valores humanos ou com os padrões como um todo? Então, eu acho que isso é algo muito preliminar. Mas penso que o principal contributo não deve provir apenas das empresas tecnológicas, dos engenheiros, de todas estas pessoas que trabalham na indústria, mas também do mundo interdisciplinar, como as antropologias e psicologias, a sociologia, por exemplo. Precisamos de perspectivas mais diversificadas das humanidades, porque a IA deve ser construída para as pessoas, para servir as pessoas. Mas, no momento, posso sentir que o fator humano está faltando no circuito.

Paulo Shrivastava (05:11):

Então, na sua opinião, como é que estes avanços tecnológicos mudarão a forma como a ciência será feita no futuro?

Qiufan Chen (05:19):

Parece-me que esta é uma mudança de paradigma totalmente nova que os cientistas podem usar a IA para procurar novos padrões, prever a estrutura da proteína e encontrar a correlação dentro de uma enorme quantidade de dados. Acho que isso vai ser algo revolucionário. Mas também há muitas preocupações neste processo. Por exemplo, podemos agora prever milhões de estruturas de proteínas, mas o problema é: qual a percentagem de todas estas previsões de estruturas de proteínas que são válidas e eficazes para a doença real e para o corpo humano real? E outra coisa é que toda essa área revolucionada está muito focada em acumular uma enorme quantidade de conjunto de dados. Esses dados são coletados de que tipo de grupo? Que tipo de população? E eles estão compartilhando esses dados com aviso prévio, tudo foi usado? E estamos compartilhando os dados entre diferentes grupos de cientistas ou pesquisadores? Portanto, penso que isto tem sempre a ver com a forma como podemos construir este tipo de sistema de contrapeso para minimizar os riscos e os desafios, ao mesmo tempo que satisfazemos realmente as exigências do mercado e proporcionamos os melhores benefícios para as pessoas.

Paulo Shrivastava (06:56):

Sim, acho que construir o sistema de freios e contrapesos é uma parte importante do desenvolvimento da IA. Mas os impactos ambientais da própria inteligência artificial raramente são mencionados nas narrativas da ciência pública.

Qiufan Chen (07:13):

Isso é algo muito paradoxal, porque a IA requer muito poder. E precisa de computação em tempo real. Precisa de muita extração do meio ambiente. Mas enquanto isso, podemos usá-lo para detectar o incêndio florestal do satélite. Podemos usá-lo para proteger a biodiversidade. Podemos usá-lo para encontrar uma nova solução como o armazenamento de energia da bateria, e as redes inteligentes e talvez até a tecnologia de fusão nuclear no futuro. Portanto, se você usá-lo da maneira certa, ele poderá definitivamente nos proteger e lutar contra as mudanças climáticas.

Paulo Shrivastava (08:03):

Em algum momento no futuro, você acha que a IA compreenderá mais do que os humanos podem compreender?

Qiufan Chen (08:13):

Então, o que estive pensando é em algum modelo, como um grande modelo além do humano. Por exemplo, os dados de animais, plantas, fungos, até mesmo de micro e de todo o ambiente. Então, estamos falando de todo o modelo da Terra. Precisamos implantar esse tipo de camadas de sensores em todo o mundo. Então, talvez possamos usar o pó inteligente, que foi mencionado no romance de Lem, O Invencível. Então, você está falando sobre todo esse enxame de poeira pequena, basicamente é uma inteligência coletiva. E o ser humano pode aprender muito com este tipo de modelo grande, porque nos ajuda a perceber algo além do nosso sistema sensorial e além do humano. Então poderemos ser menos centrados no ser humano e ter mais compaixão por outras espécies. E, talvez essa fosse a solução para lutar contra as alterações climáticas, porque podemos sentir como as outras espécies se sentem e toda esta dor, todo este sofrimento, todo este sacrifício poderia ser algo tangível e real.

Paulo Shrivastava (09:36):

Maravilhoso. Imaginar a inteligência artificial no modelo humano é, na verdade, uma forma inferior de pensar sobre a artificial… A forma mais superior, o que vocês chamam de modelo do mundo inteiro, é a forma de desenvolvimento.

Qiufan Chen (09:54):

Sim. Então, isso me lembra o Budismo, porque no Budismo, como se todas as espécies sencientes fossem tão iguais quanto possível, e não existe tal coisa como seres humanos que deveriam ser superiores aos outros. Então, estou sempre pensando que precisamos encontrar uma maneira de incorporar toda essa filosofia e valores do Budismo e do Taoísmo na máquina.

Paulo Shrivastava (10:27):

Então, estou pensando se você entende os elementos técnicos da IA. A IA pode ser treinada no Budismo, no Taoísmo? Porque todos os livros e valores já estão codificados. É possível encontrar uma IA que os treine e crie uma religião mundial sintética, por assim dizer?

Qiufan Chen (10:50):

Definitivamente poderia, e poderia fazer um trabalho melhor do que qualquer um dos sacerdotes, qualquer monge, qualquer um dos gurus do mundo, porque tem muito conhecimento. Mas, como praticante do Taoísmo, há algo além da compreensão sintética de tudo isso, chamemos de experiência religiosa ou espiritual, é algo no corpo. Então, você tem que fazer todo esse dever de casa físico. Então, acho que isso é algo que ainda falta na IA. Não tinha corpo, não tinha o sistema sensorial complexo, não tinha autoconsciência, por exemplo. E acho que todas essas partes são o que torna um humano humano. A IA no futuro, talvez possa ser usada para nos ajudar a nos refletirmos como um espelho, para nos tornarmos um ser humano melhor.

Paulo Shrivastava (11:49):

Na sua imaginação, a IA pode ter alma?

Qiufan Chen (11:54):

O surgimento da consciência é basicamente um mistério na ciência atualmente. Portanto, parece-me que há definitivamente alguma conexão entre a capacidade emergente do modelo de linguagem grande e todos esses fenômenos emergentes em sistemas de complexidade de física clássica ou quântica. Então penso matematicamente que talvez algum dia possamos provar a existência da consciência. Mas não é zero ou um status, mas é como se fosse um espectro contínuo de status. Então, isso significa que talvez até uma rocha, até mesmo uma árvore, até mesmo o rio ou a montanha tenham algum certo nível de consciência, mas simplesmente não o reconhecemos porque somos muito centrados no ser humano. Mas é tudo uma questão de computação. É tudo uma questão de compressão de tempo e espaço. É tudo uma questão de preservação de informações. Portanto, é tudo uma questão de redução da entropia. Portanto, não é uma questão epistemológica, mas acho que é uma questão ontológica. Então é sobre existência.

Paulo Shrivastava (13:14):

Obrigado por ouvir este podcast do Center for Science Futures do Conselho Internacional de Ciência, feito em parceria com o Arthur C. Clarke Center for Human Imagination da UC San Diego. Visite futures.council.science para descobrir mais trabalhos do Center for Science Futures. Centra-se nas tendências emergentes nos sistemas científicos e de investigação e fornece opções e ferramentas para tomar decisões mais informadas.


Paul Shrivastava, Professor de Gestão e Organizações na Universidade Estadual da Pensilvânia, apresentou a série de podcasts. Ele é especialista na implementação de Objetivos de Desenvolvimento Sustentável. O podcast também é feito em colaboração com o Centro Arthur C. Clarke para a Imaginação Humana da Universidade da Califórnia, San Diego.

O projeto foi supervisionado por Mathieu Denis e levado por Dong Liu, A partir do Centro para Futuros da Ciência, o think tank do ISC.


Ative o JavaScript em seu navegador para preencher este formulário.

Mantenha-se atualizado com nossos boletins


foto de KOMMERS on Unsplash.


Aviso Legal
As informações, opiniões e recomendações apresentadas neste artigo são de responsabilidade do(s) colaborador(es) individual(is) e não refletem necessariamente os valores e crenças do Conselho Científico Internacional.

Ir para o conteúdo