[English below]
Human Entities 2017: a cultura na era da inteligência artificial
Quarta, 4 outubro, 2017, 18.30 – 20.30
Entrada livre mediante registo
Porque importam as histórias: narrativas sobre inteligência artificial, risco existencial, e ciência
Adrian Currie (NZ/UK)
The Centre for the Study of Existential Risk, University of Cambridge, UK
Quero falar sobre a forma como as histórias – narrativas – sobre tecnologias emergentes, como a inteligência artificial, afectam o modo como estas são recebidas fora da ciência, e como são desenvolvidas dentro da ciência.
O nosso poder tecnológico está a aumentar a um ritmo tal que a nossa capacidade para o controlar e compreender tem dificuldades em acompanhar. Dado o poder transformativo que as tecnologias emergentes provavelmente terão para a sociedade humana, considerar os possíveis futuros que estas nos trarão, é crucial.
A minha abordagem a esta reflexão é através da discussão do risco existencial: riscos que, a acontecerem, são uma ameaça à nossa existência como espécie, ou a aspectos cruciais da civilização humana. Falarei de porque está a ciência, da forma como se organiza actualmente, mal equipada para lidar com riscos existenciais.
Em síntese, a ciência contém atributos que a tornam produtiva mas conservadora, e este conservadorismo prejudica a nossa capacidade de pensar da forma criativa e especulativa que o risco existencial requer. A partir desta discussão, falarei da importância das narrativas na nossa compreensão do risco existencial e das tecnologias emergentes, em particular a inteligência artificial. Se é verdade que as histórias que contamos sobre a tecnologia moldam o seu desenvolvimento, então se estas são escassas, ou pobres, podem deformar o progresso tecnológico e produzir problemáticos – ou desastrosos – resultados.
Adrian Currie
Adrian está particularmente interessado na forma como os cientistas produzem conhecimento em circunstâncias complicadas: onde a evidência no terreno é ténue, os objectos são complexos e obstinados, e a nossa compreensão é limitada. Enfatiza as estratégias oportunísticas, pluralistas e especulativas que os cientistas adoptam para ultrapassar esses desafios. Publicou amplamente em tópicos como o método nas ‘ciências históricas’ (paleontologia, arqueologia e geologia), o método comparativo em biologia, a natureza e ciência da música, questões éticas e científicas na geoengenharia e a importância do storytelling na ciência. Terminou o seu PhD na Universidade Nacional Australiana em Camberra, leccionou e trabalhou na Universidade de Victoria em Wellington, Universidade de Sydney, Universidade de Calgary, Universidade de Bucareste e na Universidade de Cambridge onde trabalha actualmente no Centro para o Estudo do Risco Existencial. No centro, investiga de que forma a estrutura de incentivos que orienta a ciência, a torna frequentemente conservadora, e potencialmente inadequada para os desafios que poderosas tecnologias representam.
Links:
CSER, http://cser.org
https://sites.google.com/
http://
A conversa com Adrian Currie será seguida de uma sessão de Q&A moderada por Joana Lobo Antunes, Coordenadora do Gabinete de Comunicação do Instituto de Tecnologia Química e Biológica, Universidade Nova de Lisboa.
Local: Trienal de Arquitectura de Lisboa, Campo de Santa Clara, 142-145, 1100-474, Lisboa
Data: Quarta, 4 outubro, 2017, 18.30 – 20.30
Este evento está integrado no ciclo
Human Entities 2017: a cultura na era da inteligência artificial
Ciclo de conversas outubro – novembro 2017
Organização CADA em parceria com a Trienal de Arquitectura de Lisboa
ENGLISH
Human Entities 2017: culture in the age of artificial intelligence
Talk 1
Wed 4 Oct 2017, 18.30 – 20.30
Free entry, registration required
Why stories matter: AI narratives, existential risk, and science
Adrian Currie (NZ/UK)
The Centre for the Study of Existential Risk, University of Cambridge, UK
I want to talk about how stories—narratives—about emerging technologies like artificial intelligence matter to both how they are received outside science, and are developed within it.
Our technological power is increasing, often leaving our ability to control and understand it struggling to keep up. Given how transformative emerging technologies are likely to be for human society, considering the possible futures they might take us down are crucial.
My way into this discussion is through existential risk: risks which, if actualized, pose a threat to our existence as a species, or to crucial aspects of human civilization. I will talk about why science, as currently organized, is ill-suited for tackling existential risks.
In brief, science has features which make it productive but conservative, and this conservatism undermines our capacity to think in the creative, speculative ways that existential risks demand. From this discussion, I’ll turn to the importance of narratives in our understanding of existential risk and emerging technologies, artificial intelligence in particular. If it is right that the stories we tell about technology shape its development, then if our stories are too few, or too impoverished, that could warp technological progress and have problematic—or disastrous—results.
Adrian Currie
Adrian is primarily interested in how scientists generate knowledge in tricky circumstances: where evidence is thin on the ground, targets are complex and obstinate, and our understanding is limited. He emphasizes the opportunistic, pluralistic and speculative strategies scientists adopt to overcome such challenges. He has published widely on topics from the method of the ‘historical sciences’ (paleontology, archaeology and geology), the comparative method in biology, the nature and science of music, ethical and scientific issues concerning geoengineering, and the importance of storytelling in science. He completed his PhD at the Australian National University in Canberra and has taught and worked at the University of Victoria in Wellington, the University of Sydney, the University of Calgary, the University of Bucharest, and in Cambridge, where he currently works for the Centre for the Study of Existential Risk. At the centre, he is investigating how the incentive structures which drive science often make it conservative, and potentially inadequate for the challenges powerful emerging technologies pose.
Links:
CSER, http://cser.org
https://sites.google.com/site/adrianmitchellcurrie
http://www.extinctblog.org
Adrian’s talk will be followed by a Q&A session moderated by Joana Lobo Antunes, Head of Science Communication Office, Instituto de Tecnologia Química e Biológica, Universidade Nova de Lisboa.
Venue: Lisbon Architecture Triennale, Campo Santa Clara 142-145, 1100-474 Lisbon, Portugal
Date: Wed 4 Oct 2017, 18.30 – 20.30
This event is part of
Human Entities 2017: culture in the age of artificial intelligence
Public talks October – November 2017
Read more about the programme
Organização CADA em parceria com a Trienal de Arquitectura de Lisboa | Organised by CADA in partnership with the Lisbon Architecture Triennale
Estrutura financiada por: | Funded by:
Apoio: | Supported by:
Design: Marco Balesteros (Letra)