Giovanni De Matteo's Blog: Holonomikon, page 35

November 12, 2014

Il rompicapo del Basilisco

Dopo la scorribanda di questi ultimi giorni sulle intelligenze artificiali superumane e gli universi-simulacro, voglio lanciarvi una provocazione. Vi propongo quindi un rompicapo, lo stesso proposto dall’utente Roko di LessWrong, una comunità molto attiva su alcuni campi della riflessione transumanista, e che gli ha meritato l’espulsione dal forum. Dal suo nickname e dalla creatura mitologica in grado di pietrificare con il semplice sguardo, il dilemma ha preso il nome di Roko’s Basilisk. In che consiste?


Immaginate che in un futuro più o meno lontano una IA superumana veda davvero la luce e che una IA maligna da essa generata decida di scoprire chi ha partecipato attivamente al suo avvento, e chi no. La IA istanzia una simulazione di tutte le coscienze umane che l’hanno preceduta e verifica il loro comportamento. Se avete dedicato la vostra vita al perfezionamento dell’IA e al suo avvento, il Basilisco vi premia – vi risparmia la vita, oppure lascia che la vostra vita simulata vada avanti senza che voi vi accorgiate di niente. In caso contrario, vi condanna a un’eternità di tormento.


Forse siamo già nella simulazione. Forse Dick non aveva poi torto. Forse, qualcuno sta osservando la nostra condotta di azione per decidere cosa fare di noi. Non è un bell’augurio, ma sappiate che se un giorno ci rivedremo potrebbe essere all’inferno!


cyberpunk_connection


Approfondimenti



A proposito del Roko’s Basilisk: The Most Terrifying Thought Experiment of All Time
Il punto di vista di Charles Stross sul dilemma di Roko: Roko’s Basilisk wants YOU

Archiviato in:Transizioni Tagged: Charles Stross, intelligenza artificiale, Roko's Basilisk, simulacri, Simulation argument, thought experiment
 •  0 comments  •  flag
Share on Twitter
Published on November 12, 2014 16:00

November 11, 2014

Se credete che questo mondo sia brutto…

A proposito di universi simulati, Philip K. Dick aveva già illustrato questo scenario prima che diventasse popolare, e prima che venisse investigato accuratamente nell’ambiente accademico. Intervenendo alla convention francese di fantascienza di Metz del 1977, Dick tenne un celebre discorso che oggi è considerato come una delle principali fonti di ispirazione della trilogia di Matrix dei fratelli Wachowski, ma che all’epoca suscitò non poche perplessità, specie – come si evince dalle registrazioni video dell’intervento – tra i presenti, che pure lo avevano accolto come il più grande scrittore vivente, ma che rimasero inebetiti e increduli davanti alle sue parole:



L’argomento di questo discorso è un tema che è stato scoperto di recente, e che potrebbe non esistere affatto. Potrei essere qui a parlarvi di qualcosa che non esiste nemmeno. Quindi mi sento libero di dire tutto e niente. Nelle mie storie e nei miei romanzi talvolta scrivo di mondi contraffatti. Mondi semi-reali oppure mondi personali sconvolti, abitati spesso da un’unica persona… Non ho mai avuto una spiegazione teorica o consapevole per il mio interesse verso questi pseudo-mondi pluriformi, ma adesso penso di aver capito. Ciò che avvertivo era la molteplicità delle realtà che si sono compiute solo in parte, contigue a quella che evidentemente è la più compiuta – quella su cui conviene, per consenso universale, la maggior parte di noi.



Altre uscite non meno bizzarre non contribuirono di certo ad accrescere presso il grande pubblico la credibilità dell’autore americano, ma leggere oggi i passaggi del suo discorso, alla luce dei progressi compiuti nell’indagine filosofica e nella conoscenza scientifica, lascia altrettanto increduli, e non esattamente per le stesse ragioni:



Alcuni sostengono di ricordare vite precedenti; io sostengo di ricordare una vita presente molto diversa. […] Viviamo in una realtà programmata dai computer, e il solo indizio che abbiamo a riguardo si presenta quando qualche variabile viene modificata e nella nostra realtà si verifica una qualche alterazione. In quel caso avremmo la soverchiante impressione di rivivere il presente – un déjà vu – magari proprio nello stesso modo: sentiamo le stesse parole, diciamo le stesse parole. Sostengo che queste impressioni  siano valide e significative, e vi dirò di più: questa stessa impressione è un indizio che in qualche punto del passato una variabile è stata modificata – riprogrammata com’era in precedenza – e che proprio per questo è scaturito un mondo alternativo.




Ma chi potrebbe avere interesse a simulare il nostro mondo – o, perché no, tutti i mondi possibili?


Esiste un detto tra i futuristi: che un’intelligenza artificiale simil-umana è destinata a essere la nostra ultima invenzione. Dopo di questa, le IA saranno capaci di progettare da sé praticamente qualsiasi cosa – incluse loro stesse. E in questo modo una IA ricorsivamente auto-perfezionante potrebbe diventare una macchina superintelligente.


Il concetto di Singolarità Tecnologica sarà forse noto ai più. Per la legge dei ritorni accelerati, ogni ricaduta di un avanzamento tecnologico produce effetti sempre più ravvicinati nel tempo, e in presenza di una IA già più avanzata della mente umana potremmo assistere a uno scenario di vera e propria esplosione di intelligenza. Per la natura stessa della Singolarità, è arrischiato fare ipotesi sulle sue conseguenze: citando la teoria del caos, gli esiti di un simile evento sono intrinsecamente imprevedibili. Ma possiamo azzardare comunque degli effetti.


L’IA superumana potrebbe avere interessi variegati, che prima o poi potrebbero portarla in conflitto con gli interessi umani. Fuori da ogni metafora, a meno di non accettare di essere già in una simulazione, gli esseri umani sono fatti di atomi che l’IA superumana potrebbe usare per fare qualcos’altro, come ha candidamente ammesso Eliezer Yudkowsky, blogger, fondatore della comunità LessWrong e fautore della cosiddetta “IA gentile”. E se anche fossimo nella simulazione, l’IA superumana simulata non sarebbe, proprio come noi, tenuta ad accorgersene in tempo.


In retrospettiva, mi piace credere che questo sia uno dei rischi per cui le pur potenti IA protagoniste di Neuromante, il romanzo di William Gibson capostipite del cyberpunk e della fantascienza contemporanea (della cui pubblicazione ricorre quest’anno il 30° anniversario), debbano vedersela con i controlli e le severe limitazioni imposte dal Turing Law Code e applicate dalla Polizia di Turing. Fin qui le buone notizie. Le brutte: alla fine le super-IA riescono malgrado tutto comunque a raggiungere il loro scopo.


Superhuman_AI


Archiviato in:Imaginarium Tagged: epistemologia, Il braccio violento della legge, intelligenza artificiale, metafisica, Neuromancer, Philip K. Dick, Singolarità Tecnologica, teoria del caos, Turing Police, William Gibson
 •  0 comments  •  flag
Share on Twitter
Published on November 11, 2014 16:00

November 10, 2014

La tesi dell’universo simulato

E se il mondo in cui viviamo, la nostra vita stessa, l’universo che ci ostiniamo a voler studiare e capire, se tutto questo non fosse altro che un inganno? Una simulazione, messa in piedi da qualcuno per scopi che forse siamo condannati a ignorare per sempre?


simulated_universe


Uno dei rischi esistenziali esposti da Nick Bostrom è legato al cosiddetto Simulation argument, da lui approfondita in un articolo del 2003 (e anche in questo caso incoraggio la lettura, il post che segue ne rappresenta un semplice, parzialissima riduzione).


Inizialmente proposta da Hans Moravec, l’ipotesi dell’universo simulato è stata ripresa da Bostrom nel 2001, sviluppando un ragionamento volto a esaminare la probabilità che la nostra realtà potesse essere un simulacro. Ma vale la pena ricordare che tutta la fantascienza è ricca di universi simulati, già prima del citatissimo Dick, pensiamo a Theodore Sturgeon con il racconto Il signore del microcosmo (1941) o a Robert A. Heinlein con Il mestiere dell’avvoltoio (1942), oppure a Daniel F. Galouye, già con Stanotte il cielo cadrà (1952-55) ma soprattutto con Simulacron-3 (1964), da cui il cinema e la televisione avrebbero attinto a piene mani.


La tesi di Bostrom stabilisce che almeno una delle seguenti asserzioni ha ottime probabilità di essere vera:



La civiltà umana verosimilmente non raggiungerà un livello di maturità tecnologica capace di produrre simulazioni della realtà, oppure potrebbe essere fisicamente impossibile riprodurre tali simulazioni.
Una civiltà equivalente che raggiungesse il suddetto livello tecnologico probabilmente non produrrà un numero significativo di realtà simulate (un numero tale da spingere l’esistenza probabile di entità digitali al di là del numero probabile di entità “reali” nell’Universo) per un qualsiasi tipo di motivo, come ad esempio l’utilizzo della potenza di calcolo per altri compiti, considerazioni di ordine etico sulla schiavitù delle entità prigioniere delle realtà simulate, etc.
Ogni entità con il nostro set generale di esperienze quasi certamente vive in una simulazione.

Il ragionamento si basa sulla premessa che, data una tecnologia sufficientemente avanzata, sia possibile rappresentare la superficie abitata della Terra senza ricorrere alla simulazione quantistica; che i qualia (gli aspetti qualitativi delle esperienze coscienti) sperimentati da una coscienza simulata siano paragonabili o equivalenti a quelli di una coscienza umana naturale; e che uno o più livelli di simulazioni annidate una nell’altra siano fattibili dato solo un modesto investimento di risorse computazionali nel mondo reale.


Se si assume innanzitutto che gli umani non andranno incontro alla distruzione o all’autodistruzione prima di sviluppare una simile tecnologia, e poi che i discendenti dell’umanità non avranno restrizioni legali o rimorsi morali contro la simulazione di biosfere possibili o della loro stessa biosfera storica, allora sarebbe irragionevole annoverare noi stessi nella ridotta minoranza di organismi reali che, prima o poi, saranno largamente sopravanzati in numero dai costrutti artificiali. In definitiva, è una questione di pura e semplice statistica.


Epistemologicamente, non sarebbe impossibile definire se stiamo vivendo in una simulazione. Ma le imperfezioni di un ambiente simulato potrebbero essere difficili da individuare per gli abitanti nativi della simulazione.


La tesi dell’universo simulato ci pone di fronte a un dilemma degno di nota. Se non si accetta l’idea di poter essere nient’altro che una simulazione in un universo simulato, si sta implicitamente negando la possibilità che l’umanità evolva in una civiltà postumana, oppure che tutte le civiltà postumane saranno soggette a qualche tipo di prescrizione che vieti loro di simulare i mondi dei loro precursori. Ed entrambe le spiegazioni non sono molto rassicuranti per il nostro cammino evolutivo futuro.


A qualcuno potrebbe ricordare il discusso paradigma olografico, ma in realtà questo scenario è molto peggiore. In quel caso saremmo infatti in presenza di una proprietà naturale dell’universo, che non richiede il coinvolgimento di una qualunque entità superiore tra i suoi presupposti. Se invece il mondo in cui viviamo dovesse essere una simulazione, se le nostre stesse vite fossero una simulazione nella simulazione, le cose si farebbero notevolmente più complicate. E naturalmente rischiose, in termini esistenziali. Di punto in bianco infatti qualcuno potrebbe decidere di interromperne l’esecuzione della realtà in cui siamo istanziati…


All’improvviso – shutdown!


E tanto in termini soggettivi quanto globali dovrete convenire che non è affatto una prospettiva confortante. Nemmeno se dovesse diventare certezza la possibilità di un dio o di un demiurgo, là fuori, in ascolto.


Archiviato in:Transizioni Tagged: Daniel F. Galouye, epistemologia, Hans Moravec, informazione, intelligenza artificiale, metafisica, Microcosmic God, Nick Bostrom, Philip K. Dick, postumanesimo, principio olografico, rischi esistenziali, Robert A. Heinlein, simulacri, Simulacron-3, Simulation argument, tecnologia, The Unpleasant Profession of Jonathan Hoag, Theodore Sturgeon, Tonight the Sky Will Fall!
 •  0 comments  •  flag
Share on Twitter
Published on November 10, 2014 17:00

November 9, 2014

Strategie di sopravvivenza ai rischi esistenziali

In un illuminante articolo del 2001-2002, il filosofo svedese Nick Bostrom, docente della Oxford University e direttore del Future of Humanity Institute, molto attivo anche in seno alla comunità transumanista, includeva l’impatto ambientale di alcune tecnologie tra i rischi esistenziali in grado di condurre l’umanità all’estinzione.


Cosa è un rischio esistenziale? Bostrom propone una classificazione del rischio basata su tre parametri: portata, intensità e probabilità che la minaccia si verifichi. La portata può essere “sostenibile” o “terminale”, l’intensità “personale”, “locale” oppure “globale”. Un “rischio esistenziale” è un rischio globale e terminale allo stesso tempo, una minaccia che potrebbe annichilire la vita intelligente di origine terrestre o limitarne drasticamente e irreversibilmente le potenzialità di sviluppo. Oltre al pericolo di un olocausto nucleare, dell’impatto di un asteroide o di una cometa con la superficie terrestre, del global warming, di un’epidemia naturale, di una qualche catastrofe collegata a un esperimento di fisica nucleare, Bostrom annovera anche l’abuso deliberato o accidentale delle nanotecnologie, la diffusione di agenti patogeni bio-ingegnerizzati o l’avvento di una superintelligenza ostile o semplicemente mal programmata. Con l’eccezione dell’impatto celeste, nessuno di questi rischi minacciava la sopravvivenza della specie umana prima della metà del XX secolo, e di certo nessuno contro cui l’umanità potesse adottare una qualche contromisura. Sono tutti fenomeni contro i quali si dimostra del tutto inutile (se non proprio impossibile) adottare il classico approccio empirico del prova-e-riprova, fino a testare una soluzione efficace. Senza un protocollo adeguato alla gestione del rischio, uno qualsiasi di questi eventi potrebbe rivelarsi fatale al primo errore, se non addirittura prima.


Il rischio esistenziale è una categoria che pone una sfida di ampia portata culturale per l’umanità intera:



Ci obbliga a superare l’approccio consolidato, in quanto vanifica qualsiasi opportunità di apprendimento dall’errore. Richiede invece un approccio proattivo: previdenza per anticipare nuovi tipi di minacce e volontà di adottare azioni preventive decisive sostenendone i costi morali ed economici.
Non possiamo affidarci alle istituzioni, alle norme morali, alle consuetudini sociali o alle politiche di sicurezza nazionale già sviluppate per fronteggiare altre tipologie di rischio. Il rischio esistenziale si comporta in maniera del tutto diversa da tutto ciò che abbiamo conosciuto finora (perfino una guerra mondiale combattuta con armi convenzionali o un regime nazista rappresentano delle minacce inferiori sulla scala della gravità, attestandosi a cavallo tra i rischi globali sopportabili e i rischi locali terminali). Proprio per questo la nostra reazione nel riconoscere rischi di questo tipo e nel correre ai ripari potrebbe risultare fatalmente lenta.
Le contromisure rappresentano dei beni pubblici globali e come tali andrebbero trattate. I rischi esistenziali sono una minaccia per chiunque e potrebbero richiedere azioni di portata internazionale. Il rispetto della sovranità nazionale non è una giustificazione legittima per evitare di prendere contromisure adeguate.
Considerando il bene delle generazioni future, il danno provocato dai rischi esistenziali va moltiplicato per un altro fattore, il tasso di sconto sociale: vale a dire il tasso di sconto adottato per calcolare il valore dei fondi spesi su progetti di interesse comune, esteso alle future generazioni.

Malgrado la sua innegabile importanza, è sorprendente quanto poco lavoro sistematico sia stato compiuto in questo settore.


Lo sforzo intellettuale di Bostrom è rivolto alla minimizzazione sistematica dei rischi esistenziali, attraverso l’accrescimento della consapevolezza e la predisposizione di contromisure adeguate. Tra le azioni suggerite ricordiamo:



Il pubblico riconoscimento del profilo di rischio esistenziale.
La creazione di una piattaforma internazionale per la condivisione dei costi e delle responsabilità di un bene pubblico globale come il contenimento dei rischi esistenziali.
Prevedere un margine di intervento nel caso in cui sia necessario, in ultima istanza, il ricorso a un’azione preventiva.
Adottare uno sviluppo tecnologico differenziato volto a posticipare l’implementazione di tecnologie pericolose e accelerare lo sviluppo di tecnologie benefiche, specie quelle in grado di attenuare le potenzialità delle tecnologie dannose.
Sostenere i programmi volti a contrastare direttamente specifici rischi esistenziali.
Maxipok, una regola generale per l’azione morale: massimizzare la probabilità di un effetto positivo, dove per “effetto positivo” si intende qualsiasi prodotto che scongiuri il disastro esistenziale.

L’articolo merita una lettura approfondita ma ripaga dello sforzo. Se siete interessati al futuro e alle possibilità della specie umana di evolvere in una civiltà postumana, vi potrete trovare interessantissimi spunti di riflessione, che come dimostra il caso di Elon Musk non hanno perso minimamente la loro attualità.


Archiviato in:Transizioni Tagged: bene pubblico globale, biotecnologia, estinzione, intelligenza artificiale, nanotecnologia, Nick Bostrom, postumanesimo, progresso, rischi esistenziali, tasso di sconto sociale, tecnologie emergenti
 •  0 comments  •  flag
Share on Twitter
Published on November 09, 2014 17:00

November 6, 2014

Un rimedio possibile per il Grande Disaccoppiamento?

Ricordate il Grande Disaccoppiamento tra la produttività e l’occupazione, individuato da Erik BrynjolfssonAndrew McAfee, della Sloan School of Management del MIT, di cui parlavamo non molto tempo fa? Ricorderete allora anche le stime di Carl Benedikt Frey e Michael Osborne, docenti a Oxford, che calcolavano in un 47% del totale i mestieri attuali negli Stati Uniti a rischio estinzione per l’informatizzazione.


Una delle misure proposte da più parti per contrastare la disoccupazione tecnologica e quindi il progressivo impoverimento di strati sociali sempre più ampi consiste nell’adozione di un reddito minimo universale, che operi anche una redistribuzione della ricchezza dopo che negli ultimi 40 anni è più che raddoppiata, da meno del 10% a oltre il 20%, la concentrazione del reddito nella disponibilità dell’1% delle famiglie ai vertici della piramide sociale. Se ne trova una dettagliata descrizione su io9, a firma di George Dvorsky, che ne illustra anche diversi meccanismi di finanziamento. E potrebbe combinarsi proficuamente con le soluzioni già discusse.


Purtroppo si tratta sempre di misure che richiedono una profonda revisione dell’approccio al problema: vale a dire una regolamentazione che segni anche una netta discontinuità con le politiche keynesiane e il culto del capitale oggi imperanti. Un atto di coraggio, come quello che viene generalmente richiesto per superare i periodi di crisi.


Archiviato in:Agitprop Tagged: crisi economica del 2008-2014, disoccupazione tecnologica, Great Decoupling, intelligenza artificiale, progresso, reddito minimo universale
 •  0 comments  •  flag
Share on Twitter
Published on November 06, 2014 17:00

November 5, 2014

La necessità di pensare in termini inclusivi

Nell’articolo scritto a 4 mani con il critico, traduttore e studioso di letteratura americana Salvatore Proietti, docente all’Università della Calabria, pubblicato sul numero 72 di Robot, ci siamo dilungati su un tema che attraversa, in maniera più o meno evidente, un numero crescente di opere prodotte negli ultimi anni in seno alla fantascienza: i diritti delle creature artificiali.


L’evoluzione tecnologica ha comportato effetti che non possono più essere ignorati: uno su tutti, la smaterializzazione dello spazio delle relazioni umane, con il web che è ormai diventato, come lo definisce il giurista Stefano Rodotà (al lavoro proprio su una Carta dei diritti di Internet con la commissione che presiede, costituita dalla Presidenza della Camera), il “più grande spazio pubblico che l’umanità abbia conosciuto”, e che anche per questo necessita di una regolamentazione riconosciuta a livello transnazionale. Si tratta dello spazio in cui si svolge ormai gran parte delle nostre esistenze, quello che il filosofo Luciano Floridi chiama Infosfera e che ci rende tutti inforgs, organismi informazionali, soggetti ibridi.


MetalMadeFlesh


L’identità personale si fa distribuita e si moltiplica. Il nostro ecosistema si è già modificato perdendo le originali presunte connotazioni di purezza naturale, e le prime applicazioni di augmented reality rendono ineludibile questa verità. Le tecnologie emergenti, sempre più spesso raccolte sotto la sigla NBIC (che raggruppa nanotecnologia, biotecnologie, information technology e cognitive science), adottato anche dalla National Science Foundation americana, producono effetti che diventeranno sempre più profondi e irreversibili man mano che si realizzano forme di convergenza tra i diversi settori della ricerca. Quanto dovremo ancora aspettare prima che soggetti che non condividono la nostra stessa natura biologica comincino a rivendicare i loro diritti? Robot, androidi, cyborg, intelligenze artificiali, cloni, simbionti, creature ibride, dalla duplice natura, prefigurano la nuova realtà di un mondo che non può più trincerarsi dietro l’esclusività dei benefici e dei diritti della contemporaneità, ma che anzi deve lavorare su una logica inclusiva per estenderli a tutti.


In un celebre passo della Dichiarazione di Indipendenza, ratificata nel 1776 a Philadelphia dai cittadini delle tredici colonie che si erano sollevate contro la madrepatria, leggiamo:



Sono istituiti tra gli uomini governi, i cui legittimi poteri derivano dal consenso dei governati; di modo che, ogniqualvolta una forma di governo tenda a negare tali fini, il popolo ha il diritto di mutarla o abolirla, e di istituire un nuovo governo, fondato su quei principi e organizzato in quella forma che a esso appaia meglio atta a garantire la sua sicurezza e la sua felicità.



Parole scritte da uomini, per esprimere la loro idea su quali condizioni debba rispettare un governo di altri uomini per essere da loro accettato. Qualcuno ha idea del perché un’intelligenza artificiale dovrebbe accontentarsi di qualcosa di meno di quanto richiesto dagli uomini?


Da questa consapevolezza nasce un approccio etico, come quello proposto nel 2006 da Gianmarco Veruggio, direttore della Scuola di Robotica di Genova e promotore della cosiddetta roboetica, l’etica applicata alla progettazione e allo sviluppo nei campi della robotica e dell’automazione. All’aumentare dei benefici potenziali, nella robotica come in qualsiasi altro settore della ricerca aumentano anche i rischi. Per questo la presenza massiccia di creature artificiali nel futuro verso cui ci stiamo muovendo pone l’opportunità e anzi il bisogno di una riflessione sulle regole che dovranno gestire il rapporto tra umani e macchine.


Prima che la realtà ci presenti un conto da pagare – come insegna la storia – comprensivo di interessi.


Archiviato in:Agitprop Tagged: 1776, augmented reality, biotecnologia, clonazione, cognitive augmentation, cyberspazio, cyborg, Dichiarazione di Indipendenza degli Stati Uniti d'America, diritti, etica, futuro, Gianmarco Veruggio, inclusione, inforgs, informazione, Infosfera, intelligenza artificiale, Luciano Floridi, nanotecnologia, NBIC, progresso, rete, roboetica, Robot, Salvatore Proietti, senso del futuro, Stefano Rodotà, tecnologia, tecnologie emergenti
 •  0 comments  •  flag
Share on Twitter
Published on November 05, 2014 17:00

November 4, 2014

SF: science fiction vs speculative fiction

Credit: Raphael Lacoste.

Credit: Raphael Lacoste.


Il mondo in cui viviamo ci obbliga a misurarci continuamente con noi stessi. Per tenere il passo dei cambiamenti in corso non possiamo fare a meno di riconsiderare le certezze acquisite e da quelle muovere verso la prossima conquista, attraverso un processo dinamico. La frontiera di oggi non è quella di ieri, non sarà quella di domani.


Mi piace considerare la fantascienza come la letteratura del cambiamento, intendendo il raggio di questo cambiamento nella sua accezione più ampia. Se è vero che il richiamo alla scienza è dichiarato fin dalla prima formulazione di Hugo Gernsback (quel scientifiction derivato nel 1926 da scientific fiction, che si sarebbe infine evoluto nell’attuale science fiction), è altrettanto vero che nel corso del tempo il genere ha inglobato territori di frontiera che possono anche non avere un aggancio diretto con l’estrapolazione scientifica e tecnologica. Pensiamo per esempio al ricco e celebrato filone delle ucronie, ai viaggi nel tempo, alle opere di fantapolitica o anche alle distopie, che non necessariamente presuppongono il ricorso a tematiche scientifiche per dispiegare al meglio le dirompenti potenzialità del genere.


Qualcuno ritiene per questo preferibile sostituire alla science fiction la denominazione più “neutra” di speculative fiction, soprattutto in riferimento agli esiti letterari più alti. Nel mio piccolo ho invece fatto mia un’altra crociata, ovvero quella di sottolineare l’essenza del genere, esaltando l’ampiezza e la varietà del suo campo d’azione. La fantascienza elabora gli effetti del cambiamento sui parametri culturali che gli autori decidono di volta in volta di declinare: non solo la scienza, ma anche la storia, la sociologia, la politica.


Questo è per me la fantascienza. E per questo vale la pena leggerla e scriverla.


Archiviato in:Imaginarium Tagged: cambiamento, cultura, distopia, fantapolitica, fantascienza, frontiera, progresso, scienza, speculative fiction, tecnologia, time travel, ucronia
 •  0 comments  •  flag
Share on Twitter
Published on November 04, 2014 17:00

November 3, 2014

Dove stiamo volando?

cnf2014-banner


Il prossimo week-end si terrà a Napoli il primo Congresso Nazionale di Futurologia, organizzato dall’Italian Institute for the Future. Non un “congresso” accademico ma un appuntamento aperto al pubblico in cui esperti di molteplici campi s’incontreranno per ragionare insieme sugli scenari futuri in ambito scientifico, tecnologico, politico, economico.


Sei scenari per un futuro (non troppo) remoto è il tema portante di questa prima edizione, che avrà un’anteprima venerdì 7 novembre con un dialogo su “Uomo e macchina” con Lorenzo Pinna e una tavola rotonda sul futuro visto dalla fantascienza. E qui troverete anche il sottoscritto, insieme ai colleghi Dario Tonani, Francesco Troccoli e Francesco Verso, sotto l’attenta supervisione di Roberto Paura e Carmine Treanni.


Archiviato in:ROSTA Tagged: Carmine Treanni, congresso di futurologia, Dario Tonani, Francesco Troccoli, Francesco Verso, futuro, Italian Institute for the Future, Napoli, progresso, Roberto Paura, tecnologia
 •  0 comments  •  flag
Share on Twitter
Published on November 03, 2014 17:00

November 2, 2014

Robot 72: sui diritti degli esseri artificiali

Ho colpevolmente mancato di segnalarvi l’uscita di Robot 72, disponibile in formato digitale già a partire dagli inizi diRobot72_digital settembre, ma rimedio adesso che è finalmente disponibile per l’acquisto anche l’edizione cartacea (sia sul Delos Store che su Amazon). All’interno c’è un lungo articolo scritto a quattro mani con Salvatore Proietti in cui affrontiamo il tema dei diritti civili degli esseri artificiali. La sua stesura ci ha tenuti impegnati per diverse settimane nel cuore della scorsa estate. Eccone, a mo’ di trailer, un assaggio:



È piena di fantascienza l’ultima parte del recente libro di Stefano Rodotà, Il diritto di avere diritti (Laterza 2012), di cui molto si è parlato. Come tutta la buona SF, è anche pieno di neologismi: biodiritto, nano-mondo, robo-legge, neuroetica. L’identità personale è distribuita, multipla: con le tecnologie che fanno parte di noi dobbiamo fare i conti. E l’identità è multipla in un mondo globalizzato sempre più multietnico e multiculturale, in cui (per riprendere Kim Stanley Robinson in Pacific Edge, romanzo del 1990 mai tradotto da noi) le “utopie tascabili” delle piccole comunità omogenee sono sempre più regressive e inquietanti. Il cyborg, il robot e il clone reclamano i loro diritti come forme di “homo possibilis” – proviamo ad ascoltarne la voce.


Insieme a Orwell, Huxley e Gibson (e a un filosofo della scienza come Giuseppe O. Longo, che spesso si è avvicinato alla SF), Rodotà evoca il bellissimo Non lasciarmi di Kazuo Ishiguro (2005), storia di clonazione e di oppressione. Bellissimo, ma nel suo radicale pessimismo forse meno lungimirante di un racconto di Ursula K. Le Guin come Nove vite (1969, nella classica antologia I dodici punti cardinali): destinati allo sfruttamento lavorativo e biologico, i cloni dichiarano anche la loro capacità di provare sentimenti, di confrontarsi con l’altro – e un’irriducibile voglia di sopravvivere.


A capire molto, era stato il Philip K. Dick degli anni 70, a torto ridotto alle sole visioni esoteriche dell’Esegesi. Prendiamo il saggio intitolato L’androide e l’umano: “il nostro ambiente, e intendo il nostro mondo, una creazione umana fatta di macchine, costrutti artificiali, computer, sistemi elettronici, componenti omeostatici interconnessi […] sta diventando vivo, o almeno quasi-vivo, e in un modo specificamente e fondamentalmente analogo a noi stessi”. Irriducibilmente, l’essere umano è un homo faber, che solo chi idealizza un inesistente passato “naturale” può prendere in considerazione a prescindere dall’interazione con il mondo. A sua volta, il mondo non sta a guardare: cambia, si modifica, e impone a “noi” di fare i conti con la sua volontà. Sta nascendo l’ecologia, e stanno nascendo nuovi soggetti. Robot, androidi, cyborg, ibridi, simbionti, creature duplici, meticce (da noi, Primo Levi aveva parlato di centauri): tutte immagini di un mondo sempre meno “puro”, che non ha nessuna intenzione di rinunciare ai benefici e ai diritti della modernità – e che, casomai, vuole estenderli a tutti.


Toccato nel profondo dalle letture sul nazismo, Dick conosceva benissimo il rischio di radicare il concetto del “bene” nella biologia e nella natura. Fra umano e inumano, scriveva nel saggio su Uomo, androide e macchina, la differenza non sta nell’“essenza”, ma nel “comportamento”. Proseguiva Dick: “Un essere umano privo della giusta empatia o sentimento è uguale a un androide costruito in modo da non averla, seguendo un progetto o a causa di un errore. Intendo, sostanzialmente, qualcuno a cui non importa il destino di cui è vittima l’essere vivente suo prossimo e rimane distaccato, da spettatore, mettendo in pratica con la sua indifferenza il motto di John Donne, ‘Nessun uomo è un’isola’, ma inserendo una variante nel teorema. Un’isola mentale e morale non è un uomo”.




Archiviato in:Transizioni Tagged: androidi, augmented reality, clonazione, cyborg, intelligenza artificiale, Kazuo Ishiguro, Kim Stanley Robinson, Philip K. Dick, postumanesimo, Primo Levi, replicanti, Robot, Salvatore Proietti, Stefano Rodotà, Ursula K. Le Guin

 •  0 comments  •  flag
Share on Twitter
Published on November 02, 2014 17:00

November 1, 2014

Quando parlavamo con i morti

caravan_enriquez_quando_parlavamo_con_i_mortiQuest’anno ho scelto Quando parlavamo con i morti come lettura per Halloween ed è stata una scelta particolarmente indovinata. Primo contatto di Mariana Enriquez con l’editoria italiana, il libro è stato pubblicato da Caravan Edizioni lo scorso maggio, nel quadro del Programma “Sur” dedicato alla traduzione e valorizzazione della letteratura argentina. Nata a Buenos Aires nel 1973, attiva come giornalista, Mariana Enriquez ha già pubblicato in patria tre romanzi, un saggio sulla mitologia celtica e una raccolta di racconti, partecipando all’antologia No entren al 1408, tributo al maestro del brivido Stephen King.


La sua sensibilità dark si manifesta anche nelle tre storie che compongono questa straordinaria antologia. Proprio così: straordinaria, non trovo davvero altre parole per definirla. La capacità dell’autrice di coniugare gli elementi dell’horror (spettri, zombie, ritornanti) con la riflessione storica, sociale e politica più acuta ha del meraviglioso. Vediamo in dettaglio le tre opere qui raccolte: due short stories e una novelette.


Quando parlavamo con i morti è il racconto di apertura della raccolta, a cui presta il titolo. Cinque bambine si riuniscono per praticare delle sedute spiritiche, cercando di scoprire la sorte dei loro parenti e conoscenti finiti nel triste novero dei desaparecidos. Scopriranno sulla loro pelle che il peso della storia può diventare insostenibile e il prezzo da pagare per la leggerezza è la follia. Enriquez ci conduce al finale senza lesinare momenti di angoscia pura, declinando con bravura eccezionale le caratteristiche dell’horror, prima di risolvere la storia in un’atmosfera malinconica e rarefatta.


Con Le cose che abbiamo perso nel fuoco il gioco si fa duro. Leggendolo ho sentito il disagio montare senza possibilità di arginarlo. Per rispondere alle violenze a cui da sempre sono costrette, un giorno le donne decidono di ribellarsi. In segno di rivalsa verso le efferatezze degli uomini, un numero crescente di ragazze dà luogo a terribili atti dimostrativi procurandosi gravissime ustioni. Si trasformano in Donne Ardenti, supportate da una rete clandestina di altre donne che prestano volontariamente la propria opera per curare le loro ferite. Alcune si sfigurano volontariamente, altre arrivano a suicidarsi. Le Donne Ardenti cominciano a destabilizzare l’ordine pubblico, costringendo il lettore a prendere atto delle tante ipocrisie accettate come convenzioni sociali. Il racconto è un pugno nello stomaco, che affronta senza falsi pudori la piaga del femminicidio e, pur senza contenere elementi sovrannaturali, nell’inatteso twist finale rende forse l’omaggio più efficace alla tradizione della letteratura da brivido.


Chiude la rassegna Bambini che ritornano, il vero pezzo forte. 50 pagine intensissime che riescono a coniugare con un perfetto equilibrio i nuclei tematici delle storie che le precedono. Mechi lavora all’archivio bambini scomparsi di Buenos Aires. Grazie anche a Pedro, giornalista ossessionato dalle storie che insegue, finisce per appassionarsi alla sorte delle centinaia di ragazzini che scompaiono ogni anno dalle strade della città. Alcuni vengono reclamati dai genitori o dai parenti più stretti, altri dagli amici, altri vengono semplicemente dimenticati. Finché Mechi e Pedro non cominciano a scoprire le trame di orribili traffici umani, che spaziano dalla pedofilia al circuito degli snuff movie. Ragazzini scivolati ai bordi della società sono le prede più facili e le strade sono piene di cacciatori perfettamente mimetizzati nella normalità di tutti i giorni. Poi le vittime cominciano a tornare e la società – fatta di perbenisti, di benpensanti, di ipocriti – si trova a fare i conti con le proprie colpe. Se Les Revenants incontrasse Black Mirror il risultato sarebbe qualcosa di molto vicino all’esito di questo racconto.


Per concludere, tre storie capaci di toccare le corde più profonde e di far riflettere sulla condizione della nostra societàMariana_Enriquez contemporanea, e una esaltazione del fantastico capace di farsi allegoria. Questo è Quando parlavamo con i morti, una raccolta che rivela la sconfinata bravura della sua autrice, di cui mi auguro di leggere presto qualcos’altro in italiano.


Archiviato in:Imaginarium Tagged: Argentina, Black Mirror, Buenos Aires, desaparecidos, fantastico, femminicidio, horror, Les Revenants, Mariana Enriquez, Programma "Sur", Quando parlavamo con i morti, snuff movie, Stephen King
 •  0 comments  •  flag
Share on Twitter
Published on November 01, 2014 13:13