Chiara C. Rizzarda's Blog, page 32
July 4, 2024
#ChthonicThursday: the Underworld Painter
Are you obsessed with the geographies of the underworld? Well, you’re not alone. An Apulian vase painter from Ancient Greece, active around the second half of the 4th century BC, shared your obsession so much that scholars call him “the Underworld Painter“. Today we take a look at his work on my Patreon.
June 30, 2024
#MerfolkMonday: the Wild Man of Orford
Well, we’re back with our collection of strange sea lore, and apologies for the interruption but work has been wild and I had to focus on the revision of my novel.
Where?This legend takes place in Orford Castle — in Suffolk, Southeast England — a manor near the homonymous Ness and not too far from the sea. It was built between 1165 and 1173 by King Henry II to consolidate royal power in the region and counter the influence of powerful local nobles like the Bigod family, powerful Normans who rose to prominence in England after the conquest and held the earldom of Norfolk from the 12th to 13th centuries.

All that survives of the castle is its polygonal keep, described as one of the most remarkable in England, and it was likely based on Byzantine architecture, which makes it a rather unique design for an English castle. Its construction cost the substantial sum of £1,414 9s 2d, as recorded in the Royal Pipe Rolls. Over the centuries, the castle passed through various owners, including Richard I, King John, and the Ufford and Willoughby families, but the legend we’re concerned with happened right after its construction.
What happened?According to the chronicler Ralph of Coggeshall, in around 1167 local fishermen caught a naked, hairy “wild man” in their nets near Orford.
Ralph was an English chronicler who lived in the late 12th and early 13th centuries, a monk of the Cistercian abbey at Coggeshall in Essex who later served as the abbey’s sixth abbot from 1207 to 1218. He had traveled with the Crusaders in 1185 and was present during the fall of Jerusalem to Saladin in 1187, receiving a head wound that caused him suffering later in life, so maybe part of his chronicles are due to battle wounds and migraine, but his “Chronicle of English Affairs” provides an important primary source for the early years of King John’s reign. He also wrote the “Chronicon Anglicanum”, covering the years from 1187 to 1224 and continuing an earlier chronicle started in 1066, and continued the chronicle of Ralph Niger, extending it from 1162 to 1178. The story of the wild man is included in the first chronicle.
The fishermen brought the strange creature back to Orford Castle, where the constable held him captive for several months. The man was understandably pissed and, according to the chronicles, he both refused to speak and behaved in a feral manner.
It’s unclear whether the man was believed to be a merfolk: some accounts describe the creature as a “merman”, suggesting it may have been some kind of sea-dwelling humanoid, but other stories support the theory of a regular wild man, as they will be very popular in the XVII century, who was simply unfortunate enough to be caught by a net. The incident apparently inspired the growth of “wild man” carvings on baptismal fonts in churches across coastal areas of Suffolk and Norfolk.
According to this source, the Market Square of Orford holds a memorial to him, and other representations can be found on the Butley Orford Oysterage and on Pinney’s Quay.

Eventually, the wild man managed to escape from the castle and return to the sea.
SourcesAside from the original source, the tale is told by Richard Jones in his Myths and Legends of Britain and Ireland. Here’s how he tells the story:
There is little today to suggest what a prosperous port Orford once was, save the ruins of its mighty castle built in 1165 by Henry II. It was to this imposing fortress that a group of agitated fishermen brought a most remarkable catch. Having spent a day trawling the waters off the Suffolk coast, they noticed that their nets were unusually heavy, and they discovered a strange creature caught up amongst the fish.
It resembled a man, but its naked body was covered with hair, a long, shaggy beard, and a bald crown. Over the days that followed, the castle governor, Bartholomew de Granville, attempted to communicate with his strange prisoner but to no avail. Apart from a few grunts, the Wild Man of Orford, as he became known, would say nothing. They fed him a diet of raw fish from which he would always wring out the moisture before eating. They even took him to a service at Orford Church and were perturbed to discover the sacraments meant nothing to him.
However, he seemed relatively happy at the castle and did not attempt to escape, even when he was taken to sea for a swim. After a few months, he began to grow restless. One day, when his guardians took him for his customary swim, he slipped beneath the surface and was never seen again.
If you prefer podcasts, I can recommend you this one by Eleanor Conlon and Martin Vaux.
Amy Elizabeth did a beautiful lithograph inspired by this legend and you can buy it here.
June 24, 2024
LEGO Serious Play: principi, metodo e applicazioni
Venerdì sera alle 18:00 ho avuto il piacere di essere ospite di Women in BIM, l’associazione internazionale che raccoglie donne che lavorano nell’industria delle costruzioni e i loro alleati nella battaglia contro le differenze e le discriminazioni di genere.
Nell’ottica dell’attività che offrirò all’associazione il mese prossimo, ovvero un workshop dedicato ai partecipanti al programma di Mentorship, abbiamo quindi parlato di LEGO Serious Play e collaborazione. Ecco alcuni highlight: trovate la presentazione completa su LinkedIn.
Il metodo LEGO Serious Play è stato inventato intorno al 1995 da Bart Victor e Johan Roos dell’IMD (International Institute for Management Development) in Svizzera per conto del gruppo LEGO. L’obiettivo iniziale era sviluppare un metodo che permettesse ai leader aziendali di affrontare problemi complessi e promuovere il pensiero creativo all’interno delle loro organizzazioni. La metodologia doveva aiutare a esplorare idee e concetti in modo tangibile, utilizzando i mattoncini LEGO come strumenti di modellazione.
Nello stesso anno, la metodologia è stata ulteriormente sviluppata e affinata dalla LEGO Executive Discovery con Robert Rasmussen che, affiancandosi agli architetti principali del metodo, ha giocato un ruolo cruciale nel trasformare le idee iniziali in un approccio strutturato e replicabile, adatto a una vasta gamma di applicazioni aziendali e organizzative.
Nel 2010, il LEGO Serious Play è stato rilasciato sotto una licenza Creative Commons, rendendo la metodologia accessibile a un pubblico più ampio. Questo passaggio ha permesso a facilitatori, educatori e professionisti di diverse discipline di adottare e adattare il metodo alle proprie esigenze, favorendo la diffusione globale e l’innovazione continua.
Questo metodo viene utilizzato per una pluralità di usi, dal brainstorming all’analisi per connessioni, dal problem-solving al team-building. In particolare, il LEGO Serious Play si è dimostrato efficace nel:
Stimolare la creatività e l’innovazione, permettendo ai partecipanti di visualizzare idee astratte e trasformarle in modelli concreti;Facilitare la comunicazione e la collaborazione all’interno dei team, offrendo a tutti i membri l’opportunità di esprimersi e contribuire in modo equo;Affrontare problemi complessi attraverso la costruzione di modelli tridimensionali che rappresentano sistemi, processi e scenari futuri;Supportare il processo decisionale, aiutando i gruppi a esplorare diverse opzioni e a valutare le implicazioni delle loro scelte in modo visivo e interattivo.Il metodo si basa su alcuni valori fondamentali:
I leader non possiedono tutte le risposte; il loro successo dipende dalla capacità di ascoltare tutte le voci del team.Le persone sono naturalmente portate a contribuire, desiderano essere parte di qualcosa di più grande e vogliono sentire proprio quello che fanno (ownership).Consentire a tutti i membri del team di contribuire ed esprimersi genera modelli di business più sostenibili.Troppo spesso i team lavorano in modo sub-ottimale e le conoscenze dei singoli membri rimangono inutilizzate.Il mondo in cui viviamo è complesso e adattivo.
Vantaggi
Il LEGO Serious Play offre una serie di risultati positivi che lo rendono un metodo unico e efficace per facilitare discussioni, risolvere problemi e costruire team coesi. In particolare:
Livella il campo di discussioneUno dei vantaggi più evidenti del metodo, significa che i partecipanti, indipendentemente dalla loro posizione gerarchica o dalla loro personalità, hanno l’opportunità di parlare e condividere le loro idee. La struttura del metodo incoraggia ogni membro del team a partecipare attivamente, assicurando che le voci di tutti siano ascoltate e rispettate. In questo modo, si evitano situazioni in cui solo le persone più assertive o con posizioni di potere dominano la conversazione.
Concede a tutti lo stesso tempo per pensare prima di parlareQuesto aspetto è particolarmente utile in ambienti dove le persone che pensano rapidamente possono sovrastare le personalità più riflessive. Il metodo prevede momenti di riflessione individuale durante i quali ogni partecipante costruisce il proprio modello prima di presentarlo al gruppo. Questo processo aiuta a bilanciare la dinamica del gruppo, permettendo a tutti di esprimere le proprie idee con chiarezza e sicurezza.
Ancora le idee al modello fisicoIl LEGO Serious Play ancora le idee dei partecipanti a modelli fisici che ciascuno di loro ha costruito. Questa ancoraggio visivo aiuta a mantenere la discussione focalizzata e concreta. Anche se un’idea espressa verbalmente può sembrare più convincente della propria, il modello fisico fornisce una rappresentazione tangibile che può essere esaminata e discussa, e riduce la possibilità che personalità più energiche distraggano o influenzino indebitamente gli altri membri del gruppo. Ogni partecipante ha l’opportunità di vedere le idee altrui, facilitando una comprensione più profonda e condivisa, senza perdere di vista le proprie.
Fornisce uno strumento delicato per affrontare le preoccupazioniUno degli aspetti più potenti del LEGO Serious Play è che fornisce uno strumento delicato e gentile per affrontare le preoccupazioni e i conflitti potenziali. I mattoncini colorati, il lavoro del facilitatore e l’uso di metafore creano un ambiente di discussione sicuro e mai minaccioso, che aiuta i partecipanti a sentirsi più a loro agio nell’esprimere le proprie preoccupazioni e nel discutere argomenti difficili. L’approccio ludico del metodo riduce la tensione e promuove un clima di apertura e fiducia, permettendo al gruppo di affrontare i problemi in modo costruttivo e sereno.
Il metodo LEGO Serious Play, specialmente in un’organizzazione, si basa sul mutuo accordo che i partecipanti siano disposti a utilizzare la loro immaginazione e accettano di non stare producendo direttamente un prodotto o un servizio, accettando di seguire una serie di particolari regole. Gioco, apprendimento, esplorazione e storytelling lavorano insieme per creare un ambiente di apprendimento dinamico e coinvolgente che stimola la creatività, la collaborazione e la risoluzione dei problemi.
GiocoL’approccio ludico permette di superare le barriere mentali e le inibizioni, creando uno spazio sicuro dove è possibile sperimentare senza paura di fallire. Gli adulti giocano con uno o più obiettivi specifici in mente: creare un legame sociale, esprimersi emotivamente, svilupparsi cognitivamente ed entrare in una competizione costruttiva.
ApprendimentoIl gioco facilita l’apprendimento in modo naturale ed efficace. Attraverso il processo di costruzione e riflessione, i partecipanti approfondiscono la loro conoscienza del problema o della questione oggetto del workshop durante una costruzione collettiva e partecipativa durante i quali i partecipanti sono coinvolti nel processo di scoperta, costruendo modelli che rappresentano le loro idee e concetti.
EsplorazioneL’esplorazione è un elemento chiave del metodo. I partecipanti sono incoraggiati a esplorare nuove possibilità e a vedere le cose da diverse prospettive. Il processo di costruzione permette di visualizzare e testare idee in modo tangibile, facilitando la sperimentazione e l’innovazione. L’esplorazione aiuta a scoprire soluzioni innovative e a comprendere meglio i problemi complessi. I partecipanti possono manipolare i modelli, modificarli e ricombinarli, esplorando così una gamma di opzioni e alternative.
StorytellingLo storytelling è un altro componente essenziale del metodo, perché i modelli servono come supporto visivo per raccontare storie. Ogni modello rappresenta un’idea, un concetto o una situazione, e i partecipanti usano queste rappresentazioni per comunicare i loro pensieri e sentimenti. Il processo di narrazione aiuta a chiarire le idee, a condividerle con gli altri e a costruire una comprensione comune. Il storytelling rende le idee più concrete e comprensibili, facilitando la comunicazione e la collaborazione all’interno del team.
Il concetto di immaginazione spesso costituisce una barriera ai partecipanti al metodo, che in età adulta possono ritenere di non essere sufficientemente “creativi” per approcciarlo. È importante però ricordare che esistono diversi tipi di immaginazione che l’immaginazione creativa non è quella su cui il metodo LEGO Serious Play fa maggiormente affidamento.
Immaginazione descrittivaL’immaginazione descrittiva è la capacità di osservare e interpretare ciò che accade nel mondo. Questa forma di immaginazione ci permette di dare un senso alla realtà, riconoscendo schemi, relazioni e dinamiche che altrimenti potrebbero passare inosservate. Attraverso l’immaginazione descrittiva, possiamo vedere nuove possibilità e opportunità che emergono dalle nostre osservazioni. È un tipo di immaginazione fondamentale per l’analisi e la comprensione del contesto in cui operiamo.
Immaginazione creativaL’immaginazione creativa va oltre l’osservazione del mondo così com’è e ci permette di vedere ciò che non c’è ancora. Questa forma di immaginazione crea nuove possibilità combinando, ricombinando o trasformando elementi o concetti distillati dall’immaginazione descrittiva. È il tipo di immaginazione che alimenta l’innovazione e la generazione di idee originali. Nel contesto del LEGO Serious Play, l’immaginazione creativa viene stimolata attraverso la costruzione di modelli che rappresentano concetti e idee nuove, incoraggiando i partecipanti a esplorare soluzioni inedite e fuori dagli schemi.
Iimmaginazione sfidanteL’immaginazione sfidante è quella che mette in discussione le regole esistenti e il modo in cui le cose sono fatte. Utilizzando spesso la decostruzione e il sarcasmo, l’immaginazione sfidante ribalta le convenzioni e fa piazza pulita delle idee preconcette. Questo tipo di immaginazione è essenziale per il cambiamento e la trasformazione, poiché consente di rompere con il passato e di aprire la strada a nuove possibilità. Nel LEGO Serious Play, i partecipanti sono incoraggiati a usare l’immaginazione sfidante per esaminare criticamente le loro assunzioni e per trovare modi radicalmente nuovi di affrontare i problemi.
Immaginazione strategicaIl LEGO Serious Play stimola principalmente questo quarto tipo di immaginazione, chiamato immaginazione strategica. Questa forma di immaginazione emerge dall’interazione complessa e controllata delle altre tre forme di immaginazione: descrittiva, creativa e sfidante. L’immaginazione strategica è quella che permette di vedere il quadro generale, di comprendere le interconnessioni e di sviluppare visioni a lungo termine. È particolarmente utile per la pianificazione strategica e la risoluzione di problemi complessi, poiché combina l’analisi del contesto (immaginazione descrittiva), l’innovazione (immaginazione creativa) e la capacità di sfidare lo status quo (immaginazione sfidante).
Il metodo LEGO Serious Play si basa su due teorie fondamentali dell’apprendimento: il costruttivismo e il costruzionismo. Entrambe le teorie si occupano di investigare come le persone costruiscano conoscenza e comprendano il mondo attraverso esperienze pratiche e riflessioni condivise.
CostruttivismoIl costruttivismo è una teoria dell’apprendimento proposta da Jean Piaget, uno dei più influenti psicologi dello sviluppo. Secondo Piaget, la conoscenza non viene semplicemente “acquisita” passivamente, ma viene costruita attivamente dall’individuo attraverso l’interazione con il mondo. Le persone costruiscono quadri di conoscenza coerenti e robusti chiamati “strutture di conoscenza”. Queste strutture si basano sulle esperienze personali e vengono continuamente adattate e riorganizzate man mano che l’individuo acquisisce nuove informazioni.
Nel contesto del LEGO Serious Play, il costruttivismo implica che i partecipanti costruiscono modelli fisici che rappresentano le loro idee e concetti. Questo processo di costruzione aiuta a chiarire il pensiero, a rendere visibili le idee e a facilitare una comprensione più profonda. I modelli creati non sono semplicemente rappresentazioni statiche, ma strumenti dinamici che possono essere modificati e adattati in base alle nuove intuizioni e alle interazioni con gli altri membri del gruppo.
CostruzionismoIl costruzionismo, sviluppato da Seymour Papert, un allievo di Piaget, amplia la teoria del costruttivismo. Secondo il costruzionismo, l’apprendimento è particolarmente efficace quando le persone sono impegnate a costruire un prodotto terzo, qualcosa di esterno a loro stessi. Questo processo di costruzione esterna non solo aiuta a consolidare la conoscenza interna, ma facilita anche la condivisione e la collaborazione. Papert sosteneva che il miglior modo per apprendere è attraverso la creazione attiva e la manipolazione del mondo intorno a noi.
Nel LEGO Serious Play, i partecipanti utilizzano i mattoncini LEGO per costruire modelli che rappresentano idee, concetti e soluzioni. Questo atto di costruzione fisica aiuta a collegare il pensiero astratto con l’azione concreta, creando un ponte tra la teoria e la pratica. I modelli servono come punti focali per la discussione e la riflessione, permettendo ai partecipanti di esplorare le loro idee in modo tangibile e condivisibile.
Il ruolo delle maniUn aspetto cruciale del costruzionismo e del costruttivismo è il ruolo delle mani nel processo di apprendimento. Le nostre mani sono collegate al 70-80% delle cellule cerebrali, il che significa che l’attività manuale può stimolare e coinvolgere gran parte del nostro cervello. Il nostro cervello è limitato nella quantità di informazioni che può gestire consapevolmente in una sola volta (memoria di lavoro), ma con l’aiuto delle ulteriori connessioni neurali attivate dalle mani, possiamo attingere a serbatoi più profondi di conoscenza e creatività.
Nel contesto del LEGO Serious Play, questo significa che la costruzione fisica di modelli con le mani aiuta i partecipanti a esplorare idee complesse in modo più completo e integrato. Manipolare i mattoncini non è solo un’attività ludica, ma un potente strumento cognitivo che facilita l’apprendimento e la comprensione.
Apprendimento collettivoIl metodo favorisce un apprendimento di tipo collettivo. La costruzione della conoscenza avviene in modo collaborativo, senza una rigida distinzione tra insegnanti e discenti. Tutti i partecipanti sono considerati co-creatori del sapere, e il processo di costruzione e riflessione è condiviso. Questo approccio democratizza la conoscenza e valorizza le diverse prospettive, creando un ambiente inclusivo e partecipativo.
Assunti di BaseIl LEGO Serious Play si basa su una serie di assunti fondamentali che guidano la sua applicazione e ne determinano l’efficacia. Questi assunti riflettono una filosofia inclusiva e collaborativa dell’apprendimento e della risoluzione dei problemi, sottolineando l’importanza della partecipazione attiva di tutti i membri del team e il valore della costruzione collettiva della conoscenza.
La risposta è nel sistemaUno dei principi cardine del metodo è che la risposta a una questione complessa si trova nel sistema stesso da cui la questione complessa è emersa. Questo significa che quando un problema emerge durante la costruzione di un modello, la soluzione si può trovare esplorando le interazioni tra le varie parti del modello. Il modello costruito rappresenta un sistema complesso in cui ogni elemento è interconnesso con gli altri. Esaminando attentamente queste connessioni e relazioni, i partecipanti possono scoprire soluzioni innovative e comprensive. Questo approccio sistemico aiuta a comprendere meglio le dinamiche interne del problema e a trovare risposte che altrimenti potrebbero non essere evidenti.
Tutti possono utilizzare il metodoIl LEGO Serious Play è un metodo inclusivo, accessibile a chiunque sia fisicamente in grado di manipolare i mattoncini. Non richiede competenze specialistiche o conoscenze tecniche avanzate. Questo significa che persone di tutte le età, background e livelli di esperienza possono partecipare e contribuire attivamente. L’unico prerequisito è la capacità di utilizzare le mani per costruire. Questo rende il metodo particolarmente adatto a gruppi eterogenei, dove la diversità di pensiero e esperienza può arricchire il processo di problem-solving e innovazione.
Il modello come metaforaNel LEGO Serious Play, i modelli costruiti non sono semplici rappresentazioni fisiche della realtà, ma fanno un ricco uso di metafore. Ogni componente del modello può rappresentare un concetto, un’idea o una relazione. Questa metafora permette ai partecipanti di esprimere idee complesse in modo visuale e tangibile. Ad esempio, una torre costruita con i mattoncini potrebbe rappresentare un obiettivo aziendale, mentre i blocchi alla base potrebbero simboleggiare le risorse necessarie per raggiungerlo. L’uso della metafora facilita la comunicazione e la comprensione, permettendo ai partecipanti di esplorare e discutere concetti astratti in modo più concreto e coinvolgente.
La costruzione della conoscenza è collettivaNel contesto del metodo, non esistono insegnanti e discenti in senso tradizionale. Tutti i partecipanti sono considerati co-creatori del sapere. Questo approccio democratico valorizza le conoscenze e le esperienze di ogni membro del gruppo, creando un ambiente inclusivo e collaborativo. La costruzione di modelli avviene in modo partecipativo, con ciascun membro che contribuisce con le proprie idee e prospettive. Questo processo di costruzione collettiva della conoscenza non solo arricchisce il risultato finale, ma rafforza anche il senso di appartenenza e collaborazione all’interno del team.
Il potere delle maniUn aspetto cruciale del metodo è l’importanza delle mani nel processo di apprendimento e costruzione della conoscenza. Le mani sono collegate al 70-80% delle cellule cerebrali, come si diceva, rendendole strumenti potenti per esplorare e comprendere concetti complessi. La manipolazione dei mattoncini aiuta a stimolare il cervello e a facilitare il pensiero creativo e critico. Il processo di costruzione fisica aiuta a esternalizzare il pensiero, rendendo visibili le idee e permettendo una riflessione più profonda e condivisa.
Creazione di significati condivisiIl LEGO Serious Play permette di creare significati condivisi all’interno del gruppo. Attraverso la costruzione di modelli e l’uso delle metafore, i partecipanti possono esplorare e discutere le loro idee in modo che tutti possano comprendere e contribuire. Questo processo aiuta a costruire una comprensione comune e a sviluppare soluzioni che riflettono le diverse prospettive e esperienze dei membri del team. La creazione di significati condivisi è fondamentale per la coesione del gruppo e per l’efficacia delle decisioni prese collettivamente.
Quando si usa? Le quattro “C”Il metodo LEGO Serious Play è estremamente versatile e può essere applicato in una varietà di contesti per affrontare diverse tipologie di sfide, ma in particolare mi piace riassumere le circostanze in cui esprime il proprio massimo potenziale individuando quattro “C”: Complessità, Committment, Coinvolgimento, e Comprensione.
ComplessitàIl LEGO Serious Play è particolarmente efficace quando si affrontano questioni complesse. La complessità può derivare da molteplici fattori, come la presenza di molte variabili interdipendenti, la necessità di considerare prospettive diverse o l’incertezza legata al futuro. In queste situazioni, porre la stessa domanda ai membri del gruppo può generare risposte differenti, riflettendo la varietà di esperienze e punti di vista. Consente quindi di esplorare questa complessità attraverso la costruzione di modelli che rappresentano le diverse componenti del problema, permettendo ai partecipanti di vedere e capire come queste componenti si interconnettono. Questo approccio facilita la comprensione condivisa e aiuta a identificare soluzioni innovative.
Il metodo è anche utilizzato quando si vuole provocare nuove idee e nuovi modi di pensare. La natura ludica e creativa del metodo stimola l’immaginazione e l’innovazione. I partecipanti sono incoraggiati a esplorare nuove possibilità e a vedere le cose da prospettive diverse. Questo approccio favorisce l’apprendimento e la crescita, sia a livello individuale che di gruppo. Attraverso il processo di costruzione e riflessione, i partecipanti possono scoprire nuove idee, sfidare le loro assunzioni e sviluppare soluzioni innovative ai problemi.
CommitmentUn altro contesto in cui il LEGO Serious Play è molto utile è quando il risultato della discussione deve essere attivamente condiviso da tutti i partecipanti. Il commitment (impegno, dedizione, abnegazione… chiamatelo come volete) è cruciale per garantire che le decisioni prese siano sostenute e implementate con convinzione da tutto il team. Utilizzando il metodo, ogni membro del gruppo ha l’opportunità di contribuire al processo decisionale, costruendo e presentando modelli che rappresentano le proprie idee e preoccupazioni. Questo coinvolgimento attivo crea un senso di ownership (proprietà) e responsabilità, assicurando che tutti si sentano parte del processo e siano impegnati a supportare le decisioni finali.
CoinvolgimentoIl metodo è estremamente efficace quando è importante che tutti partecipino in modo attivo e costruttivo. Spesso, in riunioni o workshop tradizionali, solo alcune voci tendono a dominare la conversazione, mentre altre possono rimanere in silenzio. Questo metodo livella il campo di discussione, dando a tutti i partecipanti un’opportunità equa di parlare e contribuire. Attraverso la costruzione di modelli, anche i membri più introversi o riflessivi possono esprimere le loro idee in modo visuale e tangibile. Questo approccio inclusivo assicura che tutte le prospettive siano considerate, migliorando la qualità delle discussioni e delle decisioni.
ComprensioneQuando è importante incorporare nella discussione ogni punto di vista, inclusi quelli che esprimono perplessità o timore, il LEGO Serious Play si rivela un metodo molto efficace. La costruzione di modelli con i mattoncini permette ai partecipanti di esternalizzare i loro pensieri e sentimenti in modo sicuro e non minaccioso. Questo facilita la comunicazione di idee complesse o difficili da esprimere verbalmente. Inoltre, l’uso di metafore aiuta a rappresentare concetti astratti in modo concreto, permettendo al gruppo di comprendere meglio le preoccupazioni e le idee di ciascun membro. Questo processo promuove una discussione aperta e onesta, dove tutti i punti di vista sono valorizzati e integrati.
Quando è altamente importante che i membri possano esprimere i loro veri sentimenti senza intimidire nessuno o essere intimiditi, il metodo offre un ambiente sicuro e supportivo. Il metodo utilizza i mattoncini e il lavoro del facilitatore per creare un’atmosfera di apertura e fiducia. Questo permette ai partecipanti di esprimere le loro preoccupazioni, paure e speranze in modo costruttivo. La rappresentazione fisica delle idee attraverso i modelli facilita la comunicazione emotiva, riducendo la tensione e promuovendo una comprensione empatica tra i membri del gruppo.
May 24, 2024
Creativo in che senso?
Quando parlo dell’operato di una Intelligenza Artificiale Generativa (ovvero quella che produce, così chiamata per differenziarla da quella che “si limita” a discernere e classificare, spesso chiamata “discriminativa”) tendo a utilizzare il verbo “generare”, per l’appunto, rispetto al verbo “creare”. E lo faccio non tanto perché questa sia la terminologia corretta ma perché sono ben consapevole che tanti, a sentir parlare di “creazione”, tendono ad agitarsi.
Oggi però mi sono svegliata come Nanni Moretti, cioé con la voglia di litigare, e quindi poniamoci finalmente la domanda a cui tanti pensano di poter facilmente dare una risposta.
Può un’intelligenza artificiale essere creativa?
Per farlo ovviamente la domanda che ci dobbiamo porre è un’altra.
Cos’è e come funziona la creatività umana?Secondo Margaret A. Boden, celeberrima ricercatrice di Scienze Cognitive al Dipartimento di Informatica dell’Università del Sussex, la creatività è l’abilità di produrre idee o artifatti che siano nuovi, sorprendenti e di valore. Ciascuno di questi concetti avrebbe bisogno a sua volta di un approfondimento per il quale non basterebbe una vita. Cosa si intende per nuovo? Sorprendente per chi? E, soprattutto, chi stabilisce il valore di un’opera?

Per alcuni la creatività costituisce l’apice dell’intelligenza umana. Ma sono sufficienti cinque minuti di approfondimento per renderci conto che in realtà non sappiamo come definirla.
Bastano altri cinque minuti ed ecco presentarsi il problema immediatamente successivo: non solo non sappiamo definire in modo univoco cosa renda creativa un’idea, ma in realtà non sappiamo nemmeno bene come succeda che le idee prendano forma nei sistemi di intelligenza umana.
All’apice di uno dei tanti paradossi che rendono così interessante parlare di Intelligenza Artificiale, è proprio il funzionamento delle reti neurali a fornirci degli indizi su come districarci nell’analisi dell’intelligenza umana.

Sempre secondo Margaret Boden, l’intelligenza umana opera su tre livelli:
la ricombinazione di concetti noti in una configurazione originale;l’esplorazione dei canoni legati a uno stile o a una corrente che si ritiene o percepisce essere più o meno codificata;la creatività trasformativa, che spesso scaturisce dalla frustrazione nei confronti dei limiti auto-imposti nella strada esclusivamente esplorativa e rompe i canoni perché genera nuove configurazioni, nuove strutture se non addirittura nuovi concetti, che non avrebbero potuto essere generati in precedenza. I risultati di questo terzo tipo di creatività incontrano spesso una difficoltà iniziale a essere riconosciuti e ad affermarsi, proprio perché infrangono le regole di ciò che viene normalmente considerato creativo.Ammettendo che queste categorie siano soddisfacenti – e per quanto mi riguarda lo sono – vediamo un istante se le principali Intelligenze Artificiali Generative sono in grado di generare prodotti considerabili creativi rispetto a questi parametri.

L’accusa principale che i detrattori muovono alle Intelligenze Artificiali Generative è la loro supposta mancanza di creatività perché, a loro detta, questi sistemi si limiterebbero a “rubare” pezzi di lavori altrui per poi ricombinarli senza alcun apporto creativo da parte dei sistemi stessi.
Ora – indipendentemente dal concetto di “furto”, che ha a che fare con il molto pressante ma ahimé distinto problema dell’eticità del dataset su cui questi sistemi sono stati addestrati – l’obiezione dimostra di aver poco compreso non tanto il funzionamento delle Intelligenze Artificiali ma il funzionamento della creatività umana. La Divina Ispirazione non esiste (l’avevo detto che avevo voglia di litigare, vero?) e nessuno di noi è in grado di creare qualcosa di completamente inedito che non sia, almeno in parte, la ricombinazione di concetti, idee e immagini cui siamo stati esposti durante la nostra vita.
E se invece vi dicessi che le Intelligenze Artificiali Generative sono particolarmente deboli in questo tipo di creatività?
Creatività di EsplorazioneLa maggior parte delle Intelligenze Artificiali Generative operano in questo ambito: forniamo loro dei paletti all’interno dei quali devono operare (l’immagine fotorealistica, il testo nello stile di Mary Shelley, un’apparente verità formulata in toni assolutistici e così via) e loro producono degli output all’interno dei margini imposti.
Alcuni di questi margini possono essere impostati dall’utente, ad esempio costruendo una persona per il Large Language Model oppure chiedendo, per l’appunto, un testo nello stile di Mary Shelley. Altri fanno parte delle impostazioni di base del modello, impostati durante il suo addestramento, e sono i paletti che gli consentono di produrre un risultato che gli stupidi umani possano considerare valido, in quanto conforme a modelli e canoni già accettati.
Il Modello alla base di Stable Diffusion è un modello di diffusione probabilistica (Diffusion Probabilistic Model), originariamente utilizzato per rimuovere il “rumore” dalle immagini e successivamente potenziato per sintetizzare nuove immagini. Lavora su un sistema di forward diffusion, un processo iterativo in cui lancia pixel a caso fino a ottenere un risultato simile al rumore bianco, e di reverse diffusion in cui cerca di sistemare il casino che lei stessa a creato, incidentamente creando un’immagine originale che non è mai esistita.
Esiste però un altro sistema che è utile analizzare per capire l’approccio generale delle Intelligenze Artificiali Generative e si tratta di una delle invenzioni più strutturalmente malvagie del nostro tempo: il Generative Adversarial Network (GAN).

Si tratta di sistemi composti generalmente da due reti neurali che operano in simbiosi: una prima rete che chiameremo il Brutto e una seconda rete che chiameremo il Cattivo.
La prima rete, il Brutto, è chiamata discriminatore e ha il compito di distinguere se un determinato input sia originale o falso, e viene premiata quando indovina correttamente.
La seconda rete neurale, il Cattivo, è avversaria della prima: deve creare falsi da presentare al discriminatore per ingannarlo, e viene premiata quando riesce a ingannare la prima.
Si tratta, come potete immaginare, di reti che operano nell’ambito del Reinforcement Learning, perché la loro prestazione è sottoposta a sistemi di rinforzo tramite premio. La “ricompensa” non è da intendersi in senso letterale, ovviamente: nessuno è pagato per dare caramelle agli algoritmi (almeno spero). Si tratta di un incremento di una funzione matematica che funge da punteggio che le reti cercano di massimizzare. Questa simbiosi crea una competizione tra due avversari che cercano di superarsi a vicenda.

All’inizio della fase di addestramento, le informazioni generate dalla rete falsaria saranno facilmente riconoscibili come false. Con il progredire dell’addestramento, però, il rinforzo la indirizzerà a produrre informazioni che sempre più spesso riescono a ingannare il discriminatore. L’obiettivo è che la qualità di informazioni false sia quasi indistinguibile da quella delle informazioni reali.
E la Creatività Trasformativa?Cosa potrebbe mai andare storto?
Il punto è: saremmo in grado di riconoscerla, quando dimostrata dalla macchina, o la derubricheremmo come un malfunzionamento del modello?
Secondo Lev Manovich ed Emanuele Arielli, la somiglianza del prodotto di un’Intelligenza Artificiale al prodotto generato dalla creatività umana non dovrebbe proprio essere il becnhmark da considerare per giudicarne la creatività, anche perché ogni volta che poniamo un benchmark di somiglianza, e la macchina si dimostra in grado di raggiungerlo, l’umano sposta il becnhmark.

Nel caso di quest’ultimo tipo di creatività, quella trasformativa, l’idea stessa di un Test di Turing è assolutamente non idonea, perché avremmo bisogno di un test che ci aiuti a individuare prodotti che siano esteticamente di valore perché al di fuori dei canoni tadizionali, ed evidentemente di generazione non umana.
Superando quindi quello che nella concezione di Turing era il “gioco dell’imitazione”, Arielli e Manovich propongono un test differente il cui obiettivo sia identificare macchine che:
Raggiungano prestazioni superiori a quelle dell’umano, ovvero in ambito estetico producano qualcosa di più bello e piacevole di quanto farebbe un umano ma senza che la somiglianza ai prodotti umani sia una variabile nel giudizio;manifesti la capacità di essere creativa nel senso di generare qualcosa di nuovo;si dimostri capace di un comportamento autonomo e di produrre qualcosa di inedito e inaspettato, potenzialmente lontano dalle intenzioni iniziali dei suoi programmatori.Non si affronta in questo caso il tema dell’autocoscienza, il focus è sun prodotto, ma per dovere di cronaca presento anche questo punto di vista.
“Salvo rare eccezioni, forse anche legate a interessi di visibilità mediatica, i filosofi sono concordi nel ritenere che la differenza tra un’opera creativa e un’opera non creativa risieda nell’intenzionalità dell’autore. Se non vi è intenzionalità da parte dell’autore, non si può parlare di creatività né di arte.”
– S. Quintarelli, Intelligenza artificiale: Cos’è davvero, come funziona, che effetti avrà
Non mi voglio addentrare in una riflessione circa l’auspicabilità di questo scenario, perché entreremmo in un ambito che in questo momento sarebbe troppo lungo esplorare. Né mi preme espandere su quanto tutto ciò sia già tecnicamente possibile. Il punto su cui voglio soffermarmi è il seguente: probabilmente in modo indipendente dal concetto di intenzionalità, le nostre macchine non sono creative principalmente perché non vogliamo che lo siano. Esattamente come non vogliamo che lo siano gli umani.
Il celebre psichiatra svizzero Carl Jung definì lo stile di Picasso una forma d’arte malvagia e sottosviluppata, che non avrebbe dovuto trovare posto nelle gallerie d’arte. “E per quanto riguarda il futuro”, disse, “preferirei non azzardarmi a formulare profezie, peché la sua avventura interiore è una faccenda rischiosa che può portare in ogni momento a uno stallo oppure ad una catastrofica esplosione”. Aveva visitato un’esposizione monografica di 460 opere tenutasi dall’11 settembre al 30 ottobre 1932 nella Künsthaus di Zurigo. Picasso avrebbe dipinto per altri 41 anni.

La lista di umani innovativi rigettati dai loro critici sarebbe lunga, dagli Impressionisti che devono il loro nome alle detrazioni di un critico sulla stampa al povero Cézanne. E se non la comprendiamo negli umani, come pretendiamo di comprenderla quando questa creatività si manifesta in una macchina? Ma ancora di più, se non lo vogliamo negli umani come ci immaginiamo possa venire programmata una macchina con le caratteristiche necessarie per raggiungere questo obiettivo?
Ma cosa vogliamo, quindi?Salvo qualche esplorazione in ambito accademico, l’obiettivo di modelli come Stable Diffusion non è la creatività e di certo non quella trasformativa che potrebbe davvero apportare un contributo interessante per la crescita dell’umanità.
I modelli si concentrano sulla dimensione più familiare e addomesticata della creatività di esplorazione perché il loro obiettivo è consentire alla grande massa degli utilizzatori non etici di utilizzarli per sostituire l’umano con un assistente che non faccia obiezioni e cui non vengano in testa strane idee.
Cerchiamo di essere degli utilizzatori differenti.
May 18, 2024
Rohtko
Yesterday, prompted by the advice of a colleague I’ll always heed when it comes to culture and art, we organized an impromptu expedition to the theatre to see a play that’s been acclaimed by both the public and critics, a Latvian 4-hours piéce called Rohtko (anagram intended, and I wonder how many people noticed the name it’s spelt wrong).
Written by Anka Herbut and magically directed by Łukasz Twarkowski, the play founds itself on an episodic event: the astonishing discovery, back in 2004, that a beloved, 8,3 million dollars worthy painting believed to be by Rothko turned out to be a forgery. If you’re not familiar with the event, you can either read about it here or you can let the show tell you all about it because, with its avant-garden setting and its multiple storylines, they will make a point that you understand both what happened and the point of the discovery.
The point isn’t, as Time puts it in the linked article, “the rise of modern forgery.” The point is:
How is it possible to love a painting right until the discovery that it’s a fake? Why was it beautiful as a Rothko and stopped being beautiful when it turned out to be painted by a Chinese mathematician living in Queens?

Backwards into the 1960s, Rothko himself is struggling: he just finished painting a series of murals for the most lucrative commission of his life, murals which I believe are the Seagram Murals, but he’s profoundly disgusted by the world of collectors and curators and, regardless of having done all the work, is about to give the money back and he’ll eventually donate the paintings to the Tate Gallery.
Rothko’s temper is short, the proposed setting for the murals is the Four Seasons Restaurant in New York and this prompts him to compare art consumers with food consumers, and wealthy food consumers in particular, who pay a fortune for food just for the sake of paying a fortune, and wouldn’t understand what they’re eating especially when it comes to art. Played by Juris Bartkevičs with incredible intensity, Rothko is talking to his wife Mell (Vita Vārpiņa), who can’t stand his bullshit anymore.
We’ll meet them again in their bedroom, Mell tired and drunk, Mark (who’s never called by name) trying and failing to compliment her on a dress she isn’t wearing and eventually turning out to make everything about himself. He’s been diagnosed with an aortic aneurysm and, with his lifestyle, he takes it as a death sentence: he can’t drink anymore, he can’t smoke anymore, he’s impotent and the doctor forbids him to paint large paintings. As he puts it, he’s forbidden life.
He will soon leave his wife to go live in his studio, where he’ll be found dead in a pool of blood as large as his paintings.
The Seagram Murals arrived in London for display at the Tate Gallery on the day of his suicide.

Rothko’s suicide is linked to the suicide of another artist, a performer who’s never seen on stage if not through the meta-interpretation of Katažina Osipuka, who plays a performer named Destiny Hope. Her live performance was supposed to be a collection of tears: she would stand in front of paintings by Rothko, and the performer makes assumptions on how close she would have chosen to be, and she would collect in vials the tears flowing from her eyes, until the relationship between she and the painting would have ceased to communicate her any emotion, and she would move on to another painting.
This performance never happened: the artist took her own life before the scheduled date.

And again the idea of performance, originally born as a way to free an artist from the logic of capitalism and the market, comes back through the intertwined stories of two more characters, a homeless man and a lady, who just auditioned to perform Rothko and Mell for a movie. Andžejs Jakubčiks and Ērika Eglija-Grāvele play their role with mirrored intensity to their counterpart and this mirror is literal because many of these stories happen on stage at the same fucking time, through a clever stage rearranging that splits into two parts and two screens the Chinese restaurant where all conversations happen.
More on that later.
[image error] Picture by Artūrs PavlovsRothko obviously never meets neither with Ann Freedman (the art dealer from the Knoedler Gallery who sold the fake painting) nor with Domenico de Sole (the collector who will sue her). It’s left to the character of Destiny Hope to unravel the relationship between artists and dealers: after we have seen her as the waitress in the Chinese restaurant of the setting, we meet her sitting at one of the same restaurant’s tables, having a weird meeting with the character played by Mārtiņš Upenieks, the same character who expressed the concept of “radical care” at the very beginning of the play.
RADICAL CARE is an intentional process of producing relationships between humans and non-humans or artificial intelligence that increases compassion and encourages sharing social capital (and any other capital) and a level of intersectional awareness. It seeks to empathically demonstrate experiences, needs, and desires in order to build a community based on mutual caring. It aims to raise awareness of the interdependence of all of us; it means to care about those who are not us.
We already knew how hypocritical this was, but we needed a reminder: Jack Smith, as his character is called in this timeline, offers Destiny the “possibility” of performing in his museum for an amount of money that’s evidently unsatisfactory, and he goes full in with every trick any freelancer knows. It’s about visibility. It’s an investment in the future. It’s about boosting your career.
And we’re still talking about a collection of tears, from a performer who will take her own life, in front of the paintings of an artist who took his own life in turn.
Fuck your visibility.

Eventually, the obsession with the concept of originality is aided by the digital, and we’re thrown right into the jaws of blockchain-aided NFTs, where art can be made by anyone, even a technician who was hanging Rothkos upside-down in the houses of rich people. Is this wrong? If you answer a straight “yes”, you might want to think again.
The ultimate thesis of the show is that art is about the relationship. The relationship between the artist and the spectator through the art piece. If a piece moved you to tears, if it managed to evoke emotions, does it matter if it’s authentic or not? And what happens when the emotion can only arise through the reassurance of authenticity? Did we even notice it every time the Wolt Rider changed his face and switched places with another of the actors on stage?
Fundamental questions, woven by the show through a groundbreaking mix of performances that sees multiple timelines and conversations happening on stage at the same time, paced by the relentless dance of cameramen who will offer you the different stories on the two large screens at the top of the movable Chinese Restaurant. A single space at first, it splits into two portions to host two timelines and we can see both of them in parallel. It waits for us to catch up, and then one portion is behind the other, a visible one and one we can only see through the technological lenses of the camera and screen. Eventually, the two spaces are placed diagonally, both dissolving into the whiteness of a space that’s only meant as a showcase for the digital, as a natural consequence of everything we’ve seen so far.
Mind: officially blown.

PS: I should probably mention that the show is in Latvian, with portions in Chinese and some in English: subtitles in both English and the Country language are provided on additional screens at the top. If you’re in Milan, go see the last performance this evening. You can’t miss this.
May 17, 2024
La guerra è finita
Tre sono i ricordi più significativi che conservo di Andrea Piazzalunga. “Il Piazza”, come veniva affettuosamente chiamato in studio.
Il primo: un viaggio di ritorno in auto dal cantiere di Saint-Vincent durante il quale ci siamo persi in chiacchiere, abbiamo mancato l’uscita del raccordo e ce ne siamo accorti solo alla barriera di Torino. “Questa non la raccontiamo a nessuno”, ci siamo detti. Perdonami, Andrea. Oggi l’ho raccontata.
Il secondo: quel viaggio in Maremma, ospiti di Piero, quando progettammo strutture impossibili da costruire nel giardino dietro casa sua e invece lui ci mandò tutti in spiaggia. Quella spiaggia in cui Andrea sfoggiò con noncuranza la sua tartaruga per poi dichiarare, il giorno dopo in studio, che l’aveva presa a noleggio.
Non ho foto di Andrea in quel periodo: un uomo serio e bellissimo, un architetto di quelli veri, in grado di progettare un particolare costruttivo e di gestire una pratica, che di sabato si trovava spesso in studio a seguire i propri lavori (pratica non solo consentita ma addirittura incoraggiata da Piero in quei tempi ormai lontani). Un collega da cui sapevo di poter andare sempre, per qualunque problema, e che era sempre disponibile a guidarmi con la sua esperienza.
Il terzo ricordo, purtroppo, è più recente.
Incontrato nel cortile fuori dallo studio, quell’iconico cortile laterale in Brera che ci ha visto spesso accavallare telefonate ai piedi della parete di rampicanti, avevo trovato un uomo il cui sguardo si era addolcito di quella struggente malinconia che traspare solo in chi sta combattendo contro il mostro della depressione. Una parola nei confronti della quale nutriamo profondo pudore.
Ma il pudore, tanto spesso dipinto come una virtù nella nostra borghese società lombarda, è un senso di avversione nei confronti di aspetti della nostra natura con i quali non abbiamo gli strumenti per fare i conti. E il silenzio è sbagliato. La concesione secondo la quale è bene non parlarne, perché parlarne rende concreta l’idea, è sbagliata. La rende concreta solo per chi ascolta, ma nel cuore di chi la esprime quell’idea esiste già e, una volta affiorata nella mente, non scompare grazie al silenzio. Anzi. È un mostro che cresce fino a ingoiarci completamente.
Io non so quanto Andrea riuscisse a trovare, in quello studio cui ha dedicato 23 anni della sua vita, comprensione e supporto durante una guerra che è stata lunga. E so bene che ora tutti noi dovremo fare i conti con lo straziante rimorso, con i sensi di colpa dei sopravvissuti, con il senso di co-responsabilità di fronte a quello che un collega ha definito “l’irreparabile”. Irreparabile, sì, ma non inimmaginabile. Non rifiutiamo niente di questa realtà. Non rifiutiamo la guerra di Andrea e non rifiutiamo quella che ora si apre con noi stessi nel cuore di tutti noi.
Ma soprattutto, se vogliamo che Andrea non sia morto invano, accettiamo nel nostro cuore che tante persone intorno a noi stanno combattendo guerre simili e facciamo tutto il possibile, se ne abbiamo i mezzi e la forza, per far sì che non siano soli.
Ciao, Andrea. La guerra è finita, per sempre è finita, almeno per te.
May 13, 2024
Appunti dalla Esri Italia User Conference 2024
Nonostante si tratti di ambiti vicini, la cui mutua comprensione risulta ormai necessaria per un approccio digitalizzato maturo ad una gestione del territorio che comprenda e armonizzi l’ambiente costruito, i segnali di avvicinamento tra BIM e GIS negli ultimi anni sono stati tanto frequenti quanto apparentemente inconcludenti. La stessa partnership tra Autodesk ed Esri, annunciata a sorpresa all’Autodesk University del 2017, produsse… poco.
Ancora nel 2019, alla prima convention internazionale di Esri cui ho avuto il piacere di partecipare (e di scrivere qui), le effettive integrazioni erano poche, timide e dimostrate da tecnici spauriti la cui competenza in ambito BIM sembrava ancora estremamente acerba.
A questo si univa, nel 2019 a San Diego, un’altra preoccupazione diffusa: proprio nell’anno in cui era stata annunciata la rimozione della geografia come materia dai curricola di molti ordini scolastici negli Stati Uniti, i professionisti si domandavano come avvicinare i giovani ad una percezione completa delle tematiche territoriali.
Oggi in Italia ho visto portati a maturazione entrambi i temi.
Da un lato, Arkadiusz Szadkowski ci ha fatto sognare con dimostrazioni di funzionalità finalmente mature, dalla rettificazione e dall’interpretazone intelligente delle ortofoto fino al completamento degli spazi a scala urbana con la ricchezza informativa che viene dal mondo BIM. La nostrana ACCA Software, sviluppatore nazionale di prodotti storicamente orientati al piccolo professionista, si è unita al coro rubando la scena con la sua piattaforma usBIM.geotwin, che sembra integrare efficacemente modelli IFC con la piattaforma GIS e, siccome non era ancora abbastanza, un modello di linguaggio basato su GPT, tramite il quale interrogare i modelli caricati.
Anche se trovo sempre una contraddizione in termini che openBIM sia marchio registrato ®
Dall’altro lato, l’iniziativa NexTown di GeosmartCampus ha attirato giovani dai più disparati ambiti, che hanno iniettato nuove idee e spunti di riflessione nel discorso che riguarda la mobilità, la socialità, la sicurezza e l’accesso ai servizi nelle nostre città. Una conferenza storicamente molto istituzionale, popolata da politici e uniformi, si è animata così di nuove facce e nuove idee, dibattiti e contaminazioni cross-culturali.
Tra questi temi, naturalmente, l’ha fatta da padrone l’Intelligenza Artificiale, a partire dall’intervento di Damiano Cerrone alla sessione plenaria con casi di successo dalla sua piattaforma UrbanistAI, per arrivare all’eccellente intervento di Enrico Reboscio.

Menzione speciale anche a LAGO (Lightscience’s Analytical Geo Observations), che propone un sistema di gestione del patrimonio idrico tramite un vero e proprio roomba delle acque.
May 9, 2024
E tu lo vuoi un palloncino sintetico?
L’altro giorno parlavo di Machine Learning con un collega, e in particolare di una delle sue applicazioni classiche: il riconoscimento del soggetto in un’immagine. Si tratta della cosiddetta Image Recognition, uno dei possibili compiti nell’ambito della cosiddetta Computer Vision, ed è alla portata di tutti da ormai svariati anni. Date a uno sviluppatore una quantità sufficiente di immagini di scatoloni e un altrettanto esteso set di immagini di gattini, e lui sarà in grado di addestrare la macchina a distinguere una scatola da un gattino.
[image error] Per lo meno fino a quando non gli mostrate questo.Se vi interessa la differenza tra i diversi modi che la Computer Vision ha di gestire le immagini, vi consiglio di dare un’occhiata qui.
Questi sistemi di riconoscimento immagini hanno molteplici applicazioni pratiche, al contrario delle apparenze, e possono ad esempio essere utilizzate all’arrivo dei materiali in cantiere per supportare nell’individuazione di danni e difetti, oppure direttamente nelle industrie manifatturiere per impedire che oggetti con tali difetti vengano trascurati e mandati nel mio cantiere costringendo la mia Direzione Lavori ad emettere dei rapporti di non conformità.
Ma allora perché non vengono utilizzati da tutti dappertutto?
Il problema, come sa bene chiunque abbia provato ad implementare questo tipo di tecnologie all’interno di industrie tangenti a quella delle costruzioni, è sempre la scarsa disponibilità di dati.
Al nostro settore i dati non piacciono.
Le foto di cantiere vengono mandate via Whatsapp, archiviate in una cartella “fuffa” sul desktop del supervisore, e poi rovesciate sul server in una cartella che nessuno guarderà mai più oppure direttamente cancellate.
Quelli veramente bravi organizzano le foto che catturano i successi. Ma solo per farsi il portfolio. Le foto che catturano i fallimenti sono molto di rado categorizzate e correttamente archiviate.
Cosa c’entra tutto questo con il riconoscimento immagini e, soprattutto, con i palloncini?
Datemi un attimo.
[image error] Se anche voi, come Winnie the Pooh, siete convinti che nessuno possa essere infelice con un palloncino, sappiate che sto per farvi cambiare idea.Facciamo un esempioIpotizziamo che voi siate un’azienda che produce palloncini colorati e, siccome credete fermamente che la specializzazione sia la chiave per il successo, voi producete solo palloncini blu. Pantone 19-3832 TCX. Cioé Blu Navy.
[image error] Questo.Ora, facciamo finta che per ottenere quella specifica tinta di blu sia necessario aggiungere alla mistura un pochino di rosso.
Il problema è che ogni tanto il macchinario deputato a miscelare i colori si incastra e quindi, una volta ogni non sappiamo nemmeno noi quanti palloncini, anziché uscire tutti Navy ne esce uno Rosso. E questo è inaccettabile per la nostra qualità.
Il problema è che produciamo migliaia di palloncini per volta, e vengono spediti all’interno di scatoloni da 100 palloncini l’uno.
Impossibile pensare di poter fare uno screening manuale dei palloncini rossi: rallenterebbe troppo la produzione.
E allora come fare a individuare il bastardo?
Enters Image RecognitionLa risposta sembra essere semplice: addestriamo un sistema di riconoscimento immagine, collegato a delle telecamere messe sui nastri trasportatori dei nostri palloncini, in modo che sia il sistema ad allertarci ogni volta che vede un palloncino rosso.
Dovrebbe essere semplice.
E infatti lo è.
…vi ricordate quello che ho detto riguardo ai dati, alle foto dei difetti e alla mancanza di sufficiente materiale nella nostra industria?
Il problema è proprio quello.
Andrew Ng è uno dei massimi esperti di machine learning applicato al comparto industriale, nonché co-founder di Google Brain, e la sua prospettiva è citata da Cosimo Accoto nel suo meraviglioso Il mondo in sintesi del 2022 (ultimo volume di quella che lui stesso definisce una “trilogia dedicata alla cultura delle tecnologie contemporanee”).
[image error] Un libro assolutamente da divorare, come i precedenti.«…ho costruito un sistema di riconoscimento facciale usando circa 350 milioni di immagini ma quando ho chiesto alle persone dell’industria manifatturiera quante immagini avevano di ogni difetto che volevano riconoscere (nei loro prodotti), 50 o meno è stata la risposta più comune. Le tecniche sviluppate per imparare da centinaia di milioni di esempi faranno fatica a funzionare con solo 50.»
Il problema si è recentemente posto in modo simile su un mio cantiere: messi di fronte alla necessità di progettare delle sigillature per far fronte ad alcuni danni risultati dalla loro mancanza in altri siti simili, è stato impossibile ricevere anche solo una singola fotografia del danno di riferimento.
E se non ne abbiamo una, come possiamo averne le centinaia necessarie?
[image error] Pensa, piccolo Pooh, pensa!“Ho la soluzione”, disse PoohSe siete caotici malvagi, oppure se avete già letto il libro di Accoto, avete già intuito la naturale conclusione di questo ragionamento.
Dato che:
per addestrare un sistema di riconoscimento immagini servono più fotografie di difetti di quanti noi ne sappia contare (o, probabilmente, di quanto il nostro processo ne possa sostenere prima che qualcuno ci faccia causa);non siamo in possesso di una tale quantità di fotografie né presumibilmente lo saremo in tempi ragionevoli;siamo in possesso di tecnologie in grado di generare immagini a comando.Pop goes the Weasel.

La prospettiva di utilizzare immagini generate da un’intelligenza artificiale per addestrare un sistema di machine learning a riconoscere situazioni simili nel mondo reale può fare girare un poco la testa ma in verità non fa che aggiungere una componente “visuale” all’interno di una dinamica già esistente: quella dei dati sintetici.
«…dati simulati, creati e sintetizzati in maniere diverse e per contesti vari, che approssimano e sostituiscono i dati reali.»
– Cosimo Accoto, Il mondo in sintesi: Cinque brevi lezioni di filosofia della simulazione (2022)
I motivi per cui si sintetizzano i dati anziché infilarsi un paio di scarpe comode e andarli a raccogliere sul campo possono essere molteplici e sono spesso estremamente validi:
non abbiamo accesso a campi di raccolta simili al nostro e, purtroppo, nel nostro campo ne esistono troppo pochi: pensando alla nostra industria di palloncini, non ho dubbi che altre aziende abbiano problemi similari, ma il giorno in cui gli industriali si consoceranno condividendo i dati per un (loro) bene comune sarà il giorno in cui inizieranno a piovere rane dal cielo.raccogliere quei dati risulterebbe troppo costoso dal punto di vista economico, ovvero saremmo costretti a produrre di proposito centinaia di palloncini del colore sbagliato solo per fare in modo di riuscire a individuare il difetto quando questo accade per sbaglio;raccogliere una quantità sufficiente di dati risulterebbe troppo dispendioso in termini di tempo, ovvero dovremmo rimanere appollaiato sulla catena di montaggio così a lungo da risvegliarci in un mondo dove la gente usa i droni anziché i palloncini, e fanno anche il caffè;raccogliere quei dati è illegale, perché è stata recentemente emanata una legge sulla privacy dei palloncini rossi e non possiamo metterci a fotografarli senza aver raccolto singolarmente il loro esplicito consenso;raccogliere quei dati è insicuro per gli operatori oppure per i nostri macchinari, che sono fotosensibili e si emozionano quando vengono fotografati;raccogliere quei dati è rischioso perché, oltre alle fotografie dei palloncini rossi, diffondiamo anche scorci sui segretissimi macchinari che utilizziamo nella nostra azienda e non possiamo permetterci fuoriuscite di segreti industriali;sempre rubando le parole di Accoto, “non esiste alcuna entità fisica in forma diretta da usare come originale” e quindi i dati non esistono, ovvero siamo nell’ambito della simulazione di mondi possibili e/o non ancora verificatisi oppure, nei casi più estremi, di mondi paralleli e autonomi.
Uno dei testi di riferimento in relazione alla creazione di modelli che generino dati sintetici è Practical Synthetic Data Generation: Balancing Privacy and the Broad Availability of Data, di Khaled El Emam, Lucy Mosquera e Richard Hoptroff che sul tema hanno sempre dimostrato, anche e soprattutto nella generazione dei dati in ambito medico-scientifico, una grande attenzione ai temi etici. Nel loro libro, gli studiosi ben riassumono i due possibili approcci alla creazione di dati sintetici.
i dati reali costituiscono la partenza del modello, viene costruito un sistema che individui le caratteristiche di quei dati in termini di struttura e distribuzione, vengono generati nuovi dati che l’analista seleziona e campiona e, laddove i dati sintetici si rivelino coerenti alle caratteristiche individuate nei dati reali dal punto di vista statistico, possiamo considerarci soddisfatti;non si parte da dati reali, ma da modelli che possono essere digitali oppure concettuali.In altre parole, pensando ai nostri palloncini, le alternative potrebbero essere due. Da un lato, prendiamo tutte le (poche) fotografie disponibili di palloncini erroneamente rossi e, dopo averle utilizzate come dataset di partenza per un sistema di generazione immagini, chiedo al sistema stesso di generarmi le centina di migliaia di immagini necessarie per individuare il palloncino rosso che prova a nascondersi sul nastro trasportatore.
L’alternativa è un pochino più interessante.
Potremmo partire modellando il nastro trasportatore in movimento e il singolo palloncino all’interno di un sistema che recepisce la fisica del mondo reale. I simulatori di fisica più accessibili a nostra disposizione sono, come sempre, i game engine.
A quel piunto, la generazione di dati sintetici (le immagini di un singolo palloncino rosso che cerca di nascondersi tra i palloncini blu sul nostro nastro trasportatore) passa attraverso una scena simulata, e quindi sintetica, ma modellata secondo delle regole e dei margini che sono stati codificati all’interno del sistema direttamente dall’analista. La generazione delle scene dovrà necessariamente avvalersi di una automazione generativa che incorpori elementi di semi-casualità, altrimenti nessuno uscirà vivo dal processo, ma stiamo a tutti gli effetti simulando delle situazioni all’interno di un ambiente che siamo stati noi a creare.
Da una parte potremo dire di avere una generazione nella simulazione, mentre il primo caso vedeva la generazione di una simulazione.
Detto meglio, il primo metodo si basa sulla distribuzione statistica, mentre il secondo si basa sulla modellazione di agenti.
[image error] Lo so, Pooh, lo so: la faccenda si è fatta complicata.Quale dei due è meglio?Bella domanda, ma a questo punto forse varrebbe la pena domandarsi quale dei tre sia meglio, tra dati reali, dati sintetici derivati da statistica e dati sintetici da agent-based modelling.
Secondo i teorici del dato sintetico, esso è spesso da preferire rispetto al dato fisico perché.
è personalizzabile: posso costruire dati sintetici che meglio rispondono alle mie esigenze (le fotografie dei miei palloncini rossi potrebbero avere problemi di angolo e luminosità, mentre le mie fotografie “sintetiche” non confonderanno mai il mio sistema con questo tipo di disturbi);è efficace dal punto di vista dei costi perché più sostenibile sia da produrre che da anlizzare: secondo Gerard Andrews che a sua volta cita Paul Walborsky in questo articolo, l’etichettatura di un’immagine reale per addestrare un sistema al riconoscimento di elementi in essa contenuti costa circa 6$ per ogni immagine mentre il costo nel caso di un’immagine sintetica scende a 6 centesimi di dollaro;come si è visto può facilmente rispondere a preoccupazioni relative all’anonimizzazione dei dati e alla privacy;è possibile introdurre di proposito corner cases , ovvero casi che si verificano solo al di fuori dei normali parametri operativi, in particolare quando più variabili o condizioni ambientali si trovano contemporaneamente a livelli estremi anche se ogni parametro rientra nell’intervallo di sicurezza specificato (la cosiddetta congiuntura di cause che spesso è la causa dei disastri industriali);è facilmente scalabile perché sullo stesso modello io posso simulare l’individuazione di un palloncino rosso tra centinaia, migliaia e milioni di palloncini blu.Per rubare nuovamente le parole di Cosimo Accoto, tuttavia, rimane aperta una vulnerabilità epistemologica che però è anche operativa ovvero quella relativa al realismo dei dati che stiamo sintetizzando. E non si tratta questa volta di un realismo che ci consenta di evitare effetti perturbanti nell’osservatore, ma di trovare un framework di definizione che ci consenta di valutare se il dato sintetico sia vicino al dato reale o possibile nella realtà con un buon grado di approssimazione. La cattiva notizia è che:
« …non esiste un metodo condiviso e standard per arrivare a convalidare il realismo.»
In tanti hanno provato a sviluppare framework e teorie di valutazione per l’affidabilità dei dati sintetici, tra cui ad esempio la Cornell University con il loro “An evaluation framework for synthetic data generation models” disponibile qui e il cui risultato è questo:
[image error] Dai, è semplice.È importante sottolineare però che in questi casi si parla (quasi) sempre di dati in formato tabulare. Come valutare l’affidabilità di un’immagine, che per sua natura appare come un fattore squisitamente qualitativo?
Come potete immaginare, i settori all’avanguardia in questo tipo di ragionamenti non sono le industrie di produzione dei palloncini, ma quelle che si occupano delle analisi in ambito medico-scientifico. Contributi come questo paper propongono di utilizzare sistemi di Deep Learning per la valutazione delle immagini generate. Per coordinare due macchine, quindi, come spesso accade ci troveremmo a dover introdurre una terza macchina chiamata discriminatore.
Se avete mai sentito parlare di Generative Adversarial Networks (GANs), si sta parlando di questo, ovvero di processi che “fanno le pulci” all’operato dei modelli di Deep Learning generativo e vanno a verificare, tramite il confronto con una base solida di esempi reali, se quanto generato può essere adeguato rispetto a una serie di parametri.
Ed ecco che il problema è sempre lo stesso: analizzare il nostro processo per individuare i parametri.
E quindi?E quindi tutto questo per dire due cose.
Non è impossibile che, nell’immediato futuro, si possa proporre sistemi di controllo qualità basati sul riconoscimento immagini anche in circostanze in cui precedentemente la base dati non ci consentiva di addestrarli in modo efficiente;Se siete i titolari dell’azienda di palloncini, avete due immagini in croce da fornire allo sviluppatore, ma vi viene offerto ugualmente questo tipo di servizio, ricordatevi di fare le domande giuste. Chiedete quale sarà l’utilizzo di dati sintetici, perché saranno necessariamente in gioco, quale sarà il metodo della loro sintesi e, soprattutto, quale il meccanismo per la loro verifica e validazione.D’altronde, lo sappiamo, il problema non è quasi mai il palloncino. Il problema è sempre chi lo offre.

May 7, 2024
Io (non) mi fido dell’Intelligenza Artificiale: e tu?
Come sempre accade quando un’innovazione tecnologica diventa pervasiva, siamo nel picco di Gartner, dove da un lato c’è chi è iper-esaltato, non scrive più una riga, ha licenziato tutti i renderisti e usa ChatGPT — rigorosamente quello gratuito — anche per fare il caffè. Il corollario del ciclo di Gartner, che osserva l’adozione delle tecnologie, è sempre l’esistenza di persone che resistono, che guardano all’innovazione con diffidenza e sospetto, che “non si fidano”, per arrivare fino a quelli che considerano l’adozione della tecnologia un tradimento della propria stessa professione, un motivo per finire nella lista nera e per essere bullizzato dai propri pari.
Se non mi credete, chiedete un’illustrazione a Midjourney e poi postatela in un gruppo di artisti. Oppure venite a vedere su LinkedIn quelli che ancora si lamentano quando parlo di BIM.
[image error] Questo è il picco di Gartner: siamo davvero in cima all’onda oppure l’onda è stata anni fa, abbiamo già affrontato le delusioni legate alla tecnologia e adesso siamo davvero produttivi?
La sfiducia nei confronti della tecnologia è spesso giustificabile solo con l’ignoranza. Della tecnologia non bisogna “fidarsi”: bisogna approfondirla, comprenderla, analizzarla ed eventualmente evitarla perché:
non è adatta a quello che dobbiamo fare;la sua performance è subottimale;i suoi creatori, proprietari o controllori sono figure di cui non ci fidiamo (è il caso ad esempio di applicativi che conservano e sfruttano i nostri dati).Certe volte, per semplicità o per orgoglio, usiamo l’espressione “non mi fido” per intendere qualcosa che invece esula dai punti superiori. Ad esempio io non mi fido del ferro da stiro a vapore: semplicemente significa che, non essendo capace di stirare, padroneggio meglio una tecnologia più semplice (ferro da stiro della nonna con panno umido sotto) e non mi fido delle mie capacità se mi viene messo in mano uno strumento più complesso.
[image error] Lui stira le camicie sicuramente meglio di me.L’Intelligenza Artificiale è diversa da un ferro da stiro?
Parzialmente ne abbiamo parlato la scorsa settimana, affrontando marginalmente il concetto di Black Box. Per approfondire meglio il tema però, e capire se sia o meno corretto parlare di “fiducia” nei confronti dell’Intelligenza Artificiale, dobbiamo come sempre fare qualche passo indietro e farci le domande giuste sin dal principio. La prima delle quali ovviamente è…
…ma cos’è la fiducia?
Una delle figure di riferimento sul tema è Rino Falcone, attualmente direttore dell’Istituto di Scienze e Tecnologie della Cognizione (ISTC) del CNR, ex-Olivetti, e coordinatore proprio del gruppo T3: Trust Theory and Technology. Insieme a Cristiano Castelfranchi, professore ordinario di psicologia generale e anch’egli ricercatore al CNR, ha curato il capitolo “Trust: Perspectives in Cognitive Science” all’interno del Routledge Handbook of Trust and Philosophy (2020), edito da Judith Simon. Vediamo quali sono i principi della fiducia secondo i due studiosi e, parallelamente, come si applicano al nostro rapporto con una tecnologia.
La fiducia è un concetto soggettivoIn inglese si chiamano Cognitive Sciences, ma c’è un motivo se in italiano parliamo più volentieri di filosofia cognitiva: non c’è uniformità di approccio rispetto ai concetti di base e, tra questi, troviamo la fiducia. Nel loro contributo, Falcone e Castelfranchi affrontano il tema della fiducia come concetto complesso e, in relazione al dominio socio-cognitivo dell’intelligenza artificiale, spacchettano il tema in una serie di questioni:
la fiducia nei confronti della tecnologia non è uno stato mentale singolo e unitario, ma può manifestarsi in modo frammentario a seconda di circostanze estremamente volatili;la fiducia è una valutazione che implica un aspetto motivazionale;il concetto di fiducia viene utilizzato per sfruttare l’ignoranza;la fiducia è e viene utilizzata come segnale;il concetto di fiducia non può essere ridotto né assimilato al concetto di reciprocità;la fiducia combina aspetti razionali e aspetti emotivi;è corretto applicare il concetto di fiducia non solo alle relazioni tra persone ma anche alle relazioni tra persone e strumenti e/o tecnologie. [image error] Ecco che “non mi fido del ferro da stiro” è improvvisamente un concetto che ha senso.Innanzitutto, la fiducia come attitudine del soggetto (chi deve decidere se fidarsi o meno) nei confronti del mondo o di altri agenti, è un ibrido di componenti cognitive e affettive, un atteggiamento composto che combina credenze e obiettivi. In altre parole, la decisione di “fidarci” o meno di una tecnologia incorpora le nostre convinzioni nei confronti di questa tecnologia ma anche le nostre aspettative nei confronti del futuro e una valutazione di coloro cui dobbiamo decidere se concedere o meno la nostra fiducia, una valutazione che incorpori il rischio di sbagliarci.
Ipotizziamo uno scenario.
Avete appena installato un videogioco gratuito sul vostro tablet e non vedete l’ora di iniziare a lanciare uccelletti grassi con la fionda. Il gioco però vi chiede di autorizzare l’accesso ad alcune parti del vostro tablet e la condivisione dei vostri dati con soggetti terzi. Nel compiere la mia scelta, entrano in gioco:
a) la mia conoscenza dello sviluppatore: se il gioco è sviluppato da un’azienda che mi ispira fiducia potrei essere più incline a concerede l’autorizzazione, mentre nel caso di un oscuro sviluppatore della Latveria potrei avere qualche dubbio in più;
b) i miei personali obiettivi: dato che si tratta di un gioco, potrei decidere che non ne valga la pena e quindi rinunciare, disinstallando il tutto, ma se la stessa domanda mi venisse posta da un’applicazione che mi serve per lavoro oppure da quella stessa applicazione in un momento in cui il mio bambino sta piangendo perché vuole giocare con gli uccelletti grassi?
c) una valutazione del rischio più ampia, perché se ad esempio l’applicazione viene installata su un tablet che non contiene dati sensibili potrei anche decidere di concedere l’autorizzazione senza troppe preoccupazioni, ma che fare quando su quel dispositivo ho installate anche le mie applicazioni bancarie?
La fiducia nei confronti di una tecnologia inoltre è un processo mentale e pragmatico, in cui gli interessi pratici tendono quasi sempre a prevalere su quelli teoretici. La nostra valutazione è un prodotto stratificato in cui la decisione di concedere alla tecnologia la nostra fiducia implica che si stabilisca una relazione sociale tra noi e la tecnologia stessa. La decisione di concedere alla tecnologia la nostra fiducia risulta sempre più radicata nelle relazioni sociali che risultano dall’instaurarsi di una relazione tra noi e la tecnologia stessa.
In altre parole, nella valutazione concorrono anche fattori esterni. Se tutti i miei amici stanno già giocando a quel gioco ad esempio, tutti hanno già acconsentito alle condizioni di utilizzo e nessuno di loro è stato rapito dagli alieni, sarò davvero io quella che rinuncia a giocare in virtù di quella che può sembrare una semplice paranoia?
Il peso della decisione in questo caso dipende in larga parte dalla fiducia che a sua volta io sono disposta a concedere alle fonti delle informazioni sulla base delle quali devo prendere la decisione stessa. In altre parole, se considero che i miei amici siano tecnologicamente dei deficienti probabilmente non mi convinceranno a installare una app.
Questa dinamica è particolarmente evidente nella relazione di fiducia che si è creata tra le persone e le reti di social media, fiducia assolutamente malposta ma la cui non concessione comporta oggi pesanti conseguenze dal punto di vista sociale, sia nella sfera personale che nella sfera lavorativa.
Il tema è stato ampiamente approfondito da Kate Crawford e Vladan Joler nella loro recente esposizione Calculating Empires, di cui ho parlato qui.
La fiducia nei confronti di una tecnologia, esattamente come la tecnologia stessa e la nostra fiducia nei confronti di altri umani, è un fenomeno dinamico: le nostre valutazioni e conseguentemente le nostre decisioni possono cambiare sulla base di successive e più approfondite interazioni con quelle tecnologie o con temi correlati, sulla base di nuovi eventi e sulla base dei nuovi pensieri che ne possano derivare.
Una volta pensavo che Elon Musk fosse un esperto di tecnologia, ad esempio.
Anche volendomi fidare… quanto mi fido?
Dire che qualcuno si fida di una tecnologia non è sufficiente, perché ci sono diversi livelli di fiducia e ad ogni livello corrisponde un livello diverso di adozione.
Il primo livello superficiale è quello che in realtà ha semplicemente un effetto sull’atteggiamento della persona rispetto alla tecnologia.
“Cosa ne pensi dell’Intelligenza Artificiale?”
Un secondo livello richiede una volontà di interazione superiore: basandoci sulle convinzioni che hanno determinato il nostro atteggiamento, incorporiamo elementi utilitaristici nel nostro ragionamento e facciamo le opportune valutazioni inserendo rischi, costi, opportunità, alternative e — soprattutto nell’ambito di alcune tecnologie — la conseguenza di non concedere la nostra fiducia. Più la tecnologia è pervasiva e invasiva delle nostre vite, più questo secondo livello può rivelarsi paradossalmente scollegato dal primo.
[image error] Posso anche pensare che nessuno sano di mente dovrebbe fidarsi di loro come azienda e di ciò che fanno con i nostri dati, ma poi considero non sia davvero un’ozpione fare acquisti su altre piattaforme. Lo uso. Anche se non mi fido.
Il terzo livello è quello cui tutte le tecnologie ambiscono: non solo l’utente ha deciso di concedere loro la propria fiducia, ma ha deciso di affidarsi a quella tecnologia per uno o più attività. Questa fiducia può essere assoluta (non sono in grado né voglio portare avanti quell’attività in altro modo) e incondizionata (non so più nemmeno come mi viene restituito un risultato, ma concedo alla tecnologia un certo livello di infallibilità). Su questo tema, se ricordate, Yuval Noah Harari aveva qualcosa da dire nel suo Homo Deus e in particolare portava l’esempio di Waze.
[image error] E non potremmo nemmeno prendercela con lui, perché guardate com’è carino e coccoloso.Mi fido sulla base di cosa?
Waze non è solo una mappa. I suoi milioni di utenti lo aggiornano costantemente su ingorghi, incidenti stradali e auto della polizia. Per questo Waze sa come dirottarvi dal traffico intenso e portarvi a destinazione attraverso il percorso più rapido possibile. Quando si arriva a un incrocio e l’istinto ci dice di girare a destra, ma Waze ci indica di girare a sinistra, gli utenti imparano prima o poi che è meglio ascoltare Waze piuttosto che le loro sensazioni.
A prima vista sembra che l’algoritmo di Waze ci serva solo come oracolo. Noi poniamo una domanda, l’oracolo risponde, ma spetta a noi prendere una decisione. Tuttavia, se l’oracolo conquista la nostra fiducia, il passo logico successivo è trasformarlo in un agente. Noi diamo all’algoritmo solo un obiettivo finale e lui agisce per realizzarlo senza la nostra supervisione. Nel caso di Waze, questo può accadere quando colleghiamo Waze a un’auto a guida autonoma e diciamo a Waze “prendi la strada più veloce per tornare a casa” o “prendi la strada più panoramica” o “prendi la strada che produce il minimo inquinamento”. Siamo noi a decidere, ma lasciamo a Waze il compito di eseguire i nostri comandi.
Infine, Waze potrebbe diventare sovrano. Avendo così tanto potere nelle sue mani e sapendo molto più di quanto noi sappiamo, potrebbe iniziare a manipolarci, a plasmare i nostri desideri e a prendere le decisioni al posto nostro. Ad esempio, supponiamo che, dato che Waze è così efficiente, tutti inizino a usarlo. E supponiamo che ci sia un ingorgo sul percorso 1, mentre il percorso alternativo 2 è relativamente aperto. Se Waze lo comunicasse semplicemente a tutti, tutti gli automobilisti si precipiteranno sul percorso 2, che sarà anch’esso intasato. Quando tutti usano lo stesso oracolo e tutti credono all’oracolo, l’oracolo diventa sovrano. Quindi Waze deve pensare per noi. Forse informerà solo la metà degli automobilisti che il percorso 2 è aperto, mantenendo l’informazione segreta all’altra metà. In questo modo la pressione si allenterà sul percorso 1 senza bloccare il percorso 2.
Se è vero che la fiducia è un costrutto complesso, essa dipende dalle mie convinzioni in relazione a diversi temi, che Castelfranchi e Falcone in The Routledge Handbook of Trust and Philosophy circoscrivono a cinque ambiti:
1. il futuro. La fiducia si basa su un’aspettativa positiva composta da uno stato mentale motivazionale, che potremmo chiamare obiettivo, combinato con un insieme di convinzioni riguardo al futuro stesso. Questo significa che la mia decisione di accordare o meno la mia fiducia a una tecnologia dipende in gran parte da cosa ritengo di doverci fare ma anche da quanto ritengo che quelle attività siano importanti nel mio futuro e/o quanto ritengo che in futuro divenga predominante affiarsi a una determinata tecnologia per la mia attività.
Se siamo convinti che l’Intelligenza Artificiale diventerà una componente inevitabile delle nostre vite e delle nostre professioni, saremo necessariamente portati ad approfondire l’argomento e fare esperimenti affidando in questo modo alla tecnologia un certo livello di fiducia.
2. caratteristiche della tecnologia stessa, quali le sue abilità e capacità, o per lo meno la mia percezione rispetto a queste caratteristiche.
Se siamo convinti che MIdjourney sia bravissimo a renderizzare scene d’interno (attività sulla quale in realtà è empiricamente provato che sia più debole), saremo sempre più portati a concedergli la nostra fiducia e affidarci quindi a questa tecnologia per quella particolare attività.
3. il contesto in cui la tecnologia dovrà portare avanti i compiti delegati, incorporando ragionamenti sulle sue risorse, sulle fonti di supporto necessarie e possibili, su eventi esterni e altri elementi che potrebbero influenzare la capacità della tecnologia di portare a termine il risultato pur non essendo direttamente attribuibili alla tecnologia stessa.
[image error] Non è che io non mi fidi del mio roomba, ma so cosa succede a lasciarlo da solo con il mio gatto.4. le componenti di incertezza e rischio. Laddove il rischio è la possibilità prevista, calcolata e possibilmente valutata che qualcosa vada per il verso storto, l’incertezza rappresenta l’effettiva incognita e può derivare dalla mancanza di dati o da un’ambiguità rispetto ai dati disponibili ma in ogni caso la fiducia può aiutarci a superare questa incertezza, spesso arrivando a compromettere anche le oggettive valutazioni del rischio, che diventa in questo modo soggettivo.
La mancanza di lucidità rispetto ai rischi connessi all’adozione di alcune tecnologie, nella mia esperienza, è uno dei fattori predominanti nella mancanza di supervisione e, quindi, nell’insorgere di errori legati all’utilizzo di una specifica tecnologia.
5. la conoscenza di sé. La decisione di affidare o meno la propria fiducia a una tecnologia dipende anche dalla considerazione che il soggetto ha di sé rispetto all’ambito in questione: potrei non fidarmi di qualcosa perché ne ho scarsa competenza (io con il ferro da stiro) oppure fidarmi in modo quasi assoluto di una tecnologia per lo stesso identico motivo (sempre io con il navigatore dell’auto).
[image error] Mi fido del navigatore perché sono convinta di perdermi dappertutto.La fiducia nell’Intelligenza Artificiale
Se quanto detto fino ad ora è vero, la nostra scelta di affidare (o meno) un compito a una tecnologia, e l’estensione della delega che siamo disposti a concedere su una serie di temi, passa attraverso parametri soggettivi e oggettivi che la persona pesa in autonomia rispetto a una scala personale.
Individuare questi parametri non è banale e molti si sono applicati per fornire framework specifici, il più possibile oggettivi, su cui basare la propria decisione.
Tra questi, lo statunitense National Institute of Standards and Technology ha rilasciato una valutazione a nove fattori con un’infografica disegnata da Natasha Hanacek e questi fattori sono:
l’accuratezza. Come abbiamo visto a più riprese, la fiducia nei confronti di un LLM come ChatGPT al momento è minata dal fatto che l’accuratezza nella risposta non è stata tra le priorità degli sviluppatori e ottenere risultati accurati è lasciato interamente sulle spalle dell’utente che deve ricorrere a complessi e circonvoluti settaggi solo per impedire al sistema di inventare risposte plausibili anziché ammettere di non conoscere la risposta a una domanda. A mio parere questa caratteristica del sistema è dolosa.l’attendibilità, strettamente collegata al punto precedente oppure, se intesa in senso statistico, legata alla possibilità di ottenere risultati coerenti e/o di replicare i comportamenti. Trattandosi di sistemi opachi, al momento è virtualmente impossibile replicare un risultato ottenuto tramite modelli di linguaggio. Questo, unitamente alla frequente mancanza di tracciamento dei passaggi all’interno della loro “scatola”, rende i sistemi altamente inaffidabili.la resilienza, intesa come la capacità di resistere alle avversità e/o di ripararsi dopo un danno o riorganizzarsi in autonomia è invece una delle caratteristiche fondanti dei nuovi sistemi basati su modelli di linguaggio: mentre con i ragazzi dell’Istituto Rizzoli tra il 2018 e il 2019 abbiamo assistito alla degradazione e rottura di Cleverbot, che nell’arco di un anno è passato dall’essere un interlocutore con improvvise tendenze fetish alla vera e propria allucinazione del linguaggio, GPT-3 ha cristallizzato l’apprendimento, impedendoci di romperlo.l’obiettività del sistema, strettamente legata al concetto di bias. Nonostante molto lavoro stia venendo fatto per ridurre i danni, è il sistema stesso che essendo fondato su una base statistica incorpora al proprio interno il bias in modo irreparabile e irreversibile.la sicurezza intesa in svariate accezioni, dalla sicurezza dei dati e delle informazioni che emergono durante le sue interazioni con l’utente (tema legato anche al parametro della privacy) fino alla sicurezza dell’affidare alcune decisioni al sistema;la spiegabilità, e abbiamo già visto quanto si sia lontani dal sogno dell’explainable AI;l’accountability, ovvero la possibilità di attribuire al sistema e/o ai suoi creatori la responsabilità delle azioni intraprese su consiglio, impulso o azione diretta del sistema.
Che diavolo stai dicendo, Willis?
Alcuni di voi, in relazione all’ultimo punto, staranno certamente pensando: “ma la responsabilità di chi usa uno strumento è sempre di chi lo utilizza, mai dello strumento!”
Nel caso dell’Intelligenza Artificiale, proprio in virtù della scarsa replicabilità dei suoi risultati e dell’estrema opacità dei suoi funzionamenti, questo purtroppo non è più così vero, per una serie di motivi che spiegava bene Stefano Quintarelli nel suo già segnalato libro sull’Intelligenza Artificiale del 2020 edito da Bollati Boringhieri.
In uno degli ultimi capitoli, proprio dedicato agli aspetti giuridici, viene fatta un’interessante analisi del concetto di personalità giuridica e si parte dal presupposto che non sia possibile assegnare tutta la responsabilità all’utente per due motivi già noti:
il sistema è opaco e quindi non è possibile da parte dell’utente effettuare una completa e accurata due diligence sul suo funzionamento ma, al limite, all’utente si potrebbe imputare solo di avere utilizzato un sistema inaffidabile… ma non se tale sistema è disponibile sul mercato e pubblicizzato per assolvere a compiti quali quello per cui l’utente l’ha utilizzato;il sistema è volontariamente opaco: la responsabilità degli sviluppatori si aggrava nel momento in cui il sistema è per sua natura opaco.“I sistemi di Intelligenza Artificiale prevedono forme di delegazione tali da rendere l’utilizzatore umano marginale rispetto al processo di decisione.”
In realtà esistono già, teorizza Quintarelli, sistemi di responsabilità che coinvolgono un atto compiuto da terzi e incorporano il livello di controllo che il soggetto poteva effettuare. Per analizzarli bisogna nuovamente affrontare un problema terminologico che incontriamo sempre durante la redazione di una matrice RACI e che esprime molto bene un nostro problema culturale: mentre l’inglese ha diversi termini per indicare diversi livelli di responsabilità (responsible, accountable, liable), noi dobbiamo usare perifrasi oppure orribili termini composti in legalese.
Ecco che quindi abbiamo la responsabilità causale (responsibility), ovvero l’Intelligenza Artificiale che fisicamente ha causato il danno, opposta alla responsabilità giuridica (liability), ovvero la nostra incognita: su chi ricade la colpa (e quindi la sanzione o la pena) in caso di errore? A sua volta queste due responsabilità si devono confrontare con un terzo tipo che potremmo chiamare responsabilità morale (accountability).
Scartiamo per cortesia l’ipotesi che la responsabilità giuridica possa ricadere sulla macchina come ente autonomo e autocosciente e che si possa sanzionare direttamente l’Intelligenza Artificiale, con disattivazioni temporanee o altre penalità buffe, perché è sempre in questo modo che inizia la guerra con i robot: attribuendo alla macchina delle responsabilità senza concederle i diritti che si riservano persino ad entità cui non viene riconosciuta piena coscienza di sé (gli animali).

Se il grado di controllo dell’utilizzatore umano viene mantenuto basso “by design”, il modello di responsabilità personale dell’utilizzatore deve necessariamente essere scartato o comunque rivisto.
“Il controllo umano significativo rappresenta un fattore necessario non solo all’attribuzione di responsabilità morale (accountability), ma anche giuridica in senso stretto (liability). Sono già molti i casi in cui un soggetto è ritenuto responsabile per un fatto illecito commesso con responsabilità indiretta.”
L’esempio che viene portato da Quintarelli, provocatorio ma efficace, è quello della responsabilità di un genitore rispetto ai danni commessi da un figlio, perché l’automatica ricaduta degli ultimi sulle spalle dei primi non è sempre vera: il genitore può fornire una prova liberatoria, ovvero dimostrare di aver fatto tutto il possibile per impedire che si verificasse il danno. Non è semplice, ma è possibile.
Questo ragionamento tuttavia è applicabile solo in un contesto all’interno del quale esista la possibilità di applicare un controllo umano significativo e quindi sia possibile dimostrare di “aver fatto” qualcosa perché quel “qualcosa” era possibile. Molti attuali sistemi di Intelligenza Artificiale al di fuori dell’Explainable AI non prevedono questo controllo.
“Se il controllo umano significativo di un sistema di Intelligenza Artificiale non fosse presente, da un lato non si vedrebbe il motivo di concedere la possibilità di una prova liberatoria (quali precauzioni potremmo adottare?), dall’altro saremmo davanti a una piena assunzione del rischio da parte dell’utilizzatore, il quale sarebbe completamente in balia delle scelte tecniche del produttore del sistema.”
Potremmo essere portati a pensare questa sia una giusta conclusione. Hai deciso di utilizzare un sistema su cui non avevi il controllo? Quel sistema ha sbagliato? Adesso ne paghi le conseguenze.
Il punto è però che quel sistema è stato commercializzato vantando certe capacità: la totale attribuzione di responsabilità all’utilizzatore è facilmente dimostrabile che sia iniqua.
Trasferendo la responsabilità degli errori dall’utilizzatore al produttore, il risultato virtuoso potrebbe essere che i produttori sarebbero costretti a sovvertire i principi che ci hanno portato a renderli responsabili, introducendo quel livello di significativo controllo e quella almeno parziale trasparenza sulla mancanza dei quali oggi i sistemi basano il loro appeal. In altre parole, non basterebbe più limitarsi a un piccolo disclaimer che dice “il sistema potrebbe dire il falso” oppure “l’immagine potrebbe contenere dei bias”, ma l’intero meccanismo di generazione dei risultati dovrebbe essere rivisto.
Alla gente non piacerebbe un sistema che ti fa mille domande di circoscrizione del dataset prima di generare una risposta o che, peggio ancora, dichiara di non conoscere quella risposta. Ma forse è quello di cui abbiamo bisogno.

1. E quindi è corretto parlare di fiducia quando ci relazioniamo con l’Intelligenza Artificiale?
In virtù di quanto abbiamo detto fino ad ora sì, ma nel modo corretto e ricordandoci che ci sono diversi livelli di fiducia: quella che rimane al livello della nostra attitudine nei confronti del sistema, quella che governa le nostre interazioni con il sistema e quella in virtù della quale ci affidiamo completamente a quel sistema per una o più attività.
2. E quindi mi posso fidare dell’intelligenza artificiale dietro a LLM come ChatGPT?
In virtù di quanto abbiamo visto fino ad ora, no: il sistema, specialmente quello gratuito, presenta parametri molto bassi su molti degli indici proposti dal NIST, in particolare in relazione a spiegabilità, affidabilità, obiettività e, almeno nella versione gratuita, privacy.
3. Posso utilizzare un sistema di cui non mi fido?
Certamente, e lo facciamo di continuo proprio perché la fiducia è un costrutto complesso. L’importante è essere consapevole dei margini di delega che stiamo implicitamente affidando al sistema, dei margini di delega che siamo disposti ad affidargli per quali compiti, qual è il livello di controllo cui stiamo rinunciando trattandosi di sistemi opachi e quali sono i nostri piani di mitigazione dei rischi che tutto ciò comporta.
E voi? Per cosa vi fidate dell’Intelligenza Artificiale?

May 6, 2024
#MermaidMonday: the Undine from Carezza
A little further north from where Milan stands, in the Western Dolomites, there is a beautiful lake also known as Lake of the Rainbow, called Lago di Carezza which literally means “Lake of the Caress”. It’s said to be the home of a water nymph, and local folklore explains why its waters have such beautiful colours. We take a look at her today on my Patreon.