Professore all’Università di Palermo, giornalista, editorialista, consulente e tanto tanto altro, Simone Arcagni è un punto di rifermento per noi di Be Unsocial in materia di modi, pratiche ed estetiche dei media digitali, delle nuove tecnologie, di internet, dei social, delle piattaforme e degli archivi digitali. Abbiamo avuto il grande piacere di fare due chiacchiere con lui su volti umani e occhi digitali. Con tanto della lista di libri finale da avere sotto l’ombrellone questa estate per prepararsi al futuro… che in parte è già presente. Buona lettura.
Da poco è stata inaugurata la mostra #FacceEmozioni al Museo del Cinema di Torino che hai curato insieme a Donata Pesenti Campagnoni. Quali sono gli aspetti tecnologici più interessanti di questo percorso?
Si tratta di un percorso alla scoperta del volto nelle arti: si parte dalla fisiognomica come disciplina che studia i caratteri e le emozioni del volto – una pratica pseudoscientifica che però ha una storia centenaria (possiamo farla iniziare con Aristotele) – e si arriva agli emoticon e agli emoji passando attraverso il teatro, il cinema, l’animazione, l’arte e contemporanea e, per l’appunto, le nuove tecnologie. Ci siamo infatti accorti che erano proprio saperi legati al volto e alla sua capacità di esprimere emozioni, che caratterizzano lo sviluppo della computer graphic, per esempio.
Pensiamo alla capacità di far vivere, di animare, nel vero senso della parola, personaggi come automobili, oggetti, animali. Quell’arte che ci ha fatto affezionare ai personaggi del cinema di animazione digitale della Pixar o della Dreamwork. O pensiamo ancora allo sviluppo dei personaggi nei videogame, dai pochi tratti espressivi di PacMan per arrivare a quelli complessi di Assassin’s Creed, tanto per fare un esempio.
Una serie di saperi che sono passati dal ritratto pittorico passando attraverso l’animazione tradizionale, per arrivare, per l’appunto, all’animazione digitale ai videogame, ai video e agli effetti speciali hollywoodiani. Si perché in maniera simile si costruiscono anche avatar e ologrammi. Sempre più speso non disegnando più su modelli di carta bensì su modelli digitali creati attraverso sensori in grado di mappare i volti e le espressioni (face tracking) e poi ricostruirli… e basta l’esempio di Gollum de Il signore degli anelli per fare chiarezza.
Si tratta di un universo i saperi e pratiche che sono utili anche per insegnare alla macchina a vedere, riconoscere e interpretare le immagini (computer vision); abbiamo quindi app di riconoscimento facciale e di sentiment analysis – cioè della capacità dei software di interpretare i caratteri dei volti e le espressioni per trarne conclusioni relative agli stati d’animo.
Passiamo al tuo ultimo volume in libreria, L’occhio della macchina (Einaudi). Ma quanti sono gli occhi che abbiamo addosso nella nostra quotidianità? Dobbiamo temerli oppure no?
Fondamentalmente c’è un nuovo occhio, un occhio digitale, figlio dell’informatica e nello specifico degli studi sull’intelligenza artificiale. Non si tratta di un dispositivo specifico ma di un processo culturale, un sistema tecnologico di visione che si sta trasformando in una disposizione a vedere il mondo.
È quindi una visione del mondo che tende a costruire spazi visivi ampi, immersivi (pensiamo alla realtà virtuale e aumentata), interattivi (pensiamo ai sistemi responsivi), pervasiva e ubiqua (pensiamo ai sistemi di sorveglianza e alla rete) in cui il visivo è trasformato in data.
Abbiamo macchine in grado di vedere, riconoscere e interpretare lo spazio visivo (la disciplina che se ne occupa si chiama computer vision) e allo stesso tempo stiamo disgregando i tradizionali sistemi e le interfacce della visione orientandoci verso dispositivi wearable da una parte o sistemi di proiezione sempre più raffinati che si orientano verso immagini olografiche che stanno accanto al visivo reale costruendo così uno spazio visivo ibrido.
Dobbiamo temerli? Non so, piuttosto dobbiamo conoscerli. Le tecnologie non sono elementi calati nel nostro corpo sociale da luoghi alieni, sono il risultato di studi, proposte, orizzonti che noi ci siamo dati. Sono parti del nostro corpo sociale, sono la concretizzazione dei nostri dibattiti, della nostra tensione al futuro. In quanto parte di noi devono essere assimilati, capiti, interpretati, devono essere fatto oggetto di una negoziazione e di una normazione. Devono essere filtrati, riletti, interpretati… proprio come è sempre stato per le tecnologie. L’unico atteggiamento negativo è quello acritico.
Una delle query di ricerca più frequenti sulle fobie è “paura dei robot”. Perché temiamo la relazione tra umani e macchine?
Perché il robot rappresenta l’altro da noi e allo stesso tempo un altro noi. Si tratta proprio di quello di cui parlavo prima: l’idea che la tecnologia sia fuori da noi e in quanto tale minacciosa. La tecnologia siamo noi, va quindi lavorata a livello sociale, culturale, politico. Non significa accettare ogni cosa, esattamente il contrario, significa portarla sotto i riflettori con coscienza critica: significa poterne parlare con competenze, assoggettarla a norme e a letture.
Consiglierei di leggere il bellissimo libro di Roberto Cingolani L’altra specie appena uscito da Il Mulino. Cingolani è uno scienziato di fama internazionale che si occupa di robotica e ci spiega semplicemente cosa è davvero la robotica, cosa aspettarsi dalla robotica, quali sono le opportunità e quindi cosa evitare, come normare, quali accortezze prendere, quali paure non avere, etc.
Cambiando discorso, ci sono progetti digitali che vale la pena tenere d’occhio in Italia e nel mondo?
Questa è la domanda da un milione di dollari: solo negli ultimi giorni ho letto l’intervista di Elon Musk sulle concrete possibilità di impianti neurali. Ho letto di nuovi softrobot, robot quindi flessibili, che imparano a comportarsi come piante e radici. Ho letto di laboratori di intelligenza artificiale che stanno lavorando a un traduttore linguistico universale, in grado cioè di parlare tutte le lingue del mondo e tradurle in simultanea.
Nell’ambito medico ci sono progressi incredibili nell’uso delle nanotecnologie ma anche nell’uso della realtà virtuale e dei modelli olografici per la chirurgia. Al Barbican di Londra è stata inaugurata di recente una mostra straordinaria sul rapporto tra l’uomo, la robotica e l’intelligenza artificiale dal titolo AI: More Than Huan.
A Roma, o ancora più nello specifico a Torpignattara, Salvatore Iaconesi e Oriana Persico hanno dato vita a IAQOS, una intelligenza artificiale open source di quartiere che collabora e dialoga con i residenti. Ma le notizie e i fronti sono così ampi e vasti che non saprei davvero cosa indicare. Forse vale la pena girare incuriositi per la Rete e magari farsi coinvolgere dalle mostre e dai festival della scienza che ormai si susseguono su tutto il territorio nazionale (vorrei citare per esempio la bellissima mostra Uomo virtuale. Corpo, mente, cyborg organizzata dall’Istituto di Fisica Nucleare a Torino).
E infine, trend futuri legati a digitale e tecnologie. In che direzione dobbiamo guardare per intravedere cosa vivremo nei prossimi anni?
Intanto consiglierei di farsi incuriosire dai testi di futurologia, che non è fantascienza ma una disciplina vera e propria che lavora sugli orizzonti di sviluppo tecnologico (e non solo). Di recente, per esempio, sono usciti libri molto belli sull’argomento anche se molto diversi tra loro: Albert-Lazlo Barabási, La formula (Einaudi), Alberto Vespignani, L’algoritmo e l’oracolo (Il Saggiatore), Kevin Kelly, L’inevitabile (Il Saggiatore), James Bridle, Nuova era oscura (Nero), Martin Rees, Il nostro futuro (Treccani).
Vale comunque la pena individuare alcune sfide che sembrano poter impattare più di altre: intanto quella fondamentale per contrastare i cambiamenti climatici (si va dallo studio della carne sintetica per ridurre l’impatto degli allevamenti soprattutto bovini sul territorio alle missioni di colonizzazione dello spazio), la sfida delle città che devono trasformarsi in nuovi spazi di integrazione e produzione.
La sfida del cosiddetto lavoro 4.0 o addirittura del cosiddetto post-lavoro. E poi l’impatto dell’olografia e la sparizione di interfacce “classiche” come lo schermo, la tastiera, e così via. La sfida a normare l’impatto dell’intelligenza artificiale, degli algoritmi e infine una regolamentazione nella raccolta e uso dei data (in particolare i big data, quelli privati e biometrici).