Oggigiorno la tecnologia ha aspetti dirompenti in tutti i settori della vita sociale.
L’intelligenza artificiale è il comune denominatore di ogni segmento dell’economia, della sanità, della produzione di beni di largo consumo e dell’industria pesante, attraverso l’utilizzo di robot, droni, automobili a guida autonoma, dispositivi automatizzati.
Con l’avvento della pandemia da Covid-19, tutte queste tecnologie, hanno trovato una più ampia applicazione, in ambito medico, nella ricerca, in ambito sociale e nella sicurezza. Quali sono stati, invece, gli effetti dell’utilizzo sconfinato ed obbligato della tecnologia sull’uomo, sul suo equilibrio psicofisico?
Che cos’è esattamente l’intelligenza artificiale? E perché la definizione di AI sembra tanto aleatoria, nonostante sia diventata elemento imprescindibile di un sistema economico globalizzato?
Perché l’uomo dopo aver scoperto l’AI non può più farne a meno?
Abbiamo sottoposto queste domande ad alcuni dei migliori professionisti del campo, i professori del Dipartimento di Ingegneria elettrica e delle Tecnologie dell’Informazione della Federico II di Napoli, Silvia Rossi e Francesco Cutugno.
Che cos’è l’intelligenza artificiale?
SR: L’intelligenza artificiale nasce con l’obbiettivo di simulare quella che è l’intelligenza umana, attraverso lo sviluppo di algoritmi e sistemi software, in realtà, l’obbiettivo che aveva all’inizio di emulazione dell’intelligenza umana viene poi a sostituirsi con degli obbiettivi più realistici, quali ad esempio, il poter esprimere e realizzare dei comportamenti che, guardati dall’esterno, vengono giudicati intelligenti.
FC: Negli ultimi anni l’intelligenza artificiale diventa un metodo per aiutare l’uomo in problemi difficili, in situazioni in cui, a parità di capacità pensiero e di calcolo, la macchina può esprimersi più velocemente e trattare un numero più alto di informazioni.
Quando si parla di intelligenza artificiale, si pensa spesso a delle macchine che hanno la capacità di ragionare in modo autonomo, imitando l’intelligenza umana. Pare che questo sia lo scopo ultimo prefissato da tale disciplina ma non ancora raggiunto, voi cosa ne pensate?
SR: L’autonomia è un obbiettivo di quelli che sviluppano sistemi come le macchine a guida autonoma, però, vediamo che sono sistemi sviluppati per compiere un’azione in particolare e compierla in maniera ottimale. Non abbiamo sistemi general purpose che possono prendere decisioni in maniera del tutto autonoma, sono sistemi sviluppati per fare bene un compito specifico.
FC: L’idea di avere macchine autonome è un sogno dell’uomo da sempre, macchine autonome vuol dire avere qualcosa che possa agire in piena sicurezza rispetto ai criteri normali di vita, di convivenza e anche in economia. In questo momento, la piena sicurezza è garantita soltanto in particolari condizioni industriali e la reale autonomia non è economica, nel senso che le macchine che fanno cose in maniera abbastanza autosufficiente sono relegate alla produzione industriale, mentre nell’uso quotidiano non c’è ancora questo obbiettivo e non credo che siamo vicini ad avere una macchina autonoma che possa dialogare e vivere al fianco delle persone ogni giorno.
Si può pensare invece di giungere un giorno ad interagire in modo naturale con i sistemi di intelligenza artificiale?
FC: I sistemi di dialogo, in particolare, in questo momento sono decisamente una chimera, nel senso che l’attuale conoscenza dell’intelligenza artificiale consente di analizzare le domande di un individuo che si pone nei confronti di una macchina. I sistemi riescono a interpretare il messaggio e ad eseguire soltanto quei compiti che sono relegati al dominio specifico, per cui se siamo in macchina possiamo dire “accendi i fari, metti della musica, leggi un messaggio”, ma arrivare al sogno di Turing, il quale diceva che un giorno noi saremo totalmente immersi in una realtà cibernetica, autonoma, in cui conversando con altri non saremo capaci di distinguere se sia un uomo o una macchina, questo è ancora molto lontano.
Parlando di assistenza agli anziani, lei pensa che una nonna sia più propensa ad avere una badante oppure un robot?
SR: Noi in realtà avevamo molti preconcetti su questa cosa. Sperimentando sistemi robotici in contesti reali, appunto, con anziani a volte anche affetti da patologie di declino cognitivo, ci siamo resi conto che per loro un robot potrebbe essere meglio di una badante. Perché in qualche modo ci dicono “il robot non ci contraddice mai”, non è una persona estranea nei loro spazi ed inoltre, in qualche modo, il robot viene visto un po’ come il nipote da accudire, come qualcosa di cui è l’anziano stesso a prendersi cura e non viceversa.
FC: in particolare, le malattie dello spettro autistico, ci insegnano che uno dei problemi della degenerazione dei comportamenti umani, è proprio legato alla sfera sociale, ci sono dei problemi seri riferiti ad una particolare categoria di anziani, appunto soggetti autistici, che preferiscono rivolgersi ad oggetti inanimati piuttosto che a persone reali.
Spesso si parla di intelligenza artificiale riferendosi a prodotti come Siri, Alexa e Cortana, che sono strumenti di Machine Learning, come potremmo definirli meglio?
FC: negli ultimi anni le due nozioni si confondono molto spesso. Il machine learning è basato su un macinino dal quale si estraggono i comportamenti più frequenti, cioè quelli che le persone assumerebbero in determinate situazioni. L’intelligenza artificiale avrebbe invece la pretesa di poter individuare tutti i comportamenti e non solo quelli di determinate situazioni. Tutti questi sistemi sono degli assistenti vocali e quindi machine learning e non sistemi di intelligenza artificiale, infatti, se chiediamo ad uno di questi sistemi “il meteo a New York” ci rispondono in modo puntuale ma se un attimo dopo dovessimo chiedere di prenotare un hotel a New York, ci rimanderebbero su un sito di prenotazioni ma non sarebbero in grado di prenotare, mancando della concezione contestuale.
Qual è la differenza tra machine learning e deep learning?
FC: Il deep learning è una parte del machine learning, basato su algoritmi specifici nati intorno al 2006/2007 come conseguenza dello sviluppo di macchine sempre più potenti. Si può pensare a tale sistema come ad un waffle, negli anni 80’ avevamo un solo strato di biscotto con un po’ di nutella, negli anni 2000 abbiamo potuto inserire tre stati di biscotti alternati con nutella e oggi abbiamo la possibilità di creare waffle molto gradi, alternando strati di biscotti e nutella. Ogni strato aumenta le capacità di elaborazione e la capacità riflessiva “astratta”, non sappiamo cosa accade in ogni singolo strato e per tale motivo sono detti “deep”. Quindi, abbiamo uno strumento potentissimo e non abbiamo alcuna idea di cosa succeda al suo interno. Tutta questa nutella, oltre a farci male, riesce anche a darci molte risposte in più.
Ci troviamo al Prisca Lab, questo è il laboratorio di robotica intelligente e sistemi cognitivi avanzati della Federico II. Di cosa si occupa il laboratorio?
SR: Il laboratorio nasce nel 2010, quando ancora c’erano le Facoltà, dunque inizialmente era inerfacoltà tra la facoltà di scienze e quella di ingegneria, con lo scopo di mettere insieme le competenze legate all’informatica con quelle legate all’automazione, all’ingegneria industriale o all’ingegneria informatica. Già allora c’era questa idea che un approccio interdisciplinare fosse più efficace rispetto ad un laboratorio monotematico. Ora si sta cominciando a capire che una vera e propria innovazione non è possibile se non attraverso una contaminazione tra accademia, industria, policy making, quindi mettere insieme discipline e skills che portino ad avere un impatto sulla società.
Obbligati a fare i conti con la tecnologia, durante la pandemia, sono stati tutti i lavoratori e anche gli studenti. Non avevamo ancora sperimentato o forse non avevamo pienamente contezza dei tanti strumenti di smart working a nostra disposizione, eppure, ci siamo resi conto di non essere mai stati così poco smart. L’efficienza degli strumenti di collaborazione come Teams, Zoom, Meet, Skype, Whatsapp dovrebbe potenzialmente rendere più produttivo il lavoro, farci risparmiare tempo… invece, non siamo mai stati così vicini al burnout: stressati e isolati davanti alle videocall, esauriti sul piano emotivo.
In che modo l’intelligenza artificiale sta cambiando il mondo del lavoro e la vita privata?
SR: In realtà, non è tanto l’intelligenza artificiale che sta portando a dei cambiamenti ma la tecnologia in sé. Occorre prima capire in che modo questa tecnologia sta cambiando le nostre vite e in particolare, in questo periodo di pandemia, abbiamo capito che da un lato possiamo fare affidamento su queste tecnologie e dall’altro lato ne siamo quasi schiavi. In questo periodo, infatti, dal punto di vista lavorativo la possibilità di utilizzare smart working, videoconferenze, meccanismi di telelavoro ci ha permesso di essere produttivi però, in qualche modo, ha anche creato un sovraccarico e la difficoltà di dividere lo spazio personale dallo spazio lavorativo.
Durante la pandemia, che ruolo ha svolto invece l’intelligenza artificiale per la ricerca e il contenimento del virus?
SR: Questo è stato un fattore molto importante, dal punto di vista della diagnostica, ci sono stati parecchi studi che hanno cercato di velocizzare le diagnosi di Covid-19 ma anche per esempio nel campo della robotica, questi sistemi sono stati utilizzati per evitare ai medici di entrare e uscire dai reparti Covid, venivano controllati da remoto e potevano fare da monitoraggio ai reparti Covid senza costringere i medici a entrare e uscire, perché ovviamente quello era il momento in cui il virus si diffondeva all’esterno del reparto. Limitando il numero di ingressi in qualche modo limitavano la possibilità al virus di diffondersi.
Si avverte, dunque, la necessità di rivedere la letteratura prodotta in tema di disturbi psichiatrici relativi alla pandemia e al lockdown, merito dell’’isolamento prolungato, dell’uso eccessivo di internet e dei social media. In aggiunta, la necessità delle famiglie con più figli in DAD di restare connessi contemporaneamente, insieme alla carenza di strumenti informatici necessari quali pc e tablet, pare abbia avuto forti ripercussioni sui giovani studenti: episodi di attacchi di panico e molti casi di depressione.
Da docenti, quale è stato il vostro approccio con la DAD?
SR: La DAD è stata sicuramente uno strumento utile per superare un periodo di crisi però se dovessi dire che questo sia stato un benefico rispetto alle lezioni in presenza, questo no. Lo vediamo anche quando andiamo a fare le valutazioni, gli studenti che riescono a partecipare in maniera attiva con la DAD sono comunque riusciti ad ottenere dei buoni risultati ma questo non vale per tutti. Mentre in aula in qualche modo si crea un rapporto col docente, per cui ci si guarda negli occhi, si è più presenti e anche per osmosi, si è più coinvolti nel processo didattico, da casa non è così semplice.
FC: C’è un problema anche generazionale, nel senso che, anche quando si è passati dalla piuma d’oca alla penna biro o dalla macchina da scrivere e poi al computer, ognuno di questi passaggi è stato traumatico, soprattutto per le generazioni che erano meno preparate all’evoluzione. Quindi, noi probabilmente paghiamo lo scotto di avere “la nostra età” in questa situazione. Effettivamente tra i giovani, ora che siamo in didattica mista, c’è una discreta componente di studenti, più del 50%, che continua a preferire stare a casa. Tra di essi, una buona parte soffrirà di problemi di mancanza di attenzione e avrà prestazioni inferiori agli esami, tra quelli che andranno bene di quella percentuale di studenti c’è chi si prepara ad una nuova forma di comunicazione perché, una cosa è sicura, anche alla fine della pandemia l’attività di smart working, di call online, di servizi distribuiti non tornerà a zero. Si è scoperto che ha dei vantaggi, possiamo dire che essi per il momento siano meno rispetto al burnout che stiamo vivendo tutti, come quando facciamo riunioni alle 9 di sera, è normale, ma è anche vero che fra qualche anno avremo una nuova penna biro che sostituisce l’attuale piuma d’oca. Da queste situazioni viene fuori sempre qualcosa di “buono” o di evolutivo, non sappiamo quanto sia buono ma sicuramente evolutivo.
SR: Abbiamo capito che possiamo interagire con colleghi che si trovano dall’altra parte del mondo più facilmente, tuttavia, una serie di rapporti personali e scambi di idee che riusciamo ad avere quando si incontra di persona non sono equiparati a quelli che si hanno durante una call.
Avete avvertito la difficolta nei giovani a riprendere la socialità e a ritrovarsi insieme?
SR: Almeno io, più che da docente, da madre. Ho visto mio figlio piccolo costretto a casa anche a giocare con i bambini online. Tutta la fisicità del contatto, del gioco insieme, è stata persa per lungo tempo. Spero che la giovane età possa crei una più facilità di recupero mentre ho paura che sulle fasce d’età più alte, quindi, sugli adolescenti l’impatto che possa aver avuto la pandemia sia un po’ più problematico da gestire.
FC: C’è una malattia in particolare che si chiama ADHD disturbo da deficit di attenzione/iperattività, in questi anni è aumentata molto, in particolar modo, durante la pandemia. Ed una cosa con la quale si misurano sia le nuove generazioni che le vecchie, un po’ per colpa della presenza invasiva dei cellulari e un po’ per colpa della enorme quantità di informazioni a cui siamo sottoposti in ogni momento della nostra vita, alla quale non possiamo più porre un freno. Immagini solo quanto tempo ci mettiamo ogni sera solo per scegliere quale film guardare su Netflix, è talmente ampia l’offerta che ci impieghiamo un quarto d’ora, venti minuti, per decidere.
SR: però in questo un buon sistema di intelligenza artificiale potrebbe aiutare.
FC: esatto, un sistema di raccomandazioni.
Nel lavoro di docente universitario, come si riesce a conciliare il trasmettere l’amore per la materia e la messa in guardia sugli aspetti potenzialmente pericolosi della tecnologia e l’AI?
FC: Credo che basti insistere su una cosa di cui abbiamo parlato prima ma vista in termini etici, cioè la differenza tra machine learning ed intelligenza artificiale. L’intelligenza ha una componente etica che ad uno studente va trasmessa, dal machine learning, invece, è un macinino, si può invece estrarre di tutto e si possono ricevere risposte anche non desiderate. La cosa giusta è trovare un modo di parlare di etica anche quando si parla di mali da scienza.
SR: Cercando di contaminare la loro istruzione con visioni differenti, perché il rischio per gli studenti delle nuove generazioni, in informatica, è quello di essere troppo dentro il contesto e quindi non vedere al di fuori della propria materia, del proprio settore, perdersi questo tipo di informazioni che sono fondamentali.
FC: in fondo, è solo questione di cultura!
Ringraziamo i professori Silvia Rossi e Francesco Cutugno per la loro disponibilità. Vi auguriamo buon lavoro. Dal Prisca Lab è tutto. Grazie per l’attenzione.