L’UOMO E LA MACCHINA

L’UOMO E LA MACCHINA

di PIERLUIGI VISCI
INTELLIGENZA ARTIFICIALE: OPPORTUNITÀ O PERICOLO?
La questione non è più se è a rischio la democrazia, ma se l’umanità sarà in grado di difendersi dal robot. Il dubbio l’ha posto lo stesso inventore dell’IA. Occorre trovare regole globali. Dagli algoritmi deep learning alle reti neurali artificiali: l’automa arriverà a provare emozioni umane?

Il dottor Jason Bull è uno psicologo forense titolare della Trial Analysis Corporation, uno studio professionale di New York che utilizza psicologia, scienza e intuito per sondare caratteri e comportamenti dei componenti delle giurie dei processi al fine di indagare opinioni e tratti caratteriali e in qualche modo anticipare i loro orientamenti nei confronti dell’imputato. Questo nella fiction della rete televisiva americana CBS che per sei stagioni e 145 episodi ha prodotto e diffuso in tutto il mondo la serie Bull. Jason Bull si è ritirato spontaneamente, ma con l’Intelligenza Artificiale avrebbe avuto un serio concorrente perché una delle più recenti applicazioni riguarda proprio il mondo della giustizia. In particolare, grazie all’IA, il sito Axios dispone di un database che analizza le biografie e il percorso decisionale dei giudici per prevedere, con precisione scientifica, l’esito di una causa. Con risparmio di tempo e risorse. Per ora è applicabile solo in campo civilistico, ma non è escluso che in futuro potremo avere applicazioni anche in campo penalistico, con sentenze standard elaborate dalla “macchina intelligente”.
L’affascinante (e per molti aspetti misterioso e addirittura angosciante) mondo dell’Intelligenza Artificiale governa da tempo le nostre vite: basti pensare ai semafori che regolano il traffico delle nostre città oppure ai pulsanti che fanno salire e scendere gli ascensori dei condomini in cui abitiamo. Senza parlare di telefoni cellulari e automobili. In un futuro che è già oggi, tuttavia, l’IA regolerà le nostre esistenze in modi ancora più penetranti e determinanti. Il progresso tecnologico sempre più tumultuoso ci sta rapidamente portando al bivio di scelte decisive per la difesa del primato dell’Uomo sulla Macchina. Nel giro di cinque anni (dal 2018 a oggi) siamo passati dal pericolo – letale per la libertà di stampa – della fabbricazione e diffusione di false informazioni (fake news) alla manipolazione del consenso politico ed elettorale (come insegna il caso Cambridge Analytica e le ingerenze nella campagna presidenziale Usa tra Donald Trump e Hillary Clinton), fino ai rischi altissimi per la tenuta della democrazia globale. Dopo 5 anni e l’avvento di ChatGPT la questione all’ordine del giorno dei decisori mondiali – come si è visto di recente al G20 in India e all’Assemblea dell’Onu a New York e come vedremo il prossimo anno al G7 a presidenza italiana in Puglia – ora non è dove va la democrazia, ma dove va l’umanità.
L’IA, come dice Corrado Augias, è un “grande pericolo e una grande opportunità”. Di per sé, come tutti i progressi scientifici e tecnologici nel corso della Storia, è uno strumento neutro al servizio dell’Uomo. Dipende se lo si utilizza come un mezzo o come un’arma. Anche in questo tornante della vicenda umana, alle soglia del secondo millennio, può rappresentare l’alba di una nuova era felice, stando alle rosee previsioni economiche della grande banca d’affari Goldman Sachs. Oppure nel novello Moloch, mitologica divinità cananea, animata da insaziabile sete di distruzione e brutale potere cui venivano sacrificate vittime umane, come paventa Giorgia Meloni. “Quando le macchine arrivano a pensare – ha detto al G20 la nostra premier – il progresso rischia di diventare un sostituto dell’Uomo. E questo deve fare paura”.
Da sempre le innovazioni scientifiche e tecniche sono servite all’Uomo per migliorare le condizioni di vita e ridurre la fatica del lavoro. Lo sarà anche con l’IA. Goldman Sachs stima che lo strumento vale il 7% (ossia 7 trilioni di miliardi di dollari) del Pil globale nei prossimi 10 anni, favorendo la dirompente accelerazione dell’automazione delle attività umane. Il 18% del lavoro può essere automatizzato: nel 46% delle procedure amministrative, nel 44% delle attività legali, nel 6% dell’edilizia, 4% nelle manutenzioni. Non influirà nei lavori agricoli e marginalmente nelle industrie, dove avrà un ruolo integrativo (previsioni tratte dal database Eurostat Labour). Tra gli elementi positivi, l’IA favorirà l’accesso alle informazioni, all’istruzione, alla formazione professionale. Contribuirà alla sicurezza dei trasporti. Avrà effetti straordinari in medicina. Avrà un ruolo importante nelle attività finanziarie. I robot sostituiranno l’uomo nei lavori pericolosi. I prodotti saranno meno cari proprio per il minore costo del lavoro.
E siamo a un altro snodo. La riduzione del costo del lavoro è stimata dal Report CapGemini Research Institute nell’ordine del 7%. Ed è uno degli aspetti che preoccupano i governi nel caso in cui la contrazione dovesse significare perdita di occupazione, ove non compensata negli stessi processi delle nuove tecnologie digitali, con pesanti riflessi sulla stabilità sociale. Per questo la direttrice di CapGemini, Monia Ferrari, avverte che “sarà indispensabile adottare un approccio incentrato sull’essere umano”.
E la democrazia in pericolo? Nel 2018 il primo allarme fu lanciato dall’economista britannico Martin Giles, direttore della prestigiosa London School e teorico della cosiddetta Terza Via, modello politico seguito da Clinton, Blair e Prodi e noto anche come Ulivo mondiale. Ispirato dalla vicenda Cambridge Analytica e dalla storica audizione di Mark Zuckerberg, fondatore di Facebook, il primo social media, col saggio Rein in the data barone (Tieni a freno il barone dei dati), Giles metteva in guardia dai “padroni” dei dati e delle informazioni, acquisiti spesso in modo illecito o comunque non trasparente. I dati come il nuovo petrolio. Per ricchezza e potere. Ricchezza e potere concentrati nelle mani – poche – dei nuovi Baroni dei Dati, della sempre più potente Oligarchia Digitale, pericolosa per la stessa democrazia globale. Quel saggio fu ripreso, in Italia, da Francesco Pizzetti, professore emerito di diritto costituzionale e già presidente dell’Autorità Garante della Privacy, che andava dritto al nocciolo del problema: il “vero pericolo per la democrazia è l’Intelligenza Artificiale, altro che le fake news”. Pizzetti chiamava in causa, con i Baroni dei Dati, gli sviluppatori dell’IA che “nemmeno loro sanno quali decisioni possa prendere” (l’IA) in considerazione dell’opacità degli algoritmi di deep learning. Il pericolo mortale, allora come oggi, risiede in una IA maldestramente gestita e priva di governance (ossia, di regole) connessa a grandi masse di dati nelle mani di un numero ristretto di soggetti. Saranno loro a gestire tutte le informazioni sensibili su comportamenti, abitudini, aspettative delle persone, opinioni. Con il potere manipolatorio a fini di condizionamento dei consumi, della salute, della politica, delle scelte elettorali. Da cui la questione tuttora all’ordine del giorno: il vero interrogativo – come si è già visto – non è dove va la democrazia, ma dove vada l’umanità.
A tutti noi, cittadini del mondo, è posta la questione. Per capire è bene familiarizzare anche con le parole del nuovo lessico tecnologico. Perché quelli che da tempo chiamiamo robot hanno fatto il salto di qualità: stanno imparando a “pensare”, addirittura a riconoscere le emozioni umane, anticamera del provare direttamente le emozioni. Come quelle degli umani. È l’ultima frontiera, per ora: quella del deep learning, disciplina che crea sistemi in grado di apprendere dai dati e di svolgere compiti che normalmente richiedono l’intervento umano. Perché deep learning si basa su reti neurali artificiali dalle quali la macchina apprende direttamente dai dati immagazzinati, simulando il funzionamento delle cellule nervose del cervello umano (neuroni). Da qui – come il mondo scientifico già prevede e paventa – l’automa sarà in grado di riconoscere e provare le emozioni umane. Il nome c’è già: affective computing.
Ci sono termini del linguaggio digitale che sono ormai nel lessico quotidiano, come gli algoritmi, termine coniato dal matematico arabo al-Chwarizmi addirittura nell’VIII secolo, e utilizzati in matematica e logica sin dal XIX secolo. Meno popolari i ChatBot, programmi che emulano le conversazioni con un essere umano e nelle forme ormai elementari ritroviamo nei call center per l’assistenza ai clienti.
Dal ChatBot nel 2022, per intuizione di OpenAI, è nato il programma ChatGPT in grado di simulare conversazioni con esseri umani, producendo testi anche complessi, difficilmente distinguibili da quelli scritti da un umano e che rappresentano, per alcuni, l’ultima frontiera del giornalismo scritto. Per molti il colpo finale alla carta stampata perché senza giornalisti che producono notizie, analisi, inchieste sul campo, anche il capitale di informazioni delle piattaforme da cui ChatGPT trae linfa presto diverrà arida e finirà per trovare e fornire solo informazioni prodotte e diffuse da aziende, partiti, governi. Vale a dire, informazioni parziali, pilotate, di parte, se non tossiche.
Ce n’è a sufficienza per riflettere. D’altronde, dopo quello del 2018, il nuovo allarme mondiale sui rischi derivanti da una applicazione acritica e non controllata dell’IA, è stato lanciato in questo 2023 proprio da uno dei suoi “padri”, Geoffrey Hinton. Chi più di lui sa perché? Ed ecco, per noi Lions, un altro compito per mettere in campo intelligenza (umana) e leadership.