Anno XIII - n° 68

Rivista on-Line della Fondazione Prof. Massimo D'Antona

Marzo/Aprile 2025

Rivista on-Line della Fondazione Prof. Massimo D'Antona

Anno XIII - n° 68

Marzo/Aprile 2025

Intelligenza Artificiale: bella senz’anima


di Stefano Olivieri Pennesi [*]

Olivieri Pennesi 28

Atrofizzazione del nostro pensiero critico, da qui si può partire per enfatizzare il rischio concreto sulle ricadute di una utilizzazione massiva nel futuro delle nostre società “invase” da Intelligenza artificiale. Oltre ciò oggi si può notare una oggettiva carenza di figure specializzate da impiegarsi nell’adozione “consapevole” della intelligenza artificiale.

Mancano, ad esempio, esperti in Data Scientist o, meglio, esperti nell’analisi, estrazione, manipolazione e interpretazione dei big data, come pure carenza di esperti in machine learning ossia addestratori di computer per l’apprendimento dai dati, migliorando le performance con la progressione fornita da esperienze operative.

Pennesi 68 1La carenza di queste figure professionali “avanzate” rappresenta, nei fatti, un ostacolo significativo per sbloccare il potenziale dell’intelligenza artificiale da poter impiegare nei vari contesti economici.

È giusto, quindi, porsi una domanda: è plausibilmente possibile fare a meno, nella nostra epoca, di queste tecnologie “intelligenti”? Ed in particolare di un uso “etico” e di una qualsivoglia “anima” dell’Intelligenza Artificiale.

Nei fatti la tecnologia è diventata un’estensione di noi stessi, rincorriamo sempre più frequentemente risposte sui nostri smartphone alla ricerca di un riscontro immediato. Vogliamo risolvere immediatamente qualsivoglia problema. L’AI sta diventando una sorta di pronto soccorso funzionale ma anche emotivo per ogni cosa, capace di indurre sollievo.

L’utilità primaria sta nel fatto di ottenere risposte istantanee per ogni quesito. Detiene un fascino irresistibile, ma denota anche il nostro essere disarmati di fronte alla “pervasività” di questo strumento.

Ciò rappresenta, inevitabilmente, per noi, un grado di rilevante vulnerabilità, questo principalmente per le categorie dei più giovani o giovanissimi. Disponiamo oggi di evidenze scientifiche che comprovano i danni dell’uso smodato degli smartphone sul cervello umano e in particolare dei bimbi.

Un recente studio pubblicato sulla rivista “Nature” ha evidenziato che l’uso eccessivo di smartphone e tablet può portare a cambiamenti nell’ambiente cerebrale, inclusa la riduzione del volume di materia grigia in specifiche regioni del cervello associate al controllo cognitivo, ai regolatori delle emozioni e ai processi decisori, interferendo, pertanto, con la maturazione di alcune strutture cerebrali e specificamente l’amigdala, sfociando plausibilmente in problematiche psicopatologiche.

Secondo alcuni studi di neurofisiologia l’utilizzo, quindi, dei dispositivi mobili e dei social media, da parte dei giovani, genera inquietudine per il potenziale impatto sulle componenti cerebrali in via di sviluppo. Possediamo degli smartphone potenziati con l’AI, già in uso a bimbi di 3-4-5 anni, o più, che corrono concretamente il rischio di un uso manipolatorio dell’AI. Corre quindi l’obbligo di porci l’interrogativo su come bisogna proteggere e difendere, al meglio, le nostre generazioni e società.

Sfruttare, allora, l’AI salvaguardando però ciò che ci rende autenticamente umani, mitigando tutti i possibili danni prodotti dal “digitale”. Bisognerebbe, di contro, sviluppare e perseguire una interazione consapevole con le macchine creando un’intelligenza “ibrida” dove l’IA rimane un mero strumento e non si trasforma andando a sostituire l’essere umano.


Memento storico


Oggi ci troviamo di fronte, ancora una volta nella storia umana, a tecnologie che impattano direttamente sul nostro modo di ragionare e progredire come società. L’avventura che accompagna le cosiddette “rivoluzioni industriali” può suddividersi in quattro capitoli sequenziali, che vede una prima parte caratterizzata dallo sviluppo delle macchine alimentate a carbone, una seconda fase caratterizzata dalla scoperta dell’elettricità, un terzo capitolo segnato dalla invenzione dell’informatica declinata all’uso del computer. Eccoci quindi approdare alla quarta stagione della rinnovata Rivoluzione Industriale che vede protagonista appunto l’Intelligenza Artificiale.

Pennesi 68 2La diffusione multidisciplinare dell’IA sta implementando una transizione verso nuovi paradigmi di sviluppo, che si basano su interazioni uomo-macchina caratterizzati non tanto dal controllo del primo sulle macchine, quanto invece da un’interazione funzionale tra essi.

Scopriamo che le “macchine” di nuova generazione, infatti, detengono un certo grado di autonomia decisionale, indipendente da quella umana. Notiamo sempre più sistemi intelligenti dotati di una propria capacità di autoapprendimento rispetto alle informazioni trasmesse abbinate all’esperienza avuta e ambiente tecnologico circostante (c.d. machine learning) Non si tratta, dunque, di tecnologie limitate nell’applicare regole e parametri preordinati dall’uomo, ma diversamente di macchine in grado di elaborare e interpretare elementi utili ad assumere delle decisioni autonome ed efficienti adattandole e rielaborandole di volta in volta e in contesti diversificati.


Educare all’uso dell’Intelligenza Artificiale


L’AI, con il suo portato di estrema duttilità, ma anche pervasività, rimane pur sempre uno strumento nelle mani umane, anche se potentissimo. La saggezza degli sviluppatori, analisti, addestratori, ecc. deve diventare un’alleata preziosa, capace di amplificare le possibilità e di dare forma a una società maggiormente consapevole, ma al contempo equa e solidale nell’ambito del progresso della conoscenza.

Da circa due anni abbiamo in uso la piattaforma ChatGPT come sistema di intelligenza artificiale avanzato, cosiddetto di “macchine pensanti” progettato per attività umane legate alla comprensione del linguaggio, nonché al riconoscimento di immagini e suoni, in uso a circa 400 milioni di utenti attivi ogni settimana. Da pochissimo tempo è stata rilasciata la nuova versione di ChatGPT 4.5, che sembra essere stata ottimizzata e progettata per la “persuasione” dell’utente. Ma persuadendo il rischio di sconfinare nella manipolazione si amplifica sempre più. È ormai evidente che l’IA, in modo impercettibile o, peggio, invisibile, si cela ovunque, soprattutto nelle app che sono nel nostro smartphone come in altri terminali.

Oggi, grazie all’IA generativa, l’accesso alla conoscenza è maggiormente diffuso, e ciò rende ancora più centrale il ruolo di chi è incaricato nell’ orientare l’elaborazione critica e creativa di queste molteplici e amplissime informazioni.

Dobbiamo inoltre porci il quesito su cosa è giusto creare con ChatGPT. In quanto si ha una responsabilità rispetto al comportamento dei modelli di OpenAI – da impiegarsi su ChatGPT facendo sì di agevolare la libertà creativa degli utenti quando si genera un’immagine realizzando cose davvero sorprendenti e affidando agli utenti questa libertà intellettuale abbinata ad un giusto “controllo”.

Si avranno, presumibilmente, dei limiti che la società sceglierà di imporre all’IA, quale aspetto sempre più cruciale man mano che ci avvicineremo alla cosiddetta AGI - intelligenza artificiale generale, che secondo Sam Altman CEO di OpenAI, parlando proprio del futuro dell’intelligenza artificiale destinata un giorno a superare ed eguagliare le capacità umane.

Sempre Altman afferma che: “… a differenza dei modelli IA attuali limitati a compiti specifici, l’IA generale dovrebbe generalizzare conoscenze per applicarle a situazioni nuove e quindi imitare la flessibilità cognitiva umana”. Tutto però condizionato dall’importanza di fondo della libertà, una libertà creativa ma anche d’espressione.


Educare IA in ambito previdenziale


Prendiamo ad esempio il tema IA applicato alla “previdenza” e più in generale alla “sicurezza sociale”. Ebbene, sappiamo quanto i sistemi algoritmici possano influenzare le scelte degli investitori in maniera acritica e puramente profittevole. Il basso o alto rischio finanziario si materializza garantendo il risparmiatore sull’obiettivo primario di mantenimento del patrimonio detenuto (accumulato) con un occhio sull’entità finale del patrimonio complessivamente gestito dalla molteplicità dei fondi previdenziali che sarà alla base delle nostre pensioni future. Quindi tutto ruota nel non subire perdite ingenti del proprio accumulo previdenziale.

A differenza del rendimento, che è una grandezza misurabile, il rischio finanziario è un parametro tanto rilevante quanto soggettivo ma sempre aleatorio: in questo contesto, infatti, per rischio si intende la quota di incertezza intrinsecamente associata a una determinata attività finanziaria.

Pennesi 68 3Siamo quindi a riflettere di come sistemi di IA utilizzati in contesti previdenziali ed in particolare per orientare le scelte del management di fondi pubblici o privati operanti nell’ambito della previdenza (di primo o secondo pilastro), andrebbero maneggiati con estrema cura e attenzione. Sappiamo che l’oggetto dell’investimento finanziario, nel suddetto ambito, non può basarsi esclusivamente sull’ottenimento del massimo delle redditività, proprio ad evitare il possibile alto rischio ossia la quota di incertezza intrinsecamente associata a una determinata attività finanziaria. Misurare acriticamente rendimenti finanziari come potrebbe fare l’IA addestrata per massimizzare gli investimenti, potrebbe orientare l’azione e le scelte di chi ha responsabilità diretta nel governo di strutture previdenziali senza considerare visioni generali e sostenibilità umana da poter gestire discrezionalmente.

Evidentemente, non tutte le categorie di investitori finanziari detengono una medesima propensione al rischio, ci riferiamo al “livello di disponibilità” con cui si è pronti ad accogliere possibili perdite patrimoniali dovute alle oscillazioni dei mercati finanziari. È pur vero che le aspettative di chi investe in prodotti finanziari, si diversificano profondamente. A mero esempio citiamo gli investitori in ambito previdenziale a fini pensionistici di medio lungo periodo, ovvero a grandi investitori privati orientati alla messa a frutto di propri risparmi ma senza specifiche finalità, ma anche piccoli investitori per gestire risparmi provenienti da trattamenti di fine lavoro, eredità o altri risparmi, aziende che destinano parte dei propri utili per sottoscrivere titoli di debito pubblico o anche in prodotti finanziari pensati a sostegno delle PMI, ecc.

Ebbene tutte queste categorie di investitori finanziari hanno finalità, pulsioni, atteggiamenti, nettamente difformi gli uni dagli altri per i quali, quindi, non vi possono essere risposte univoche da poter ottenere con l’impiego acritico di qualsiasi IA. Accettando quindi investimenti soggetti a una variabilità estrema di fattori che possono condizionare i risultati prefissati (oltre ogni aspettativa iniziale).

Quindi, in un’epoca che definirei di sostanziale “atrofia demografica”, sarebbe necessario immaginare, per un invecchiamento sostenibile che produca effetti diretti e indiretti sui sistemi previdenziali influenzare, “umanamente”, anche gli interventi che si supportano delle Intelligenze Artificiali con strategie di investimento tanto più etico quanto meno acriticamente profittevole, per l’agire finanziario nell’universo dei mercati.

Davanti a questa profonda trasformazione, anche il pensiero dottrinale giuslavoristico si è materializzato per mezzo delle categorie giuridiche, ed indirizza il diritto nel dare ordine anche ai diritti e le tutele dei lavoratori, per i quali l’ordinamento giuridico deve ben garantire, seguendo i principi sanciti dalla Costituzione.

Un iniziale presidio normativo comunitario si è materializzato il 6 marzo 2024, con l’approvazione del Regolamento europeo sull’intelligenza artificiale, contemplando i molteplici nodi problematici innestati con l’utilizzo dell’intelligenza artificiale nella esecuzione e nella gestione dei rapporti di lavoro, e più in generale sul sistema multidimensionale della sicurezza sociale.

Secondo gli studi compiuti dal dr. Angelo Irano, dirigente e studioso di punta dell’Ente in house del Ministero del Lavoro e Politiche Sociali, denominata Sviluppo Lavoro Italia: “… l’introduzione dell’intelligenza artificiale generativa segna una nuova fase nella metamorfosi del lavoro alla quale stiamo assistendo. Il lavoro fin dai suoi albori, ha avuto anche una dimensione sociale, un atto che ha legato l’individuo alla collettività, dando forma a ruoli, identità e relazioni. un’attività che rafforzava i legami comunitari, trasmetteva conoscenze e stabiliva il ruolo di ciascun individuo all’interno della società. Oltre a essere una fatica, il lavoro era anche un elemento di coesione sociale, un mezzo per condividere risorse e competenze. La tecnologia non sostituisce più solo le attività manuali, ma entra nella sfera creativa, fino ad ora ritenuta esclusivamente umana. Le rivoluzioni tecnologiche del passato hanno reso più efficiente il lavoro umano”.

“Con il lavoro oggi ci troviamo di fronte a una svolta che ne mette in discussione la stessa natura. L’intelligenza artificiale introduce una frattura più radicale, interviene direttamente sulla capacità umana di pensare e creare. Si assiste ad un progressivo assorbimento delle capacità cognitive umane…”.

E ancora sempre citando il dr. Irano: “… L’intelligenza artificiale generativa, sintetizzando una sorta di estensione di capacità umane, è capace di simulare il pensiero, anche senza comprenderlo nel senso umano. L’intelligenza artificiale non è un semplice strumento tecnologico avanzato, ma un dispositivo che riorganizza i ruoli e le funzioni all’interno del sistema produttivo".


Conclusioni


Oggi, con l’AI, e l’automazione, siamo tentati di saltare ogni processo cognitivo ed esperienziale. Delegare alle macchine è diventato sinonimo di rinunciare a noi stessi. Velocizzare è diventato rinuncia all’apprendere.

Pennesi 68 4Da un punto di vista meramente antropologico ed etico l’intelligenza, quella genuina, si costruisce con il sacrificio, nel disagio, nell’errore, nella riflessione, nella lentezza attiva. Faticare per articolare un pensiero, ricercare giuste parole, darsi una forma esteriore ma veritiera. La tecnologia non credo ci stia rendendo passivamente stupidi.

Ci stiamo annullando inconsapevolmente da soli, scegliendo la facilità dell’azione e del fare semplificato, alla tensione dell’apprendimento progressivo. Essere troppo accomodati non è solo un rischio attivo ed oggettivo, ma risulta essere un pericolo serio per le nostre esistenze. Un tempo, per scrivere una mail, per strutturare un pensiero, per portare a termine un compito, era necessario sapere, oggi è sufficiente chiedere acriticamente.

Possiamo anche affermare che ogni categoria di utente presente e futura dovrebbe fare una giusta attenzione a non declinare in modo eccessivo la propria dipendenza dall’IA, per pervenire a decisioni di propria spettanza, con il rischio di accrescere il già elevato grado di subalternità alla tecnologia in senso ampio, che sta caratterizzando le nostre attuali società.

La stessa parola “intelligenza” merita una distinzione netta se usata riferendosi alla IA ovvero, alla propria intelligenza umana. Nel primo caso da intendersi come meramente funzionale, nel secondo come facoltà della persona nella sua integralità di mente umana.

In questo può soccorrerci, nella comprensione concettuale, il test ideato dal matematico Alan Turing secondo il quale una macchina può definirsi intelligente se una persona non riesce a distinguere il suo “comportamento” da quello di un essere umano, ovvero impegnato in compiti intellettuali specifici, che non tengono conto, però, dell’esperienza umana nella sua vastità, complessità, nella capacità di astrazione, creatività, produzione di emozioni, di estetica, di morale, tutte prerogative esclusivamente e altamente umane. Quindi produrre risposte appropriate e comprensibili nel linguaggio usato, da parte della IA, non è elemento sufficiente per concettualizzare il termine “intelligente”. Eseguire compiti sì, ma “pensare” è certamente altra cosa.

Le diverse dimensioni dell’“intelligenza umana” si contrappongono con la dimensione pressoché unica dell’“intelligenza artificiale”. L’uomo possiamo affermare che rappresenta, nel concreto, una sorta di “unicità multiforme”, desidera nel suo intimo di “capire” il mondo che lo circonda, si pone egli stesso in relazione con gli altri. Tende a risolvere problemi esistenziali, esprime la sua creatività multidimensionale e unica, si pone alla ricerca, naturalmente, del benessere integrale, in modalità sinergica con le diverse dimensioni della sua intelligenza e dei suoi saperi.

Mette in campo, l’uomo, le sue capacità logiche, empatiche, intellettive, linguistiche, intuitive, interagendo con il mondo reale che lo circonda e con i suoi simili. Ogni persona umana sa più o meno gestire le relazioni umane con intelligenza mettendo in campo capacità di amore fraterno, riflessione, dialogo, incontro, ma anche scontro, e tanto altro.

Intelligenza umana è anche però interazione tra vita morale e spirituale delle persone in un intreccio assolutamente non replicabile né imitabile tramite algoritmi. Gustare la verità delle cose, dei fatti, dei silenzi, non è pertanto possibile ridurre l’intelligenza umana in mera acquisizione di elementi, fatti, contenuti o, peggio, la semplice capacità di eseguire compiti definiti, a porre domande per ottenere risposte “plausibili”.

Intelligenza è anche totalità dell’essere considerando l’esistenza nella sua interezza e vastità, e non affatto misurabile o delimitabile.

Per tutto questo le differenze tra intelligenza umana e quella artificiale rimangono profonde e ritengo insuperabili oltre che evidenti. Innegabilmente la IA rappresenta una eccezionale conquista della tecnologia che ha dimostrato come si può essere in grado di “imitare” svariate operazioni che si possono associare alla “razionalità” e alla logica. L’IA ad oggi, esegue dei compiti prefigurati, raggiunge degli obiettivi dati, ma non si può dimenticare che è in grado anche di assumere “decisioni” basate su dati quantitativi e sulla logica computazionale. In questo viene in aiuto la potenza vastissima di accumulo, immagazzinare e analizzare dei dati, integrando gli stessi provenienti da svariati ambiti, ma inoltre riesce a modellare sistemi complessi attuando collegamenti ipertestuali e interdisciplinari.

Da tutto questo possiamo dedurre però, al contempo, che la IA può elaborare o anche simulare alcune caratteristiche della “vera” intelligenza, anche se è evidente che essa rimane in sostanza relegata in ambiti logico-matematici, con oggettive intrinseche limitazioni, al contrario dell’intelligenza umana che si evolve in modo “organico”, di pari passo con l’accrescimento fisico e fisiologico, nonché psicologico, dove ogni persona viene a svilupparsi e conformarsi grazie a una vastità di esperienze di vita vissuta anche sensoriali ed emotive che introspettano corporalità e anima.

Per quanto detto quindi le differenze tra umana intelligenza e i diversificati sistemi di IA “dovrebbero” apparire evidenti, ma ciò non pare così scontato, proprio perché questa eccezionale evoluzione tecnologica si sta migliorando seguendo tragitti che la pongono in un terreno ancora non pienamente esplorato rispetto all’“imitazione” di operazioni computazionali associate a funzioni di “razionalità” e di “logica”, nel prendere decisioni e non soltanto eseguire compiti e funzioni. Tali sistemi nei fatti possono apprendere attraverso processi automatizzati massivi, ma in assenza di “emozionalità” vitali, essendo sprovvisti di corpi fisici multisensoriali.

Forse simulare alcuni aspetti dei ragionamenti umani ancorché compiti ad elevate velocità può indurci a errori di valutazione sulle reali potenzialità della IA in particolare quella “generativa”. Dobbiamo pur considerare nei fatti che almeno fino ad ora anche i sistemi di IA più evoluti e all’avanguardia, non sono in grado di imitare replicando il cosiddetto “discernimento morale” come pure instaurare delle “autentiche” relazioni.

La formazione intellettuale e aggiungo morale delle persone in carne ed ossa, è innegabile, viene vissuta personalmente, in un arco temporale di anni, ma diciamo più esattamente per tutta la vita, e si fa sostanza modellando le singole persone, nelle svariate dimensioni: emotiva, fisica, sociale, spirituale, morale, affettiva, creativa, artistica, sensoriale, ecc. interpretando soggettivamente e unicamente, non di rado, con esclusive “intuizioni” quel che avviene e ci coinvolge nel “mondo esterno”, cogliendone la realtà soggettivizzata.

Pennesi 68 5Apprendere il significato di un abbraccio, di una relazione affettiva, di un percorso di malattia, della visione dei paesaggi, del godimento della natura, dei silenzi interiori, della solitudine, della felicità, risulta ancora, io ritengo, una prerogativa esclusivamente umana e non replicabile, per i suoi portati emozionali unici. Tante di queste esperienze ci accompagnano in processi di vita, aprendoci a nuove visioni e nuovi tragitti, facendo maturare un altro elemento esclusivamente umano la “saggezza”.

Evidentemente nessun componente della IA, operando ed elaborando masse di dati, può paragonarsi alle risultanze di queste esperienze di vita vissuta.

Intelligenza umana e IA se poste a confronto sulla loro presumibile equivalenza, possono falsare e anzi decadere su un versante “funzionalista”, ossia la valutazione degli esseri in base alla capacità di svolgere compiti e lavori.

È immaginabile che il valore assoluto di una persona umana non possa dipendere solamente dal possesso di abilità, o dai suoi risultati cognitivi, o dal successo delle proprie azioni, la sua “dignità” di essere umano travalica da qualsivoglia risultato materiale ottenuto, gli infanti, gli anziani, i diversamente abili, gli ammalati, gli abusati, portano con sé delle “intelligenze” uniche anche se non funzionalistiche rispetto a risultati da dover raggiungere, anche essi sono a ragione una componente sociale irrinunciabile per ogni società, anche se con una “marginalità” di risultati od obiettivi materialistici da saper raggiungere. Quadrato Rosso

[*] Dirigente INL, Direzione Centrale Risorse - Uff. III° - Bilancio e Patrimonio. Professore a contratto c/o Università Tor Vergata, titolare della cattedra di “Sociologia dei Processi Economici e del Lavoro” nonché della cattedra di “Diritto del Lavoro”. Il presente contributo è frutto esclusivo del pensiero dell’autore e non impegna l’Amministrazione di appartenenza.

© 2013-2022 - Fondazione Prof. Massimo D'Antona