Anno XII - n° 64

Rivista on-Line della Fondazione Prof. Massimo D'Antona

Luglio/Agosto 2024

Rivista on-Line della Fondazione Prof. Massimo D'Antona

Anno XII - n° 64

Luglio/Agosto 2024

Lavoro “algoretico”


di Stefano Olivieri Pennesi [*]

Olivieri Pennesi 28

Vogliamo introdurre questo articolo usando una locuzione che può apparire fantasiosa quanto ermeneutica, ovvero “Algoretico”, copyright del prof. padre Paolo Benanti. La coniazione di questo termine trae origine dall’accostamento di due parole che potrebbero sembrare antitetiche, ma vedremo che non lo sono: “algoritmo” ed “etico”.

Ora è bene porsi, da subito, un quesito, vale a dire: è possibile intraprendere uno sviluppo etico degli algoritmi? E per quale nuovo ambito dell’etica umana? Soprattutto nel settore informatico le “major tecnologiche” sempre più intravedono il bisogno di “accompagnare”, in contesti etici, le creazioni algoritmiche che supportano le nuove evoluzioni della AI – ovverosia intelligenza artificiale.

Olivieri Pennesi 64 1Proviamo, quindi, a “perimetrare” il concetto di Intelligenza artificiale (AI). Potremmo azzardare una definizione per la quale concepirla come la disciplina che studia i sistemi informatici e algoritmici, capaci di svolgere compiti che normalmente e ordinariamente richiedono una specifica intelligenza di carattere umano, come apprendere, ragionare, decidere, comporre, ottimizzare e risolvere problemi.

Parimenti, cerchiamo di analizzare cosa sia un “sistema algoritmico”. Il termine “algoritmo” si riferisce ad un insieme di istruzioni/regole esatte riguardanti le azioni da intraprendere nella risoluzione di un problema predefinito. Un sistema algoritmico è un sistema composto da uno o più algoritmi utilizzati nell’ambito di un software per raccogliere e analizzare i dati, nonché per trarre conclusioni, come parte di un processo ideato per risolvere un problema predefinito.

I sistemi algoritmici vengono implementati in un numero crescente di ambiti e vengono utilizzati per prendere decisioni che hanno un profondo impatto sulla nostra vita. Comportano opportunità e rischi. Spetta a noi garantire che tali sistemi siano progettati a totale beneficio della società. Le libertà e i diritti individuali e collettivi che comprendono la vastità dei diritti umani dovrebbero essere rafforzati, non indeboliti, da sistemi algoritmici. I regolamenti volti a proteggere queste norme devono avere la loro esigibilità ed effettività.

Dobbiamo però anche ammettere che, quando si parla di AI - intelligenza artificiale e relativi algoritmi, non tutti hanno chiaro in mente di cosa si tratti. Ed è probabile che tale confusione derivi dai suoi numerosi utilizzi. A questo dobbiamo aggiungere che l’idea di affidarsi a nuove tecnologie, non governate direttamente dall’uomo, produce evidentemente “inquietudine”.

Ad ogni modo la trasformazione digitale rappresenta un processo che coinvolge, dal di dentro e profondamente, le nostre società, obbligandoci ad un ripensamento delle conformazioni di vita.

È un fatto incontrovertibile che lo sviluppo dell’informatica, in epoca moderna, ha cambiato il nostro modo di rapportarci al mondo e con i nostri simili e questo è stato possibile grazie alla realizzazione di quegli artefatti tecnologici che prendono il nome, appunto, di algoritmi informatici. Il tutto considerando il contesto generale di radicale mutazione socioeconomica conseguente.

Dovremmo imparare ed iniziare a parlare di cosa sia l’etica dell’algoritmo e cosa significhi per tutti. Risulta quindi necessario rendersi conto che gli algoritmi informatici si stanno proiettando sempre più in concorrenza con decisioni prese dall’uomo, ma anche sull’uomo stesso. Ciò potrebbe aiutarci a superare una concezione meramente strumentale della funzione tecnica svolta dall’AI.

L’algoritmo informatico, invero, instillando nuovi valori e producendo cultura e innovazione, influenza le relazioni che l’uomo instaura, determinando, positivamente e negativamente, il modo di vivere dell’uomo, generando una nuova architettura di comportamenti e rispondendo agli stimoli che ne riceve. È giusto però indurre e condurre le nuove tecnologie a perseguire visioni “umanocentriche”.

È necessaria, quindi, una concreta e trasversale attività divulgativa, per rendere trasparenti e comprensibili i relativi processi decisionali: tecnici, sociali, economici e antropologici, che agiscono sugli strumenti tecnologici in uso. Oggettivamente, però, non risulta affatto semplice comunicare la portata delle trasformazioni, sconvolgenti, prodotte oggi dall’impiego delle Intelligenze artificiali. In tal modo si può delineare e comprendere il presente, trovandosi pronti per il futuro.

Un passo in tal senso è stato mosso da uno dei maggiori esperti ed imprenditore del settore, Michele Laurelli, con il suo libro “Dialoghi con una intelligenza artificiale” (ed. Midnight, 2020), saggio di divulgazione scientifica, pensato per delineare con chiarezza il funzionamento delle AI e il loro impatto nel mondo quotidiano.

Eppure, restano ancora tanti dubbi sull’applicazione dell’AI, soprattutto rispetto al potenziale impatto sul lavoro umano “… sta trasformando il modo in cui le aziende operano, decidono e innovano. In questo scenario, la formazione dei manager diventa cruciale per garantire che le aziende non solo sopravvivano, ma prosperino”.

Torniamo a citare il Padre francescano Paolo Benanti, tra i massimi esperti mondiali sull’Artificial Intelligence (AI) e per questo nominato dal segretario generale dell’ONU Nazioni Unite, Antonio Guterres, a far parte del comitato internazionale di esperti in tale ambito, (unico italiano). Come pure nominato dal governo italiano presidente della Commissione algoritmi e AI per l’informazione. Padre Benanti, è anche consigliere di Papa Francesco, in materia di etica, bioetica ed etica delle tecnologie. Alcuni suoi studi si sono indirizzati sulla gestione dell'innovazione: internet e l'impatto del Digital Age, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie. Emblematiche risultano essere alcune sue affermazioni:

“L'intelligenza artificiale sarebbe più umana se sapesse dubitare”. Con una avvertenza, ossia: “... che non è possibile sviluppare un'intelligenza artificiale con un senso etico intrinseco perché l'intelligenza artificiale non è una soggettività, è una macchina che risponde ad alcuni criteri”.

“… abbiamo bisogno di mettere dei ‘guardrail etici’ all’AI… perché la macchina non vada fuori strada. Quindi l'etica è sempre in mano all'umano. Solo che questa volta deve essere compresa non da un altro essere umano, ma da un algoritmo, ecco il termine algoretica”.

E ancora: “Nonostante quello che alcuni film di fantascienza possano farci pensare, la coscienza non è qualcosa che appartiene alla macchina. Quindi la vera posta in gioco che riguarda l’AI, cioè la scelta dei fini adeguati, deve e può essere solo in mano all’uomo”.

“… Rivoluzione prodotta dall’AI è un termine esagerato e abusato… Si tratta dell’evoluzione di un processo antico quanto è antica l’industrializzazione con la quale è arrivata l’automazione del lavoro che ha subito varie fasi. La prima è stata con la sostituzione del lavoro muscolare con le macchine, oggi vogliamo sostituire la capacità decisionale”… Ecco, quindi, che abbiamo trovato una macchina che adegua i mezzi al fine che gli viene comunicato. È questa la situazione in cui ci troviamo quando guardiamo all’AI. Essa è un modo di progettare l’automazione per cui la macchina si adegua alle varie circostanze per ottenere il fine per la quale è stata programmata”.

Non è un caso che l’autorità morale quale è il Santo Padre, come una autorità politica transnazionale l’Unione Europea, ma anche importanti fondazioni, e sindacati, hanno introdotto il concetto di “Algorules” o più semplicemente Algo-Regole, quali precetti per la progettazione di sistemi algoritmici.

Si è generato, in conseguenza, un confronto sul piano morale, anticipando quello giuridico ed economico, al fine di promuovere un’“etica degli algoritmi”, per supportare le decisioni del Legislatore, e per definire dei confini per la raccolta del dato e la sua elaborazione robotizzata finale.

Si può portare, ora, come esempio concreto, l’iniziativa adottata da Google di impedire a una società attiva nel prestito al consumo, di sviluppare un algoritmo per “analizzare”, sulla piattaforma cloud dello stesso motore di ricerca, i volti degli utenti presenti online, esaminandone le emozioni, osservando le espressioni, i movimenti facciali e le reazioni corporee, deducendo, di conseguenza. il profilo di solvibilità. Questa è la rappresentazione plastica di come si può intervenire, con importanti considerazioni e valutazioni, anche di carattere etico, in tale contesto.

Altro esempio da menzionare può essere la class action avviata negli USA, nei confronti della startup “Anthropic”, attiva nel campo dell’intelligenza artificiale e al contempo azienda finanziata da Amazon. Questa avrebbe creato un business multimiliardario saccheggiando centinaia di migliaia di libri protetti da copyright”. La stessa sarebbe stata, appunto, denunciata per violazione dei diritti d’autore da un gruppo di creativi, per aver utilizzato delle loro opere senza il loro consenso, al fine di “addestrare” la AI generativa, chatbot Claude, con una sorta di “furto di contenuti”. Tale chatbot raccoglie e modifica libri, degli autori più disparati, similarmente a quanto viene già fatto da OpenAI, per integrare i contenuti di famose riviste, come Vogue e The New Yorker, in ChatGPT e SearchGPT, che sono strumenti dell’AI impiegati per ottenere risposte, trovare ispirazioni, aiutare con la scrittura, l'apprendimento, il brainstorming, creare pagine web, progettare giochi, inventare storie, organizzare viaggi e altro ancora.

Il Professore Vincenzo Pacillo dell’Università degli Studi di Modena e Reggio Emilia, in un suo articolo pubblicato nel 2023 sulla rivista Scienza e digitale, afferma che: “L’Intelligenza artificiale è influenzata dalla cultura e dai valori di chi la sviluppa, così come la selezione dei dati, la definizione degli obiettivi e le decisioni relative alla progettazione e all’implementazione degli algoritmi, sono frutto di decisioni prese da esseri umani. Ciò significa che il procedimento può essere condizionato da pregiudizi, stereotipi culturali, discriminazioni. Come utenti è bene saperlo…”.

“… Ciò significa che l’Intelligenza artificiale può essere condizionata da pregiudizi e stereotipi culturali, come il razzismo, il sessismo e altre forme di discriminazione. Per evitare che ciò accada, è necessario adottare un approccio etico e sensibile alla diversità nella progettazione e nell’implementazione dei sistemi AI. Inoltre, la mancanza di forme di tutele specifiche verso i soggetti vulnerabili, ed in particolare i minori, rende la questione particolarmente delicata sotto il profilo del “safeguarding” (misure volte a proteggere la salute, il benessere e i diritti umani delle persone), oggi considerato via maestra per evitare ogni forma di abuso”.

“… Uno dei più gravi rischi connessi a ChatGPT e a qualunque forma di linguaggio fondato sull’AI è quello di costruire etero narrazioni false e fuorvianti, che possono avere gravi conseguenze sotto il profilo delle relazioni personali. In mancanza di un controllo effettivo sul trattamento e sulla correttezza dei dati di addestramento, così come di norme etiche chiare, capaci di evitare ogni forma di discriminazione, il rischio principale dei modelli di linguaggio fondati sull’Intelligenza artificiale è quello di creare gravi pericoli per il rispetto dell’identità personale”.

Olivieri Pennesi 64 2Gli algoritmi e l’intelligenza artificiale sono termini che lasciati all’immaginario collettivo possono indurci ad iperbole incontrollate ed incontrollabili e per questo distanti dalla realtà, o per meglio dire una realtà tecnologica difficile da comprendere e declinare per la collettività dei non addetti ai lavori. Potremmo quindi semplicisticamente limitarci ad individuarne tre componenti.

Il primo è il comune algoritmo, composto da variabili di input e codici sorgenti.

Il secondo elemento, più sofisticato, comunemente definito intelligenza artificiale. Si sostanzia nello sviluppo dell’apprendimento automatico prevedendo una fase di formazione/apprendistato, da cui scaturisce una modifica interattiva dell’algoritmo. Citando Il campo medico è possibile fare molti esempi, nelle varie specializzazioni: oncologia, cardiologia, ortopedia, oftalmologia, epatologia: alimentati con una ragguardevole banca dati (immagini radiografiche, esami clinici, risultanze di terapie farmacologiche, ecc. gli “algoritmi”, per così dire “addestrati”, possono aiutare ad individuare patologie, condurci a conseguenti diagnosi e susseguenti percorsi di cura.

Il terzo elemento, quello forse maggiormente predittivo e ad impatto emotivo, per le evoluzioni future, potrebbe essere definito come “intelligenza artificiale evoluta”, che potrebbe accompagnarci ad una macchina con facoltà cognitive simili ad un essere umano, per questo molto più potente. Potrebbe persino svilupparsi transitando in ambiti emozionali, ma questo forse fantasticando su evoluzioni futuristiche e proprio per questo altamente rischiose, almeno a parere di chi scrive, anche se nulla sembrerebbe impossibile.


Impatto della tecnologia sul mondo del lavoro…


Partiamo dal considerare che si sta assistendo, ormai, all’incessante avanzata dell’AI che sta plasmando il futuro lavorativo in modo più rapido e profondo di quanto è possibile immaginare.

Evidentemente, il mondo del lavoro risulta fortemente interessato e influenzato da questi radicali cambiamenti tecnologici, altrettanto di quanto lo fu la prima e seconda rivoluzione industriale negli ultimi due secoli della nostra storia.

Pensiamo, ad esempio, ad una Intelligenza artificiale “interattiva”, nell’ambito del mercato del lavoro, capace di individuare l’offerta di lavoro giusta da poter far incontrare con una determinata domanda di occupazione. L’AI potrebbe anche indirizzare, chi è alla ricerca di lavoro, verso percorsi e cicli formativi e di riqualificazione (upskilling, reskilling) e valutare anche la fondatezza di eventuali rifiuti di offerte di lavoro, incidendo, quindi, sull’adeguatezza dell’offerta rispetto la domanda.

In modo radicale, in Europa, negli USA, in Cina, Giappone, India, ma direi in tutto il mondo, l’universo lavorativo sta muovendo passi fondamentali con il ricorso alla AI, dove però si assiste ad un uso, ritengo, troppo spesso acritico ma anche disordinato dell’intelligenza artificiale, in ambito professionale e non solo, questo avviene, soprattutto, rispetto al possibile impatto sul lavoro umano. Vediamo trasformare il modo in cui le aziende decidono, innovano e operano. Per questa ragione, la formazione trasversale dei manager diventa fondamentale per garantire la crescita sostenibile delle imprese.

In molti casi, l’algoritmo supporta l’uomo. Esso è foriero di risvolti alquanto positivi: alleggerendo il carico e svolgendo meglio il lavoro. Ma, in altre ipotesi, l’algoritmo viene a contrapporsi alle funzioni del lavoratore. Evidentemente i lavoratori potrebbero essere sottoposti a un’intelligenza artificiale che, nel contesto di un’organizzazione scientifica del lavoro, altamente sviluppata, guiderà il lavoro. Pertanto, gli esseri umani, in gran parte, potrebbero diventare dei semplici esecutori.

Con ciò si potrebbe anche verificare che il lavoratore verrebbe ad essere “controllato massivamente”. D’altra parte, l’algoritmo potrebbe concepirsi alla stregua e in sostituzione del datore di lavoro, nella gestione della forza lavoro e delle risorse umane, per tutte le fasi del rapporto di lavoro. L’algoritmo, in questo caso, potrebbe arrivare ad assoggettare costantemente il lavoratore.

L’intelligenza artificiale, di contro, applicata a compiti routinari, monotoni e ripetitivi è una prospettiva che potrebbe essere gradita ad ogni lavoratore. Conseguentemente, le condizioni di lavoro migliorerebbero, liberando più tempo per la propria esistenza, altra. L’AI, altresì, consentirebbe anche un lavoro più efficiente e ottimizzato, con riduzione dei costi per i consumatori e al contempo della spesa pubblica da parte della PA.

Nel settore sanitario, in particolare, si stanno osservando i crescenti impieghi della AI e segnatamente per la prevenzione, i processi diagnostici, le cure, l’ambito didattico e di studio specialistico, la telemedicina, ma sempre più di frequente anche nella ricerca medica avanzata, quella farmacologica e nel contesto di ricerca sui vaccini.

Più in generale si intravede un percorso che ci porta ad ipotizzare che i mestieri si evolveranno grazie all’influenza del progresso tecnico, come per altro già avvenuto nella moderna storia umana con le già richiamate rivoluzioni industriali. Esistono conseguentemente concreti timori legati ad una questione sociale. Plausibilmente i lavori si modificheranno, e in altri casi alcuni di essi scompariranno, ma molti altri verranno creati. In termini quantitativi, forse, le numerosità non si eguaglieranno, ma presumibilmente la qualificazione richiesta per occupare i posti di lavoro creativi e ad alto valore aggiunto, sempre più di natura tecnologica, richiederà un diverso orientamento alla ricerca e diffusione di skill sia specialistiche che trasversali, quelle definite soft. E questo credo rappresenti un elemento maggiormente qualificante e di indubbio valore per una nuova classe di lavoratori del futuro.

A questo punto ritengo utile introdurre uno spazio di riflessione, ovverossia, se la contrattazione collettiva (con l’impegno delle OO.SS. e datoriali) possa avere un ruolo attivo e cruciale nel concordare regole, in ambito tecnologico e di impiego della AI nella gestione delle imprese e della PA, dal punto di vista organizzativo e nell’utilizzo delle risorse umane, come anche per le conseguenti ricadute sulla fattualità e corretta osservanza della regolarità dei rapporti lavorativi, anche rispetto alle peculiarità delle aziende e amministrazioni, iniziando dal sistema dei “controlli a distanza”, della “privacy”, della “dignità e sicurezza del lavoro”. Ciò al fine di regolare la subordinazione rispetto la gestione algoritmica, e per prevenire eventuali abusi o illeciti contrattuali e lavoristici.

In una parola cercare di “contrattualizzare elementi della trasformazione digitale”. Con ciò arrivare a negoziare l’uso delle tecnologie sui posti di lavoro, come sulle decisioni organizzative datoriali, di stabilire regole, di istituire tutele e diritti iniziando dal lavoro subordinato, nonché la portabilità e apprezzamento del rating personale dei soggetti autonomi che lavorano. Un mantra potrebbe essere considerare le persone, dietro ogni algoritmo, in quanto potrebbe accadere di assistere alla “deumanizzazione” delle persone e contemporanea “umanizzazione” delle macchine, portando a profondi traumi umani, sconfinando in una sorta di “deregolamentazione” estrema, del mercato del lavoro.


Ricadute sociali…


Numerosi scienziati indagano e si interrogano su quali strumenti potranno essere sviluppati ed attivati per ostacolare l’AI rispetto alla eventualità che essa possa incidere gravemente, sollecitando e conducendo la società futura ad un impoverimento sociale della popolazione e del lavoro. I timori maggiori, ovviamente, si concentrano su come potrebbe essere influenzata la percezione del lavoro e della fruizione dei mezzi di comunicazione da parte di importanti fasce della popolazione considerata “attiva”.

Si sta assistendo ad una crescente “inquietudine” per i possibili effetti reali della AI sulla vita delle persone, come sulle loro condizioni di lavoro. Anche se questo viene osservato sulle fasce più anziane della popolazione, iniziando dei cosiddetti “Boomers”. Di contro meno impattanti, sono questi condizionamenti rispetto alle “coorti” dei così chiamati "Millennials" e quelli della generazione “Z”, e a seguire anche gli ultimi nati denominati generazione “Alpha” o più modernamente “Screenagers”, coloro che vivranno sulla propria pelle i grandi temi del futuro, ovvero, quelli del cambiamento climatico e tecnologico.

Probabilmente esiste una concreta possibilità che le nostre società ed economie vengano radicalmente influenzate e modificate. Questo in virtù che l’AI e la robotica possano divenire veicoli per promuovere nuovi mezzi e processi per consentire a pochi individui, o una ristretta élite, come anche organizzazioni o società multinazionali, di incombere e controllare moltitudini di uomini e lavoratori.

Olivieri Pennesi 64 3Lo stesso magnate della tecnologia Elon Musk, ha affermato, di recente, che l’AI rappresenta il più grande rischio cui la nostra modernità storica si trova a dover affrontare. In particolare, è opportuno evidenziare la vastità di rischi per possibili conflitti scatenati da valutazioni predittive algoritmiche della AI. Come anche di un disastro occupazionale dovuto a decisioni basate soltanto sulle elaborazioni acritiche dell’intelligenza artificiale.

“Per affrontare questo rischio, è necessario promuovere una transizione giusta e inclusiva verso un mercato del lavoro digitale, che valorizzi le capacità umane complementari a quelle della AI, come la creatività, l’empatia, la comunicazione e la collaborazione. Inoltre, è necessario garantire una formazione continua e un aggiornamento delle competenze dei lavoratori, per consentire loro di adattarsi ai cambiamenti tecnologici e di cogliere le nuove opportunità professionali”.

Per quanto sopra anticipato, l’uso dell’Intelligenza artificiale nel mondo del lavoro, come negli ambiti sociali, giuridici, economici, antropologici, pone inevitabilmente delle sfide di natura etica, che riguardano la privacy, la trasparenza, la giustizia, la sicurezza, l’equità e la responsabilità dei processi e dei risultati dell’AI.

La privacy si riferisce al principio di rispettare la riservatezza delle informazioni personali o sensibili delle persone. L’IA può violare la privacy dei lavoratori se non è ben regolamentata. Ad esempio, l’AI può raccogliere, elaborare o condividere i dati dei lavoratori, senza il loro consenso o conoscenza. L’AI può utilizzare i dati dei lavoratori per scopi altri, da quelli per cui sono stati raccolti.

La trasparenza è l’aspetto che riguarda la comprensibilità dell’AI, soprattutto quando influenza la vita e i diritti delle persone. Per esempio, se un algoritmo decide di assumere o licenziare un lavoratore, o di assegnargli un compito o una retribuzione, è importante che il lavoratore possa capire come e perché è stata presa quella decisione.

La giustizia è l’ambito che riguarda implicazioni sociali ed economiche dell’AI sul mondo del lavoro. L’AI può portare benefici alla produttività, alla qualità, alla sicurezza e alla creatività del lavoro, ma anche rischi di disoccupazione, precarietà, obsolescenza delle competenze e riduzione delle opportunità di lavoro. Per questo è importante sapere quanto l’AI influisca nel sostituire o coadiuvare il lavoratore.

La sicurezza si riferisce al principio di proteggere le persone da pericoli o danni fisici e psicologici. L’AI può causare incidenti o danni se non è affidabile e controllata. Si possono verificare malfunzionamenti o hackeraggi, con conseguenze sulla salute e la sicurezza dei lavoratori. L’AI può anche aumentare lo stress o l’ansia dei lavoratori, se non è adeguatamente progettata o integrata nel contesto lavorativo, ad esempio, imponendo ritmi di lavoro troppo elevati, riducendo il benessere psicofisico dei lavoratori.

L’equità si riferisce al principio di trattare le persone in modo giusto e imparziale, senza discriminazioni o clientelismi. L’AI può creare disparità tra i lavoratori in base alle loro capacità, esperienza. Ad esempio, l’AI può rendere alcuni lavori più ambiti e remunerati di altri, creando una divisione tra i lavoratori qualificati e non qualificati. L’AI può accentuare le disuguaglianze sociali ed economiche tra i lavoratori, l’AI può anche discriminare i lavoratori in base al loro genere, età, razza o religione.

La responsabilità è l’aspetto che riguarda l’ambito legale e morale degli attori coinvolti nello sviluppo e nell’uso dell’AI nel mondo del lavoro. Su chi è responsabile delle decisioni e delle azioni dell’AI e sui criteri adottati. Come si possono prevenire eventuali danni causati dall’AI.

Una domanda dovrebbe interrogarci tutti, come afferma padre Benanti, nell’epoca della AI algoritmica… e dei cosiddetti “sistemi sapienti” e perché siamo chiamati a ritrovare il fondamento del nostro vivere sociale, ossia…:

“come può l’uomo mantenere la propria primazia rispetto un futuro condizionato dalle macchine?” Ciò innesca una considerazione su cosa rappresenti l’identità umana, in quanto è evidente che una macchina, che può controllare e influire sulle decisioni umane, ci mette in crisi, ci pone la questione di quali decisioni debbano assolutamente rimanere in mano ad un essere umano e quali possano essere surrogate da una macchina. Ora che la macchina è in grado di prendere decisioni mediche, o che potrebbe fungere da giudice, ora che la macchina potrebbe interagire sulla vita delle persone, ci chiediamo: “Che differenza c’è tra una scelta compiuta da un medico umano e quella compiuta da un algoritmo? Che differenza c’è tra le scelte di un giudice e quelle di un algoritmo?”.


Conclusioni


A questo punto tentiamo di invocare un ragionamento oggettivo sulle differenze tra AI e mente umana. Declinando il pensiero di padre Paolo Benanti. La prima è rappresentata dal fatto che le macchine dotate di intelligenza artificiale lavorano su dati e numeri, mentre la persona che fa delle “scelte etiche” lavora su dei “valori” che non sono numerici. Quindi il tema dei temi è come si intenderà conciliare valori ed elementi algoritmici, con quello che rimane nelle nostre società, quali valori etici. E allora non si può fare a meno di scrivere, nella storia del pensiero umano moderno, un nuovo grande capitolo dell’etica, che possiamo chiamare “Algoretica”. Domandiamoci anche cosa dovrebbe rappresentare l’Algoretica premettendo che l’AI algoritmica e le macchine non sono “qualcuno” ma “qualcosa”. Benanti ha già coniato un “concetto” assolutamente condivisibile su cosa sia Algoretica, già precedentemente definita quale “guardrail” etico.

Inoltre, non essendo plausibile dotare l’AI di capacità di giudizio, cosa oggettivamente impossibile, e nemmeno affidarci esclusivamente a questa sorta di guardrail etici, risulta importante creare una dimensione di “critica sociale” per la quale sia possibile chiederci cosa eseguano gli algoritmi e che funzione rilevante abbiano. Dobbiamo vigilare affinché gli algoritmi non siano liberi di darci o negarci il libero accesso ad alcune aree definite della nostra vita.

Possiamo anche supportarci, per capire meglio il contesto di riferimento, con un accostamento, come afferma sempre Benanti, tra gli algoritmi e i farmaci che vengono prescritti da medici: cioè, poter disporre di una sorta di “bugiardino”, per rendere facilmente conoscibili gli “effetti benefici” ma anche quelli “collaterali”.

È possibile e giusto, quindi, pretendere che anche gli algoritmi, come i medicinali, vedano dichiararsi sia gli effetti positivi che quelli negativi. Questo è un bisogno non più relegabile alla sola etica, ma servono, altresì, principi che siano oltremodo cogenti, e provengano dai governi, dalle autorità politiche, e dalle élite economiche e sociali in quanto, lasciare ad un limbo di autocrazia, gli addetti ai lavori e i costruttori tecnologici, di produrre e ideare Intelligenze artificiali e algoritmiche, potrebbe ledere i presidi delle nostre democrazie. Per citarne uno, quello dell’uguaglianza delle persone e dei diritti che sono stabiliti per legge e non arbitrariamente assegnati da soggetti terzi, umani o non.

Dal punto di vista strettamente tecnico, l’ostacolo alla comprensibilità dell’algoritmo risiede nella sua stessa natura che è il frutto di astrazioni matematiche su una base dati. Una seconda questione attiene a ciò che diventa intelligenza artificiale, superando i protocolli di progettazione, ideati dai programmatori, senza immaginare tutte le circostanze in cui la macchina si poteva trovare e decidere su risposte da dare. Adesso la macchina si “adatta” e si “istruisce”, in funzione dei dati introdotti e questo fa saltare ogni costruzione logica.

Circa le pensabili trasformazioni sociali, che possono assumere una portata enorme, è possibile effettivamente introdurre dei meccanismi, delle modalità, dei luoghi in cui queste dinamiche possano essere discusse collettivamente, e le scelte possano essere conseguenziali a questa discussione, in una sorta di Polis, o piazza ideale di pensiero, dove le diverse competenze si confrontano su quello che accade. Si tratta di creare refrain quali nuovi “caffè letterari”, per dirla romanticamente, in cui le diverse competenze possano raffrontarsi, sulle pluralità e le problematicità connesse a questa evoluzione tecnica e tecnologica inarrestabile e crescente che deve riguardare, inevitabilmente, anche le Pubbliche Amministrazioni delle varie nazioni, a livello globale.

Lo stesso Presidente Aran, Antonio Naddeo, afferma che: “… l’uso dell’IA in Italia nella Pubblica Amministrazione, sta crescendo, ma c’è ancora molta strada da fare per integrare efficacemente queste tecnologie nella gestione pubblica…”. Sempre Naddeo offre una dettagliata analisi dell’impatto dell’intelligenza artificiale sul lavoro pubblico in Italia, evidenziando i potenziali effetti di complementarità e sostituzione tra le mansioni svolte dai lavoratori e quelle eseguibili dall’AI.

Si afferma in un recente rapporto illustrato nell’ultimo FPA 2024 con un dato emerso, che: soltanto il 12% dei dipendenti pubblici, impiegati principalmente in ruoli meno specializzati e con compiti ripetitivi, è a rischio di sostituzione. In sintesi, rischiano di perdere il posto di lavoro. Ma può considerarsi un’ipotesi concreta? Probabilmente No.

La paura che l’intelligenza artificiale possa “rubare” il lavoro nella pubblica amministrazione è alquanto infondata. Al contrario delle imprese private, dove le trasformazioni tecnologiche possono effettivamente portare a tagli di personale, la nostra pubblica amministrazione, oggi, è strutturata in modo da proteggere i lavoratori da tali impatti drastici. Unico strumento praticabile, nella PA, potrebbe essere quello di fare ricorso ad un turn over parziale, per ridurre, surrettiziamente, la forza lavoro da impiegare.

Per concludere, l’Intelligenza artificiale può definirsi una tecnologia con vasti potenziali per il progresso dell’umanità, ma che richiede, senza dubbio, una regolamentazione etica e prescrittiva garantendone un uso ragionevole. È il mondo del lavoro, in particolare che deve affrontare le sfide poste dall’AI con una visione strategica e partecipata, con il massimo di coinvolgimento tra: datori di lavoro, lavoratori, sindacati, pubblica amministrazione, organizzazioni transazionali, associazioni, fondazioni, comunità scientifiche. Questo per andare, speditamente, verso una società digitale equa e sostenibile. Quadrato Rosso

[*] Dirigente INL, Direzione Centrale Risorse - Uff. III° - Bilancio e Patrimonio. Professore a contratto c/o Università Tor Vergata, titolare della cattedra di “Sociologia dei Processi Economici e del Lavoro” nonché della cattedra di “Diritto del Lavoro”. Il presente contributo è frutto esclusivo del pensiero dell’autore e non impegna l’Amministrazione di appartenenza.

© 2013-2022 - Fondazione Prof. Massimo D'Antona