Proviamo, con le riflessioni che seguiranno, ad introdurre e accompagnare il lettore per provare a tratteggiare la conoscenza delle più recenti professionalità che si stanno proponendo e affacciando sul nuovo mercato del lavoro, così fortemente influenzato dalle attuali dinamiche ed evoluzioni tecnologiche presenti in questo inizio di millennio.
Iniziamo col dire che, in maniera che potremmo definire opprimente, si sta quotidianamente discutendo di un nuovo attore, da molti considerato “imprescindibile” nell’evoluzione dell’economia globale e per la conseguente trasformazione del mercato del lavoro ossia, l’Intelligenza artificiale – IA.
Un'intelligenza artificiale “affidabile” può certamente portare molteplici benefici, in particolare per i processi produttivi e quindi per le ovvie ricadute economiche, incoraggiando, logicamente, le imprese e i governi a svilupparle. Ma questo può causare un conseguente prosciugamento del bacino di occupazione di uomini e donne impegnati negli attuali variegati ambiti lavorativi, iniziando da quelli maggiormente creativi e concettuali?
Contribuire a trovare soluzioni a molti dei problemi della società moderna, con un impiego più massivo della IA, non significa non cagionarne di altri e diversi. Per questo bisognerebbe collettivamente premurarsi, assicurando in primis, che la tecnologia, in senso ampio, sia affidabile, garantendone sempre la “sicurezza” materiale, etica, morale, sostenendo i diritti fondamentali delle persone e delle imprese. Ma più semplicemente che i sistemi di IA, utilizzati ora e in futuro, siano protetti, trasparenti, etici, imparziali e soprattutto sotto il “reale controllo umano”, al servizio dei diritti e valori fondamentali.
Rivolgiamo l’attenzione alla opportunità e ai rischi per il sistema produttivo italiano. L’IA deve essere mirata a garantire uno sviluppo equilibrato e responsabile della stessa, e anche a prevenire gli eventuali rischi associati all’utilizzo speculativo delle potenzialità della IA nel mondo del lavoro, dell’impresa e della società civile, più in generale.
Non meno importante è definire alcune limitazioni all’utilizzo, di tali sistemi, in base al possibile alto rischio sociale collegato agli ambiti lavorativi.
Impiegare l’IA sul posto di lavoro, consapevoli di sterilizzarne l’uso per finalità quali licenziamenti collettivi o forme di disciplina e di sanzione, per i lavoratori, innescando potenziali effetti negativi e delle ripercussioni nefaste, in generale, sul mondo del lavoro.
Bisogna partire dalla consapevolezza che, da un certo punto di vista, questi sistemi già sono, e diventeranno sempre di più, parte integrante e fondante di quelle che sono le nostre attività quotidiane, non soltanto, quindi, nel mondo del lavoro, ma anche di tutte quelle che sono le relazioni sociali.
È possibile dimostrare che queste tecnologie sono estremamente fragili e manipolabili, per quanto si senta spesso parlare di IA come di una innovazione epocale?
Certamente il problema immanente è che, a parte i ragionamenti declinati ad effetti limitati e immediati, si possa sviluppare un “rischio esistenziale”, cioè che l’IA, a un certo punto, possa prendere il sopravvento e cancellare o anche inibire le espressioni naturali del genere umano.
Questo, partendo dall’assunto che l’IA è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento o la creatività, che le permettono di capire il proprio ambiente, adattare il proprio comportamento agli effetti delle informazioni conferite e delle azioni precedenti e quindi, di lavorare in relativa autonomia.
A mero esempio citiamo i modelli di generazione del testo, realizzati da ChatGPT, ossia un software programmato per sostenere una conversazione scritta e rispondere a qualsiasi tipo di domanda. Più semplicemente attivare la capacità che l’IA ha di completare/assecondare rapidamente un “prompt” ossia una sollecitazione, nel fornire celermente una risposta a una determinata domanda, ma può anche sembrare uno sviluppo, un miglioramento rispetto a quello che c’è scritto nel prompt che viene sottoposto al sistema.
Ciò vuol dire che io parto da un testo e lo miglioro mantenendo lo scopo finale della comunicazione che è quello di rivolgermi ad esempio ad altri esseri umani.
Vorrei a questo punto fare qualche considerazione di scenario. La prima è rispetto alla questione essenziale delle attività produttive ed economiche, a livello Paese, andando incontro a quello che è stato definito un “inverno demografico”.
Sappiamo da alcuni studi economico-attuariali che da qui al 2040, andremo a perdere circa 3,7 milioni di lavoratori, causa pensionamento e che, molto probabilmente, non saranno rimpiazzati da altrettanti giovani da assorbire nel mondo del lavoro. Quindi, evidentemente, un pensiero che dobbiamo fare sulla IA è che se, come promette, efficienta i processi industriali allora è certamente una tecnologia che dobbiamo sviluppare e mantenere in casa, per poter compensare effettivamente questa carenza di manodopera.
Al contempo, però, subiremo un declino di forza lavoro umana e conseguente sostituzione nelle mansioni. È quindi necessario evitare rischi di manipolazione abusiva della tecnologia a fini utilitaristici e speculativi, di mero profitto.
Si deve, pertanto, valutare se alla fine il saldo nelle proiezioni del mercato del lavoro futuro vedrà una maggiore occupazione, data da un PIL accresciuto per effetto dell’IA, oppure se l’IA sostituirà, inevitabilmente, certe professioni e mestieri.
Non è un caso che a far parte di pool di esperti di IA vi sia anche lo studioso di bioetica ma al contempo sacerdote cattolico, don Paolo Benanti.
Lo stesso è stato nominato nuovo presidente della commissione sull’intelligenza artificiale per l’informazione, un organo istituito un paio di mesi fa dal dipartimento per l’informazione e l’editoria del Governo italiano, per discutere ed esaminare le implicazioni della cosiddetta IA sul giornalismo e sull’editoria in generale. Già nel 2017 era stato incluso in un comitato sulla IA dell’Agenzia per l’Italia digitale; Don Benanti si occupa di bioetica, neuroetica oltre che di IA ed etica delle tecnologie, da molti anni, faceva già parte della commissione e da ottobre è anche uno dei 39 membri del “New Artificial Intelligence Advisory Board”, un comitato che si occupa di IA istituito dall’ONU.
In Italia esiste anche un'ulteriore commissione presso la Presidenza del Consiglio dei ministri costituita per orientare sulla gestione delle nuove tecnologie legate all’IA. Lo presiede Gianluigi Greco, direttore del dipartimento di Matematica e Informatica all’Università della Calabria, e peraltro ne fa parte lo stesso Benanti.
Stiamo anche assistendo ad iniziative messe in campo per studiare le ripercussioni dell’uso di “sistemi intelligenti” che simulano e riproducono capacità e comportamenti tipici del pensiero e dell’azione umana, per governare al meglio la transizione digitale e tecnologica in atto.
Il nostro Parlamento, ricordiamo, ha attivato una indagine conoscitiva su opportunità e rischi per il sistema produttivo italiano, promuovendo progetti di legge da esaminare alla Camera e al Senato per mezzo di una commissione denominata “algoritmi”, incaricata proprio di studiare le ripercussioni dell’uso di sistemi intelligenti che simulano e riproducono capacità e comportamenti tipici per pensiero e dell’azione umana. Non solo in Italia, ma anche su scala mondiale si tenta di regolamentare l’IA alla luce dei rischi e delle opportunità per l’umanità.
Una professionalità completamente nuova sta prendendo forma e si sta sviluppando anche grazie all'aumento della diffusione e dell'importanza delle piattaforme social (network come: X, Facebook, TikTok, YouTube, Instagram, LinkedIn, WeChat, Telegram, Pinterest) nella vita di tutti i giorni, anche per la capacità di condizionare i consumi e bisogni degli utenti. Parliamo dell’Influencer.
È anche un fatto che con l’affermarsi dell’uso massivo di Internet e del Web, il termine influencer ha cominciato ad essere impiegato con una diversa accezione, per indicare colui che, avendo un ampio seguito di pubblico, è in grado di raggiungere un numero potenzialmente molto elevato di persone, con cui interfacciarsi continuamente.
E grazie al ruolo determinante che gli influencer svolgono all’interno dei fenomeni comunicativi, che essi vengono sempre più spesso contattati dalle Aziende, Enti, Amministrazioni pubbliche, per pubblicizzare prodotti o brand o magari, appunto, promuovere campagne informative e sociali.
Gli Influencer sono anche blogger, videomaker, fotografi, content creators, YouTuber, Instagrammer, che postano, con regolarità, diversi contenuti (non necessariamente di qualità) sui loro canali di riferimento.
Il web influencer può essere considerato un lavoro? chi lavora nel digital marketing, a ragione, si identifica in tale ruolo professionale. Per me la risposta è certamente sì. Conseguentemente il blog è divenuto, di fatto, un ambiente di lavoro seppur dematerializzato o più rigorosamente virtuale.
Con l’esperienza nel mondo del web marketing, il “web influencer”, in concreto, trasforma/manipola, per così dire, in inchiostro digitale ed immagine, lo strumento tecnologico, favorendo l’incremento dei ricavi e conseguenti benefici economici, per le aziende che a lui si rivolgono, riuscendo, pertanto, a raggiungere numeri consistenti di potenziali consumatori.
La professionalità di un lavoro nuovo. Con le pubblicazioni di post, immagini, filmati, si innestano reazioni nelle vaste platee dei social. Tutto si basa evidentemente sulla fiducia. Ma ci sono tante campagne di influencer marketing che dimostrano un aspetto importante: il pubblico si fida delle persone che trasmettono messaggi anche di tipo commerciale. Il web influencer, quindi, diventa lavoro nel momento in cui fattura per erogare servizi.
Non solo rider, sulle piattaforme ci sono sempre più professionisti. Lavorano nell’oscurità, resi spesso invisibili dal “grande fratello” incarnato dalle piattaforme. Così almeno si sentono e vengono percepiti, dal mondo esterno, tali lavoratori del nuovo millennio.
Un universo eterogeneo che lavora tramite il web: a volte senza uscire mai dal virtuale, a volte interfacciandosi con i clienti. La “tutela” di questi lavoratori è un tema scottante: nel nostro Paese si è ancora all’anno zero, alcuni Paesi hanno legiferato, mentre la Ue si prepara a varare una sua direttiva, essendo stato travato l’accordo tra Parlamento e Consiglio europeo. "La tutela dei lavoratori di piattaforma" o meglio della sharing economy, è stato inserito nel panel della giornata conclusiva del terzo forum sul Futuro della democrazia, organizzato da Fondazione Feltrinelli lo scorso mese di dicembre 2023
Il punto di partenza è che la digitalizzazione dell'economia sta trasformando il mondo del lavoro, con relazioni contrattuali "precarie e non tutelate". C'è una grande eterogeneità sia nell'autopercezione, sia nei bisogni che nelle rivendicazioni. In tale ottica la menzionata Direttiva europea si occuperà anche, tra l’altro, del corretto utilizzo degli algoritmi nella gestione dei rapporti di lavoro. Con queste nuove regole i lavoratori non potranno subire licenziamenti, sulla scorta di decisioni di qualsivoglia algoritmo o, comunque, assunta da un sistema decisionale automatizzato.
Negli ultimi anni, oltre ad avere le figure canoniche di lavoratori delle piattaforme, come: rider, driver, trader online, influencer, si osserva uno spostamento di professionisti che lavorano solo o anche on-line: sono psicologi, insegnanti di lingue, come pure avvocati che forniscono prestazioni e consulenze, commercialisti, architetti, trainers, ecc.
Si stima che siano circa 12 milioni in Europa le persone che hanno un introito economico dalle piattaforme, e quasi 2 milioni solo in Italia, con un guadagno medio di circa 300€.
Ci sono poi i "tasker" dei veri e propri lavoratori autonomi ovvero lavoratori da tastiera (ma non solo) che svolgono minute attività on-line, ma anche propriamente manuali. Amazon come Ikea hanno creato dei rami aziendali dove si offrono e cercano queste attività basiche, per le quali non servono specifiche competenze.
Il lavoro su piattaforma, di fatto, è un lavoro quasi sempre di fascia inferiore. Quando un lavoratore, ad esempio un insegnante o un interprete, si colloca sul web, perde le tutele che aveva con i rapporti di lavoro subordinato, aggiungendo l’onere delle commissioni dovute alle medesime piattaforme, nella misura di circa il 10%.
Tra gli aspetti critici l'uso di algoritmi, che assegnano un punteggio a ciascun lavoratore, e l'influenza indiretta, che riguarda in particolare il settore della logistica dei colossi dell’e-commerce, nonché tutti i lavoratori dell'indotto.
Le prime avvisaglie dell'interferenza dell'intelligenza artificiale, sull'occupazione, si stanno facendo strada. Apprendiamo ad esempio che Google e Amazon stanno avviandosi nella scelta di un calo degli occupati motivandolo con una ristrutturazione del business che richiederebbe una contrazione della forza lavoro.
Il tumultuoso approcciarsi dell'IA rischia di escludere, dall'offerta di lavoro, proprio le fasce dei giovani under 30 che, negli intenti, avrebbero dovuto rappresentare il naturale ricambio generazionale. Ritenere, però, che l'IA sia genericamente da pensarsi nemica dell'occupazione, potrebbe rappresentare un errore grave.
Il problema è tuttavia quello di limitarne l'introduzione in ogni campo e settore, perché in alcuni di essi, quali tra gli altri la ricerca scientifica, piuttosto che le attività amministrativo-contabili, gli effetti positivi saranno rilevanti per la salute e il sapere scientifico, come non di meno per la qualità della vita e il tempo di lavoro.
Essenziale che il sistema imprenditoriale sia coinvolto nella regolamentazione dell'utilizzo IA, così da dare attuazione a indirizzi che riguardano la vita e il futuro delle imprese e quindi, della stessa sorte del nostro sistema economico complessivo.
Spieghiamo cosa sia la “IA generativa” che con la sua capacità di disintermediare, si pone come un grande consulente, alimentando però dubbi crescenti sul futuro di alcune professioni, soprattutto quelle legate al mondo della consulenza. Deloitte, sta sviluppando appunto un “chatbot” denominato "PairD" basato sull'IA generativo, che sarà di supporto alle attività dei suoi circa 75mila dipendenti.
Parliamo di un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo, agli utenti, di interagire con i dispositivi digitali come se stessero comunicando con una persona reale.
Esempi in tal senso sono Siri di Apple e Alexa di Amazon ossia chatbot predittivi orientati al consumatore e basati sui dati, assistenti virtuali o assistenti digitali molto sofisticati, interattivi e personalizzati rispetto ai chatbot dedicati alle attività. Poi vi sono chatbot proprio dedicati alle attività quali programmi monouso che si concentrano sull'esecuzione di una singola funzione.
I chatbot dedicati alle attività sono in grado di gestire domande comuni, ad esempio query riguardo gli orari lavorativi o semplici transazioni che non coinvolgono una eccessiva vastità di variabili. Sono programmi monouso che si concentrano, come detto, sull'esecuzione di una funzione. Generano risposte automatizzate alle richieste degli utenti.
La nuova tecnologia, che verrà impiegata dai quattro colossi mondiali del settore consulenziale: che oltre a Deloitte sono, Ernst & Young, KPMG e PwC - PricewaterhouseCoopers causerà, come annunciato, dei piani articolati di licenziamento.
Sarà usata ad es. per redigere contenuti scritti, per creare presentazioni PowerPoint, per scrivere e-mail, per predisporre report periodici, per effettuare ricerche e creare ordini del giorno delle riunioni, per scrivere codici per automatizzare attività, con lo scopo di aumentare la produttività aziendale.
Va quindi detto che questa strategia evidenzia come il settore dei servizi professionali stia adottando sempre più l’IA generativa per automatizzare le proprie attività.
PwC utilizza chatbot basati sull'intelligenza artificiale nelle sue divisioni legale e fiscale per accelerare il lavoro dei suoi dipendenti.
Altro esempio di impiego IA generativa si rinviene nel mondo legale internazionale, dove alcuni studi hanno reso noto di aver creato uno strumento di “negoziazione dei contratti” basato sull'intelligenza artificiale allo scopo di redigere nuovi accordi che poi gli avvocati potranno fare propri apportando o meno modifiche.
I chatbot, come altri strumenti di IA, saranno “forse” utilizzati per migliorare le capacità degli esseri umani, al fine di risultare più creativi e innovativi, utilizzando la maggior parte del proprio tempo in attività strategiche piuttosto che esecutive. Insomma, i chatbot, per ora, sembrano pensati per aiutare i dipendenti, e non per sostituirli, anche se sembrano esserci dei segnali diversi, come sopra detto, dalle quattro major mondiali della consulenza e dei servizi professionali.
Riprendendo il ragionamento generale sulla IA sempre di più sta emergendo l’esigenza di un “codice di condotta” in particolare per i colossi del tech, sapendo però di provocare possibili resistenza da parte di USA e Cina, le due superpotenze tecnologiche mondiali.
Il nostro Paese vuole giocare un ruolo di primo piano sul futuro impresso con l’IA in particolare per i Paesi di maggiore industrializzazione.
Recentemente la Presidenza del consiglio ha proposto un G7 specifico sulla IA con un obiettivo chiaro, affermare che senza regole, aumentano i rischi per le democrazie e per l’occupazione: con una classe media che può essere spazzata via. Magari arrivando ad uno “statuto” che possa limitare i colossi tecnologici che stanno sviluppando l’intelligenza generativa.
È indispensabile pure, governare i rischi legati alla sicurezza e al mondo dell’informazione. Bisogna “competere” con elaborazioni sempre più realistiche e sofisticate che, di fatto, rendono complicato capire e distinguere quello che è reale da quello che è inventato e magari generato con l’ausilio della IA. Conseguentemente tentare di evitare le pesanti e possibili ripercussioni sull’occupazione nazionale e globale, facendo prevalere “il controllo umano”.
Intelligenza umana non è solo scrivere un codice, né solo logica deduttiva, ma più filosoficamente, emotività, azione, relazione, immedesimazione, empatia, e le macchine, di cui stiamo disquisendo, più che robot dovrebbero essere “cobot”, cioè macchine pensate quali robot collaborativi, frutto di una automazione robotica avanzata, non per sostituire l’uomo ma per collaborare, interagendo con lui.
Il focus, fin da ora, deve essere quello di cercare di definire i limiti per far sì che l’IA si sviluppi riflettendo su un futuro “armonioso” in cui essa sia al servizio dell’uomo.
A questo punto ritengo di particolare interesse menzionare alcune riflessioni che credo largamente condivisibili, espresse di recente dal Card. Ravasi in tema di IA.
Partiamo dal considerare che l’IA si sta dimostrando sempre più pervasiva nelle nostre vite incrementando, di conseguenza, il suo impatto nella società, ma destando preoccupazioni per possibili circostanze impreviste da affrontare, tenendo conto, di interessi umani e sociali plurimi.
Questi aspetti includono la permanente responsabilità dell'uomo sulle macchine, con particolare riguardo al processo decisionale. Ma quali saranno le ricadute sociali sul mondo del lavoro, sui rapporti interpersonali e sulla definizione della propria identità?
L’IA, insieme alla tecnica e alla sua grandissima capacità di aprire itinerari innovativi importanti (basti pensare al contributo dell’IA nel campo della robotica terapeutica, come nel campo delle svariate tipologie di lavoro umano, contribuendo a mitigare gli impieghi usuranti e ripetitivi) deve poter attribuirsi anche un’attenzione alle questioni cosiddette “etiche”, che ne derivano.
Ottimale sarebbe trasmettere una visione alta che scruti le innovazioni della tecnologia in termini multidisciplinari: culturali, etici e financo religiosi.
Il rischio concreto è dare alle macchine delle funzioni e degli algoritmi in assenza di limiti e/o regole, sfociando magari in una sorta di autocoscienza con decisioni che possono coinvolgere l’esistenza altrui, con opzioni molto simili alle scelte etiche che può fare “solamente” un essere umano.
Assistiamo ad un trionfo delle potenzialità cognitive, dei processi di elaborazione di algoritmi sempre più complessi e generativi di dati, della riduzione dello sforzo umano, nelle attività ripetitive e meccaniche, Si pensi ad es. alla disumanizzazione dei conflitti bellici (così numerosi, vicini e tanto attuali) con i cosiddetti, sistemi militari offensivi e difensivi totalmente o parzialmente autonomi, citiamo a mero esempio i droni aerei e marittimi teleguidati e i sistemi di difesa missilistica satellitari.
L'impatto dell'IA sulla vita sociale e spirituale degli uomini, è stata analizzata, di recente, dall’Azione cattolica ambrosiana, quale occasione di approfondimento per rendere accessibile la teologia anche ai non addetti ai lavori, in particolare svolgendo riflessioni che riguardano questioni di grande attualità. Ad esempio, come interseca l’IA sulla vita sociale, e persino spirituale, di ciascuno di noi.
Alcuni rappresentanti dell’Azione cattolica si sono spinti ad affermare che: «L’intelligenza artificiale e le nuove tecnologie fanno sempre più parte della nostra esistenza quotidiana. Sono uno spazio di incontro tra generazioni diverse, sono un ambito nel quale gli esseri umani danno il meglio di loro stessi mettendo a frutto l’intelligenza, la creatività e tanto altro… Ma purtroppo attraverso queste tecnologie possiamo anche esprimere il peggio di noi… Manteniamo uno sguardo vigile per garantire che l’intelligenza artificiale sia al servizio di tutti e non del profitto e delle ambizioni di potere di alcuni».
È sempre più evidente come nell’era dell’IA stia mutando profondamente il ciclo esperienziale umano, in ambito economico, come sociale: i servizi economico finanziari, l’accesso al credito, il pensiero giuridico, l’esercizio della giurisdizione, i mezzi di comunicazione, la produzione dei beni, come le autovetture senza guidatore, l’organizzazione dei servizi, la traduzione automatica, il governo dei territori, solo per citare alcuni esempi. L’impiego della IA, quindi, impatta sui diritti e anche sulle opportunità delle persone, influenzando i processi decisionali a vari livelli.
Per la Chiesa cattolica l’IA rappresenta, tra le tante questioni un'insidia per la giustizia sociale. Lo scouting ossessivo di “big data”, vale a dire banche dati necessarie ad alimentare i motori di apprendimento automatico, può condurre alla manipolazione e allo sfruttamento dei poveri e diseredati, in una parola: gli ultimi.
In definitiva, sono le decisioni etiche a determinare quali problemi dovrà affrontare un sistema di IA, come esso vada programmato e in che modalità acquisire i dati per alimentare l’apprendimento automatico.
Progettare e programmare gli algoritmi, impegnarsi per la raccolta e l’elaborazione dei dati rappresentano un’azione umana, assoggettata inevitabilmente ad imperfezioni, errori, mancanze volontarie o involontarie.
Se immaginiamo che l’IA possa regolare l’accesso ai diversi servizi quali: istruzione, sicurezza, credito, finanza, altro, è necessario dotarla di assoluta “neutralità”. Da qui dovrebbero porsi degli interrogativi sulla legittimità che la realizzazione della società futura potrebbe ricadere nelle mani di pochi “tecnici” sviluppatori, programmatori, analisti.
Dal punto di vista cristiano l’IA può ritenersi etica se genera inclusione e comunione, se resta al servizio dell’uomo e non un mezzo che “escluda l’umano”. Questo implica anche onestà e la chiarezza nel definire non solo quello che l’IA è, ma anche quello che non è e che non dovrà essere. Bisogna quindi definire e ad attuare i princìpi etici per l’IA.
Per tali ragioni, ma non solo, il Santo Padre, Papa Francesco, ha voluto di recente l’istituzione di una Fondazione denominata “renAIssance”, emanazione della Pontificia Accademia per la Vita, presieduta dal monsignor Vincenzo Paglia, che si occuperà, propriamente, di IA e delle sue implicazioni connesse, di natura etica.
In alcuni documenti la Chiesa parlava già nel recente passato di “algorEtica”, per evitare che attraverso la tecnologia si riproducano discriminazioni contro gruppi sociali o intere popolazioni. Perché la tesi è che anche gli algoritmi hanno bisogno di esplicare una dimensione morale, con un convincimento di fondo ossia che: “I progressi futuri devono essere orientati al rispetto della dignità della persona e del Creato”.
Ancora citando il pensiero di Papa Francesco, emerge la sua convinzione che “l'intelligenza artificiale è alla base del cambiamento d'epoca che stiamo vivendo” e che “la robotica può rendere possibile un mondo migliore se è unita al bene comune”.
Infine, ricordiamo che la parola robot è in uso da circa un secolo, e tuttavia con l’IA e i suoi contesti facciamo ancora fatica a relazionarci. Vi è infatti un problema, non risolto, l’interazione tra le due intelligenze: quella umana e quella della macchina.
Il tema dei rapporti tra gli uomini e le macchine e il timore dell’uomo, in relazione ai tentativi di ri-creare la vita o addirittura di ri-produrre l’uomo stesso, è però presente nella cultura umana dai suoi albori e lo si ritrova in molte figure mitologiche di tutte le culture.
[*] Dirigente INL, Direzione Centrale Risorse - Uff. III° - Bilancio e Patrimonio. Professore a contratto c/o Università Tor Vergata, titolare della cattedra di “Sociologia dei Processi Economici e del Lavoro” nonché della cattedra di “Diritto del Lavoro”. Il presente contributo è frutto esclusivo del pensiero dell’autore e non impegna l’Amministrazione di appartenenza.
Seguiteci su Facebook
>