“NEL DESERTO DEL GPT : SOLITUDINE E MALINCONIA , UN DESTINO UMANO ? ” – DI VALTER MARCONE
Redazione- In una precedente riflessione su questa pagine ho parlato della prossima invasione di robot umanoidi nella nostra vita di tutti i giorni e nei luoghi che frequentiamo con l’ avvio di produzioni di robot ,tutte dell’anno 2024 che prefigurano di certo un imponente sviluppo in questo anno 2025. Una proliferazione di macchine in una prospettiva allettante .Non solo queste macchine avranno le sembianze umane ma saranno capaci di ragionare con autonomia , capaci di apprendere come quelle dei più avanzati bot di intelligenza artificiale generativa.
Uno scenario anche inquietante se vogliamo. Infatti ogni tecnologia porta con sé dei benefici enormi ma anche dei rischi . Potrebbe accadere come sta accadendo con le automobili. Cttà come Londra, New York , Chicago, furono salvate dall’assedio del letame prodotto dalle migliaia di cavalli che venivano usati per i trasporti in quelle città, dall’automobile. Un mezzo di trasporto pulito . Sembra un eufemismo quel pulito a pensare al livello di inquinamento dell’aria e alle trasformazioni del clima determinate dalle fonti di energia fossile tra le quali la principale, quella per far muovere i milioni di automobili che oggi intasano le città creando inoltre rilevanti problemi di parcheggio.
Capiterà così ancha a questa nuova tecnologia come sta capitando per esempio al software dei nostri computer che puà essere riciclato e reimmesso all’uso con un risparmio del 60% dei costi rispetto a programmi softaware nuovi.
D’altra parte esiste una economia del riciclo, un sistema economico sostenibile che mira a ridurre al minimo i rifiuti e l’uso di risorse naturali, perche nell’Unione europea si producono ogni anno più di 2,2 miliardi di tonnellate di rifiuti . L’UE sta aggiornando la legilsazione sulla gestione dei rifiuti per promuovere la transizione verso un’economia circolare, in alternativa all’attuale modello economico lineare. Solo a considerare il nostro paese leader in Europa, con un tasso del 20,8% di materie prime seconde riciclate utilizzate nell’industria nel 2023, quasi il doppio della media europea, e con ottimi risultati nel riciclo dei rifiuti da imballaggio e RAEE. questa economia muove ingenti capitali. Nel 2024, molte imprese hanno risparmiato circa 16 miliardi di euro nei costi di produzione , ma questo rappresenta solo il 15% del potenziale teorico. Gli investimenti privati nel settore sono calati a 10,2 miliardi nel 2023, nonostante una posizione di leadership europea nel tasso di utilizzo circolare di materia (20,8%
A proposito dell’economia circolare è lo stesso Parlamento europeo che in documento la definisce come ciò “che implica condivisione, prestito, riutilizzo, riparazione, ricondizionamento e riciclo dei materiali e prodotti esistenti il più a lungo possibile.
In questo modo si estende il ciclo di vita dei prodotti, contribuendo a ridurre i rifiuti al minimo. Una volta che il prodotto ha terminato la sua funzione, i materiali di cui è composto vengono infatti reintrodotti, laddove possibile con il riciclo. Così si possono continuamente riutilizzare all’interno del ciclo produttivo generando ulteriore valore.”
Nel 2023, in Italia sono state raccolte circa 400.000 tonnellate di RAEE (Rifiuti di Apparecchiature Elettriche ed Elettroniche), con un tasso di raccolta del 36% rispetto ai prodotti immessi sul mercato, un valore in crescita ma inferiore all’obiettivo europeo del 65%.
Ma torniamo al nostro tema. Dunque ogni tecnologia comporta benefici ma anche rischi.
E’innegabile che ChatGPT,Copilot,Gemini Sora, Grok sembrano potenziare ,collegare, aumentare le nostre capacità. Per scrivere per esempio un testo qualche decennio fa , e tutti possono ricordareselo perchè comunque hanno scritto un tema tra i compiti scolastici , bisognava avere a portato di mano un vovabolario della lingua italiana, uno grammaticale e uno dei sinonimi e contrari perchè non avevi come oggi questi ausili integrati nel programma di word che stai usando poer scrivere. Poi dovevi avere qualche enciclopedia cartacea o altre raccolte di volumi da consulltare perchè non avevi google o altri motori di ricerca che in pochi istanti ti “spiattellano” sullo schermo centinaia di informazioni in merito ad un argomento.
Potenziare , collegare, aumentare fino a fonderci con l’AI ? Un buon tratto di strada in questo senso, consapevolmente o inconsapevolmente lo abbiamo percorso. Previsioni allettanti , ma anche terrificanti indicano nel 2045 la data in cui questa fusione potrebbe avvenire .
Nel nuovo libro “The Singularity Is Nearer”, il futurologo di Google, Ray Kurzweil, rilancia: entro vent’anni vivremo in simbiosi con l’intelligenza artificiale. L’essere umano potenziato, collegato, aumentato. Certo lo scenario è forse fantascientifico ma non tanto . A ben considerare , e su queste pagine ho condiviso con i lettori riflessioni in questo senso, : il nostro organismo sembra proiettato verso l’immortalità perchè attraverso la tecnica oggi esistente si possono produrre e riprodurre organi umani , in sostituzione di quelli che non funzionano, rendendo il nostro corpo proprio una macchina alla quale si possono cambiare i pezzi. Anzi c’è chi si azzarda a modifidcare quel progetto di criogenesi che voleva , e in qualche caso lo sta facendo, congelare il nostro corpo per secoli per poi riportarlo in vita. Lo leggiamo nei romanzi di fantascienza dove i viaggiatori del futuro adottano questa tecnica per trasferirisi da un punto all’altra dell’universo compiendo quindi viaggi fuori dal tempo del nostro orgamnismo cellurare. Ebbene c’è chi propone di congelare solo il cervello di un individuo che al momento di essere richiamato in vita potrà usare un corpo bionico o addirittura un corpo di cellule e organi completamente frutto della tecnologia ma simile a quello che ha oggi , in questo momento che legge queste riga, ciascuno di noi .. Tutto per una immortalità ,per una eternità nella quale, sono convinto ci “annoieremo a morte”.
Ora vivere in simbiosi con l’AI comporta dei benefici enormi perchè proprio agli Chatbot AI ( i nostri quotidiani assistenti come ChatGPT, Gemini, Claude, DeepSeek e gli altri che i si assomigliano per certe funzioni, pur avendo ciascuno le sue specificità) noi possiamo delegare una serie di incombenze che ci sollevano da impegni , ci danno più tempo libero , insomma sembra che ci aiutino veramente a trascorrere le nostre giornate con meno fatica.
Ma vivere in simbiosi con AI che significa , come raccontano le teorie più lusinghiere e avveniristiche ,vivere con chi ( una entità !?) capisce, scrive, progetta, parla, decide… meglio di noi., comporta un rischio fondamentale : abnegare alla nostra natura umana . Significa rinunciare alla nostra natura di uomini .Una simbiosi stretta con l’intelligenza artificiale, per varie ragioni comporta problemi etici e giuridici. E probabilmente è già ora di correre ai ripari.
Elon Musk ed esperti del settore tech hanno firmato un appello per chidere una pausa nello sviluppo dei potenti sistemi di Intelligenza artificiale per concedere il tempo necessario a elaborare regole per il suo controllo.
La lettera aperta, firmata finora da più di 1.000 persone tra cui Musk e il co-fondatore di Apple Steve Wozniak, è stata sollecitata dal rilascio di GPT-4 dalla società OpenAI di San Francisco. L’azienda afferma che il suo ultimo modello è molto più potente delle versione precedente utilizzata per alimentare ChatGPT.
Come affermato nei principi di Asilomar per l’intelligenza artificiale ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.
Vi ricordate le leggi sulla robotica attribuite a Isaac Asimov. Quelle leggi dicono : 1)Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno. 2)Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge. 3)Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.»Le Leggi furono formulate agli inizi degli anni quaranta durante un incontro come racconta un anedotto ormai famoso, tra Asimov e il direttore e curatore di una rivista Astouding Science Fiction, John W. Campbell che ospitava racconti di Asimov. Un giorno Campbell si fece trovare da Asimov con un foglio in mano in cui aveva scritto le tre leggi che gli erano state suggerite dalla lettura di un racconto di Asimov per la sua rivista .
I principi di Asilomar sono suppergiù la stessa cosa .Nel 2017, sono stati formulati i 23 principi sullo sviluppo dell’Intelligenza artificiale. durante la Beneficial AI 2017 conference organizzata da Future of Life Institute, con l’obiettivo di contribuire allo sviluppo tecnologico affinché questo possa migliorare – e mai impattare negativamente – sul futuro dell’umanità. In altre parole questi pricipi tentano di rispondere a interrogativi come i confino dell’AI , quali valori devono sottendere la ricerca scientifica , quali attenzioni bisognerà fare per garantire la protezione dei diritti e soprattutto come mantenere la centralità umana .(1) Sono un manifesto firmato nel 2017 da oltre 2300 esperti del settore, sono utili per aiutarci a capire come affrontare gli sviluppi e gli utilizzi di queste nuove tecnologie.”Asilomar” in California, negli Stati Uniti, è noto per due importanti conferenze: una sulla DNA ricombinante nel 1975, che ha inaugurato un modello di dialogo tra scienza e società, e un’altra sull’Intelligenza Artificiale nel 2017, che ha prodotto i “23 Principi di Asilomar” per guidare lo sviluppo etico dell’IA,
Ora probabilmente ogni paragrafo di questo documento avrebbe bisogno di un lungo commento cosa che potremo fare ma quello che viene immediatamente in evidenza è purtroppo un senso di solitudine e di malinconia : NEL DESERTO DEL GPT :SOLITUDINE E MALINCONIA , UN DESTINO UMANO ?
Nel deserto del GPT Interagire con questo chatbot AI può generare un sentimento di solitudine e malinconia. A raccontarlo è una nuova coppia di studi realizzati dalla stessa OpenAI e dal MIT Media Lab dell’omonima università tecnologica di Boston. Queste ricerche, che devono essere ancora revisionate da pari con il processo di peer-review, sono basate un doppio approccio: il primo riguarda un numero impressionante di casi, ben 40 milioni, tra utenti e lo strumento di intelligenza artificiale, mentre il secondo con un esperimento durato 4 settimane con alcuni volontari.
“L’esperimento ha evidenziato come gli individui più inclini a manifestare un attaccamento emotivo di tipo ansioso nelle relazioni umane e con un più elevato livello di fiducia nel chatbot, sono risultati essere quelli più suscettibili a provare solitudine e più dipendenti da ChatGPT. Lo studio inoltre non ha individuato alcuna chiara correlazione significativa tra le funzioni vocali del chatbot ed effetti negativi: se da un lato, inizialmente, aiutavano a ridurre l’isolamento sociale (-18% nei primi sette giorni), l’uso prolungato (oltre 14 giorni) portava a un aumento del 22% dei sentimenti di solitudine, particolarmente marcato negli utenti già vulnerabili. La modalità “coinvolgente” del chatbot, progettata per favorire empatia, ha generato il 35% in più di dipendenza rispetto a quella neutra “ (2)
Quando come amici ci resteranno solo gli algoritmo questo è quello che inevitabilmente accadrà. . Possiamo evitarlo . Dite di si, ve ne prego .
(1)Vediamo allora quali sono i 23 principi di Asilomar sull’Intelligenza artificiale distinti in tre diverse aree: Problemi di ricerca, Etica e Valori e Problemi di lungo termine.
Li cerco e li trascriva da https://it.wikipedia.org/wiki/Conferenza_di_Asilomar_sulla_IA_Benefica ovvero “ASILOMAR AI PRINCIPLES.” The Future of Life Institute. https://futureoflife.org/ai-principles/
Problemi di ricerca
- Obiettivo di ricerca: L’obiettivo della ricerca sull’IA non dovrebbe essere quello di creare un’intelligenza senza scopo, ma quello di creare un’intelligenza vantaggiosa.
- Finanziamento della ricerca: Gli investimenti in IA dovrebbero essere accompagnati da finanziamenti per la ricerca che assicurino il suo uso benefico includendo questioni spinose relative all’informatica, all’economia, al diritto, all’etica e agli studi sociali, come ad esempio:
– Come possiamo rendere i futuri sistemi di IA altamente robusti, in modo che facciano ciò che vogliamo senza malfunzionamenti o violazioni informatiche?
– In che modo si può aumentare la prosperità attraverso l’automazione, mantenenendo al contempo risorse e obiettivi delle persone?
– Come possiamo aggiornare i nostri sistemi legali per renderli più giusti, efficienti e al passo con l’IA, gestendo i rischi associati alla stessa?
– A quale sistema di valori l’Intelligenza artificiale dovrebbe essere allineata e quale status legale ed etico dovrebbe avere? - Collegamento Scienza-Politica: Tra i ricercatori di IA e i decisori politici dovrebbe esserci uno scambio costruttivo e sano.
- Cultura della ricerca: Tra i ricercatori e gli sviluppatori di IA dovrebbe essere promossa una cultura di cooperazione, fiducia e trasparenza.
- Prevenzione della cultura della «corsa»: I team che sviluppano sistemi di IA dovrebbero cooperare attivamente per evitare che avvengano risparmi sugli standard di sicurezza.
Etica e Valori dell’Intelligenza artificiale definiti nei principi di Asilomar
- Sicurezza: Per tutta la loro durata operativa, i sistemi di IA dovrebbero essere sicuri e protetti in modo verificabile ove applicabile e fattibile.
- Trasparenza sugli errori: Se un sistema di IA causa danni, dovrebbe essere possibile accertarne le cause.
- Trasparenza giudiziaria: Qualsiasi coinvolgimento di un sistema autonomo in un processo giudiziario dovrebbe fornire una spiegazione soddisfacente e verificabile da un’autorità umana competente.
- Responsabilità: I progettisti e i costruttori di sistemi di IA avanzati sono soggetti interessati dalle implicazioni morali dell’utilizzo, degli abusi e azioni dell’IA, con la responsabilità e l’opportunità di plasmare queste implicazioni.
- Condivisione di lavori: I sistemi altamente autonomi di IA dovrebbero essere progettati assicurando che i loro obiettivi e il loro comportamento siano allineati con i valori umani.
- Valori umani: I sistemi di AI dovrebbero essere progettati e dovrebbero operare in modo da essere compatibili con gli ideali della dignità umana, dei diritti, della libertà e della diversità culturale.
- Privacy personale: Le persone dovrebbero avere il diritto di accedere, gestire e controllare i dati che generano, considerata la capacità dei sistemi di IA di analizzare e utilizzare tali dati.
- Libertà e privacy: L’applicazione dell’IA ai dati personali non deve irragionevolmente ridurre la libertà reale o percepita delle persone.
- Beneficio condiviso: Le tecnologie IA dovrebbero giovare ed emancipare il più ampio numero possibile di persone.
- Prosperità condivisa: La prosperità economica creata dall’IA dovrebbe essere ampiamente condivisa a beneficio di tutta l’umanità.
- Controllo umano: Gli esseri umani dovrebbero scegliere se e come delegare le decisioni ai sistemi di IA per raggiungere obiettivi individuati .
- Non-sovversione: Il potere derivante dal controllo dei sistemi di IA altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili da cui dipende la salute della società.
- Corsa agli armamenti IA: Si deve evitare una corsa agli armamenti nelle armi autonome letali.
Problemi a lungo termine definiti nei principi di Asilomar
- Prudenza sulla capacità: Non essendoci consenso, dovremmo evitare rigide ipotesi riguardo ai limiti delle future capacità dell’IA.
- Importanza: L’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra . Per questo dovrebbe essere pianificata e gestita con risorse e cura proporzionate.
- Rischi: I rischi posti dai sistemi di IA, in particolare quelli catastrofici o esistenziali, devono essere oggetto di pianificazione e sforzi di mitigazione proporzionati all’impatto previsto.
- Auto-miglioramento ricorsivo: I sistemi di IA progettati per auto-migliorarsi o auto-replicarsi in modo tale da poter portare a un rapido aumento in qualità o quantità devono essere soggetti a rigorose misure di sicurezza e controllo.
- Bene comune: La super-intelligenza dovrebbe essere sviluppata solo al servizio di ideali etici condivisi e a beneficio di tutta l’umanità, piuttosto che di un solo Stato o di un’organizzazione.
