Ultime Notizie

” ETICA ED INTELLIGENZA ARTIFICIALE ” – DI VALTER MARCONE

0

Redazione-  Marco Trabucchi su Il Sole 24 ore ci spiega : “Imbattersi in contenuti “artificiali” sviluppati dalle IA generative sul web è ormai frequente. È noto il caso di Heliograph, il software di scrittura automatica sviluppato dal Washington Post, che dal 2016 rielabora numeri, dati e tabelle trasformandoli in un testo descrittivo in linea con lo stile del quotidiano. “(1)

Dopo aver vinto il premio giapponese Akutagawa per il miglior romanzo, la scrittrice Rie Kudan ha confessato che circa il 5 per cento del suo romanzo «The Tokyo Tower of Sympathy» è stata scritta con l’intelligenza artificiale. L’Akatugawa Prize il premio letterario dal valore di un milione di yen è promosso dalla Society for the promotion oj Japanese Literature ed è riservato agli scrittori esordienti .

Le dichiarazioni della scrittrice non sorprendono in questo innovativo settore anche perchè molti settori della nostra vita stanno cambiando sensibilmente grazie a software di vario genere alimentati da AI . Compresa la rivoluzione per esempio di alcuni mercati come quello degli

smartphone dopo che la Samsung ha presentato Galaxy AI .

Siamo abituati a pensare all’intelligenza artificiale come se fosse un cervello come il nostro e quindi pensiamo che questa innovazione, che pone molte domande,alcune paure e poche risposte in termini di utilizzazione delle sue applicazioni, sia qualcosa di simile al nostro “ organismo”. In realtà è solo una “macchina” fatta di “ferraglia” per dirla così spassionatamente che ha però un vantaggio su un “organismo “ come per esempio è il nostro corpo. Si può riparare e può durare moltissimo pur essendoci un limite anche all’eternità E soprattutto una macchina di quel genere ha un nemico l’acqua , mentre un organismo come il nostro corpo ha nell’acqua un vitale alleato.

Uomo e macchina dunque con differenze sostanziali . Come descrive Isaac Asimov in un suo racconto dal titolo “Essere razionale “ a pag 63 di “ Io robot “ (Oscar Absolute , Mondadori , 2020):” ‘ Guardatevi’ disse alla fine .’ Lungi da me ogni disprezzo, s’intende ma guardatevi! Siete fatti di un materiale molle e flaccido ,debole e deteriorabile, che è costretto per alimentarsi a dipendere dall’ossidazione alquanto inefficace di materia organica…come quella.’ Indicò con alquanta disapprovazione quello che restava del panino di Donovan- ‘ A periodi alterni entrate in una specie di coma e la minima variazione di temperatura , di pressione atmosferica, di percentuale di umidità e di livello di radiazione pregiudica la vostra efficienza . Siete solo prodotti provvisori .

Io invece sono un prodotto finito . Assorbo energia elettrica direttamente e la utilizzo con un rendimento che è quasi del cento per cento. Ho una struttura di metallo molto forte , non cado mai in stato di incoscienza e posso sopportare facilmente condizioni ambientali critiche. Tutti questi fatti assieme all’assioma lapalissiano che nessun essere può creare un altro a esso superiore rendono vana la vostra assurda teoria “.

Comunque sia” l’assurda teoria “, dunque ,se non funziona un telefonino per esempio basta portarlo a riparare e tornerà come nuovo . Se non funziona il nostro organismo qualche volta possiamo anche ripararlo , la medicina ha fatto progressi supersonici , ma con un limite che è quello dunque della “ vita” che va da alfa ad omega e per omega sappiamo bene che si intende: la fine dunque, la morte ovvero un processo irreversibile . A differenza delle macchine che possono nel percorso alfa omega tornare indietro, fermarsi , andare oltre l’omega.

Viene da domandarsi allora si chiede Marco Trabucchi “ è una guerra questa che si sta combattendo a causa delle nuove raffinate e potenziali affermazioni dell’intelligenza artificiale . E se lo è che tipo di guerra è”.

Una domanda che appunto sollecita la nostra attenzione e come accennavo le nostre paure. Perchè al di là dell’esempio che Marco Trabucchi fa nel suo articolo( che ho cercato di riassumere nella nota ) l’applicazione dellAI nel settore della scrittura , con l’introduzione di questo nuovo potenziale nel mondo della creatività in particolare , vengono sollevati problemi come per esempio la sicurezza nella sua utilizzazione, sulla possibilità che tale intelligenza sostituisca l’uomo in alcuni lavori e via di questo passo. Oggi va di moda l’intelligenza artificiale che accende le nostre fantasie come a suo tempo fu per la prima trasmissione televisiva, per l’allunaggio, per l’introduzione di internet nella vita quotidiana. Un progresso continuo . Qualcuno dirà senza limiti ,qualcun altro cercherà i limiti, anche quelli attuali. E qualcun altro ancora osserverà che in realtà poco o niente di nuovo c’è sulla faccia della Terra da almeno diecimila anni. L’Homo Erectus, scoprì il fuoco, da cacciatore e raccoglitore si trasformò in agricoltore e allevatore, divenne artigiano con la filatura dopo aver scheggiato selci per costruire oggetti, inventò la ruota del vasaio e l’applicò ai carri , nacquero le religioni e i sacerdoti . Oltre niente di nuovo sotto la luce del sole, solo le conseguenze tecnologiche di uno sviluppo che vede ancora come preminenti le attività agricole, di allevamento e di produzione artigianale.

Quando fu inventata la televisione Il produttore cinematografico Darryl Zanuck affermò: “La televisione non durerà, perché le persone si stancheranno di stare davanti a una scatola ogni sera” e nel 1995, l’informatico Robert Metcalfe predisse: “Internet? Collasserà entro un anno”.

Tornando all’intelligenza artificiale alla sua “ sfida” o “ guerra” in realtà le perplessità e le paure di oggi sono le stesse che si verificarono alcuni decenni fa in presenza di quell’insieme di innovazioni scientifiche e della loro applicazione tecnologica che va sotto il nome di rivoluzione industriale. Anche in quel caso con l’introduzione della macchina a vapore che alimentò per esempio i telai della tessitura si ridussero le possibilità del lavoro umano ma a beneficio di un miglioramento della vita , fino all’introduzione del motore a scoppio : riduzione delle ore di lavoro giornaliero, abolizione della trazione animale in agricoltura con l’introduzione delle macchine agricole,alleviamento della fatica fisica più tempo per studiare, possibilità di spostarsi velocemente da un posto all’altro e quindi di viaggiare. Cose comunque non da poco.

Paure, perplessità ,è vero anche se proprio a proposito dell’intelligenza aritificiale l’astrofisico di origine giapponese Michio Kaku afferma : “cinquanta anni fa abbiamo commesso un grosso errore pensando che il cervello fosse un computer digitale. Non è così! Il cervello è una macchina capace di imparare, che si rigenera da sola al termine del suo compito. I bambini hanno la capacità di imparare dai propri errori: quando si imbattono in qualcosa di nuovo imparano a capire come funziona interagendo con il mondo. È proprio questo ciò di cui abbiamo bisogno e per farlo ci serve un computer all’altezza: un computer quantistico”. Ma continua Kaku : “i robot sono macchine e come tali non pensano e non hanno una coscienza di silicio, non sono consapevoli di che sono e dell’ambiente circostante. Bisogna riconoscere però che è solo una questione di tempo prima che riescano ad avere un po’ di consapevolezza”. È davvero possibile che le macchine diventino entità senzienti pienamente consapevoli di se stesse e dell’ambiente circostante? ““possiamo immaginare un tempo futuro in cui i robot saranno intelligenti come un topo, e dopo il topo come un coniglio, e poi un gatto, un cane, fino a diventare scaltri come una scimmia. I robot non sanno di essere macchine; e penso che forse entro la fine di questo secolo i robot cominceranno a rendersi conto del fatto che sono diversi, che sono qualcos’altro rispetto al proprio maestro”. (2)

Una riflessione quella di Michio Kaku che ci dice come noi uomini pensiamo e agiamo a “ nostra “ misura e quindi anche in questo campo siamo propensi ad attribuire a queste macchine le sensazioni che ci rimanda il nostro corpo. Siamo noi a “ dare vita “ ovvero a “ creare “ questa coscienza che le macchine, in particolare questi robot , frutto dell’intelligenza artificiale dovrebbero avere. In realtà non è così. E in questo gioco noi uomini poi diventiamo pericolosi più del paventato pericolo di una “macchina con una presunta coscienza”. Pensiamo per esempio a quando ci siamo voluti fare simili al Creatore e agli esperimenti scientifici che abbiamo condotto in questo settore , in tempi più o meno remoti quando abbiamo preso per oro colato non le teorie Mendel ,il frate che ha dato vita alla genetica, ma al criminale medico nazista Josef Mengele che all’interno del campo di sterminio di Auschwitz fece esperimenti disumani e quindi terribili in ogni senso : E in tempi recenti quando abbiamo accettato la pecora Dolly che nasceva il 5 luglio 1996 . Una , pecora “ nuova ma vecchia” che sembrava essere speranza e promessa della clonazione finalmente realizzata .

Occorre parlare in questo campo di discernimento da parte dell’uomo che in definitiva è il creatore di queste macchine. Farsi simile a Dio per creare è certamente un’aspirazione che l’uomo coltiva da tempo e nella quale qualche volta è riuscito ad avere risultati a dir poco catastrofici .

E quando parlo di discernimento lo intendo , per esempio, nel senso morale di questa applicazione. Infatti problemi etici vengono sollevati da queste tecnologie che offrono grandi opportunità che però si scontrano a volte con problematiche irrisolte .

In termini etici certo è difficile oggi poter vedere da che parte pende il piatto della bilancia anche perchè dopo una corsa, ovvero una accelerazione per quanto riguarda le applicazioni di questa intelligenza artificiale, l’ambiente per così dire si è un po’ raffreddato e probabilmente questa innovazione marcia alla stessa velocità di tutte le altre che comunque stanno interessando e interesseranno la nostra vita di tutti i giorni.

Un cammino che per quanto riguarda il nostro paese nel 2022 ha raggiunto un volume di circa 435 milioni di euro (+32,4%) ed è previsto che tocchi i 1.200 milioni nel 2026, con un tasso di crescita medio annuo del 28,9%. Questo significa che secondo i data ISTAT “che fanno riferimento al 2021, la percentuale delle piccole imprese italiane che utilizza l’AI è del 5,3, contro il 24,3% delle grandi imprese. Solo il 6,2% delle imprese italiane con almeno 10 dipendenti ha dichiarato di utilizzare sistemi di Intelligenza artificiale, contro una media dell’8% nell’Unione europea. In particolare, la percentuale di piccole imprese si attesta al 5,3%, contro il 24,3% delle grandi imprese. Dalle ricerche emerge un crescente divario nell’incremento della produttività dovuto alla digitalizzazione tra le poche imprese di frontiera e le molte più in ritardo. E due anni fa, in Italia, la percentuale di imprese più avanzate nell’utilizzo dell’intelligenza artificiale era superiore alla media europea (1,4% contro 1,3%). Rimane, però, ancora lontana dai paesi capofila: in testa c’è la Danimarca a 5,3% e poi ci sono i Paesi Bassi al 3%. “ (3)

Ma dicevamo degli aspetti etici di questa innovazione . Scrive su swissinfo.ch Christian Raaflaub : “Cosa potrebbe accadere se l’IA finisse nelle mani sbagliate, non si osa nemmeno immaginarlo. La comunità internazionale, ad esempio, è tuttora divisa sulla necessità di regole severe per i robot killer. I colloqui in seno agli organi delle Nazioni Unite a Ginevra sono stati in gran parte inconcludenti. Attualmente non esistono armi simili completamente autonome. Ma secondo gli attivisti, visti i rapidi progressi e gli elevati investimenti nel campo dell’intelligenza artificiale e di altre tecnologie chiave, nel giro di pochi anni potrebbero diventare realtà.” (4)

Quello dell’applicazione della robotica e in generale dell’intelligenza artificiale al settore bellico è un aspetto considerevole da tener presente anche perchè già alimenta un mercato di strumenti di morte e perchè gli sviluppi potrebbero essere ancora più letali .

La tecnologia di ultima generazione è composta di intelligenza artificiale, droni semi o full autonomous. Come per esempio nella guerra russo ucraina in cui l’esercito di Kiev fronteggia le truppe di Mosca con i Javelin e droni di fabbricazione turca “Bayraktar TB2”. Controllati con la rete satellitare Starlink offerta gratis da Elon Musk.

Mani sbagliate : ecco un altro esempio di come potrebbero andare le cose .Il 2024 è un anno di elezioni : in primavera le elezioni in India , a giugno le Europee,le presidenziali americane a novembre . Le elezioni in Bangladesh e Taiwan che si sono tenute nei giorni scorsi. Un anno cruciale dunque per le democrazie mondiali. Quando parlo di mani sbagliate mi riferisco non solo alle potenzialità belliche dell’AI ma anche per esempio alla possibilità che la disinformazione generata attraverso deepfake – immagini e video falsi – possa influenzare per esempio il voto americano in maniera determinante. Il Global Risks Report 2024 del World Economic Forum ha infatti individuato nella disinformazione e misinformazione (la divulgazione di contenuti non veritieri), spinte anche dal sempre più facile accesso a tool di intelligenza artificiale, il “più grande pericolo globale a breve termine che le Democrazie sono chiamate ad affrontare”. Open AI che già per bocca del suo ceo Sam Altman si era già espressa in maniera favorevole circa un divieto di uso di AI nell’informazione elettorale ha riconfermato in un post ufficiale l’intenzione di lavorare affinché strumenti come ChatGPT e il modello di generazione di immagini DALL·E non siano impiegati con l’obiettivo di ingannare e/o influenzare l’opinione pubblica attraverso la creazione di notizie false o deepfake.

Ecco perchè da molte parti è sollecitato,in generale, per l’intelligenza artificiale uno standard vincolante a livello globale . Difficile da raggiungere stando per esempio al fatto che in Europa oggi negli 84 documenti europei che si occupano di questa materia non si trova un singolo principio etico comune . A fine 2018 un gruppo di esperti della Commissione Europea ha messo a punto alcune linee guida A giugno 2023 il Parlamento europeo ha approvato un primo progetto della Legge sull’intelligenza artificiale . Nel complesso, esistono già numerose linee guida e dichiarazioni di questo tipo. Tuttavia, un’analisi sistematica condotta dall’Health Ethics and Policy Lab del Politecnico federale di Zurigo (ETHZ) ha mostrato appunto che non si trova un singolo principio etico comune in 84 documenti pertinenti.

Comunque, in più della metà delle dichiarazioni sono stati menzionati cinque valori fondamentali: trasparenza, giustizia ed equità, prevenzione dei danni, responsabilità, protezione dei dati e della privacy.

Un passo avanti comunque l’Europa unita lo ha compiuto quando ha messo insieme alcuni elementi per dare vita ad una regolamentazione dell’intelligenza artificiale . Un insieme di regole e norme che per la prima volta vengono formulate in un consesso internazionale . Anche se già dal 2017 aveva messo in evidenza al punto 13 della “ Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL))” “che il quadro etico di orientamento dovrebbe essere basato sui principi di beneficenza, non maleficenza, autonomia e giustizia, nonché sui principi sanciti all’articolo 2 del trattato sull’Unione europea e nella Carta dei diritti fondamentali dell’Unione europea – quali la dignità umana, l’uguaglianza, la giustizia e l’equità, la non discriminazione, il consenso informato, la vita privata e familiare e la protezione dei dati, così come sugli altri principi e valori alla base del diritto dell’Unione come la non stigmatizzazione, la trasparenza, l’autonomia, la responsabilità individuale e sociale – e sulle pratiche e i codici etici esistenti”. (5)

Una decisione surclassata proprio qualche giorno fa da Google .Infatti DeepMind presenta una serie di novità per la realizzazione di robot che possano integrarsi nella vita quotidiana ispirandosi anche alle tre leggi della robotica. Leggi che Isaac Asimov aveva così formulato così :1) prima legge: un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno;

2) seconda legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla prima legge;

3) terza legge: un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la seconda legge.

Tre leggi” che, nell’universo fantascientifico creato da Asimov, rappresentano le fondamenta del comportamento dei robot e delle loro interazioni con l’uomo.

Una decisione di Google che tutto sommato alla fine vuole dire che anche gli uomini che rispettano le tre leggi della robotica sono gran brave persone. Infatti lo stesso Isaac Asimov in un suo racconto dal titolo “Meccanismo di fuga “ a pag 214 di “ Io robot “ (Oscar Absolute , Mondadori , 2020) scrive : “Perchè , se ci pensa bene , le Tre Leggi della Robotica riproducono i principi fondamentali che sono alla base di parecchi dei codici etici esistenti al mondo. E’ chiaro che tutti gli esseri umani posseggono l’istinto di conservazione. Questo istinto è dettato al robot dalla Terza legge . E’ logico inoltre che tutti gli uomini “inclini al bene” e dotati di coscienza sociale e senso di responsabilità rispettano l’autorità in senso lato ,ossia diano ascolto ai medici, al capoufficio ,ai rappresentanti del governo ,allo psichiatra e alle persone che che meritano fiducia. E logico che obbediscono alle leggi, seguano le regole, si adattino alle usanze correnti , anche quando queste creano fastidi più o meno grandi .Tale comportamento sociale è dettato al robot dalla Seconda Legge. Inoltre tutti gli uomini “ inclini al bene” dovrebbero amare il loro prossimo come se stessi, ,proteggere i loro simili e rischiare anche la vita per proteggerli. In un robot questo atteggiamento è dettato dalla Prima Legge “.

I ministri dell’UE hanno dunque approvato un approccio condiviso all’AI Act durante la riunione del Consiglio Telecomunicazioni di martedì 6 dicembre 2022. “Il testo di compromesso finale della presidenza ceca tiene conto delle principali preoccupazioni degli Stati membri e preserva il delicato equilibrio tra la protezione dei diritti fondamentali e la promozione dell’adozione della tecnologia dell’intelligenza artificiale”, ha dichiarato Ivan Bartoš, vice primo ministro ceco per la digitalizzazione. Sono state superate le difficoltà perchè gli Stati membri temevano che venisse incluso il software tradizionale, quindi hanno proposto una definizione più ristretta di sistemi sviluppati attraverso approcci basati sull’apprendimento automatico, sulla logica e sulla conoscenza, elementi che la Commissione può specificare o aggiornare in seguito tramite atti delegati. (6)

Scrive Nicola Strizzolo docente di sociologia all’Università di Teramo su Agenda digitale. Eu :”possiamo immaginare un tempo futuro in cui i robot saranno intelligenti come un topo, e dopo il topo come un coniglio, e poi un gatto, un cane, fino a diventare scaltri come una scimmia. I robot non sanno di essere macchine; e penso che forse entro la fine di questo secolo i robot cominceranno a rendersi conto del fatto che sono diversi, che sono qualcos’altro rispetto al proprio maestro”. E continua Strizzolo : “la tecnologia sta viaggiando sempre più velocemente verso l’utilizzo esteso dell’AI, progresso auto alimentato dall’AI stessa. L’opacizzazione del legame azione-responsabilità, come di causa -effetto, trova in questa un grande alleato: decide sempre di più al posto dell’uomo (o indirizza le decisioni), privandolo della capacità del libero arbitrio e della responsabilità morale conseguente.

Molte piattaforme, attraverso degli algoritmi che si basano sulle nostre scelte passate, decidono che contenuti offrirci senza doverci impegnare nello sforzo di cercarli o sceglierli. Modalità simili possono essere utilizzate per ipotizzare nostri comportamenti futuri o presunti e costituire seri pregiudizi sotto la forma del controllo, del giudizio con forza di legge, delle assicurazioni, del prestito bancario o delle cure. In Estonia si sono messe in pratica le prime esperienze di giudici robot. Una ricerca dell’Università di Alabany (Eubanks, 2018) ha messo in luce come negli USA e in vari altri Paesi siano degli algoritmi ad influenzare la decisione di togliere ai genitori i bambini, per maltrattamenti o carenze genitoriali, o di selezionare a chi riconoscere sussidi di povertà o disoccupazione. In questa maniera si perde una delle caratteristiche più importanti che va a collocare le scelte nella dimensione umana dell’empatia: si riducono i mediatori umani tra il codice dei regolamenti e le loro applicazioni, in questo caso implementate da codici e algoritmi di macchine.”

In conclusione di questo ragionamento Strizzolo ci pone una domanda : “ Ma un’intelligenza senza empatia (e senza un orizzonte etico legate al contesto) è riconducibile alla sociopatia: come sarà allora una società governata da macchine?” Anche se la domanda preliminare è : ci sarà mai una società dominata dalle macchine ? O già viviamo una società di macchine che hanno steso una invisibile ragnatela sulle nostra attività che non ce ne accorgiamo , o che facciamo finta di non accorgercene perchè ci conviene ?

Risposte difficili da dare .Perchè una ulteriore domanda che si pone è : com’è il nostro rapporto con le macchine? Siamo noi che vogliamo assolutamente dare loro una coscienza e in questo noi commettiamo un grave errore. Perchè le macchine devono servire esclusivamente per alcuni compiti , ben determinati . E allora quale sarà , alla luce di questa affermazione, ovvero quale potrà essere il nostro rapporto con le macchine in una visione non distorta dalla nostra empatia . E proprio in termini di empatia qual’è e quale sarà il nostro rapporto con macchine . Riusciremo a parlare con queste macchine nella stessa dimensione che oggi occupa la relazione tra due persone. Sicuramente no , anche se il futuro come sempre è pieno di “ sorprese “. Certo è che il rapporto con questo tipo di macchine necessità sicuramente di una riflessione dal punto di vista etico

Abbiamo già fatto un accenno in questo senso alle decisioni europee . Sono stati fatti passi avanti .Come si riesce a capire dunque l’Europa si muove a piccoli passi .

Chi invece è pienamente consapevole e profondamente interessata è la Chiesa cattolica per la quale “La necessità di governare il fenomeno implica l’integrazione di imprescindibili aspetti relativi all’etica, alla sicurezza e alla responsabilità giuridica: si possono verificare distorsioni nel processo di raccolta dei dati e di scrittura dell’algoritmo e nel suo successivo sviluppo applicativo.

Due, quindi, i piani principali di riflessione: la garanzia di cybersicurezza nell’accessibilità e controllo sul flusso e utilizzo dei dati (per evitare alterazioni o usi impropri); ed il rispetto dei principi di non discriminazione, di trasparenza e di comprensibilità dei processi decisionali, perché l’apprendimento automatico (che è alla base dello sviluppo della IA) non garantisce di per sé uno sviluppo in funzione dell’uomo e della sua umanità. “È quindi necessario individuare il limite dell’autonomia della macchina e definire in modo stringente i profili di responsabilità per i suoi effetti.” secondo quanto scrive l’avv. Cristina Arata (7 )

D’altra parte questi aspetti sono particolarmente cari a Papa Francesco che al Convegno della Pontificia Accademia per la Vita del febbraio 2020 ha sottolineato come “il rapporto tra l’apporto umano e il calcolo automatico va studiato bene perché non sempre è facile prevederne gli effetti e definirne le responsabilità”:

Prevederne gli effetti e definirne la responsabilità . Questo il punto dunque che cercherò di affrntare in una riflessione successiva.

Per il momento qui basti solo tener conto che “…anche la Chiesa cattolica l’IA rappresenta, quindi, una sfida e un’opportunità ma soprattutto una questione di giustizia sociale. “Infatti, la ricerca pressante, avida e non trasparente dei big data, cioè dei dati necessari ad alimentare i motori di apprendimento automatico può portare alla manipolazione e allo sfruttamento dei poveri. Inoltre, gli stessi scopi per i quali vengono addestrati i sistemi di IA possono portarli a interagire in forme imprevedibili per garantire che i poveri vengano controllati, sorvegliati e manipolati.”

“Attualmente i creatori di sistemi di IA sono sempre più gli arbitri della verità per i consumatori. Nel contesto dei progressi del XXI secolo, l’esperienza e la formazione della Chiesa dovrebbero essere un dono essenziale offerto ai popoli per aiutarli a formulare un criterio che renda capaci di controllare l’IA, piuttosto che esserne controllati. La Chiesa è chiamata anche alla riflessione e all’impegno.”

“In ultima analisi, sono le decisioni etiche a determinare e a inquadrare quali problemi affronterà un sistema di IA, come esso vada programmato e come debbano essere raccolti i dati per alimentare l’apprendimento automatico. Possiamo leggere la sfida di quella che potremmo definire l’’evangelizzazione dell’IA’ come una combinazione tra la raccomandazione di papa Francesco a guardare il mondo dalla periferia e l’esperienza dei gesuiti del XVI secolo, il cui metodo pragmatico di influenzare chi è influente oggi si potrebbe riformulare come condividere il discernimento con gli scienziati dei dati”(8)

(1)L’articolo esamina approfonditamente le tentazioni per esempio di far elaborare un testo dall’AI come ChatGPT . Ma rivela anche l’esistenza di strumenti gratuiti come ZeroGPT e CopyLeaks, che possono rivelare se un testo è stato creato da un’intelligenza artificiale e l’esistenza di Undetectable.ai ,un ulteriore strumento creato proprio per eludere i rilevatori di contenuti IA, ma anche per diffondere contenuti che altrimenti sarebbero penalizzati da Google, che ha promesso battaglia contro i testi generati da intelligenze artificiale. In generale si veda https://argomenti.ilsole24ore.com/tag/marco-trabucchi

(2)https://formiche.net/2022/06/intelligenza-artificiale-e-questione-morale-lanalisi-di-valori/

(3)https://startupitalia.eu/210520-20230922-quanto-vale-il-mercato-dellai-in-italia-e-perche-lemilia-romagna-e-considerata-una-regione-allavanguardiainmateria

(4)https://www.swissinfo.ch/ita/intelligenza-artificiale_la-macchina-e-la-morale/46208488

(5)https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.html

(6)Tra Il 2020 ed il 2021 l’Unione ha intrapreso una quantità considerevole di attività nel settore dell’IA e proprio in tale contesto politico, la Commissione presenta un quadro normativo sull’intelligenza artificiale con l’obiettivo di:

  1. assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione stessa;
  2. assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione nell’intelligenza artificiale;
  3. migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA;

facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione del mercato.

https://euractiv.it/section/digitale/news/i-paesi-dellue-adottano-una-posizione-comune-sul-regolamento-per-lintelligenza-artificiale/

( 7 )https://www.avvocatipersonefamiglie.it/notizie/altro/fede-e-tecnologia-chiesa-cattolica-ed-ebraismo-di-fronte-all%E2%80%99intelligenza-artificiale/.

(8) (da “L’evangelizzazione dei robot, una nuova sfida per la Chiesa”, di Antonio Spadaro e Paul Twomeny in Avvenire – giovedì 16 gennaio 2020).

Commenti

commenti