sabato 11 marzo 2023

La calcolatrice del XXI secolo

 

Alcune settimane fa ci siamo occupati di intelligenza artificiale con un'intervista semi seria dal titolo “Chi sei o cosa sei?”all'attrazione del momento: la ChatGPT. ChatGPT appartiene alla società di ricerca OpenAI, fondata a San Francisco nel 2015 da Sam Altman, Elon Musk (l'immancabile), Greg Brockman, Ilya Sutskever e Wojciech Zaremba. Questa chat, come ben ci ha spiegato lei stessa, è un sistema gratuito di chatbot, cioè una chat di intelligenza artificiale che è stata addestrata e progettata per simulare conversazioni tra esseri umani, sia in forma scritta che attraverso comandi vocali. Con i suoi 175 miliardi di parametri e il suo continuo “addestramento” abbiamo visto le sue potenzialità, ma anche i suoi limiti. Proviamo adesso a capire quali potranno essere alcuni dei temi che accompagneranno lo sviluppo dell'intelligenza artificiale (AI) con l'aiuto di Maurizio Napolitano coordinatore di Digital Commons Lab del centro Digital Society della Fondazione Bruno Kessler di Trento.

Che cosa fa FBK nel campo dell'AI?

MN: Il tema intelligenza artificiale non è affatto nuovo in quanto è un termine nato nel 1956 e, a Trento, ce ne occupiamo ancora dagli anni '80 quando FBK aveva il nome di ITC - Istituto Trentino di Cultura ed il centro che se ne occupava era l'IRST - Istituto Ricerca Scientifica e Tecnologica.

In quegli anni, sulla collina di Povo, eravamo probabilmente fra i primi in Europa ad occuparcene e l'obiettivo era molto chiaro: costruire un robot dal nome M.A.I.A. che si muoveva negli spazi del centro di ricerca, riconoscendo oggetti, conoscendo la strada che aveva fatto, rispondendo verbalmente a domande che serviva ad interrogare una banca dati bibliografica. M.A.I.A. è l'acronimo di Modello Avanzato di Intelligenza Artificiale ed il robot era stato costruito interamente in IRST dall'hardware al software. M.A.I.A. quindi la possiamo vedere un po' come la "trisavola" di tutto quello che i nostri smartphone ora fanno scaturendo in noi reazioni di stupore: riconoscere un oggetto in una fotografia, individuare un brano musicale, trascrivere quello che diciamo, tradurre un testo da una lingua ad un'altra, ritoccare una fotografia ed altro ancora. Il contributo di FBK all'intelligenza artificiale c'è dalla sua nascita e questo è anche consolidato e riconosciuto dalla comunità scientifica. Non è un caso che persone come Oliviero Stock e Paolo Traverso (e molte altre) - fra i pionieri di M.A.I.A. - sono state anche scelte come consulenti sul tema dell'intelligenza artificiale per il governo tedesco.

FBK pertanto contribuisce quotidianamente a quella che è la ricerca in intelligenza artificiale e lo fa anche in maniera concreta attraverso progetti di settore come l'industria (navale, spaziale, ferroviaria… ), la salute, la pubblica amministrazione, la sicurezza ed altro ancora. Le stesse Big Tech che stanno governando il mercato hanno al loro interno persone che si sono formate in FBK e guardano spesso a Trento per cercare i loro talenti. Il contributo inoltre non si ferma solo alla parte scientifica, ma si espande anche nel settore umanistico dove ci si sta interrogando a sua volta sull'impatto per la società guardando alla storia, all'etica e alle professioni

Lanciato come prototipo nel novembre scorso, ChatGPT sta stupendo (almeno i non addetti ai lavori) per le sue risposte dettagliate e articolate in campi apparentemente sconfinati. Anche se non esente da errori (anche grossolani) è sicuramente un'importante conquista. Accanto all'entusiasmo dobbiamo anche preoccuparci o siamo solo vittime di suggestioni alla “Matrix”? 

MN: Personalmente credo che preoccuparsi delle distopie che portano Matrix e molti altri film (segnalo Idiocracy) sia importante per stimolare anche l'attenzione su quali sono le conseguenze. Essendo distopie però è altamente difficile che si realizzino anche se il loro contributo, pur velato, lo danno. ChatGPT stupisce perché ci da la sensazione di dialogare con una persona reale e ci stupiamo di quello che riesce a fare, di come sceglie le parole, di come esprime i concetti e di cosa ci racconta.

Se però "torturiamo" un po' questo chatbot con domande sempre più precise e ben ragionate riusciamo poi a capire cosa ci sta dietro ed accorgerci che non è altro che un sistema che, per quanto intelligente e potente, mette insieme testi coerenti fra di loro. Lo fa pescando da una grande mole di documenti che sono stati annotati per identificare la grammatica, la logica, i concetti ed altro ancora. Tutto sommato lo possiamo paragonare a quella che è stata la calcolatrice nel XX secolo: uno strumento veloce per fare calcoli matematici che sorprendeva per la velocità la precisione, con la differenza che questa "calcolatrice" che è ChatGPT invece genera testi unendo ad interpretando contenuti scritti da altri in passato sulla base di probabilità statistiche di come unire fra di loro diverse parole in un determinato contesto. Appare magia pura, ma se riusciamo a banalizzarlo in questo modo, ci rendiamo conto di come la tecnologia si sta evolvendo e di quanto ancora ha da imparare visto che, comunque, quello che viene prodotto è privo di spirito critico e fermo a ciò che ha appreso. Va comunque detto che mantenere ChatGTP nella sua infrastruttura ha dei costi notevoli (si parla di una stima di 100.000 dollari al giorno).

Esiste un codice etico per regolamentare l'AI?

MN: Chiunque lavora con l'AI sa bene quali sono i limiti, anche se si viene inondati da stupore e meraviglia, comunque si bene cosa accade "sotto il cofano" e cosa quindi può essere il problema. Si tratta in ogni caso di una questione cruciale che sta attualmente attirando l'attenzione di governi, organizzazioni e ricercatori di tutto il mondo. L'obiettivo è di garantire che l'intelligenza artificiale sia sviluppata e utilizzata in modo responsabile e sostenibile, evitando i rischi per i diritti umani e la società. 

Diverse sono le iniziative per regolamentare l'intelligenza artificiale sulla base di principi etici. Quello più vicino a noi è la Carta sull'Intelligenza Artificiale etica dell'UE nel 2020 che stabilisce un insieme di principi per lo sviluppo e l'utilizzo dell'intelligenza artificiale in Europa che sia responsabile e rispettoso dei diritti umani. Al centro pertanto ci sono principi come trasparenza, responsabilità, non discriminazione, protezione dei dati personali e sicurezza. 

Quali sono oggi i principali limiti di una AI?

MN: Premesso che siamo ancora molto lontani da vedere qualcosa che sia in grado di comportarsi come una persona, quello su cui conviene fare maggiore attenzione è chiedersi quali sono i problemi che vanno risolti e sui quali c'è necessità di fare molta attenzione. Primo fra questi riguarda i possibili pregiudizi (bias) e relative discriminazioni che una AI può creare in quanto il suo addestramento può avvenire attraverso dati che rappresentano solo una parte della società.

Per fare un esempio pratico prova a chiedere ad una AI come Google Traslator di tradurre in inglese o tedesco frasi come "sta facendo le pulizie di casa" oppure "ha avuto un grande successo professionale". Queste, nella nostra lingua sono impersonali, ma nel passaggio nelle altre lingue è necessario inserire il soggetto e qui si vede che l'AI decide di usare il femminile nel caso in cui ci si occupa di faccende domestiche ed il maschile nell'avere successo professionale. Il perché accade lo si può giustificare pensando a quante volte viene usato il maschile o il femminile nei testi che sono serviti per addestrare il sistema di traduzione automatica e quindi non stupisce che poi la statistica che sta dietro all'algoritmo faccia quella scelta.

In altri casi, diversi da quelli della traduzione automatica, però riuscire a capire perché una AI da determinate risposte diventa una questione molto più difficile in quanto i modelli di AI sono spesso complessi e difficili da comprendere. Nasce pertanto anche l'esigenza di avere strumenti in grado di fornire una maggiore trasparenza per verificare come le AI prendono decisioni con cui poi poter identificare eventuali errori.
Nel quadro dei limiti poi non va dimenticato che stiamo parlando di tecnologie che possono trattare dati sensibili e, pertanto, possono rappresentare un rischio per la sicurezza e la privacy. Inoltre sono computer e quindi, oltre ad essere vulnerabili alle minacce informatiche, richiedono anche risorse energetiche importanti.

Argomenti poi meno tecnologici ma allo stesso tempo affascinanti riguardano le problematiche di proprietà e responsabilità: se le azioni che ne derivano sono generate da una macchina, di chi sono i risultati? Pertanto, oltre a limiti di carattere puramente tecnico come i dati di addestramento, l'intelligenza artificiale sta creando nuovi quesiti da risolvere per poterla sviluppare al meglio ed in maniera più sicura e a sostegno della società.

ChatGPT ci ha spiegato che “la mia intelligenza è limitata alle informazioni e alle istruzioni che mi sono state fornite durante il mio addestramento”. In cosa consiste questo addestramento e cosa sappiamo su chi l'addestra?

MN: L'addestramento di ChatGPT consiste nel fornire un insieme di documenti a loro volta "annotati" al fine di identificare schemi e relazioni nei loro contenuti. Si tratta di un lavoro manuale fatto da persone che hanno letto i testi ed usato la loro intelligenza per creare questa banca dati o - meglio - il modello di riferimento. Una volta create queste relazioni il modello viene addestrato cercando di prevedere l'output corretto per ogni input e valutato sulla sua precisione. In base ai risultati, il tutto viene modificato e riaddestrato fino a quando non raggiunge prestazioni accettabili. Da quel momento in poi il modello viene utilizzato per fare previsioni su testi nuovi e sconosciuti. In questo modo ChatGPT è quindi in grado di costruire frasi collegandole tra di loro dal punto di vista di quanto sia probabile collegare una parola o una frase alla precedente. Va sottolineata l'importanza della multidisciplinarietà che esiste dietro alla creazione di questi modelli in quanto, oltre alle conoscenze informatiche, matematiche e statistiche serve avere anche competenze su concetti di relazioni, conoscenze della lingua, delle culture linguistiche e di altri settori di dominio ancora.

Che effetti sta avendo e avrà sull'occupazione l'AI, sia in positivo che in “negativo”?

MN: Quello del tema delle professioni che vengono messe in discussione dalla tecnologia è un tema ricorrente nella storia dell'umanità e non serve nemmeno andare troppo lontano per vedere come, determinate professioni sono scomparse o - meglio - si sono reinventate semplicemente perché hanno cambiato il modo di presentarsi. Non va poi dimenticato che ogni nuova tecnologia ha, a sua volta, creato nuove professioni (esisteva "il capotreno" prima che ci fossero i treni? ) altrimenti non possono essere mantenute. Guardando quindi al passato, consci comunque del fatto che potrebbero diminuire le persone che sono coinvolte in attuali settori lavorativi, quello che potrebbe accadere è che cambierà il modo di lavorare e, probabilmente, non ci saranno persone sostituite da macchine ma persone che sostituiranno persone che sanno usare le nuove macchine (e quindi l'AI).

D'altronde "imparare ad imparare" è una delle necessità che stiamo affrontando in questi anni e sarà sempre più importante e cruciale.

È già stata sviluppata qualche sua applicazione in campo medico e con quali risultati?

MN: Nel campo medico l'intelligenza artificiale esiste da molto più tempo di quello che si può pensare, forse però non ce ne rendiamo conto perché ci appare tutto normale. Nelle diagnosi si usano ormai da tantissimo tempo strumenti che raccolgono dati e che vengono poi elaborati e che, a loro volta, vengono presentati ai medici che ne fanno uso, anche mettendoli in discussione, nelle loro scelte. Le interpretazioni di ecografie, risonanze magnetiche ed altro ancora sono, spesso date al giudizio del medico che interpreta l'immagine e questa interpretazione poi, a sua volta può essere appresa da una macchina per aiutare a scegliere meglio.

In generale, l'utilizzo dell'intelligenza artificiale nel campo medico sta aiutando i medici a prendere decisioni più informate, a migliorare l'efficienza dei trattamenti e a migliorare la qualità della vita dei pazienti, rimane però sempre cruciale la posizione della figura del medico, la cui professionalità, capacità di vedere oltre alla singola situazione, leggere i dati nel contesto, rapportarsi con il paziente… che fa sì che l'insieme delle variabili da prendere in considerazione sia sempre più ampio, per poi restringerlo ed arrivare a trovare la cura migliore. Al momento quindi l'AI è uno strumento che aiuta ma non può e non deve prendere responsabilità.

La gratuità di ChatGPT o realtà analoghe come Humata e Tome è già finita?

MN: Se facciamo un ragionamento di puro mercato, Chat GPT si presenta come una attenta operazione di marketing: il suo ingresso ha incantato il mondo, le persone rimangono ipnotizzate davanti a quello che riesce a svolgere, in due mesi ha raccolto 100 milioni di utenti. L'effetto che ha generato questo successo ha fatto sì che molte aziende abbiamo cominciato a "spolverare" i progetti analoghi che avevano in casa e che tenevano da parte perché non ancora maturi. Di fatto ci siamo trovati davanti ad una situazione dove è partita una corsa nella quale non è importante avere il prodotto migliore ma quello di esserci. Questo ha scaturito una grossa accelerazione che ha portato anche alla stessa OpenAI (l'azienda dietro ChatGPT) finanziamenti importanti (in particolare Microsoft ha investito 10 miliardi di dollari per integrare la tecnologia nei propri sistemi e migliorarla) e quindi di prendersi del tempo per individuare il modello di sostenibilità finanziaria.

Allo stato attuale è nata la versione di ChatGPT plus che, al costo di 20 dollari al mese, garantisce l'accesso al servizio e non limita la lunghezza dei testi che genera. Le aziende che sviluppano software possono comunque poi, a loro volta, appoggiarsi al "motore" di ChatGPT per creare applicazioni verticali e destinate a precisi mercati, andando a loro volta a pagare OpenAI. Il nocciolo della questione è che ChatGPT ha dei costi di gestione altissimi (3 milioni di dollari al mese) e pertanto deve individuare dei modelli di sostenibilità economica. Esistono anche soluzioni alternative anche open source da poter installare "in casa", solo che, fra specifiche hardware, necessità di addestrare il sistema e correggerlo, infrastruttura su cui appoggiarsi ed altro ancora, l'investimento necessario è ancora molto alto e pertanto va valutata una grossa operazione di investimento.I

Lo stato attuale ci evidenzia che siamo davanti ad una tecnologia che ha dei costi altissimi di gestione fra consumi energetici (e relativo impatto ambientale) e manutenzione della piattaforma, e che, per continuare ad essere gratuita all'utente finale, necessità di individuare un modello di sostenibilità. Può essere che OpenAI riesca ad individuare il suo modello, credo comunque che sia importante ricordare che quando un servizio online gestito da privati è gratuito all'utente finale, in realtà dietro ha un modello di business per cui "il prodotto sono gli utenti stessi" che "pagano" con la loro presenza e con i loro dati personali accettando quanto la piattaforma propone perchè comunque lo ritengono utile ai loro scopi.

Di chi è il copyright del materiale creato da ChatGPT? 

MN: Partiamo intanto da un concetto fondamentale: il copyright - diritto d'autore - protegge la proprietà intellettuale, pertanto si tratta di uno strumento legale che difende il lavoro della creatività di una persona. ChatGPT non è una persona e quello che crea, per quanto possa affascinare è comunque il risultato di una aggregazione di testi che avviene in maniera automatizzata basata su valutazioni statistiche, quindi il concetto di copyright - allo stato attuale - è inapplicabile. Questo però apre comunque diversi dubbi che probabilmente saranno le sfide della definizione del copyright in futuro. In ogni caso, ChatGPT non è solo in grado di generare testo ma è anche un ottimo strumento per rielaborare testi (es. creazione di sintesi, o di domande/risposte ed altro) , la conseguenza di questo è che il prodotto che ne esce potrebbe essere comunque soggetto ai vincoli imposti dal testo iniziale che si è stato dato da analizzare.

Ulteriori considerazioni poi possono venire dal fatto che, ciò che produce ChatGPT, è comunque basato su testi che ha usato per essere addestrato. Su questi la posizione di OpenAI è che, ciò che è stato fornito per l'addestramento, è comunque libero da copyright (es. testi a 70 anni dalla morte dell'autore) o con licenze che ne permettono il riuso.

È possibile che i contenuti creati da ChatGpt siano accusati di plagio? 

MN: Gli autori di ChatGPT si sono posti questo problema ed hanno messo il vincolo di impedire che le elaborazioni vadano in questa direzione. In ogni caso, anche qui, la questione è abbastanza delicata in quanto ChatGTP assembla fra loro pezzi di testi e quindi, qualcosa, potrebbe essere visto come plagio. In ogni caso la piattaforma turnitin - la migliore al mondo per individuare casi di plagio nei testi - ha individuato valori di plagio sotto il 5%. 

Riprendendo in mano il libro “Homo Deus” di Yuval Noah Harari ho avuto l'impressione che le  nuove tecnologie stiano ormai spostando il baricentro della conoscenza dall'esperienza umana ai dati analogici. È vero e soprattutto sono due cose diverse o sono sempre due diverse declinazioni della stessa esperienza umana?

MN: Le nuove tecnologie stanno creando nuove esperienze e opportunità prima non note, cambiano il modo con cui ci confrontiamo con gli altri, ci avvicinano anche stando lontani e sono comunque un prodotto al nostro servizio nate dalle nostre esigenze. Proprio per quest'ultimo motivo, anche se possono ampliare la nostra conoscenza e le nostre esperienze, non sono assolutamente in grado di sostituire completamente la ricchezza e la complessità dell'esperienza umana.

Quindi non sarà possibile in futuro permettere ad algoritmi molto intelligenti di conoscerci meglio di quanto possono fare i nostri sé più coscienti?

MN: Prevedere il futuro non è mai facile, quello che si fa spesso è amplificare il presente e, in questo contesto, è abbastanza facile che gli algoritmi di AI diventino sempre più intelligenti. Probabilmente saranno in grado di conoscerci meglio, solo che difficilmente potranno essere in grado di anticipare la natura umana e allo stesso tempo noi stessi avremo una coscienza migliore su come rapportarci con loro.

Ti faccio un esempio nel calcio:la partita finisce ai rigori e siamo nella solita situazione attaccante contro portiere. Una intelligenza artificiale potrebbe essere in grado di individuare dove andrà il pallone, tralasciando il fatto che questa intelligenza potrebbe essere usata anche per chi calcia oltre chi per para, pensi che potrebbe essere in grado di capire lo stato d'animo della persona che sta per calciare? Di come sta vivendo quel momento? Di come lo ha vissuto in passato? Di cosa ha promesso a qualcuno se si fosse trovato in quell'istante? Del suo livello di affaticamento? Di tutte queste emozioni?Forse potrebbe farlo se, quel giocatore, si ritrova pieno di sensori ed con cui l'AI ha raccolto tutta la sua storia, il suo stato fisico, le sue emozioni … … ma poi avrebbe ancora senso quella partita di calcio?

La natura umana è complessa e le macchine sono ancora molto lontane per riuscire ad imitarla. 

Grazie mille per il tuo tempo e le tue spiegazioni Maurizio!

Alessandro Graziadei

Alessandro Graziadei


Nessun commento:

Posta un commento