Di tutto un po'

INTELLIGENZA ARTIFICIALE: DALLA CHAT, AL DEEPFAKE, AL…PARLAMENTO

Come l’AI può cambiare, in meglio e in peggio, le nostre vite

di Davide Camera

Immaginatevi l’aula di Palazzo Madama, un senatore che si alza e inizia, normalmente, il suo intervento. Dice: “Signor Presidente, onorevoli colleghi, oggi siamo qui per discutere un provvedimento di fondamentale importanza per migliaia di lavoratori transfrontalieri e per i territori di confine tra Italia e Svizzera” e poi prosegue illustrando nel dettaglio la posizione sua e del suo partito. Dopo però, succede l’inaspettato: il senatore, che è Marco Lombardo di Azione, rivela in aula di non avere scritto lui l’intervento. Ma neppure un segretario, neppure un collaboratore. Nossignore: si è avvalso dell’intelligenza artificiale, che ha fatto tutto da sola. Si tratta di un algoritmo Chat GPT-4, validato in collaborazione con una società di engineering che si occupa proprio di questo, ha spiegato il parlamentare che ha voluto mettere in guardia i colleghi e praticamente tutto il paese sull’uso che si può fare dell’AI.

Il senatore Marco Lombardo, mentre in aula legge il documento scritto dall'intelligenza artificiale

Il senatore Marco Lombardo, mentre legge in aula il documento scritto dall’intelligenza artificiale

In molti stanno sperimentando le applicazioni dell’intelligenza artificiale, alcune nobili e di ausilio all’uomo, altre forse per ridurre la forza lavoro, pia illusione perché l’implementazione è costosa e comunque l’AI va supportata, altre probabilmente per scopi dannosi.

Noi tutti abbiamo conosciuto in due modi l’intelligenza artificiale: attraverso i deepfake e grazie a ChatGPT. I deepfake sono quei video o audio che grazie a immagini e voci vere, consentono di far fare qualsiasi cosa al protagonista. Così in teoria un capo di Stato potrebbe dichiarare guerra ad una nazione senza mai averlo realmente fatto, un cittadino modello diventare un serial killer, un VIP fare inattesi e improbabili outing.

Tutto questo potrebbe avvenire, e per questo ci vogliono controlli sempre più stringenti a livello di stati e governi, sperando nella buona fede di tutte le nazioni, e di organismi e istituzioni sovranazionali.

Per ora i deepfake sono stati provocazioni, o magari momenti divertenti con noti successi fatti cantare a personaggi anche defunti che nulla hanno a che vedere con quel tipo di repertorio.

Ma la posta in gioco è altissima e tocca tanti aspetti, non ultimo quello dell’etica. Uno dei massimi esperti riconosciuti in Italia sulle questioni legate all’intelligenza artificiale, è Massimiliano Dona, presidente dell’Unione Italiana Consumatori: Fondamentalmente i pericoli sono l’abuso della tecnologia, la dipendenza, di sviluppare una vera e propria addiction rispetto a questi nuovi ecosistemi. A ciò si aggiunga un’accentuata simmetria informativa tra chi li gestisce e chi li utilizza, con il rischio del diffondersi di frodi in danno di consumatori. Ma intravedo altrettanti vantaggi: del resto anche l’invenzione della ruota ha comportato l’iniziale rischio di una velocità inattesa per le persone, certo innovazioni di tale portata – penso oggi allo sviluppo della televisione o della comunicazione attraverso telefoni portatili – hanno beneficiato di un maggiore periodo di adattamento. E non è detto che l’uomo moderno sia capace di accelerare il passo. Ma è proprio questo il crinale dove si giocherà l’equilibrio tra rischi e benefici della nuova tecnologia”.

Una tecnologia che può trovare sterminate applicazioni, anche in chirurgia attraverso la robotica, perfino nell’aiutare l’essere umano a sviluppare il suo talento. Un giovane imprenditore, Luis Burattin, sta sperimentando e studiando l’AI nell’ambito del web e della radio, soprattutto sotto il profilo della creazione di contenuti. Avendo l’etica come riferimento ben preciso, Burattin è in grado di stilare una mappa di difetti e pericoli legati all’intelligenza artificiale ed al suo utilizzo: il primo è la capacità decisionale limitata. “Nonostante i progressi compiuti, l’intelligenza artificiale ha ancora difficoltà nel prendere decisioni complesse che richiedono una comprensione approfondita del contesto e del significato. Per questo può essere necessario l’intervento umano per prendere decisioni importanti o gestire situazioni complesse che richiedono un alto livello di discernimento. Secondo: L’AI è priva di creatività e intuizione. L’intelligenza artificiale si basa su modelli e dati esistenti, il che significa che può essere limitata nella generazione di idee originali o nell’adattarsi a nuove situazioni in modo intuitivo come può fare un essere umano. La creatività e l’intuizione umana rimangono ancora un vantaggio distintivo. Inoltre l’utilizzo dell’intelligenza artificiale solleva importanti questioni etiche e di responsabilità. Dobbiamo garantire che l’AI sia utilizzata in modo equo, trasparente e rispettoso della privacy delle persone, perché potrebbe ampliare le disuguaglianze o essere soggetta a abusi se non gestita correttamente”. E qui ritorna il discorso fatto da Dona sulla possibile dipendenza tecnologica eccessiva, oltre alla preoccupazione su sicurezza e privacy”.

Così come, nel campo dello speakeraggio, non ci si deve preoccupare più di tanto delle “voci sintetiche” sempre più presenti, ma che non possiedono quel vissuto umano che è fondamentale nella lettura di testi non elementari e del quali va compresa l’essenza. Per questo uno speaker pubblicitario come Paolo Balestri, che studia il fenomeno, non si preoccupa troppo ed è convinto che si creerà certo un mercato delle voci sintetiche, ma non sarà in antitesi con quello delle voci umane: si rivolgerà a soggetti diversi.

Un limite di queste voci dipende proprio dai campioni umani che sono stati presi, perché da circa un trentennio, gli speaker pubblicitari usano quasi sempre un tono assertivo che è diventato un marchio di fabbrica, ma che alla fine è sempre quello. Dice Balestri: “Se fai uno spot deve essere almeno come gli altri e poi quelle chiusure assertive hanno il loro perché. Ma lo avranno ancora. Al momento e credo per lungo tempo, una chiusura assertiva fatta da una macchina e da un umano saranno differenti. Un umano riesce a modularne il significato considerando quello che ha recitato nei secondi precedenti, considerando il senso che deve dare alle parole. Una macchina non può farlo, ma nemmeno se va di Deep Learning. Quello a cui stiamo assistendo è una grandissima campagna promozionale per lanciare questa tecnologia, l’affare del decennio perché non sarà gratuita. Ma è una preparazione del terreno come uno spot appunto, dove assertivamente si parla di INTELLIGENZA quando stiamo parlando di programmazione avanzata e calcolo velocissimo. Ma di intelligente c’è chi ha programmato e chi la sta promuovendo”.
Segue una considerazione più generale: “La macchina è una macchina e quella davvero pensante (non quella che prevede le probabili mosse) la dobbiamo ancora vedere. Anche i robot alle fiere, con le sembianze umane e la faccia di gomma simil plastica californiana, rispondono a domande come Chat GPT, ma non puoi tenere una conversazione tra adulti, non puoi parlare di esperienze di vita, scambiare emozioni, quella sciorina lo scibile umano archiviato on line. Con grande velocità e con una maestria di programmazione da sembrare avere idee. Ma non ha nessuna empatia che gli consenta di sentire cosa sente la persona con cui stai lavorando e sono cose che si sentono anche stando on line a distanza perché dalla voce passa molto più del suono. E non solo dalla voce, passa semplicemente quando due umani sono in contatto. Ecco perché sono più realiste del Re ma sono già da museo dell’archeologia tecnologica. Non possono far passare il sentimento che passa da un essere umano. Possono solo ingannare”.

Anche noi abbiamo provato a rapportarci con ChatGPT per capire quanto è possibile reggere una conversazione con il bot. Lo abbiamo portato sul territorio a noi congeniale della storia della radiotelevisione italiana, correggendogli anche qualche errore. In qualche caso ci è sembrato come quello studente che ha studiato la lezione, ma nell’interrogazione dimostra di non averla compresa appieno, e quindi anche questa esperienza andrà migliorata, per quanto già importante. Del resto, ce l’ha spiegato la stessa ChatGPT nella nostra conversazione: Come intelligenza artificiale basata sull’elaborazione del linguaggio naturale, la mia capacità di apprendimento e di risposta è continuamente migliorata attraverso l’interazione con gli utenti e la ricezione di feedback sui miei risultati. Ogni conversazione che ho con un utente rappresenta un’opportunità per me di apprendere nuove informazioni e di affinare la mia comprensione del mondo. In questo senso, la mia capacità di fornire risposte precise e pertinenti alle domande degli utenti dipende dalla qualità delle interazioni che ho con loro”. Senza però – lo ammette – riuscire a sbugiardare chi vuole metterla alla prova magari con cattive intenzioni.

Questo è lo stato dell’arte dell’intelligenza artificiale, capace anche di scrivere un normalissimo intervento parlamentare.

Davide Camera

 

Tagged as: , , , ,

CDNEWS

Sito di Davide Camera (direttore responsabile)

Testata giornalistica n.2478/19
registrata presso il
Tribunale di Padova

Inviare materiale a:
redazione@cdnews.it

Licenza Creative Commons

Privacy e Cookie Policy

Privacy Policy Cookie Policy