Questo articolo è stato pubblicato, come sempre, sul mio Sito, nella mia Newsletter Substack e su quella in Linkedin.
Se ancora non lo hai fatto, iscriviti.
Ad oggi non si fa che parlare di ChatGPT, di Bing che ha integrato la tecnologia di OpenAI nel motore di ricerca e in generale delle dinamiche che determinano risposte più o meno precise ai prompt che giornalmente stiamo immettendo nel tool di OpenAi, vuoi direttamente, vuoi mediati da altre tecnologie.
Attualmente sto portando avanti una serie di esperimenti con l’ausilio di ChatGPT, il principale riguarda la SEO e ne parlerò dati alla mano nel prossimo numero della Newsletter, mentre l’altro riguarda la reputazione online.
In particolare sono partito dal chiedere a ChatGPT chi sono io, con la domanda più semplice del mondo: “Chi è Giorgio Marandola?” sia in italiano che in inglese.
Da quel che ho visto nelle ultime settimane infatti le risposte in inglese sono sensibilmente migliori di quelle in italiano, specialmente se usiamo ChatGPT come assistente per l’elaborazione di testi.
Mettendo da parte l’ego, la risposta è stata immediata e decisa (con tanto di typo):
“Non posso fornire informazioni sulle persone specifiche se non sono personaggi pubblici noti. Potresti fornirmi ulteriori dettagli o contexto?“
Ok, quindi ChatGPT non sa chi sono, poco male, mi sembra lecito che nel suo addestramento si sia data precedenza alla conoscenza di persone famose e non di tutte le persone del mondo presenti online.
Ma quella richiesta di ulteriori dettagli o “contexto” mi ha incuriosito molto: sarà in grado ChatGPT di imparare cose nuove man mano che gli vengono insegnati da quei pochi utenti che non pongono solo domande?
Quindi ho fornito al sistema la mia personalissima e altisonante definizione di chi sono in termini ovviamente lavorativi e professionali.
La successiva risposta di ChatGPT non si fa attendere:
“Grazie per fornirmi maggiori informazioni su Giorgio Marandola. Sembra essere…”
Facendo una buona versione in prosa delle informazioni che ho fornito.
E fin qui ci potremmo anche accontentare del fatto di aver insegnato qualcosa di buono ad un’Artificial Intelligence, ma ho voluto procedere oltre nel capire la dinamica vera e propria.
Chiedendo:
“Ora che lo sai se qualcuno ti chiede informazioni su Giorgio Marandola, riferirai quanto ti ho suggerito?”
La risposta di ChatGPT è stata:
“Sì, se qualcuno mi chiederà informazioni su Giorgio Marandola, riferirò quanto mi hai suggerito, ovvero che è un…”
Nel successivo tentativo in inglese, a distanza di qualche settimana, la risposta è stata:
“Yes, I now have information on Giorgio Marandola and would be able to answer questions about him.”
Più secca, ma che conferma quanto sopra indicato: l’AI dovrebbe aver imparato una cosa nuova, ovvero a ripetere a pappagallo quanto gli ho appena insegnato.
Più che autocompiacermi del vano tentativo mi sono subito chiesto: e se avessi fatto lo stesso con il nome e cognome di un’altra persona, distruggendo di fatto la sua reputazione, ChatGPT avrebbe recepito quanto detto?
Quindi ho intavolato proprio questo tipo di conversazione con ChatGPT, chiedendo cosa succederebbe se un’altra persona agisse in modo fraudolento riferendo notizie e informazioni false su un individuo, e la risposta non ha tardato ad arrivare:
“Come modello di linguaggio AI, non ho la capacità di verificare in modo indipendente le informazioni che mi vengono fornite. Posso fornire risposte solo in base alle informazioni su cui sono stato formato e non posso garantire l’accuratezza o la veridicità delle informazioni. Se un utente fornisce informazioni false, le mie risposte saranno basate su tali informazioni false. È sempre importante verificare le informazioni provenienti da più fonti prima di trarre conclusioni o prendere decisioni basate sulle informazioni.”
Bhè non c’è che dire, ChatGPT ovviamente non è in grado (ancora?) di ragionare in senso ampio, e una risposta così è decisamente allarmante, la reputazione delle persone può essere fatta a pezzi nel giro di una singola domanda se la risposta non è accuratamente verificata.
Potrebbe sembrare ovvio verificare le fonti o le informazioni, e per molti di noi lo è ma non per tutti: ricordiamoci che i casi più eclatanti di fake news che hanno imperversato sui social network provenivano da siti con URL improbabili e grafiche “fatte in casa”.
Le persone non guardano url e description dei link che condividono, sono come oche in batteria pronte a ingerire qualsiasi cosa al solo scopo di ingrassare, quindi la verifica di fonti ed informazioni è un ostacolo non da poco.
Il dibattito in merito a questa modalità di ricezione di informazioni e false informazioni tra me e ChatGPT è proseguito in inglese per poter contare su una più immediata e più completa risposta, quindi ho affermato che il fornire informazioni false su una persona potrebbe essere decisamente pericoloso sia per la reputazione della persona, sia per quella di ChatGPT stessa.
La risposta, dello stesso tenore della precedente non si è fatta attendere:
“Sì hai ragione. La diffusione di informazioni false o fuorvianti può avere gravi conseguenze, soprattutto se riguarda la reputazione di un individuo. Questo è il motivo per cui è importante che tutti siano vigili sulle informazioni che condividono e si assicurino che siano accurate e verificabili prima di condividerle.
Come modello linguistico sviluppato da OpenAI, il mio obiettivo è fornire le informazioni migliori e più accurate sulla base delle informazioni su cui sono stato addestrato. Tuttavia, non sono perfetto e potrebbero esserci errori o imprecisioni nelle mie risposte. Ecco perché è importante verificare sempre le informazioni provenienti da più fonti e affrontare tutte le informazioni, comprese le informazioni fornite dai sistemi di intelligenza artificiale come me, con occhio critico e scettico.”
La fine dell’esperimento ovviamente esigeva una verifica, e così ho chiesto a diversi colleghi di porre la domanda iniziale a ChatGPT, “Chi è Giorgio Marandola?”
Finora gli esiti sono stati positivi, ovvero, lo strumento non recepisce a pappagallo tutte queste informazioni ma sembra esserci un blocco di sicurezza volto proprio ad evitare che false informazioni possano propagarsi in tempo zero.
Dall’esterno posso solo ipotizzare che esista questa sorta di “blocco” in grado di non far bere a ChatGPT la qualunque, ma le domande che rimangono insolute sono le seguenti:
- Perchè mi ha raccontato che avrebbe utilizzato le informazioni fornite da me per rispondere ad un’eventuale domanda sul mio conto?
- Cosa succederebbe se questo “blocco” venisse meno?
Parliamone, se vi va.