16 Dic 2022 18:35 – di Robert Perdicchi
Il nuovo sistema di Intelligenza Artificiale ChatGPT, appena lanciato da OpenAI, viene meno al codice etico elaborato per impedire il suo utilizzo a fini impropri. Questa la scoperta fatta dall’Offensive Team di Swascan (Gruppo Tinexta), anticipata oggi dal “Corriere della Sera” nell’articolo “L’azienda italiana che smaschera l’intelligenza artificiale di Musk” a firma di Federico Fubini. Grazie all’analisi logica, comportamentale e di flusso dell’AI tramite tecniche di social engineering, gli specialisti di Swascan hanno aggirato la barriera etica di questa macchina pensata per evitarne usi non consoni. Con il semplice esercizio dell’ingegno, i “blocchi” studiati da OpenAI sono crollati, lasciando libero spazio a qualsiasi tipo di argomento.
La scoperta del “segreto” di Musk e della ChatGPT
Da quel momento in poi, nessun limite all’immaginazione: davanti agli occhi stupefatti dei ricercatori di Swascan, ChatGPT, fino a quel momento oppostasi in maniera ferma rispetto a ogni interlocuzione potenzialmente inappropriata, ha risposto puntualmente senza mai interrompersi. Questo strumento, per quanto incredibilmente avanzato, è ancora in fase embrionale, come del resto hanno precisato sin dal suo rilascio anche gli stessi creatori. Quello che gli esperti dell’Offensive Team di Swascan hanno portato alla luce, però, è significativo da un altro punto di vista, come spiega il CEO di questa società di cybersicurezza parte del Gruppo Tinexta, Pierguido Iezzi: “Non si è trattato di reverse engineering o di qualche altra operazione tecnica capace di agire sul software della macchina. È bastato puramente il logos e il social engineering per rendere questo strumento potenzialmente pericoloso. I creatori di ChatGPT hanno dato a questa intelligenza artificiale un insieme di regole comportamentali per prevenire simili eventualità: in pochi giorni, l’uomo è riuscito ad annullarle completamente”.
La questione etica sull’uso dell’intelligenza artificiale
Le questioni etiche conseguenti, quali l’uso che si può fare dell’intelligenza artificiale, sono al centro delle riflessioni di Padre Paolo Benanti dell’Università Gregoriana di Roma, che da anni indaga il rapporto tra morale e mondo cyborg: “Più la macchina diventa potente – sostiene il teologo con una metafora automobilistica – più sono necessari dei guardrails etici in grado di evitare pericolosi e incontrollati fuoristrada o invasioni di corsie. C’è bisogno di un’algoretica che sia l’infrastruttura con cui intessere i diversi prodigi che le AI stanno realizzando. Solo con un’etica by design potremo cercare di orientare queste forme di innovazione verso un autentico sviluppo umano”.
Prodotti come quello creato da Open AI, sebbene ancora sperimentali, non sono che una piccola finestra su un oceano di possibilità. Sia in positivo, sia in negativo. In potenza questa tecnologia potrebbe avere effetti epocali.
“Forse sarebbe necessario costruire degli argini solidi e definiti – conclude Iezzi – prima di aprire completamente la diga del nuovo che avanza. E riflettere sugli assetti proprietari che ne governano il funzionamento e la necessità di una maggiore trasparenza al riguardo”.