I passi da gigante che sta facendo la tecnologia informatica, ormai, non meravigliano più nessuno e le enormi potenzialità che si nascondono dietro ogni nuova scoperta o, per essere più precisi, implementazione sono accettate senza condizioni. A meno di tre mesi dal rilascio, da parte di OpenAI, della tecnologia chiamata ChatGPT in molti, intuendo le enormi potenzialità dell’intelligenza artificiale utilizzata, si sono lanciati in test e prove sorvolando, purtroppo, i rischi che derivano da un progresso così potente che mette in ombra tutte le pietre miliari messe sull’autostrada che porta al futuro dai cosiddetti “assistenti personali”.

Ora, prima di entrare nei dettagli della domanda implicita nel titolo, cerchiamo di capire cosa è in realtà ChatGPT e come funziona. Un GPT è un modello per applicare la tecnologia Generative Pre-trained Transformer, letteralmente Trasformatore Generativo Pre-addestrato, che si basa su complesse reti neurali che lavorano, singolarmente, concentrandosi su uno degli aspetti della realtà che stanno analizzando. I modelli di Deep Learning (Apprendimento Profondo) per il riconoscimento delle figure, per esempio, sono costituiti da reti specializzate nell’analisi delle linee verticali e orizzontali, reti che elaborano informazioni sui colori e via discorrendo.

ChatGPT fa questo con il linguaggio e, dopo aver interpretato le parti e magari il senso della domanda, riesce a formulare una risposta linguisticamente corretta basata sulle informazioni che ha ottenuto scandagliando il web. Qualcosa di non tanto nuovo, in fondo, se pensiamo che semplici programmi di videoscrittura sono in grado, conoscendo lo stile del documento (tecnico, legale, commerciale, narrativo, eccetera), di predire la parola dopo aver scritto le prime lettere.

È intuitivo che un sistema in grado di generare una conversazione di senso compito corretta sotto il profilo grammaticale e che segua le regole della sintassi ha un potenziale enorme. In pochi secondi potremo avere articoli per i nostri blog, una lettera per dichiarare il nostro amore, una poesia per un caro amico, ma anche un contratto legale, una routine di codice in qualsiasi linguaggio di programmazione, per arrivare finanche alle barzellette.

L’altra faccia della medaglia, purtroppo, ha nomi che spaventano: disinformazione, pirateria informatica, terrorismo o peggio. Sull’argomento OpenAI, in un lungo e dettagliato documento, spiega di aver adottato la Tecnologia PALMS, acronimo di Process for Adapting Language Models to Society (Processo per l’adattamento dei modelli linguistici alla società) che, in caso di richieste su come compiere atti terroristici o altri delitti non solo non fornisce la risposta ma si spinge in una lunga spiegazione sul perché certe cose non debbono essere fatte.  Ciò non toglie che ChatGPT sia in grado di fornire una porzione di codice in grado di mettere al tappeto i sistemi di sicurezza informatica (già successo) o che a una specifica richiesta risponda attingendo alla disinformazione che circola sul web.

Il peggio a cui accennavo, invece, parte da una mia considerazione. Un sistema di Deep Learning richiede investimenti miliardari. Investimenti che in una logica di profitto devono dare ritorni economici adeguati. E in mancanza di una regolamentazione internazionale, concreta e, soprattutto immediata ci sono seri rischi che le tecnologie GPT possano essere usate per distorcere la realtà indirizzando verso fini che il nostro Bot riterrà leciti ma che leciti non lo sono.

La regolamentazione è fondamentale, ma non sono solo i governi ad avere un ruolo da svolgere reprimendo gli abusi. Spetta alle aziende che producono questa intelligenza artificiale, così come ai consumatori, agire con maggiore urgenza.

La tecnologia è qui per restare.