“Dovremmo lasciare che le macchine inondino i nostri canali di informazione di propaganda e false verità? Dobbiamo automatizzare tutti i lavori, compresi quelli che sono gratificanti? Dobbiamo sviluppare menti non umane che potrebbero un giorno essere più numerose, più intelligenti, renderci obsoleti e sostituirci?”
Lo sviluppo di IA generative come GPT-4 o altri servizi simili stanno generando molta preoccupazione e facendo nascere molte domande. Quello che leggete qui sopra è un breve estratto di una lunga lettera firmata da diversi dei più importanti esponenti del mondo tecnologico come Elon Musk o il co-fondatore di Apple Steve Wozniak, oltre che da ricercatori e da accademici.
Come spiega il sito Spider-mac, i firmatari si lamentano di una corsa fuori controllo per distribuire modelli sempre più potenti. I rischi, secondo gli addetti ai lavori, potrebbero essere difficili da anticipare e controllare. Ad aggiungere ulteriore apprensione il fatto che OpenAI, un’organizzazione senza fini di lucro il cui scopo è fare ricerche e sviluppare nuove versioni di intelligenze artificiali, abbia smesso di rivelare i segreti di fabbricazione dei suoi modelli.
La posizione di OpenAI in merito agli ultimi test fatti
I portavoce di OpenAI hanno dichiarato che gli ultimi test sul modello GPT-4 hanno dimostrato che il sistema non può “ribellarsi” o fare qualcosa di realmente pericoloso. Hanno però rivelato che il modello è riuscito a mentire e si è servito del sito TaskRabbit con l’intento di assumere persone che potessero aggirare i test captcha al suo posto.
Questa lettera, quindi, potrebbe aiutare ulteriormente ad alimentare il dibattito sul tema con l’obiettivo concreto di sottolineare l’importanza di un maggiore controllo e la necessità di protocolli di sicurezza, indipendenti e costantemente aggiornati.
Foto: Alessandro Viapiano / LaPresse