Un modello definito Gpt-2 è stato creato dalla OpenAi.  OpenAI è un’organizzazione creata da Elon Musk nel 2015, abbandonata a causa di un conflitto di interessi lo scorso anno, il cui obiettivo è quello di sviluppare modelli di intelligenza artificiale (AI). L’azienda ruota attorno alle convinzioni di Musk sui potenziali svantaggi dell’IA non regolata e sull’impatto che potrebbe avere sull’umanità. Il magnate afferma anche che “Continuo a suonare il campanello d’allarme, ma finché la gente non vede i robot andare in strada a uccidere la gente, non sanno come reagire, perché il tutto sembra così etereo. “.

Il GPT-2 ha tra le sue funzionalità di scrivere brevi testi autonomamente, funzionalità che potrebbe avvantaggiare i produttori seriali di fake news e di campagne di spam. Gli sviluppatori hanno quindi deciso di aprire solo una versione ridotta del codice. La stessa OpenAI ha rilasciato un comunicato nel quale afferma di aver sviluppato un modello di intelligenza artificiale che è in grado di produrre fakenews senza l’intervento umano e che per questo motivo non rilascerà la versione completa a causa delle sue potenziali applicazioni dannose.

OpenAI ha creatoil suo ultimo modello, il GPT-2, basandosi su un set di dati composto da 40 GB di testo estratti da 8 milioni di pagine web. Ha anche oltre 1,5 miliardi di parametri, il che significa che ha utilizzato oltre dieci volte i dati e i parametri del suo predecessore, il GPT. Grazie a questa enorme mole di dati, GPT-2 è capace non solo di produrre testi, ma di argomentare creando delle tesi a sostegno delle affermazioni fornite dall’uomo. E’ addestrato a prevedere la parola successiva in base ai termini precedenti all’interno di un testo tramite machine learning.

 L’evoluzione di questa tecnologia, di cui OpenAI stessa non conosce i limiti, potrebbe portare a chatbot pressoché simili a essere umani.

La cosa interessante è che il GPT-2 ha prestazioni migliori rispetto ai modelli IA addestrati su sottogruppi specifici del dominio in vari test, raggiungendo un’accuratezza del 70,70% e del 63,24% rispettivamente nella Sfida dello schema di Winograd e nel LAMBADA. Anche se questo non è affatto vicino alle figure umane del 92% e del 95%, è decisamente migliore rispetto al precedente record AI del 63,70% e del 59,23%.

OpenAI ha rilasciato solo un documento tecnico relativo alla sua ricerca, una “versione ridotta di GPT-2” e alcuni codici di campionamento. I pesi di addestramento, il set di dati e i codici di allenamento non saranno resi pubblici. La società dice che, anche se non è sicuro che stia prendendo la decisione giusta, visto che gli esperti di dati potrebbero essere in grado di riprodurlo, spera che la sua ricerca aprirà le porte a discussioni più approfondite e competenti sulle potenziali applicazioni errate dell’intelligenza artificiale. Ha anche raccomandato ai governi di promuovere programmi che controllino l’impatto dell’IA sulla società e di monitorare la crescita dei sistemi di IA, al fine di sviluppare politiche difensive.