Riassunto analitico
L’intento del mio elaborato finale di tesi è stato quello di indagare come il rapido sviluppo dei moderni strumenti di intelligenza artificiale possa impattare sul settore dell’Editoria sul doppio versante metodologico e pratico. La trattazione si profila come strutturata in quattro capitoli così ripartiti. Il primo si occupa di ripercorrere le principali tappe storiche che hanno condotto ai moderni strumenti di deep learning. A partire dalle teorizzazioni di Alan Turing sulla questione dell’imitation game, sino alle odierne ripartizioni tassonomiche che contrappongono machine e deep learning come specifici meccanismi di apprendimento delle reti neurali artificiali. A tal fine è stato utile ricorrere alle teorizzazioni che descrivono l’architettura di queste reti e alle funzioni di calcolo matematiche che ne governano il funzionamento. Il secondo capitolo circoscrive l’area di indagine ai modelli di deep learning, proponendosi di descriverne caratteristiche e procedure di calcolo. Sono state individuate le principali reti neurali che operano secondo tali meccanismi, con un particolare affondo sull’evoluzione dalle reti neurali ricorrenti, ai moderni transformer. I modelli transformer sono infatti direttamente correlati alla disciplina del Natural Language Processing (NLP), quale ambito di studi dell’intelligenza artificiale improntato all’analisi ed elaborazione dei dati del linguaggio naturale e direttamente indirizzato allo sviluppo di Large Language Models (LLM), ovvero modelli atti alla comprensione di contesto e significato degli elementi situati in stringhe testuali. Il terzo capitolo vuole quindi incentrarsi sull’analisi delle possibili applicazioni concrete di tali modelli di NLP all’interno del flusso editoriale. Ad essere indagate sono le attività che pertengono la generazione di contenuti testuali e di carattere “creativo”, la correzione dei documenti a livello grammaticale, sintattico e semantico, la traduzione e, trasversalmente, la sintesi vocale (text to speech), le quali possono essere auspicabilmente implementate dalle intelligenze artificiali. Ad avvalorare questa analisi contribuiranno le evidenze raccolte durante lo svolgimento di un tirocinio curricolare in casa editrice, dove mi è stato possibile visionare in prima persona alcune applicazioni pratiche di questi tool. L’intento dell'elaborato è quello di delineare come gli strumenti basati su modelli linguistici di grandi dimensioni (LLM), atti all’elaborazione di stringhe testuali, possano essere utilizzati per implementare i processi editoriali. A tale sezione applicativa si è voluta affiancare la riflessione in merito a come la generazione di contenuti, primariamente editoriali, da parte delle intelligenze artificiali si collochi rispetto alla nozione di creatività, quale atto generativo spiccatamente umano poiché riferito alla fruizione di una esperienza di vita quotidiana, sociale e affettiva, non esperibile dal calcolatore. Il quarto capitolo vuole in ultimo soffermarsi sulle implicazioni etiche, sociali e organizzative di tali applicazioni, interrogandosi su quali possano esserne i benefici, senza per questo dimenticare i rischi, prima di tutto occupazionali e deontologici che il ricorso a tali strumenti comporta. Una disamina che si propone di fornire un quadro complessivo della questione e di esaminare i più vistosi interrogativi relativi sia al versante legale, rispetto al dibattito in atto circa la messa in discussione della tradizionale nozione di proprietà intellettuale, che a quello etico, non potendo prescindere dal considerare come l’ausilio fornito da tali strumenti non debba sfociare in aprioristiche esclusioni dell’intervento decisionale umano.
|