Riassunto analitico
I Modelli Linguistici di Grandi Dimensioni (LLM) dimostrano una notevole abilità nella generazione testuale, producendo elaborati che spesso simulano la complessità superficiale del linguaggio umano. Tuttavia, questa apparente fluidità può mascherare differenze fondamentali rispetto ai processi cognitivi e comunicativi umani. La presente tesi indaga criticamente tale divario, focalizzandosi sulla cruciale discrepanza tra la sofisticata competenza sintattica esibita dagli LLM e le loro persistenti lacune a livello semantico e pragmatico. Si argomenta come questa distinzione non sia una mera questione tecnica, bensì un nodo fondamentale per valutare l'effettiva "intelligenza" di questi sistemi e comprenderne i limiti intrinseci. Attraverso l'analisi linguistica comparativa (considerando accuratezza e coerenza), l'esame di casi studio emblematici che ne rivelano le fallacie e la discussione delle conseguenti implicazioni cognitive ed etiche, il lavoro mira a delineare un quadro analitico delle capacità e, soprattutto, delle insufficienze attuali degli LLM. Vengono evidenziati i rischi derivanti da un affidamento non mediato dalla critica umana e si sottolinea l'urgenza di sviluppare una governance consapevole e responsabile per orientare il futuro della linguistica computazionale e dell'inevitabile interazione uomo-macchina.
|
Abstract
Large Language Models (LLMs) demonstrate remarkable ability in text generation, producing outputs that often simulate the surface complexity of human language. However, this apparent fluency can mask fundamental differences compared to human cognitive and communicative processes. This thesis critically investigates this gap, focusing on the crucial discrepancy between the sophisticated syntactic competence exhibited by LLMs and their persistent shortcomings at the semantic and pragmatic levels. It is argued that this distinction is not merely a technical issue, but rather a fundamental point for evaluating the actual "intelligence" of these systems and understanding their intrinsic limitations. Through comparative linguistic analysis (considering accuracy and coherence), the examination of emblematic case studies revealing their fallacies, and the discussion of the resulting cognitive and ethical implications, this work aims to outline an analytical framework of the capabilities and, above all, the current insufficiencies of LLMs. The risks arising from reliance unmediated by human critique are highlighted, and the urgency of developing conscious and responsible governance to guide the future of computational linguistics and the inevitable human-machine interaction is emphasized.
|