Riassunto analitico
Nell’ambito dell’industria alimentare, la sempre crescente competitività di mercato determina la necessità di un continuo miglioramento dei sistemi di monitoraggio dei processi produttivi, prediligendo l’utilizzo di metodi rapidi, affidabili e non distruttivi. L’Imaging Iperspettrale (HSI) rappresenta una tecnica emergente che deriva dalla combinazione delle convenzionali tecniche di analisi dell’immagine e spettroscopiche. Questa tecnica, infatti, si basa sull’acquisizione di immagini dove ogni pixel è descritto da uno spettro completo, consentendo così di visualizzare la composizione chimica di campioni eterogenei in ogni loro punto, senza richiedere l'uso di prodotti chimici e mantenendo al tempo stesso i vantaggi di essere veloce e non distruttiva. Considerando che ogni immagine risulta quindi formata da milioni di spettri, l’analisi dei dati rappresenta la fase cruciale per l’estrazione dell’informazione utile dalla notevole quantità di dati a disposizione. La presente tesi di dottorato ha avuto quale tema centrale lo studio di applicazioni di tecniche HSI nell’industria alimentare mediante l’utilizzo e lo sviluppo di appropriati algoritmi chemiometrici. In questo contesto, particolare attenzione è stata rivolta a due punti decisivi nell’analisi delle immagini iperspettrali: la standardizzazione e la riduzione delle dimensioni dei dati. Per quanto concerne il primo aspetto, è stata sviluppata una procedura di calibrazione interna basata sull'utilizzo di cinque materiali di riferimento che consente di minimizzare la variabilità delle immagini nel tempo e di migliorarne quindi la riproducibilità. Il tema della gestione dell’elevata quantità di dati acquisiti dai sistemi HSI è stato invece affrontato in maniera più approfondita, in quanto attualmente rappresenta uno dei maggiori limiti di queste tecniche. Il fatto che singole immagini iperspettrali di dimensione superiore a 50 MB possano essere ottenute in pochi secondi pone infatti seri problemi, sia a livello di possibili applicazioni on-line che nell’ambito della gestione dei dati durante l’elaborazione di modelli di classificazione/calibrazione. Una prima strategia è stata quindi sviluppata per ridurre le dimensioni di un'immagine training composta da milioni di spettri in una matrice ridotta formata da un ristretto numero di spettri medi, calcolati usando pixel selezionati casualmente in modo da tener conto della variabilità spaziale all'interno dell'immagine analizzata. Una strategia di riduzione dei dati più elaborata è stata invece sviluppata per la gestione e l’analisi di dataset composti da un elevato numero di immagini iperspettrali. Tale approccio consiste nel codificare le informazioni utili contenute in ciascuna immagine tridimensione in un segnale monodimensionale, denominato iperspettrogramma, che può essere visto come un'impronta digitale dell’immagine stessa. Essenzialmente, l’iperspettrogramma è ottenuto da quantità estratte mediante Analisi delle Componenti Principali ed è composto da due parti, una che codifica l'informazione spaziale e una che codifica l'informazione spettrale. Rappresentando ogni immagine con un vettore di poche centinaia di punti, tale approccio consente di analizzare con comuni metodi di analisi multivariata fino a centinaia di immagini contemporaneamente. Inoltre, mediante l’uso di algoritmi di selezione di variabili è possibile identificare le zone del segnale più importanti per la risoluzione del problema in esame, consentendo così sia l’ottimizzazione dei modelli di classificazione/calibrazione, che una efficace valutazione critica dei risultati. Infatti, le caratteristiche selezionate automaticamente dall'algoritmo possono essere sia visualizzate sotto forma di immagini che analizzate nel dominio spettrale originale. L'efficacia di questo approccio è stata dimostrata considerando vari tipi di problemi riguardanti diverse tipologie di matrici alimentari.
|
Abstract
The increasingly normative severity and market competitivity have led food industry to constantly look for improvements of process monitoring systems. In the context of fast, non-destructive and reliable techniques, image analysis-based methods have gained particular interest, thanks to their ability to spatially characterize heterogeneous samples. In particular, HyperSpectral Imaging (HSI) represents an emerging technique that provides both spatial information of imaging systems and spectral information of spectroscopy. Compared with spectroscopic methods, HSI allows to acquire the spectral data not only from a single point but at each pixel of an image, enabling the visualization of the chemical composition of the sample surface without requiring the use of chemicals, and maintaining at the same time the advantages of being fast and non-destructive. Considering that each hyperspectral image is a three-dimensional array (known as hypercube) formed by millions of spectra, the use of chemometric tools is essential to segregate only the problem-pertinent information from the huge amount of data available.
This thesis deals with the study of food industry-related applications of HSI systems, through the application and development of appropriate chemometric algorithms for the extraction of useful information from hyperspectral images. In this context, particular attention has been paid to two crucial points of HSI analysis, i.e., image standardization and data size reduction. With regard to the former issue, a novel transfer calibration procedure based on the use of five reference materials was developed, in order to minimize the variability among images over time (mainly due to instrumental instability), which can heavily affect the quality of the hyperspectral images and, therefore, the subsequent analysis results. Concerning data reduction, this issue has been more extensively faced, since the large amount of data collected by HSI systems in few seconds (individual hyperspectral images of size greater than 50 MB are usually acquired), poses serious limits to real time applications, as well as to data handling during analysis and models developments. In this context, a first compression strategy was developed to reduce a training image composed by millions of spectra into a reduced matrix formed by a restricted number of average spectra, which are calculated using randomly selected pixels in a way to account for the spatial variability within the analyzed image. A more articulated data reduction strategy has been also developed, in order to give the possibility to deal with datasets composed by a large number of hyperspectral images. This procedure consists in compressing the useful information contained in each hypercube into a one-dimensional signal, named hyperspectrogram, which is derived from quantities extracted by means of Principal Component Analysis. Essentially, the hyperspectrogram can be viewed as a fingerprint containing the relevant information brought by the hypercube, and is composed by a first part accounting for the spatial information and by a second part accounting for the spectral information. By representing each image with a vector of few hundreds of points, this procedure enables to simultaneously analyze up to hundreds of images by means of common multivariate analysis methods. Furthermore, the application to the hyperspectrograms of variable selection algorithms allows to improve the calibration/classification performances, identifying at the same time the features which are most relevant in the problem at hand. The selected features can then be evaluated both as images and in the spectral domain, allowing the interpretation in chemical terms of the features automatically selected by the algorithm. The effectiveness of this approach has been shown in the solution of different kinds of problems concerning different types of food samples.
|