2024-03-29T00:23:23Z
http://morethesis.unimore.it/ETD-db/NDLTD-OAI/oai.pl
oai:morethesis.unimore.it:etd-02032012-215050
2013-01-21
dtype:D1
dtype:PhD
Generazione di frequenza per applicazioni satellitari e a onde millimetriche
LUCCHI, PAOLO
CMOS
IC
mm-Wave
PLL
VCO
Il lavoro di ricerca presentato in questa tesi è incentrato sulla progettazione di circuiti integrati a radio frequenza in tecnologia CMOS. In particolare l’impegno e’ stato focalizzato sui circuiti per la sintesi di frequenza (circuiti ad aggancio di fase) per ricetrasmettitori. L’attenzione è incentrata sulla progettazione dei blocchi più critici come oscillatori controllati in tensione (VCO) e divisori di frequenza.
La prima parte della tesi presenta le linee guida per la progettazione di LC VCO a resistenza negativa e la progettazione di un oscillatore in quadratura controllato in tensione (QVCO) a 15GHz. Quest’ultimo rappresenta il contributo alla realizzazione di un sintetizzatore di frequenza a 15GHz in tecnologia CMOS 130nm per applicazioni satellitari
in collaborazione con il Politecnico di Nizza (Sophia Antipolis, Francia). La seconda parte della tesi riporta il contributo alla realizzazione di un sintetizzatore di frequenza a 60GHz in tecnologia CMOS 65nm in collaborazione con i laboratori LAAS (Tolosa, Francia) per reti senza fili ad alta velocità e corta distanza WPAN. In particolare la progettazione dei blocchi a onde millimetriche come l’oscillatore e i primi due blocchi della catena di divisione. Per quanto riguarda i divisori di frequenza sono state utilizzate due topologie Injection-Locked per la efficacia ad alte frequenze e il loro basso consumo. Il prescaler é stato realizzato con una topologia oscillatore a risonatore LC sincronizzato e il secondo blocco con oscillatore ad anello sincronizzato. Il VCO è stato realizzato a resistenza negativa. Tutti i circuiti sopracitati sono stato testasti con successo.
Modena & Reggio Emilia University
BORGARINO MATTIA
BEGUERET JEAN-BAPTISTE
2012-02-13
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02032012-215050/
it
unrestricted
Copyright information available at source archive
ING-INF/01
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02202012-101015
2013-01-21
dtype:D1
dtype:PhD
Accesso basato sulla conoscenza al mercato elettronico delle PMI
MARTINELLI, LUCA
networking
electronic_market
document_exchange
rfid
sme
Lo scopo di questa tesi è descrivere gli studi che sono stati effettuati nel campo della collaborazione e scambio di informazioni tra aziende di piccole e medie dimensioni, possibilmente appartententi a settori differenti e localizzazate in regioni differenti.
Lo scopo finale di questo lavoro è fornire a queste organizzazioni una serie di servizi web, economici di facile utilizzo che consentano loro di agire in maniera competitiva all'interno del mercato elettronico sorpassando le attuali barriere di tipo tecnologico, culturale e linguistico. La tesi è divisa in tre sezioni: 1.Gestione Autonomica delle reti di piccole imprese. Questa sezione descrive il comportamento di una piccola azienda che opera in un ecosistema di aziende. Operando all'interno della rete, l'azienda può assumere di volta in volta il comportamento di azienda leader, azienda fornitrice, oppure entrambi. Al fine di facilitare l'operato di queste tipologie di aziende in particolare per assicurare una risposta veloce agli ordini dei clienti, è stato sviluppato un nuovo ambiente operativo composto da un'insieme di servizi e applicazioni software. L'approccio autonomico consente alla rete di aziende di poter utilizzare: pianificazione distribuita, schedulazione individuale e gestione delle eccezioni senza l'intervento umano consentendo al contempo ad ogni membro della rete è messo nelle condizioni di modificare il suo comportamento nei confronti della rete stessa. 2. Interscambio di documenti Logistici Questa sezione mostrerà le tecniche che sono state studiate e create per facilitare lo scambio di documenti tra aziende collaboratrici nel campo della logistica e del trasporto. Questo include tra le altre cose: il processo di costruzione e uso di una Ontologia Logistica con supporto multilingue, una collezione di strumenti software per garantire le opportune conversioni di formato and trasformazione di contenuti dei documenti logistici scambiati, una serie di funzionalità per l'importazione e l'esportazione automatica dei documenti da/verso i sistemi informativi aziendali esistenti. L'ultima sezione della tesi riguarda lo studio e le sperimentazioni sull'adozione massiva della tecnologia RFID da parte di PMI per l'identificazione e il tracciamento dei prodotti che sono sottoposti a successive movimentazioni e fasi di lavorazione. In questa sezione sono descritti due interessanti casi di studio, uno deriva dal progetto europeo RFID-ROI-SME e l'altro dal progetto regionale E-FASHION. Questi due casi pilota forniscono la prova degli effetti tangibili che la tecnologia RFID può portare alla aziende che operano in settori differenti.
Modena & Reggio Emilia University
BONFATTI FLAVIO
2012-03-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02202012-101015/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02142012-133514
2013-01-21
dtype:D1
dtype:PhD
Caratterizzazione e simulazione numerica di HEMT in GaN per applicazioni di potenza e innovative
DI LECCE, VALERIO
simulations
reliability
p-channel
HEMTs
GaN
Negli ultimi decenni il mercato tecnologico ha visto una evoluzione sempre crescente nella direzione di applicazioni ad alto contenuto informativo, quali la telefonia mobile, comunicazioni broadband/multiband o satellitari, oltre ad applicazioni militari come i radar o applicazioni in ambienti estremi. Le specifiche richieste ai dispositivi deputati a soddisfare queste esigenze sono una elevata velocità di trasmissione, una elevata efficienza, e la possibilità di operare a maggiori frequenze e a maggiore potenza. In questa ottica, due materiali hanno attirato massicci investimenti per le loro attraenti proprietà in questo senso: il Nitruro di Gallio (GaN) e il Carburo di Silicio (SiC). Il loro ampio bandgap li rende due ottimi candidati, ma è la grande versatilità del GaN ad avvantaggiare questo composto, grazie alla sua possibilità di formare eterogiunzioni con altri nitruri del gruppo III e al suo bandgap diretto, dando così vita ad un’ampia varietà di sistemi per applicazioni sia elettroniche che ottiche. Nel corso degli anni l’affidabilità dei dispositivi in GaN è stata oggetto di numerosi studi, e diverse soluzioni tecnologiche sono state studiate per ovviare ai problemi riscontrati sia in funzionamento dc che in frequenza. L’adozione di field-plate, ad esempio, ha permesso di migliorare le caratteristiche di breakdown di tali dispositivi, mentre la passivazione si è dimostrata efficace nel migliorarne le prestazioni RF.
Ad oggi svariati dispositivi basati sui nitruri del gruppo III hanno attirato l’attenzione della comunità scientifica. I diodi in GaN hanno dalla loro un’alta tensione di breakdown e un’alta velocità dei portatori; le applicazioni di potenza quali switch RF, convertitori dc-dc, nonché l’amplificazione di segnali RF rappresentano i principali campi in cui gli HFET in AlGaN/GaN trovano applicazione grazie all’alto breakdown, alla capacità di operare ad alte temperature e alle alte correnti sostenute. Diversi restano tuttavia i problemi di affidabilità, tra cui i fenomeni di degradazione osservati sia durante il funzionamento in continua, sia a radiofrequenza. Da tempo nuovi studi e nuove ricerche vengono costantemente portati avanti per ottenere un quadro sempre più ampio ed esaustivo dei fenomeni fisici che compromettono l’operatività di questi dispositivi.
In questa tesi verrà investigata l’affidabilità degli HEMT in GaN sia sul fronte del funzionamento dc sia a radiofrequenza, tramite analisi sperimentali e simulazioni, in modo da identificare e spiegare i nuovi fenomeni osservati, aggiungendo ulteriori tasselli allo studio dell’affidabilità degli HEMT in GaN. Verranno inoltre investigate le possibilità di applicazioni innovative dei nitruri del gruppo III, e in particolare del GaN: da una parte le attraenti proprietà fisiche, dall’altra la libertà di ingegnerizzazione, rendono interessante la prospettiva di strutture deputate alla conduzione per lacune, nella prospettiva di ottenere degli HEMT in GaN a canale p: finora, nonostante previsioni teoriche promettenti, l’osservazione di lacune nel nitruro di gallio è stata sporadica, pertanto verrà studiata la possibilità di ottenere un gas bidimensionale di lacune in nuove strutture basate sui nitruri del gruppo III. Verranno studiate inoltre le proprietà dell’ossido di alluminio come dielettrico di gate ad alta costante dielettrica su GaN, da una parte per le basse correnti di leakage consentite, e dall’altra per verificare la possibilità di ottenere un gas bidimensionale di lacune in strutture con GaN di tipo p.
Modena & Reggio Emilia University
CHINI ALESSANDRO
VITETTA GIORGIO MATTEO
2012-03-16
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02142012-133514/
it
unrestricted
Copyright information available at source archive
ING-INF/01
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02222012-111305
2013-01-21
dtype:D1
dtype:PhD
Tecniche di Data Management per Applicazioni Active RFID
HAIDER, RAZIA
IntruderLocalization
Data-Management
Data-Aggregation
Probabilistic-Models
RFID
Negli ultimi anni, la tecnologia RFID sta guadagnando una certa popolarità grazie alla
sua capacità di rilevare oggetti e persone dotati di piccoli tag in un ambiente
attrezzato di antenne e lettori RFID. Le applicazioni RFID spesso si basano sull'omonima tecnologia
per gestire eventi di alto livello, come il tracciamento della posizione di prodotti in una suply-chain, il monitoraggio della posizione e lo stato dei pazienti in ambiente ospedaliero, servizi di localizzazione di intrusi, e così via. Una
relazione fondamentale per questi scopi è la posizione di persone e oggetti nel
tempo. Tuttavia, il flusso di dati RFID è per natura rumoroso, ridondante e inaffidabile
e quindi questo flusso di basso livello deve essere trasformato in una sequenza temporale di istanze di posizione. Inoltre, le applicazioni RFID di solito producono enormi quantità di dati che possono raggiungere in casi pratici la dimensione di un gigabyte in un giorno.
Questa tesi presenta la progettazione, realizzazione e valutazione sperimentale di un sistema in tempo reale che risolve i problemi di gestione dei dati RFID
suddetti.
Il sistema è dotato di un modulo per l'acquisizione dati e la gestione dell'incertezza basato
su modelli probabilistici che è in grado di trasformare il flusso di dati grezzi provenienti da tag RFID in informazioni probabilistiche, che risultano significative per le applicazioni o dalle quali è possibile estrarre informazioni di interesse.
Inoltre, per gestire i grandi volumi di dati generati da applicazioni RFID,
questa tesi propone un semplice meccanismo on-line che è in grado di riassumere quantità massicce di dati in streaming pur
preservando la significatività delle informazioni trasmesse.
Infine in questa tesi abbiamo anche progettato e realizzato un programma per la localizzazione di intrusi. Si tratta della prima proposta di utilizzo congiunto di telecamere
e RFID in tempo reale su vaste aree aperte, rumorose e complesse.
A questo scopo nella tesi viene proposta una nuova architettura e vengono sviluppati algoritmi specifici che sono stati testati su casi reali.
Modena & Reggio Emilia University
MANDREOLI FEDERICA
VITETTA GIORGIO MATTEO
2012-03-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02222012-111305/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02172012-183452
2015-04-28
dtype:D1
dtype:PhD
Architetture collaborative per intrusion detection
MESSORI, MICHELE
network
mobile
information
distributed
security
La vasta diffusione di nuove minacce alla sicurezza della reti e i moderni attacchi su larga scala pongono nuove sfide per la protezione di reti e sistemi. Vi è quindi una forte necessità di infrastrutture per la sicurezza informatica che siano in grado di identificare intrusioni e nuovi malware il più presto possibile. In particolare, riteniamo che gli approcci di monitoraggio distribuito siano i più adatti per reagire alle minacce intrinsecamente distribuite, come i malware auto-replicanti e le intrusioni che sfruttano vulnerabilità ampiamente diffuse.
In questo lavoro presentiamo architetture collaborative adatte a grandi reti informatiche e in contesti di mobilità. I contributi principali di questa tesi sono tre.
1) Introduciamo una nuova architettura adatta alle reti di grandi organizzazioni che sfrutta schemi di cooperazione gerarchica e peer-to-peer tra Network Intrusion Detection Systems (NIDSs) distribuiti. L'obiettivo principale è di facilitare la cooperazione tra reti differenti riducendo il numero di allarmi e garantendo la privacy.
Queste caratteristiche permettono all'amministratore di sistema di concentrarsi sui pochi allarmi che rappresentano una vera minaccia per l'infrastruttura controllata e di essere informato sulle intrusioni più pericolose, anche prima che il proprio dipartimento venga attaccato. Inoltre, tali funzioni permettono di limitare le informazioni condivise riguardanti dati sensibili mediante la configurazione delle politiche di privacy.
2) Proponiamo una nuova architettura distribuita per la rilevazione di cyberattacchi e di intrusioni informatiche, basata su Distributed Hash Tables (DHT) e Complex Event Processing (CEP). I principali moduli di questa architettura sono: le sorgenti di eventi, geograficamente distribuite tra differenti organizzazioni; il layer di collaborazione, realizzato mediante una DHT; e il motore di analisi utilizzato per il CEP (CEP engine). L'architettura progettata supporta differenti CEP engines e non è vincolata ad una specifica logica di analisi degli eventi. Il prototipo da noi realizzato è stato validato in un realistico scenario di attacco Man-in-the-Middle.
3) Consideriamo i contesti mobili, che stanno affrontando una rapida diffusione di nuove minacce. Abbiamo trovato una nuova tipologia di attacchi, definita mobility-based NIDS evasion technique (tecnica di evasione di sistemi NIDS basata sulla mobilità), che permette ad un utente malintenzionato di sfruttare la mobilità dei nodi per compiere attacchi alla rete che passino inosservati. Tali attacchi non sono rilevabili nemmeno da NIDS allo stato dell'arte capaci di compiere analisi stateful. In particolare, questi attacchi prendono di mira gli eventi di roaming dei nodi mobili ed affliggono tutti i protocolli che supportano la mobilità in modo trasparente, come il Wi-Fi, il Mobile IPv4 e il Mobile IPv6.
Noi introduciamo una nuova strategia di difesa basata sullo scambio delle informazioni interne tra NIDS installati in reti differenti. Abbiamo progettato ed implementato un framework completo, basato su Snort, in grado di supportare i più diffusi protocolli per la mobilità. Il design modulare garantisce un' ottima flessibilità in termini di installazione e di future estensioni atte a supportare eventuali nuovi protocolli. L'analisi delle prestazioni effettuata in uno scenario realistico dimostra l'efficacia e l'efficienza della soluzione proposta, che rappresenta un chiaro avanzamento dello stato dell'arte.
Modena & Reggio Emilia University
COLAJANNI MICHELE
VITETTA GIORGIO MATTEO
2012-03-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02172012-183452/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02202012-103603
2013-01-21
dtype:D1
dtype:PhD
Approcci basati su agenti e semantica per lo sviluppo di infrastrutture per scenari intelligenti
DOMNORI, ELTON
semantic
search-engine
coordination
healthcare
multi-agent
L'attività di ricerca presentata in questo lavoro copre due diversi argomenti: approcci basati sulla semantica e sugli agenti per sviluppare infrastrutture per scenari intelligenti. Il primo argomento riguarda i motori di ricerca basati sulle parole-chiave e il secondo sistemi multi-agente per la gestione delle emergenze territoriale.
Le interrogazioni basate su parole-chiave su database relazionali offrono una ottima alternativa al tradizionale SQL, specialmente quando si ha a che fare con schemi aventi viste grandi, complessi e non noti. La vera sfida e quella di modellare l'associazione delle parole-chiave, che fanno dell'interrogazione, con alcuni elementi della struttura del database. Gli approcci attuali usano tecniche di “information retrieval” su insiemi di dati precedentemente raccolti e indicizzati. Questa tecnica o limita l'utilizzo dei motori di ricerca in molti scenari applicativi, incluso i sistemi informativi di integrazione, nelle quali l'istanza non è direttamente disponibile per costruire gli indici necessari. Per questo motivo è stato proposto un nuovo approccio che sfrutta solo informazioni sui dati ed impiega una serie di informazioni ausiliarie per la conversione delle parole-chiave in una espressione SQL significativa. Le meta-informazioni vengono estratte dai DBMS ed arricchite da operatori oppure con strumenti automatici sfruttando ontologie note come WordNet. La novità sta nella modo in cui ogni parola-chiave viene mappata ad un elemento dello schema relazionale. Alla base di questa tecnica vi è una versione modificata dell'algoritmo Hungarian che riduce notevolmente il numero delle interpretazioni da considerare. Per ogni interpretazione vengono costruiti i possibili percorsi che connettono gli elementi relazionali e per ogni percorso il codice SQL per l'accesso ai dati. Un prototipo munito di interfaccia grafica è stato sviluppato per effettuare i test ed illustrare le valutazioni sulla efficienza ed efficacia.
Il secondo argomento di ricerca riguarda il coordinamento e la cooperazione durante le emergenze territoriali mediante la tecnologia multi-agente. La gestione dell'emergenza territoriale è una delle attività più critiche nel sistema sanitario. In questo scenario, è necessario un tempo di risposta molto veloce per ridurre i danni alle persone e poter salvare più vite possibili. La complessità delle operazioni richiede coordinamento, cooperazione e capacità decisionali. Molti sono gli attori in questo scenario, come personale medico e paramedico, vigili del fuoco e forze di polizia. Tutti questi attori devono cooperare e collaborare per raggiungere i loro obiettivi. Per soddisfare questi requisiti è stata utilizzata la tecnologia multi-agente ed in particolare la piattaforma JADE. La nuova architettura, chiamata Ubimedic2 (un estensione di Ubimedic), fornisce una sistema P2P gestito dagli Agenti le quali autonomamente scambiano le informazioni necessarie ed organizzano le operazioni di soccorso. Questo approccio e nuovo e non è stato adottato precedentemente nell'ambito delle emergenze territoriali. Gli agenti scambiano informazioni mediante messaggi FIPA ed organizzano le operazioni basandosi sul modello DBI (Belief-Desire-Intention). Ogni componente dell'architettura è stato sviluppato con le funzionalità che deve mettere a disposizione. Basandosi sull'architettura disegnata, è stato sviluppato un framework in Java con una serie di interfacce per poter simulare scenari reali. Inoltre, sono state sviluppate due applicazioni per smart-phone per effettuare test su dispositivi reali. Infine, è stata fatta l'integrazione con la tecnologia PIM per migliorare il processo di coordinamento tra gli agenti riducendo il numero dei messaggi scambiati e compattando il codice usando la mobilità forte del codice.
Modena & Reggio Emilia University
LEONARDI LETIZIA
GUERRA FRANCESCO
VITETTA GIORGIO MATTEO
2012-03-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02202012-103603/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02132012-122735
2013-01-21
dtype:D1
dtype:PhD
Green Vision e Sistemi Embedded
SANTINELLI, PAOLO
visione
telecamere
sensori
rfid
reti
L’argomento di ricerca descritto in questa tesi di Dottorato tratta temi che comprendono l'architettura hardware e software dei sistemi embedded, le telecamere intelligenti alimentate a batterie, le reti di sensori eterogenei e le relative applicazioni nel campo della computer vision; sono affrontate le problematiche legate alla limitata disponibilità di risorse quali: potenza di calcolo, memoria ed energia, le questioni relative al contenimento dei consumi energetici e l'implementazione di algoritmi di computer-vision e di metodologie che mirino ad aumentarne l'efficienza energetica. Si farà riferimento a tutti questi argomenti con il termine Green-Vision. Questa tesi descrive alcuni casi di studio relativi ai sistemi embedded e alle reti di sensori eterogenei nel contesto della Green Vision:
1) La progettazione e lo sviluppo di un sistema a basso costo per la determinazione della luminanza di velo basato sull'utilizzo di un sensore d'immagine CMOS e di un System on Chip (SoC) interamente implementato su FPGA. I vantaggi di questa implementazione includono la riduzione della complessità dell'hardware, minori consumi di energia e maggiore flessibilità. Il problema delle immagini ad elevata dinamica è stato affrontato con acquisizioni multiple a diversi tempi di esposizione. Gli errori di vignettatura e di distorsione radiale e la ponderazione angolare, come richiesto dalla definizione di luminanza velo, vengono gestiti attraverso l'impiego di una singola tabella di numeri interi.
2) Il confronto delle prestazioni dei due più avanzati algoritmi per l'etichettatura delle componenti connesse di un'immagine. Gli algoritmi sono stati implementati su architettura SoC realizzata su FPGA. In particolare, si è utilizzato per il test un algoritmo avanzato che effettua il labeling a blocchi impiegando alberi e tabelle decisionali. I risultati sottolineano l'influenza e l'importanza delle dimensioni della cache-dati sulle attività di elaborazione delle immagini.
3) Lo studio di metodologie che mirino ad accrescere l'efficienza energetica e la durata delle batterie per le telecamere intelligenti. Tali metodologie si basano su un miglior utilizzo del sensore di immagine effettuando in hardware operazioni solitamente realizzate via software. L'uso di queste tecniche riduce ed ottimizza la quantità di dati che ad ogni fotogramma viene trasferita dal sensore di immagine alla memoria principale della telecamera. Ciò determina una riduzione del 41,24% dei consumi energetici e un aumento del 107,2% della durata delle batterie nel caso della telecamera impiegata.
4) Per quanto concerne le reti di sensori eterogenei viene presentata una procedura per la mutua calibrazione di un sistema di telecamere embedded senza fili e di Dispositivi ad Identificazione tramite Radio Frequenza (RFID) per la localizzazione e l'identificazione di persone al fine di eseguire il rilevamento intrusi in ampie area all'aperto. Tale procedura si basa su di una fase di apprendimento in cui una sola persona dotata di tag RFID si muove nella scena. I risultati dimostrano che questa calibrazione è sufficientemente precisa e può essere applicata in scenari diversi in cui è necessario determinare in modo efficiente la zona di sovrapposizione tra il campo di vista di una telecamera e l'area di sensibilità di un sensore non visivo. Mentre i punti 1, 2, 4 sono stati studiati presso il laboratorio di ImageLab, DII, in collaborazione con aziende locali, la ricerca relative al punto 3 è stata effettuata in collaborazione con lo Smart Vision System Laboratory, Università Nebrasca-Lincoln, NE, USA.
In conclusione, questa tesi ha permesso di esplorare le potenzialità di dispositivi embedded per Green Vision affrontandone alcuni dei problemi più impegnativi come l'efficienza energetica, l'implementazione di algoritmi ad alte prestazioni su architetture flessibili come FPGA e la fusione di sensori eterogenei finalizzata ad applicazioni di alto livello.
Modena & Reggio Emilia University
CUCCHIARA RITA
VITETTA GIORGIO MATTEO
2012-03-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02132012-122735/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02052012-163635
2013-03-01
dtype:D1
dtype:PhD
Generazione di frequenza per applicazioni a onde millimetriche in tecnologia CMOS
MONACO, ENRICO
CMOS
Frequency-Doubler
Integrated-Circuits
mmWave
VCO
Nel prossimo futuro nuove applicazioni elettroniche, operanti nella banda delle onde millimetriche (30GHz-300GHz), ci consentiranno comunicazioni senza fili sempre più veloci, sistemi per aumentare la sicurezza nel campo automotive e nuovi scanner per la ricostruzione di immagini, utili in ambito diagnostico, industriale e per la sicurezza. Affinché queste applicazioni possano diventare pervasive come lo sono gli attuali telefoni cellulari e personal computer è necessario che i circuiti elettronici vengano realizzati con tecnologie CMOS. Queste tecnologie portano vantaggi in termini di costo, ma d’altro canto introducono anche diverse sfide nel campo della progettazione di circuiti con prestazioni adeguate.
La parte iniziale della tesi presenta una panoramica delle future applicazioni ad onde millimetriche (mm-Waves). Queste sono suddivise in tre categorie: comunicazioni wireless, sistemi radar per automobili e sistemi per la ricostruzione di immagini a onde millimetriche.
La progettazione e realizzazione di circuiti con tecnologie CMOS in grado di soddisfare alle varie specifiche richieste risulta essere particolarmente ardua. In questo lavoro di tesi vengono principalmente trattate le difficoltà insite nella generazione di frequenza. Gli oscillatori risultano infatti essere circuiti fondamentali in ogni rice-trasmettitore e presentono a tutt’oggi problematiche ancora aperte.
Ad onde millimetriche la generazione di oscillazioni in quadratura, fondamentali in architetture di ricevitore a conversione diretta, presenta particolari difficoltà dovute principalmente ai compromessi tra consumo di potenza, purezza spettrale, precisione di quadratura e intervallo di accordo. Nell’ambito del dottorato è stato proposto un nuovo circuito basato su due oscillatori controllati in tensione e accoppiati magneticamente l’uno all’altro. Questa soluzione presenta una frequenza di oscillazione dipendente dai soli componenti passivi e permette di raggiungere, rispetto a quanto riportato in letteratura, un basso rumore di fase e allo stesso tempo una buona precisione di quadratura. È stato realizzato un prototipo in tecnologia 65nm CMOS che presenza un intervallo di accordo tra 56GHz e 60,4GHz con un rumore di fase inferiore a -95dBc/Hz a 1MHz di offset e con un errore di quadratura inferiore a 1,5 gradi. Il consumo di corrente è di 22mA con una tensione di alimentazione di 1V.
Nella continua ricerca di oscillatori perforamenti a frequenze sempre più elevate è stato studiato, nell’ambito del dottorato, l’utilizzo di un moltiplicatore di frequenza. Utilizzando un moltiplicatore per due (duplicatore) connesso in cascata, il VCO (voltage controller oscillator) deve essere progettato per funzionare a metà della frequenza finale richiesta usufruendo di componenti passivi (varactors in particolare) con fattore di qualità più elevato. Questo consente di raggiungere intervallo di accordo maggiore e di ridurre il consumo di potenza richiesto per ottenere un determinato rumore di fase. Nella tesi è descritta una nuova soluzione circuitale di duplicatore di frequenza in tecnologia CMOS. Tale soluzione sfrutta la tecnica dell’injection locking e si basa su un oscillatore di Pierce sincronizzato attraverso una coppia di transistors in configurazione push-push.
I risultati ottenuti sono supportati da due test chip realizzati in tecnologia CMOS a 65nm. In un primo prototipo il duplicatore è pilotato da una sorgente esterna. I risultati sperimentali dimostrano una banda di funzionamento da 106GHz a 128GHz, un consumo di potenza di 6mW e un picco di tensione di ampiezza all’uscita pari a 330mV. Nel secondo prototipo il duplicatore è pilotato da un VCO LC-tank integrato, funzionante a metà della frequenza di uscita. Questo ha permesso di dimostrare un eccezionale intervallo di accordo del 13,1% nell’intorno di 115GHz. L’intervallo di accordo risulta essere circa 4 volte maggiore rispetto allo stato dell’arte.
Modena & Reggio Emilia University
MAZZANTI ANDREA
SVELTO FRANCESCO
VITETTA GIORGIO MATTEO
2012-03-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02052012-163635/
it
unrestricted
Copyright information available at source archive
ING-INF/01
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02092012-111452
2013-01-21
dtype:D1
dtype:PhD
Metodi di stima dell’emodinamica oculare mediante flussimetra laser Doppler e riflettometria
PALANISAMY, NITHIYANANTHAM
laser-Doppler
pupilla-artificiale
Riflettometria
timololo
tropicamide
La misurazione della perfusione sanguigna del fondo oculare è di interesse sia scientifico che clinico. Il suo valore scientifico risiede nella possibilità di comprendere la fisiologia dell’accoppiamento neurovascolore mentre le potenzialità cliniche riguardano la diagnosi precoce di alterazioni del flusso sanguigno associate a malattie oculari specifiche. La flussimetria Doppler e la riflettometria del fondo sono tecniche moderne per la misurazione non invasiva della perfusione oculare.
La rifrattometria consente la misurazione della riflettanza di una regione del fondo oculare. Durante la mia attività di Dottorato abbiamo sviluppato uno strumento per l’acquisizione di immagini funzionali dei tessuti neurali del fondo oculare basato sulla misurazione della riflettanza. Abbiamo anche sviluppato un algoritmo di registrazione ed elaborazione completamente automatico basato sulla tecnica del “Differential multiscale framework”. Questo algoritmo ha dimostrato ottime prestazioni in termini di capacità di allineamento delle immagini e di eliminazione delle distorsioni geometriche. I risultati della simulazione effettuata sulle immagini del fondo oculare dimostrano che questo algoritmo fornisce una percentuale di allineamento pari a circa il 90% e consente di ridurre i tempi di calcolo fino al 30% del tempo richiesto dall’algoritmo ad uso generale. Lo strumento è stato equipaggiato di una fotocamera CCD aggiuntiva sincronizzata con l’acquisizione dell’immagine del fondo oculare. Questa fotocamera consente di acquisire l’immagine del segmento anteriore del bulbo oculare. Abbiamo quindi sviluppato un algoritmo per allineare le immagini del fondo oculare stimando possibili spostamenti involontari del fondo oculare dalle immagini del segmento anteriore.
Il flussimetro laser Doppler (LDF) consente di acquisire in modo non invasivo il flusso relativo dei globuli rossi (RBC) nei vasi del fondo oculare. L’effetto del timololo maleato 0,5% sulla circolazione coroidea è stato studiato in 12 soggetti. La procedura doppio cieco randomizzato è stata applicata per lo studio. Un occhio del paziente ha ricevuto una goccia di timololo mentre l’altro occhio ha ricevuto una goccia di placebo. La velocità massima di globuli rossi e la portata volumetrica del sangue sono state determinate in ciascun occhio poco prima l’instillazione e poi ogni 30 minuti fino a 2 ore. La pressione intraoculare osservata ha dimostrato una riduzione del 8,3% nel gruppo placebo (P<=0,001) e 16,1% in quello timololo (P<=0,0001). È stata osservata inoltre una significativa diminuizione (11,2%, P<=0,0001) della frequenza cardiaca media dei soggetti. Nessun cambiamento significativo della pressione arteriosa del sangue e della pressione di perfusione è stato osservato. Nessuna differenza significativa del flusso sanguigno è stata osservata nei pazienti trattati con placebo e con timololo. L’effetto di dilatazione pupilla sulla misurazione è stato studiato in 24 soggetti. Durante i test, un occhio è stato selezionato casualmente e ha ricevuto una goccia di tropicamide 1% che ha causato midriasi. Durante la misurazione è stata interposta un’apertura circolare di 4 mm tra lo strumento e l’occhio. Tutti i parametri LDF sono stati registrati ogni 3 minuti fino a 30 minuti dopo l’applicazione della goccia. Le dimensioni della pupilla sono state registrate utilizzando una videocamera digitale. A seguito della somministrate della goccia, la dimensione pupilla è aumentata del 152% (P<=0,0001). Non sono stati osservati aumenti significativi nella velocità, nel volume e nel flusso quando la pupilla artificiale era presente mentre si è osservato un aumento statisticamente significativo dei parametri LDF in sua assenza. I risultati indicano che l’aumento dei parametri LDF osservati durante le normali procedure sono dovuti alla geometria di diffusione della luce laser e non ad un reale aumento.
Modena & Reggio Emilia University
ROVATI LUIGI
VITETTA GIORGIO MATTEO
2012-03-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02092012-111452/
it
unrestricted
Copyright information available at source archive
ING-INF/07
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02212012-153007
2015-04-28
dtype:D1
dtype:PhD
Progettazione analitica e grafica di regolatori lineari mediante il metodo delle Formule di Inversione.
CUOGHI, STEFANIA
PID
Controllo
Regolatori
Anticipo
Ritardo
Questa tesi di dottorato descrive i risultati di ricerca sulla progettazione di nuove metodologie per la sintesi di regolatori classici, utili sia in ambito didattico che industriale. Nella progettazione classica di reti correttrici, i margini di fase e di guadagno sono importanti indicatori frequenziali usati per valutare la robustezza e le prestazioni del sistema di controllo.
Negli ultimi cinquanta anni, diversi metodi sono stati sviluppati nel tempo continuo per soddisfare queste specifiche mediante la sintesi di reti correttrici. Queste metodologie possono essere divise in metodi approssimati e metodi esatti. I primi sono normalmente basati su soluzioni numeriche o grafiche di tipo ‘trial-and-error’ oppure su fuzzy neural network. Sono largamente utilizzati nelle industrie in quanto forniscono una buona sintesi dei parametri del regolatore, in base ad algoritmi automatizzati. Comunque non sono generalmente facili da usare per scopi educativi e per risolvere il problema di progetto in modo esatto. Questo rende la procedura di sintesi poco adatta a scopi didattici. Infatti è molto difficile impostare un esercizio scritto, un test o una prova di esame nelli quali il problema di progettazione del regolatore si basa su una procedura di tipo ‘tral-and-error’.
Un metodo alternativo, utilizzabile con successo sia in un ambito educativo che in un contesto pratico, è basato sul metodo delle Formule di inversione. Questo metodo è stato introdotto per la prima volta nel 1982 per la progettazione numerica e grafica dei regolatori del primo ordine Lead e Lag e oggi è insegnato in diverse università italiane. Questa tesi descrive come la tecnica delle Formule di Inversione è stata estesa ai regolatori del secondo ordine Lead-Lag e PID. In particolare, la soluzione grafica può essere ottenuta utilizzando righello e compasso sui diagrammi di Nyquist del risposta frequenziale del sistema da controllare e può essere facilmente utilizzato negli esercizi scritti. Sia le soluzioni numeriche che quelle grafiche possono essere inoltre estese al progetto dei regolatori discreti. Questa estensione è rilevante per scopi industriali, in quanto oggi i regolatori sono spesso implementati da microprocessori e i calcoli sono fatti nel dominio del tempo discreto.
La flessibilità del metodo e stata utilizzata nel progetto di regolatori Lead-Lag per soddisfare altre specifiche di progetto. Due dei tre parametri della funzione di trasferimento del regolatore Lead-Lag considerato vengono progettati per soddisfare in modo facile ed esatto il margine di fase e di guadagno. E’ noto che queste specifiche frequenziali sono legate al picco di overshoot, al tempo di salita e alla larghezza di banda del sistema ad anello chiuso.
Il luogo delle radici e il contorno delle radici sono stati utilizzati per sintetizzare il terzo parametro del regolatore in modo da massimizzare la distanza dei poli dell’equazione caratteristica del sistema ad anello chiuso rispetto all'asse immaginario. In questo modo il tempo di assestamento della risposta al gradino del sistema può essere ottimizzato. Un' ulteriore procedura per sintetizzare il terzo parametro del compensatore è stata progettata. Questa procedura mira a massimizzare il complementary modulus margin, che è legato ad un rilevante indicatore della robustezza del sistema, ossia la norma infinita della funzione di sensibilità complementare.
In fine, i risultati presentati in questa tesi possono essere considerati punti di partenza per una futura attività di ricerca sul progetto di reti correttrici.
Modena & Reggio Emilia University
ZANASI ROBERTO
Michele Colajanni
Lorenzo Peretto
Aurelio Piazzi
Andrea Neviani
Wilma Penzo
Danilo Manstretta
Agostino Poggi
2012-03-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02212012-153007/
it
unrestricted
Copyright information available at source archive
ING-INF/04
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03212012-105850
2015-04-28
dtype:D1
dtype:PhD
SAR interferometrico terrestre per il monitoraggio di versanti instabili: analisi di limiti e potenzialità con riferimento a casi di studio nell'Appennino Emiliano (Italia)
BERTACCHINI, ELEONORA
monitoring-system
landslide
GB-InSAR
deformation
alert-system
L’obiettivo del lavoro è lo studio e l’analisi dei fenomeni deformativi attraverso la tecnologia RADAR (RAdio Detection And Ranging) terrestre.
Negli ultimi anni è diventata sempre più pressante l’esigenza di conoscere con continuità spazio-temporale il comportamento di versanti instabili, e di manufatti e strutture particolarmente sensibili, sia per la prevenzione, che come supporto alle decisioni in caso di eventi a rischio. L’innovativa tecnica RADAR consente di conciliare esigenze di monitoraggio continuo nel tempo e nello spazio, con buoni valori di precisione e accuratezza (anche millimetrici) e ben si adatta anche ad applicazioni di protezione civile, come early warning system. Inoltre, le applicazioni GB-InSAR (Ground Based Interferometric Synthetic Aperture Radar), ben si prestano ad integrare sistemi di monitoraggio topografico più consolidati costituiti, per esempio, da GPS (Global Positioning System) e stazioni totali automatizzate. In più, se i risultati vengono georeferenziati attraverso tecniche LIDAR (Light Detection And Ranging) terrestri o aviotrasportate in grado di fornire modelli digitali delle superfici e del terreno ad altissima definizione, l’operazione di interpretazione degli stessi (mappe di spostamento cumulato, mappe di velocità, serie temporali, ecc.) risulta più accurata ed immediata.
L’influenza dell’atmosfera, in termini di rifrazione, contenuto d’acqua, temperatura e pressione è da sempre per la strumentazione topografica l’elemento chiave per la corretta elaborazione e interpretazione delle osservazioni e lo è anche per la tecnologia SAR. Quindi modellare nel modo più adeguato il comportamento dell’atmosfera diventa tanto più importante quanto più le distanze di osservazione aumentano (fino a qualche chilometro) ed anche quando gli obiettivi di precisione e accuratezza finali sono molto spinti (centimetrici o superiori). Una corretta analisi preliminare del sito e dell’oggetto di interesse e la caratterizzazione dell’ambiente in cui i sistemi vengono installati (estensione, dimensioni, obiettivi, potenzialità di integrazione con altri sistemi di misura, database esistenti, ecc), la monumentazione e l’installazione stessa (postazione stabile e duratura nel tempo, angolo di incidenza, ecc.) sono di fondamentale importanza per la buona riuscita delle campagne di misura, siano esse continue o periodiche e per questo non devono essere sottovalutate. Allo stesso modo, per applicazioni di studio di versanti instabili e in particolare per applicazioni di protezione civile, è indispensabile calibrare bene le elaborazioni in termini di selezione dei punti stabili e di monitoraggio, e dei parametri da cui dipende la stima dell’atmosfera.
Modena & Reggio Emilia University
CAPRA ALESSANDRO
ANDRISANO ANGELO ORESTE
CORSINI ALESSANDRO
STROZZI ANTONIO
2012-03-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03212012-105850/
it
unrestricted
Copyright information available at source archive
ICAR/06
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03202012-221320
2013-01-21
dtype:D1
dtype:PhD
Analisi dei problemi di programmazione della produzione di sistemi manifatturieri, e sviluppo di modelli di simulazione per il bilanciamento di linee di assemblaggio manuali.
GAROFALO, MARIO
Assemblaggio
Industriale
Ingegneria
LeanProduction
Metodi
Le linee di assemblaggio rappresentano un modo, ormai consolidato, di organizzare una produzione di massa per prodotti in larga scala, e ad oggi vengono sempre più utilizzate, anche rispetto al sogno utopico di sistemi e linee di produzione completemente automatizzate.
Ogni volta che si progetta, o si riconfigura, una linea di assemblaggio, il suo corretto bilanciamento (assembly line balancing problem, ALBP) è un aspetto cruciale, cioè la suddivisione del carico totale di lavoro necessario per completare il ciclo di lavoro di ciascun prodotto da assemblare, tra le varie stazioni di lavoro lungo la linea.
Scopo dell'attività è l’individuazione e lo sviluppo delle tecniche di soluzione dei problemi di bilanciamento per la produzione di componentistica meccanica impiegata nella produzione di veicoli.
Modena & Reggio Emilia University
MELLONI RICCARDO
GALLO SERGIO
2012-03-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03202012-221320/
it
unrestricted
Copyright information available at source archive
ING-IND/15
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03032012-151007
2013-01-21
dtype:D1
dtype:PhD
Microstrutturazione superficiale di film polimerici tramite il metodo delle Breath Figures
FERRARI, ELISA
breath
figures
film
polymer
porous
Il metodo delle Breath Figures (BF) permette di ottenere superfici polimeriche a porosità controllata, con cavità disposte secondo schemi ordinati, utilizzabili in diversi settori scientifici e tecnologici.
Tale tipo di approccio, semplice ed economico, è basato sulla condensazione di gocce d’acqua sulla superficie di soluzioni polimeriche diluite in seguito al raffreddamento della superficie stessa a causa dell’evaporazione del solvente. Queste gocce si auto-assemblano sulla superficie polimerica secondo schemi geometrici ordinati, lasciando cavità disposte in modo regolare dopo completa evaporazione sia del solvente che dell’acqua.
Relativamente alle applicazioni pratiche, superfici polimeriche a porosità controllata possono collocarsi all’interno del settore automotive come coatings antiriflettenti e ultraidrofobi.
Lo stesso metodo, inoltre, può anche essere utilizzato per produrre membrane a porosità submicronica controllata per realizzare filtri, eventualmente impiegabili anche nel settore meccanico ed in particolare del veicolo.
Sebbene le BF siano un fenomeno noto qualitativamente da anni, non è ancora chiaro il loro meccanismo di formazione, che si ipotizza legato a vari parametri, connessi alle condizioni in cui vengono prodotte tali figure (ad esempio tipo di polimero e solvente, umidità) e che probabilmente sfrutta anche fenomeni di instabilità termodinamica quali, ad esempio, l’effetto Marangoni, nella fase di definizione dello schema ordinato di cavità.
È evidente quindi, l’interesse per uno studio sistematico dei parametri che influenzano la formazione delle BF, così da poter, in futuro, controllare in maniera efficace, ed efficiente, un processo che a tutt’ora è studiato quasi esclusivamente dal punto di vista qualitativo.
Nel lavoro condotto sono stati studiati sistematicamente alcuni dei fattori che influenzano il fenomeno, in particolare l’effetto del solvente e del substrato, nel caso della preparazione di film porosi in polistirene.
In questo senso è stata effettuata una valutazione quantitativa della regolarità dei pori ottenuti, utilizzando differenti software per l’analisi di immagine, uno dei quali sviluppato appositamente per questo scopo.
Dallo studio è emerso che l’affinità termodinamica tra polimero e solvente è un fattore chiave nella formazione delle BF, così come le caratteristiche del solvente, quali miscibilità con l’acqua, temperatura di ebollizione, entalpia di evaporazione. Le ricerche hanno evidenziato che l’effetto del substrato è significativo, ma strettamente legato al tipo di solvente.
L’effetto del tipo di polimero e degli additivi è stato indagato preparando film porosi di stirene-co-acrilonitrile (SAN) a cui era stato aggiunto l’additivo Jeffamine (diammina con struttura di polietilenglicole). In questa fase è stato confermato che la componente idrofila favorisce la regolarità dei film porosi.
Infine, il metodo delle BF è stato utilizzato, tramite opportuna scelta delle coppie polimero-solvente, per produrre film polimerici con morfologia micro-particellare. Anche in questo caso la morfologia superficiale conferisce al materiale proprietà che possono essere potenzialmente sfruttate in vari campi, da quello della sensoristica fino all’impiego come materiali per coatings ultraidrofobi.
Modena & Reggio Emilia University
PILATI FRANCESCO
POLI GIORGIO
STROZZI ANTONIO
2012-03-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03032012-151007/
it
unrestricted
Copyright information available at source archive
ING-IND/22
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03172012-233824
2015-04-28
dtype:D1
dtype:PhD
Deformazioni delle canne cilindro al montaggio di un motore motociclistico ad elevate prestazioni: Analisi agli elementi finiti e rilievi sperimentali
IOPPOLO, VINCENZO
liner
finite
elements
Cylinder
analysis
Sono state condotte delle analisi agli elementi finiti e dei rilievi sperimentali per valutare l’entità delle deformazioni presenti nelle canne cilindro durante l’assemblaggio di un motore motociclistico V4. Nei motori ad elevate prestazioni si preferisce spesso adottare un basamento che prevede il piantaggio di canne riportate in modo da poter utilizzare materiali con caratteristiche diverse. Il forzamento, il serraggio degli accoppiamenti filettati e la guarnizione tra testa e basamento generano delle distorsioni nelle superfici interne delle canne e ciò può ridurre la conformabilità dei segmenti elastici [1]. Le distorsioni delle canne cilindro nei motori a combustione interna possono quindi causare un elevato consumo di olio, di carburante ed anche il blow-by [2]. Questo studio è stato affrontato dopo aver osservato questi fenomeni in alcune prove al banco del motore analizzato. Per la simulazione dell’assemblaggio è stato realizzato un modello agli elementi finiti caratterizzato da non linearità dovuti ai contatti con attrito tra corpi deformabili ed anche dalla caratteristica non lineare dell’anellino di tenuta che viene schiacciato e deformato plasticamente tra testa e basamento. I rilievi sperimentali sono stati eseguiti prima con la macchina a scansione 3D DEA per caratterizzare le canne e le loro sedi nel basamento prima di essere montati. Durante le fasi di assemblaggio sono stati utilizzati sia la DEA che l’Incometer con l’ausilio dei simulacri di teste e semicarter inferiore. Durante questi rilievi si è riscontrato un ottimo accordo tra le due tipologie di strumentazione. Le fasi di assemblaggio considerate sono state:
1. Piantaggio delle canne e montaggio dei prigionieri.
2. Serraggio del simulacro di semicarter inferiore.
3. Serraggio dei simulacri delle teste con e senza anellini di tenuta.
Per valutare le distorsioni delle superfici interne delle canne sono stati calcolati i coefficienti di Fourier in cinque sezioni lungo l’asse di ogni canna. Essi rappresentano le ampiezze e le fasi delle armoniche di ogni forma rilevata e vanno confrontate direttamente con i limiti di conformabilità dei segmenti elastici, secondo il modello GOETZE [3]. Fin quando il modello FEM era basato sulla forma cilindrica iniziale delle sedi canne, come da modello CAD, non si era ottenuto una congruenza numerico-sperimentale. Un buon accordo in tutte le fasi di assemblaggio si è ottenuto solo dopo aver riprodotto le forme iniziali delle sedi canne secondo i rilievi sperimentali. A questo punto è stato simulato il montaggio del motore con le teste e il semicarter inferiore, che non può essere misurato sperimentalmente. I risultati sono stati confrontati con i limiti di conformabilità del primo segmento elastico riscontrando il superamento dell’armonica del quarto ordine (quadrilobata) nelle sezioni più alte delle canne. Per ridurre l’ampiezza di questa armonica è stato ottimizzata una piastra in acciaio da serrare al posto delle teste durante la lavorazione delle sedi delle canne, ottenendo una riduzione del 50% dell’ampiezza del 4° ordine alla fine del montaggio. Lo step successivo sarà l’introduzione dei carichi termici per valutare le deformazioni delle canne durante il funzionamento del motore.
Modena & Reggio Emilia University
STROZZI ANTONIO
GIACOPINI MATTEO
CALLI GIANLUCA
2012-03-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03172012-233824/
it
unrestricted
Copyright information available at source archive
ING-IND/14
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03202012-231448
2013-01-21
dtype:D1
dtype:PhD
Studio e caratterizzazione di materiali ibridi nanostrutturati
DARECCHIO, MARIA ELENA
hybrid
in-situ
materials
Nanocomposites
synthesis
Negli ultimi decenni la ricerca scientifica si è addentrata sempre più nello sviluppo delle scienze e tecnologie della nanoscala, grazie soprattutto alla recente disponibilità di strumenti ed approcci innovativi che permettono l'indagine dei materiali con una risoluzione vicino al livello atomico.
Dal punto di vista tecnologico i nanomateriali risultano essere molto interessanti poiché mostrano un comportamento che è intermedio tra quello di un solido macroscopico e quello di un sistema atomico o molecolare, in gran parte correlato sia al grande numero di atomi superficiali, frazione significativa del numero totale di atomi che li compongono, sia alla ampia area superficiale specifica il cui contributo prevale su quello della piccola massa del materiale. Questa caratteristica si traduce sia in nuove che aumentate proprietà chimiche, fisiche, elettroniche ed ottiche rispetto ai corrispondenti tradizionali materiali solidi.
In particolare, nanopolveri ceramiche e metalliche, utilizzate sia tali e quali che per la preparazione di materiali compositi, sono materiali particolarmente studiati grazie alle applicazioni in svariati ambiti industriali. Il nostro studio si inserisce proprio in questo settore e si prefigge lo scopo di sviluppare e comprendere metodiche di sintesi innovative per la preparazione di materiali compositi nanostrutturati a matrice polimerica. Nello specifico si sono sviluppati compositi ibridi costituiti da una matrice polimerica di tipo epossidico e da una carica nanometrica inorganica di tipo ceramico e metallico.
Un importante vantaggio dell’utilizzo di cariche nanometriche, legato all’aumento dell’area superficiale specifica, risiede nel fatto che a parità di proprietà finali del composito è possibile inserire in matrice una quantità di carica molto inferiore rispetto all’uso di cariche micrometriche. Inoltre, l’abbassamento considerevole della percentuale in peso di carica in matrice apporta una migliorata lavorabilità del composito. Esistono però anche molte problematiche nella realizzazione di questi materiali una delle quali riguarda l’alta facilità di aggregazione delle nanoparticelle che comporta una loro disomogenea dispersione in matrice e una peggiorata interazione tra le due fasi. Pertanto, con lo scopo di migliorare la dispersione e l’adesione tra le due fasi, sono stati presi in considerazione differenti metodiche di preparazione dei compositi. Nello specifico lo studio si è articolato nello sviluppo di compositi tramite sintesi in situ con due modalità differenti: 1) sintesi di materiali ibridi per via sol-gel, 2) sintesi delle nanocariche in un componente precursore della matrice e successiva preparazione della matrice. Nonostante, infatti, il metodo di miscelazione meccanica di carica e matrice sia quello più utilizzato, spesso non è il metodo migliore per l’ottenimento di un composito omogeneo caratterizzato da un’alta dispersione e da una bassa agglomerazione delle nanoparticelle.
In particolare con il primo approccio sono state preparate resine epossidiche con silice, titania e zirconia mentre, con il secondo approccio, argento nanometrico è stato sintetizzato in ammine e poliammine successivamente utilizzate per la reticolazione della resina epossidica.
Le nanopolveri sono state caratterizzate tramite studi morfologici, mineralogici e chimici, mentre i nanocompositi preparati sono stati analizzati anche per valutarne proprietà elettriche, ottiche, antibatteriche e, qualora utilizzati come coating, caratteristiche di resistenza al graffio.
Modena & Reggio Emilia University
BONDIOLI FEDERICA
POLI GIORGIO
MESSORI MASSIMO
STROZZI ANTONIO
2012-03-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03202012-231448/
it
unrestricted
Copyright information available at source archive
ING-IND/22
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03212012-222802
2013-01-21
dtype:D1
dtype:PhD
Tecniche di simulazione e di modellazione di macchine oleodinamiche a pistoni assiali.
SPECCHIA, EMILIANO
pistoni
oleodinamica
macchine
assiali
lubrificazione
L’oggetto di analisi del dottorato di ricerca è lo studio delle macchine a pistoni assiali a piatto inclinato, perseguito sia attraverso un’attività di simulazione che di sperimentazione, con il fine principale di analizzare e comprendere nel dettaglio le dinamiche che determinano le prestazioni delle suddette macchine.
Tali macchine sono state e sono tuttora oggetto di studio da parte di numerosi ricercatori e operatori del settore al fine di garantire il raggiungimento di prestazioni sempre più elevate. In particolare gli aspetti critici di maggior interesse sono:l’analisi del rendimento globale della macchina e lo studio dell’influenza sul rendimento dei parametri geometrici fondamentali, l’analisi e riduzione delle emissioni sonore e lo studio delle applicazioni con macchine a cilindrata variabile per il controllo diretto degli attuatori lineari e rotativi.
In questo lavoro, è stata affrontata l’analisi di due aspetti fondamentali della macchina: il suo comportamento dinamico e la caratterizzazione dei rendimenti. Per perseguire tali obiettivi sono stati seguiti due approcci ben distinti: la simulazione fluidodinamica 0-dimensionale e quella bidimensionale.
Il modello di simulazione zero-dimensionale permette di determinare l’andamento della pressione nella camera dei pistoni in funzione dei parametri geometrici e operativi. Conoscere tale andamento costituisce un aspetto fondamentale perché anche da esso dipendono le oscillazioni di portata e pressione che si generano all’uscita della macchina, da cui dipende il livello di rumore emesso (fluid borne noise). D’altra canto la pressione nella camera del pistone determina le forze e coppie scambiate tra i vari componenti (e in particolare quelle generate sul piatto inclinato) da cui si generano vibrazioni meccaniche che costituiscono un’ulteriore fonte di rumore (structure borne noise).
Tale modello permette inoltre di caratterizzare la tendenza di auto azzeramento della cilindrata di una pompa volumetrica al variare della pressione di lavoro e della velocità di rotazione. Questo elemento rappresenta la base per qualsiasi attività di simulazione, progettazione e ottimizzazione di un controllo della cilindrata della pompa in cui tipicamente un segnale in pressione, imposto dall’utenza o internamente dal controllo stesso, attua una variazione di cilindrata in funzione della strategia scelta.
La seconda parte di questo lavoro è stata rivolta allo studio e realizzazione di un modello numerico capace di simulare il rendimento meccanico e volumetrico della macchina. Ciò ha richiesto un differente approccio che si è focalizzato sull’analisi bi-dimensionale dei meati di lubrificazione e in particolare del meato tra pattino e piatto inclinato.
L’approccio iniziale prevedeva la risoluzione dell’equazione di Reynolds in un dominio bidimensionale (in regime di lubrificazione idrodinamica) confinato tra pareti rigide e considerando costanti le proprietà del fluido; da questa prima analisi sono state ricavate utili considerazioni sui limiti di tale tecnica e in particolare delle numerose ipotesi semplificative
Il modello di simulazione è stato quindi evoluto tenendo in conto, attraverso un calcolo agli elementi finiti, della deformazioni elastiche che determinano una variazione dell’altezza del meato e di conseguenza del campo di pressione che così si va a determinare (regime di lubrificazione elasto-idrodinamica).
Il modello bidimensionale realizzato, sebbene rappresenti solo di uno dei molteplici meati presenti in una macchina a pistoni assiali, ha fornito alcuni primi risultati interessanti sul comportamento del meato di lubrificazione tra pattino e piatto inclinato ma ha soprattutto permesso di mettere a punto una procedura numerica assai complessa per l’analisi dei fenomeni di lubrificazione in presenza di deformazione delle pareti.
Modena & Reggio Emilia University
BORGHI MASSIMO
2012-03-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03212012-222802/
it
unrestricted
Copyright information available at source archive
ING-IND/08
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03252012-164113
2015-04-28
dtype:D1
dtype:PhD
Sviluppo di una nuova generazione di strumenti per l'analisi termica dei materiali.
PAGANELLI, DANIELE
software
microscopy
fleximetry
dilatometry
thermal
Questa tesi è il riassunto di tre anni di ricerca e sviluppo nel campo degli strumenti di misura ottici per l'analisi termica dei materiali.
Il lavoro è stato svolto in stretta collaborazione con Expert System Solutions, che produce da più di 20 anni strumenti ottici originali quali microscopi riscaldanti, dilatometri e flessimetri.
Dopo una analisi approfondita degli strumenti attuali e delle prospettive di sviluppo, è stata identificata come prioritaria la progettazine di una architettura software che permettesse l'estendibilità a nuove procedure di calcolo ed a periferiche aggiuntive.
È stato sviluppato un software innovativo per l'acquisizione e l'elaborazione parallela di dati provenienti da molteplici periferiche eterogenee, quali telecamere, motori passo passo, termoregolatori, bilance ad alta precisione. La nuova piattaforma, denominata Misura4, incrementa la risoluzione temporale a più di 10 immagini per secondo, ed la risoluzione d'immagine a 2048x1536 pixel.
Metodo avanzati di analisi dell'immagine producono risultati più accurati e ripetibili. Nel campo della microscopia introducono criteri matematici rigorosi per l'identificazione delle forme caratteristiche e l'analisi contemporanea fino a 24 campioni.
La termoregolazione del campione è stata sviluppata in modo da consentire la realizzazione di cicli termici di complessità e durata arbitraria. È stato formulato un modello fisico di riscaldamento e raffreddamento del forno, da cui deriva un nuovo algoritmo di termoregolazione capace di prevedere il comportamento della temperatura, mantenendo al contempo la possibilità di adattarsi ad interferenze esterne (quali reazioni eso/endotermiche). L'algoritmo risultante migliora la corrispondenza tra la curva di temperatura richiesta e quella realizzata, di fondamentale importanza per le misure di dilatometria.
La piattaforma software risultante introduce, assieme a notevoli miglioramenti di performance, nuovi tipi di misure sui materiali, che saranno in futuro approfondite attraverso estese prove sperimentali.
Modena & Reggio Emilia University
BONDIOLI FEDERICA
2012-03-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03252012-164113/
it
unrestricted
Copyright information available at source archive
ING-IND/12
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03262012-121027
2013-01-21
dtype:D1
dtype:PhD
Influenza di pattern superficiali a rilievo sulla performance di assorbitori d'urto automobilistici profilati in alluminio
QURESHI, OMER MASOOD
frontal-impact
Crash-test
Crash-absorbers
Box
beams
Questa ricerca propone un design innovativo per assorbitori d'urto
automobilistici. Secondo tale design, il normale estruso in alluminio a
sezione rettangolare sottile viene lavorato con deformazione a rilievo a
pattern sinusoidali delle superfici laterali. Tali pattern sono definiti
per sovrapposizione di perturbazioni sinusoidali biassiali.
L'introduzione dei pattern di rilievo è studiata in dettaglio in questa
ricerca, con particolare attenzione alla loro influenza sulle
caratteristiche di assorbimento energetico.
Tale influenza è ottenuta mediante controllo della modalità di collasso
e incentivazione di modi deformativi a più densa creazione di cerniere
plastiche.
I risultati di questo studio vedono un significativo incremento delle
prestazioni dell'assorbitore.
Inizialmente sono stati studiati sei diversi pattern base, e sono stati
simulati un totale di 43 modelli mediante il solutore FEM dinamico
esplicito commerciale RADIOSS™.
Scopo di questa prima fase è stato quello di migliorare le proprietà di
assorbimento energetico dell'estruso mediante il controllo del passo di
formazione delle cerniere plastiche di parete, con densificazione delle
stesse.
I pattern a rilievo si mostrano efficaci nel cambiare i modi di collasso
e nel ridurre il passo di piegatura a soffietto.
Sono stati osservati incrementi fino al 42% dell'energia assorbita
rispetto al design di riferimento, e aumenti del fattore di efficienza
da 1.08 a 1.54 kJ/kg (????????? CHECK THE UNITS!!!!!!!!!!!!!!!)
In una seconda fase si sono studiati appropriati inneschi (trigger) per
tali estrusi.
L'innesco ad incavo, comunemente usato in tale tipologia di assorbitori,
è stato testato sui nuovi profilati.
Tale innesco si è però rivelato solo marginalmente efficace nel ridurre
il picco di forza iniziale, e si è evidenziata una scarsa affidabilità
nell'assicurare una progressione stabile del collasso.
È stato quindi proposto un nuovo ed innovativo meccanismo di innesco,
nel quale la lavorazione a rilievo è stata leggermente scalata in
direzione assiale; si sono così ottenute aree estremali maggiormente
inclini a formare il soffietto, e aree centrali ad elevata corsa
deformativa residua.
Tali inneschi progressivi e distribuiti si sono mostrati molto più
efficaci nel controllo del collasso rispetto al singolo incavo
tradizionale.
Gli assorbitori ottimizzati sono quindi stati caratterizzati mediante
simulazioni FEM in una varietà di condizioni operative, per comparare in
modo esauriente design di riferimento e design ottimizzato.
Gli assorbitori sono stati simulati in condizioni in impatto obliquo,
impatto con massa eccentrica, impatto con sollecitazione mista di sforzo
normale e flessione e in flessione pura, al fine di verificarne le
prestazioni. Tali test puntano a simulare condizioni operative meno
idealizzate e più vicine al caso reale.
Infine, i componenti proposti sono stati inseriti all'interno di un
modello di autovettura completa per valutarne le prestazioni secondo le
metodologie standardizzate NCAP.
Modena & Reggio Emilia University
STROZZI ANTONIO
BALDINI ANDREA
BERTOCCHI ENRICO
2012-03-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03262012-121027/
it
unrestricted
Copyright information available at source archive
ING-IND/14
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03162012-093515
2013-01-21
dtype:D1
dtype:PhD
Progettazione ed Ottimizzazione di un Impianto Industriale Co-generativo per la Tostatura del Caffè
BOTTAZZI, DAVIDE
roasting_process
lumped_parameter
heat_mass_transfer
energy_efficiency
co_generative_system
Un modello numerico predittivo per l'analisi di un impianto industriale per la tostatura del caffè è descritto in questa tesi. Tale modello, è capace di valutare i flussi energetici coinvolti nel processo di tostatura, in diversi tipi di impianti industriali equipaggiati di sistemi co-generativi per aumentare l'efficienza energetica. Il simulacro numerico è stato costruito grazie ad un approccio multi-fase e multi-componente. Mentre un primo modello numerico a parametri concentrati e distribuiti è stato usato per simulare il comportamento, da un punto di vista pneumatico, di un impianto di riferimento, un secondo strumento numerico è stato sviluppato per valutare predittivamente lo scambio termico e di massa tra una corrente di aria calda ed i chicchi del caffè durante la tostatura.
Il modello numerico dell'impianto di tostatura comprende l'impiego del ricircolo della portata d'aria di scarico per migliorare l'efficienza del sistema. Inoltre, il modello teorico valuta lo scambio termico tra tubi, ambiente esterno, sorgente e pozzi di calore, così come il comportamento del combustore. I risultati numerici, in termini di temperature, pressioni e portate, sono stati confrontati con dati sperimentali per tarare e verificare l'affidabilità e l'accuratezza del modello.
Lo strumento sviluppato per stimare lo scambio termico e di massa tra una corrente di aria calda ed i chicchi durante la tostatura, è anch'esso basato sull'approccio a parametri concentrati e distribuiti ed include le proprietà fisiche delle diverse miscele di caffè. In particolare, è stato costruito un sotto-modello in grado di stimare l'evaporazione dell'umidità contenuta all'interno del caffè. Il modello è capace di valutare l'influenza dell'architettura del tostatore e del ciclo di tostatura, potendo così indagare diverse condizioni operative e diverse miscele di caffè. Il modello numerico è stato poi tarato e validato usando dati sperimentali disponibili in letteratura, relativi ad un tostatore da laboratorio. La capacità predittiva dello strumento numerico è stata infine verificata simulando un ciclo di tostatura industriale. I risultati ottenuti, confrontati con rilievi sperimentali relativi ad un sistema industriale, hanno evidenziato una buona corrispondenza in termini di temperatura del caffè e del flusso d'aria.
Tecniche di misura non intrusive sono state impiegate per ottenere informazioni sul campo di moto e sulla distribuzione di temperatura interna al tamburo dove avviene la tostatura. Tecniche di fotografia veloce sono state utilizzate per visualizzare il campo di moto interno mentre la termografia ha permesso di ricavare la distribuzione della temperatura. Nello specifico, è stato costruito un simulacro plastico trasparente del tamburo rotante, necessario per applicare la tecnica della fotografia veloce. La camera digitale ha quindi permesso di catturare il campo di moto interno della corrente d'aria attraverso la mappatura dei chicchi, che vengono trascinati dal flusso.
Una camera per termografia è stata impiegata per visualizzare l'interno del tostatore. Questa ha permesso di visualizzare la distribuzione della temperatura all'interno del tamburo grazie ad una finestra ottica trasparente all'infrarosso, montata nella parte superiore della macchina. I risultati ottenuti utilizzando una termocamera digitale, sono stati analizzati in termini di distribuzione di temperatura dell'aria interna alla macchina e di distribuzione di temperatura del caffè alla fine del processo di tostatura.
In fine, diverse architetture di impianti di tostatura co-generativi sono state analizzate, in modo da evidenziare l'influenza del tipo di impianto sull'efficienza energetica del sistema. In particolare, il confronto tra impianti a schema aperto e sistemi a ricircolo della portata d'aria, ha permesso di evidenziare e quantificare l'effetto del recupero di calore dai gas di scarico.
Modena & Reggio Emilia University
CANTORE GIUSEPPE
MILANI MASSIMO
2012-03-28
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03162012-093515/
it
unrestricted
Copyright information available at source archive
ING-IND/08
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03222012-143716
2013-01-21
dtype:D1
dtype:PhD
Dinamica non-lineare e chaos nei rotismi planetari
MASOUMI, ASMA
chaos
dinamica
non-lineare
planetari
Rotismi
I riduttori a planetario sono stati largamente impiegati nelle trasmissioni meccaniche con grandi vantaggi, quali l'elevata coppia trasmissibile, il peso ridotto, l'alta affidabilità ed efficienza. Esempi di applicazioni dei rotismi planetari sono presenti nelle trasmissioni automobilistiche, nelle macchine agricole, negli elicotteri e nei motori di impiego aeronautico.
L'analisi dinamica dei riduttori planetari è essenziale per ridurre le problematiche di rumore e vibrazioni. Le forze dinamiche all'interfaccia tra solare-pianeta e corona-pianeta sono la principale fonte di tali problemi a causa della forte connessione tra rumore ed errore di trasmissione dinamico.
Le vibrazioni nei planetari inducono carichi dinamici, provocando la riduzione della vita del meccanismo e producendo rumore. La principale sorgente di vibrazione è l'eccitazione parametrica dovuta alla rigidezza d'ingranamento tempo-variante nelle coppie solare-pianeta e corona-pianeta, poiché il numero di coppie di denti in presa varia durante il funzionamento.
Questa tesi presenta un modello in grado di simulare il comportamento dinamico di un riduttore planetario a singolo stadio in presenza di gioco. La formulazione è generale, così da essere applicabile ad un numero qualsiasi di pianeti. Il modello include la rigidezza tempo-variante e il gioco per tutti gli accoppiamenti presenti; tiene conto altresì della deformabilità dei cuscinetti di supporto.
Nel presente modello, ogni elemento - cioè solare, pianeti, porta-satelliti e corona - possiede tre gradi di libertà: due traslazionali e uno rotazionale, per un totale di diciotto gradi di libertà per il caso di riferimento considerato, che presenta tre satelliti. Le equazioni del moto linearizzate sono state risolte per calcolare le frequenze proprie del sistema - a tal fine si è tenuto conto dei valori medi delle rigidezze di ingranamento coinvolte - e le equazioni non-lineari del moto sono state integrate numericamente per studiare l'effetto della rigidezza tempo-variante e del gioco. Il modello proposto ha poi permesso di descrivere il comportamento non lineare di un riduttore planetario.
È stata studiatala sensibilità delle frequenze proprie ai parametri del sistema: in particolare alla variazione delle rigidezze dei supporti nel caso di pianeti equi spaziati e disposti simmetricamente.
Il distacco dei denti in presenza di vibrazioni elevate introduce una non-linearità nel sistema esaminato. Il presente lavoro descrive la complessa dinamica di un planetario in tali condizioni facendo uso di un modello a parametri concentrati. Tale modello bidimensionale rappresenta le ruote come inerzie concentrate, gli ingranamenti per mezzo di molle non lineari che tengono conto della perdita di contatto tra i denti e della variazione periodica della rigidezza d'ingranamento dovuta al cambiamento del numero di coppie di denti in presa e i supporti come molle lineari.
Il presente lavoro esamina la complessa dinamica non lineare dei planetari facendo uso di metodi numerici all'interno del range di frequenze operative. Si è effettuata un'analisi di biforcazione per studiare la presenza di fenomeni di raddoppio di periodo e di chaos.
La dinamica dei planetari mostra diversi comportamenti non lineari: salti di soluzione, moti caotici e raddoppi di periodo si verificano quando la frequenza di ingranamento o le sue armoniche superiori sono prossime ad una frequenza propria del sistema. In condizioni di risonanza, la vibrazione risultante provoca il distacco dei denti in presa, determinando l'instaurarsi di effetti non lineari, quali il salto di soluzione e le risonanze sub-armoniche.
Modena & Reggio Emilia University
PELLICANO FRANCESCO
2012-03-28
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03222012-143716/
it
unrestricted
Copyright information available at source archive
ING-IND/13
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02032013-194001
2013-05-30
dtype:D1
dtype:PhD
EFFETTO DELLA TERAPIA ENZIMATICA SOSTITUTIVA SUI GLICOSAMINOGLICANI IN SOGGETTI AFFETTI DA MUCOPOLISACCARIDOSI I E II
BUZZEGA, DANIA
mucopolisaccaridosi
hplc
glicosaminoglicani
agarosio
ERT
Le mucopolisaccaridosi sono patologie genetiche da accumulo lisosomiale, caratterizzate dalla mancanza di uno degli enzimi coinvolti nel catabolismo dei GAGs, che si accumulano così in cellule, tessuti e organi, promuovendo la loro disfunzione e la conseguente apparizione della sintomatologia clinica. Attualmente, l’efficacia della terapia enzimatica sostitutiva (ERT), somministrata ai pazienti affetti da MPS I,II e VI, viene valutata solo mediante osservazione del miglioramento dei segni clinici peculiari, o mediante analisi quantitativa dei GAGs urinari effettuata con generico saggio colorimetrico o elettroforesi su acetato di cellulosa. Questi approcci analitici permettono però solo di identificare modificazioni quantitative. Durante il mio lavoro di tesi sono state applicate procedure analitiche sensibili, che hanno permesso di caratterizzare, sia da un punto di vista quantitativo che qualitativo, i GAGs urinari e plasmatici in soggetti affetti da MPS I e II, prima e durante il periodo di ERT considerato. Lo studio condotto su due fratelli affetti dalla forma lieve di MPS I, ha mostrato la presenza, a livello plasmatico ed urinario, prima della terapia, di alte quantità di DS patologico ad alto peso molecolare (13000-13500), assente nei soggetti di controllo. Al termine della terapia, sia nel plasma che nelle urine è stato osservato un calo della quantità di GAGs totali, rispetto a quanto valutato prima dell’inizio della terapia. Da un punto di vista qualitativo invece, il profilo plasmatico, dopo 10 mesi di terapia, è paragonabile a quello dei soggetti di controllo, al contrario, a livello urinario, è stato riscontrato ancora DS patologico. Dopo la terapia, il DS patologico accumulato nel plasma scompare completamente, a dimostrazione dell’efficacia della terapia ERT. L’analisi dei GAGs urinari soggetto affetto da MPS II prima dell’ERT ha mostrato il 90% dei galattosaminoglicani presenti a livello urinario corrisponde a DS e non a CS fisiologico. Al termine della terapia, a livello urinario è stata riscontrata la presenza di DS patologico, che non viene quindi completamente rimosso in seguito a ERT. Al contrario però di quanto osservato nel plasma del soggetto affetto da MPS I, il paziente affetto da MPS II, presenta ancora nel plasma DS patologico, mostrando l’incapacità della terapia, di rimuovere completamente il DS patologico non solo a livello urinario ma anche a livello plasmatico. La variabilità osservata tra i pazienti afetti dallo stesso tipo o da differenti tipi di MPS, mostra la possibilità che l’efficacia della terapia possa subire variazioni da soggetto a soggetto. La differenza di risposta del paziente alla terapia, riscontrata nei pazienti affetti da MPS I e MPS II, può essere dovuta a diverse ragioni, che rappresentano possibili fattori di variabilità nell’azione della terapia stessa: grado di severità della malattia, durata della terapia ERT, differente attività dell’enzima ricombinante somministrato durante la terapia, differente risposta del soggetto alla terapia al quale è sottoposto, a causa di fattori di variabilità endogeni del soggetto stesso, differente risposta del soggetto alla terapia, a causa di fattori ambientali ai quali il paziente è sottoposto durante la propria vita. Le procedure analitiche, messe a punto in questo studio, possono rivelarsi molto utili al fine di monitorare l’andamento della terapia ERT in ciascun paziente, e di personalizzarne la cura in base alla risposta osservata. Non meno importante potrebbe essere l’utilizzo di queste metodiche analitiche per monitorare terapie alternative ed ipoteticamente più efficienti, per la cura dell’MPS I, II, ma anche di altri tipi di MPS
Modena & Reggio Emilia University
VOLPI NICOLA
MACCARI FRANCESCA
2013-02-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02032013-194001/
it
unrestricted
Copyright information available at source archive
BIO/10
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02062013-103459
2016-05-04
dtype:D1
dtype:PhD
Analoghi della Spiroxatrina come potenziali ligandi del recettore NOP: progettazione, sintesi, caratterizzazione e valutazione biologica.
CORRADO, SANDRA
SAR
recettore
NOP
ligandi
studi
Il dolore è il sintomo più frequente per cui i pazienti chiedono attenzione medica. Sono innumerevoli le patologie e le condizioni cliniche che possono provocare sindromi dolorose croniche. I farmaci analgesici oppiacei rappresentano lo strumento più potente nella terapia del dolore. Benché siano usati in clinica principalmente per le loro proprietà analgesiche, essi producono una grande varietà di altri effetti collateralic. Ciò sta incoraggiando l’individuazione di nuovi target terapeutici per lo sviluppo di agenti analgesici alternativi, con un miglior profilo terapeutico in termini di efficacia e sicurezza. Negli ultimi anni la ricerca scientifica nel campo delle neuroscienze ha fatto importanti passi in avanti grazie alla scoperta di un nuovo sistema oppioide endogeno coinvolto nella modulazione del processo nocicettivo che ha aperto la strada alla messa a punto di nuove molecole possibilmente caratterizzate da minor potenziale di abuso per il controllo farmacologico del dolore. Nel 1994, accanto ai tre classici tipi recettori oppioidi µ, δ e κ, è stato scoperto un nuovo recettore appartenente alla famiglia degli oppioidi: il recettore NOP (Nociceptin Opioid Peptide), conosciuto anche come recettore ORL-1 (opioid receptor-like 1). Si tratta di un recettore accoppiato a proteina G, con un grado di omologia strutturale superiore al 60% con gli altri recettori oppioidi. Nonostante ciò, non lega i tipici ligandi peptidici e non-peptidici dei recettori oppioidi. Il recettore NOP inizialmente era considerato un recettore orfano, ma un anno dopo la sua identificazione, nel 1995, due diversi gruppi di ricerca, con tecniche di farmacologia inversa, isolarono il suo ligando endogeno: un eptadecapeptide che fu chiamato Nocicettina (N) da un gruppo, e Orfanina-FQ (OFQ) dall’altro. Il sistema nocicettina/orfanina FQ-recettore NOP è ampiamente distribuito nel sistema nervoso centrale e periferico, dove media una vasta gamma di funzioni biologiche, tra cui la nocicezione. Anche se il ruolo del sistema N/OFQ-NOP nei processi di modulazione del dolore non è ancora stato chiarito, è stato dimostrato che gli agonisti del recettore NOP possono rappresentare una nuova promettente classe di analgesici. Dal 1998 ad oggi sono stati sviluppati numerosi ligandi peptidici e non-peptidici del recettore NOP. Tra i ligandi non-peptidici, una classe importante è rappresentata dai composti a struttura spiropiperidinica, sviluppati a partire dalla Spiroxatrina, un ligando del recettore 5HT1A che ha dimostrato una discreta affinità nei confronti del recettore NOP (Ki= 127 nM). Per questo motivo è stata selezionata dal nostro gruppo di ricerca come lead compound per lo sviluppo di ligandi del recettore NOP. Oggetto di studio della mia tesi sono state la progettazione, la sintesi, la caratterizzazione strutturale e la valutazione biologica di analoghi della Spiroxatrina. In particolare sono stati condotti studi preliminari di relazione struttura attività a livello della porzione 1,4-benzodiossanica, che è stata sostituita con diversi nuclei, mentre la porzione del 1,3,8-triazaspirodecanone è stata mantenuta invariata. Le serie di composti ottenuti sono elencate di seguito: derivati del 1,4-spirodiossolano; derivati del 5-aza-1,4-benzodiossano; derivati del propandiolo; derivati del cromanone e del cromanolo; derivati del tetralone e del tetralinolo; derivati del cromone; derivati del cromene e del cromano; derivati dell’indano e della tetralina. Tutti i composti sintetizzati sono stati successivamente testati sul recettore NOP ricombinante umano (hNOP) utilizzando saggi di mobilizzazione del calcio. Alcuni di essi hanno mostrato una debole attività agonista con valori di pEC50 nel range micromolare, paragonabili a quello della spiroxatrina (pEC50=6.10). Tali molecole possono quindi rappresentare quindi un utile strumento per lo sviluppo di nuovi e potenti ligandi per il recettore NOP.
Modena & Reggio Emilia University
TAIT ANNALISA
2013-02-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02062013-103459/
it
unrestricted
Copyright information available at source archive
CHIM/08
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02052013-122129
2016-05-04
dtype:D1
dtype:PhD
Nanoparticelle polimeriche allestite in emulsione semplice: preparazione, ottimizzazione dei parametri formulativi ed applicazione nella terapia antitumorale
DE VITA, ALESSANDRO
Rituximab
Nutlin-3a
Nanoparticelle
Emulsione-semplice
direzionamento
Le nanoparticelle polimeriche (Nps) sono tra i vettori maggiormente indagati e proposti per la veicolazione ed il direzionamento dei farmaci. Le Nps sono sistemi colloidali costituiti da polimeri naturali o sintetici aventi dimensioni comprese tra 50 e 500 nm. L’interesse per questi nanocarriers trova il razionale nella versatilità formulativa e nella possibilità di modificazione superficiale attuata per modulare i parametri farmacocinetici.
La prima parte del progetto di dottorato è stata dedicata alla preparazione di Nps di PLGA direzionate al cervello per coniugazione con un eptapetide in grado di by-passare la Barriera Emato-Encefalica e modificate con sonde fluorescenti al fine di validare l’impiego di tali sistemi in diagnostica. I risultati hanno dimostrato la localizzazione cerebrale dei nanosistemi confermandone la possibilità di impiego come valido strumento nell’imaging di malattie cerebrali attraverso l’optical imaging.
Successivamente, sono state formulate Nps abili nella stabilizzazione e nel direzionamento di attivi antitumorali. Lo studio tecnologico ha portato all’ottimizzazione di parametri formulativi per l’allestimento di Nps mediante singola emulsione, tecnica utile per il caricamento di farmaci idrofobi con caratteristiche chimico fisiche ostiche alla somministrazione. Sono stati indagati diversi parametri quali potenza e tempi di sonicazione, metodo e caratteristiche di purificazione, condizioni di conservazione e liofilizzazione con l’impiego di crioprotettore a differenti concentrazioni. Impiegando potenza e tempi di sonicazione brevi si sono ottenute nanoemulsioni omogenee che si traducono in preparazioni nanoparticellari monodisperse e monomodali, con diametro prossimo a 200 nm. Centrifugazioni per 10 minuti a 15000 rpm hanno portato alla pellettizzazione e purificazione delle Nps, l’impiego di trealosio in quantità minime ha consentito la risospensione dopo liofilizzazione.
Tali condizioni sono state applicate nell’allestimento di Nps caricate con un farmaco antitumorale, il Nutlin-3a. Nutlin-3a è una piccola molecola antagonista di MDM2. MDM2 si lega a p53 (soppressore tumorale) e ne induce degradazione proteosomica rendendo la cellula incapace di attivare vie apoptotiche. Diversi studi hanno rafforzato il concetto che la selettiva non-genotossica attivazione di p53 mediante Nutlin-3a potrebbe rappresentare un'alternativa alla chemioterapia tradizionale. Sfortunatamente Nutlin-3a mostra diverse limitazioni come la scarsa solubilità in ambiente acquoso e la conseguente limitata biodisponibilità. La formulazione di Nutlin-3a in Nps ha portato alla stabilizzazione di quantità di attivo sufficienti per intraprendere studi in vitro ed in vivo e valutare la somministrabilità del farmaco. Le Nps sono state successivamente modificate in superficie con un anticorpo monoclonale (Rituximab) diretto in modo selettivo contro le cellule tumorate. L’anticorpo è stato coniugato alla superficie delle Nps adattando e ottimizzando tecniche conosciute di ingegnerizzazione superficiale. Accanto alla caratterizzazione chimico fisica dei sistemi, è stata valutata la derivatizzazione superficiale sia qualitativamente (mediante microscopia a forza atomica) che quantitativamente (mediante tecniche spettroscopiche); il 7% della superficie risulta ricoperto di anticorpo, quantità sufficiente, teoricamente, a promuovere un target selettivo al bersaglio cellulare. Studi in vitro ed in vivo sono in esecuzione per dimostrare l’applicabilità e l’efficacia del rilascio.
Modena & Reggio Emilia University
VANDELLI MARIA ANGELA
2013-02-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02052013-122129/
it
unrestricted
Copyright information available at source archive
CHIM/09
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02052013-125616
2016-05-04
dtype:D1
dtype:PhD
Tiofen-derivati come modulatori di patologie causate da iperproliferazione cellulare. Derivati benzo[b]tiofenici come inibitori di beta-lattamasi.
FARINA, DAVIDE SALVATORE FRANCESCO
sintesi
infezioni
drug-design
beta-lattamasi
benzo[b]tiofene
L’anello tiofenico e gli analoghi cicli condensati, sono strutture molto ricorrenti in molecole biologicamente attive sia di origine naturale che di sintesi. L’applicazione nel campo del fragment based drug design ne ha fatto un gruppo particolarmente interessante per la ricerca di nuovi composti attivi. Diversi farmaci in uso clinico come antimicrobici presentano l’anello tiofenico nella loro struttura. Durante il mio Dottorato di Ricerca, mi sono occupato principalmente della chimica del tiofene applicata alla sintesi di potenziali candidati farmaci. Nello specifico sono stato coinvolto in due principali temi di chimica farmaceutica, la ricerca di farmaci beta-lattamici e quella di composti ad attività antimicobatterica. Io ho sviluppato i due seguenti progetti: a) Design, sintesi e valutazione biologica di inibitori di beta-lattamasi b) Design, sintesi e valutazione biologica di inibitori della Mycobacterium Tubercolosis ThyX come agenti ad attività antimicobatterica a) Il fenomeno della resistenza al trattamento con antibiotici beta-lattamici da parte dei batteri Gram negativi è uno dei maggiori problemi di salute pubblica. Per questi microrganismi, il principale meccanismo di resistenza agli antibiotici è mediato dalle beta-lattamasi, che agiscono idrolizzando l’anello beta-lattamico inattivando questi farmaci. Di particolare rilevenza clinica sono le isoforme CTX-M-, KPC-, AmpC-, OXA- e le metallo-beta-lattamasi che stanno emergendo negli ultimi anni come endemiche in diverse parti del mondo. I classici inibitori in commercio come acido clavulanico o sulbactam sono inefficaci contro queste isoforme di beta-lattamasi, mentre la ceftazidime e i carbapenemi sono riconosciuti e idrolizzati. Durante il mio Dottorato di Ricerca ho sviluppato derivati sintetici dell’acido benzo[b]tiofen-2-il-boronico (BzBTh-2B), inibitore di AmpC-beta-lattamasi (Ki pari a 27 nM), con lo scopo di migliorarne la permeazione attraverso la membrana esterna dei batteri Gram negativi. Ho, inoltre, modificato la struttura del benzo[b]tiofene, introducendo una catena alchilica in posizione 3 e sulla base di questo scaffold ho ottenuto una serie di derivati con un ampio spettro di azione nei confronti di queste isoforme di beta-lattamasi. L’attività biologica dei composti è stata valutata e sono stati individuati promettenti inibitori di beta-lattamasi a livello cellulare. b) Il Mycobacterium Tuberocolosis è l’agente patogeno responsabile della tubercolosi. Negli ultimi anni è stata identificata la proteina ThyX, che ha aperto nuovi orizzonti per il drug discovery di nuovi farmaci per la cura delle infezioni mediate da questo micobatterio. La ThyX è una timidilato sintasi flavin-dipendente (FDTS) che catalizza la metilazione riduttiva della 5’-deossiuridina-monofosfato (dUMP), in 5’-deossi-timidina-monofosfato (dTMP), necessaria per la sintesi e i processi riparativi del DNA. Pertanto, questo enzima è essenziale per la sopravvivenza del microrganismo. Il numero esiguo di inibitori noti per questa proteina ha motivato il mio interesse a lavorare su questo enzima. Nello specifico, ho sintetizzato una piccola libreria di composti contenenti il nucleo dell’acido piroglutammico, come potenziali agenti antimicobatterici. Lo studio preliminare dell'attività biologica dei composti è stato effettuato. I risultati mostrano che i composti sono poco attivi e devono essere ulteriormente migliorati.
Modena & Reggio Emilia University
COSTI MARIA PAOLA
2013-02-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02052013-125616/
it
unrestricted
Copyright information available at source archive
CHIM/08
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02012013-133958
2016-05-04
dtype:D1
dtype:PhD
Studio di composti cosmetici e farmaceutici finalizzato alle tecniche di preparazione e d'analisi strumentale.
FREGUGLIA, GIADA
polimorfi
cristallizzazione
cosmetici
SERS
raman
L’attività di ricerca è stata inerente al settore farmaceutico e tecnologico-cosmetico. Per il primo settore di ricerca, lo studio è stato indirizzato verso polimorfi di sostanze farmacologicamente attive (API), nello specifico verso la loro cristallizzazione, identificazione e caratterizzazione con tecniche analitiche tradizionali ed avanzate. Nota è infatti la differente biodisponibilità del farmaco legata a differenze nelle proprietà chimico-fisiche dei polimorfi.
In particolare lo studio è stato rivolto a due differenti farmaci: propantelina bromuro ed ampicillina. Il primo polimorfo esiste in due differenti forme solide, forma I e forma II, mentre l’ampicillina come triidrata, monoidrata e due forme anidre (δ e γ). Per la caratterizzazione di questi composti farmaceutici sono state utilizzate differenti tecniche: spettroscopie FT-IR e Micro-Raman, calorimetria differenziale a scansione DSC, termogravimetria TGA, diffrazione a raggi-X su polveri, hot-stage Raman Microscopy (HSM) e tecnica SERS (Surface Enhancement Raman Spectroscopy). Questa tecnica inducendo la riduzione dell’effetto di fluorescenza ed aumentando il segnale Raman, può essere applicata in svariati campi, farmaceutico, biochimico e forense. I polimorfi di propantelina bromuro ed ampicillina una volta cristallizzati sono stati caratterizzati mediante approccio multi analitico. L'assegnazione delle bande è stata assistita da calcoli quanto-meccanici.
Nell’ambito cosmetico la ricerca è stata rivolta allo studio analitico di reperti cosmetici e farmaceutici antichi provenienti da musei nazionali. Parte di questa ricerca è stata oggetto di un progetto PRIN “Colori e balsami nell’antichità: dallo studio chimico alla conoscenza delle tecnologie in cosmesi, pittura e medicina”. I campioni oggetto di questo studio sono stati raccolti presso il Museo Aboca (SanSepolcro), e analizzati con diverse tecniche. La correlazione tra i dati spettroscopici e le iscrizioni riportate sugli albarelli ha permesso di ricercare le ricette originali identificate su Farmacopee antiche e la successiva ripreparazione di questi unguenti. Questo ha portato alla preparazione in laboratorio di 14 differenti unguenti antichi e al successivo confronto tra i dati analitici dei residui antichi, degli unguenti ricreati e degli unguenti invecchiati artificialmente. I risultati di questo lavoro sono stati poi pubblicati su Analytical and Bioanalytical Chemistry (ABC).
I campioni di epoca fenicio-punica, recuperati presso i musei Fondazione Whitaker (Mozia), A. Pepoli (Trapani), A. Salinas (Palermo) e Baglio Anselmi (Marsala), erano invece composti per lo più da polveri inorganiche colorate, probabilmente utilizzate per una applicazione cosmetica. Questi residui sono stati analizzati con tecniche spettroscopiche Raman e FT-IR e con la tecnica SERS.
Altri campioni, classificabili come preparati farmaceutici, sono stati recuperati presso il Museo Nazionale Atestino (Este). Si trattava di antichi colliri rinvenuti in una tomba di un medico assieme ad un astuccio cilindrico corredato di strumenti medicali. Anche per questi campioni sono state applicate delle tecniche analitiche non invasive al fine di determinarne la composizione.
Modena & Reggio Emilia University
GAMBERINI MARIA CRISTINA
BARALDI CECILIA
2013-02-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02012013-133958/
it
unrestricted
Copyright information available at source archive
CHIM/09
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02032013-180855
2013-05-30
dtype:D1
dtype:PhD
Coinvolgimento della Nocicettina/Orfanina FQ e del Neuropeptide S in condizioni legate allo stress: ansia, nocicezione, e nei processi di chemiotassi e fagocitosi.
NOVI, CHIARA
chemiotassi
fagocitosi
N/OFQ
NPS
stress
Evidenze sperimentali indicano che i neuropeptidi esercitano le loro principali azioni quando il sistema nervoso risulta “stressato” o affetto da particolari patologie. Vari studi supportano l’ipotesi che i peptidi siano implicati in processi modulatori e in altre funzioni biologiche. Le nostre ricerche si sono concentrate sulle potenzialità di Nocicettina/Orfanina FQ (N/OFQ) – Recettore NOP e Neuropeptide S (NPS) e il suo recettore (NPSR).
Antagonismo funzionale tra Nocicettina/Orfanina FQ e il Fattore di Rilascio delle Corticotropine in disturbi legati a stati di ansia, in modelli animali di ratto: coinvolgimento del sistema serotoninergico
N/OFQ agisce da ansiolitico nei ratti, ed è stato proposto essere antagonista funzionale del fattore di rilascio delle corticotropine (FRC), poiché ne antagonizza gli effetti senza avere affinità per il recettore di FRC. FRC determina cambiamenti in sistemi neurotrasmettitoriali, come quello serotoninergico. Abbiamo indagato l’antagonismo funzionale fra N/OFQ e FRC in condizioni correlate all’ansia in ratti, valutando parametri comportamentali con due test ansiometrici. Abbiamo inoltre studiato possibili cambiamenti nel sistema serotoninergico nella corteccia frontale e nel ponte, aree ricche di neuroni serotoninergici. N/OFQ contrasta sia gli effetti ansiogeni indotti dal FRC, che i cambiamenti, area dipendenti nel sistema serotoninergico.
Effetti antinocicettivi di somministrazioni intratecali di agonisti del recettore della Nocicettina/Orfanina FQ, mediante l’utilizzo del test del battito di coda
Numerosi studi indicano che N/OFQ induce effetti opposti a seconda della via di somministrazione: pronocicettivi a livello centrale e antinocicettivi a livello del midollo spinale. Modificazioni chimiche della struttura di N/OFQ per incrementarne la potenza o la resistenza alla degradazione hanno portato allo sviluppo di composti, come l’agonista UFP-112. Abbiamo comparato gli effetti di UFP-112 con N/OFQ e morfina, a livello intratecale in ratti sottoposti al test del battito di coda. I risultati indicano che UFP-112 mima gli effetti antinocicettivi di N/OFQ ma con potenza maggiore, mentre la durata dell’effetto è simile a quello della morfina. Questi dati sono utili per selezionare una dose adeguata di UFP-112, , per valutare lo sviluppo di tolleranza in studi in cronico.
Neuropeptide S stimola la chemiotassi e la fagocitosi di monociti umani attivando il suo recettore (NPSR)
NPSR risulta sovra-regolato in condizioni infiammatorie; NPS, infatti, stimola la chemiotassi di leucociti murini in vitro. Le analisi di struttura e attività di NPS hanno sviluppato antagonisti per NPSR, in particolare due peptidici, [tBu-D-Gly5]NPS, [D-Cys(tBu)5]NPS, e uno non peptidico, SHA 68. Abbiamo studiato la capacità di NPS di stimolare e modulare la chemiotassi e la fagocitosi di monociti umani comparando l’effetto con il peptide pro-infiammatorio formyl-Met-Leu-Phe (fMLP). NPS ha un’azione chemiotattica dose dipendente nell’intervallo di concentrazioni 10-12-10-5 M. L’effetto chemioattrattivo di NPS, ma non quello indotto da fMLP, è bloccato dagli antagonisti, con SHA 68 che mostra una potenza maggiore. Gli esperimenti di fagocitosi mostrano che la prestimolazione con NPS 10-5 M induce una fagocitosi simile a quella di fMLP 10-8 M. Il pretrattamento con gli antagonisti per NPSR blocca la fagocitosi degli E. Coli, ottenuta col trattamento con NPS. Lo studio dimostra che NPS stimola la chemiotassi e la fagocitosi dei monociti umani, fenomeni che possono essere contrastati dagli antagonisti per NPSR, suggerendo che essi dipendano dall’attivazione di NPSR.
Il presente lavoro, suggerisce il ruolo modulatorio dei sistemi neuropeptidergici possibili targets per lo sviluppo di nuovi farmaci per il trattamento di patologie del SNC, incluse ansia, nocicezione, e funzioni periferiche come chemiotassi e fagocitosi.
Modena & Reggio Emilia University
GENEDANI SUSANNA
VITALE GIOVANNI
2013-02-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02032013-180855/
it
unrestricted
Copyright information available at source archive
BIO/14
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11292012-200032
2016-05-04
dtype:D1
dtype:PhD
Tossicità in vitro di nanoparticelle metalliche in linee e colture cellulari neuronali
SIGHINOLFI, GIAN LUCA
nanotossicologia
nanoparticelle
microglia
tossicità
neuroni
Diversi studi in vitro hanno indicato la potenziale tossicità di nanoparticelle (NPs) su colture e linee cellulari. Due differenti linee cellulari umane (SH-SY5Y, U87 MG) rispettivamente neuronali e gliali, e una linea cellulare murina (BV2) di microglia, sono state usate come modello per studiare l'interazione di NPs metalliche in vitro. In parallelo, cellule gliali e neuronali corticali primarie di ratto sono state coltivate per simulare la condizione del cervello in vivo. Nanoparticelle di oro (Au), ossido di ferro (Fe3O4), cobalto (Co) e ossido di cerio (CeO2) sono stati acquistate presso Nanostructured & Amorphous Materials Inc. (Houston, USA) in forma di polvere e risospese come definito dalla linea guida OECD WPMN (program for the testing of Manufacture Nanomaterials).
Delle NPs in soluzione si è calcolata la dimensione, la concentrazione e la carica superficiale con tecniche di Microscopia Elettronica a Trasmissione (TEM), Dynamic Light Scattering e potenziale Zeta. La morfologia delle cellule SH-SY5Y, U87 MG e BV2, trattate per 48/72 ore a 37° C con differenti concentrazioni di NPs (150, 15, 1.5, 0.15 microgr x 10^6 cellule), è stata valutata mediante confronto con cellule non trattate utilizzando un microscopio invertito NIKON TMS dotato di una fotocamera digitale (Leica Systems). Per studiare l'interazione di NPs con le cellule e la loro composizione chimica è stato usato un Microscopio Elettronico a Scansione Ambientale (ESEM) (200 ESEM-QUANTA dalla FEI Company, Paesi Bassi) dotato di un sistema di spettrometria a dispersione di energia (EDS da EDAX, USA). Mediante test XTT (XTT viability assay, Invitrogen, USA) e test di incorporazione della BrdU (BrdU cell proliferation ELISA, Roche, Mannheim, Germania) si è valutata la vitalità cellulare e la proliferazione cellulare a 48-72h in seguito ad esposizione alle NPs. Il potenziale effetto cancerogeno delle nanoparticelle è stato misurato utilizzando il saggio two-stage transformation assay: colture di cellule 3T3 sono state analizzate per identificare il potenziale ruolo di iniziatore o promotore delle NPs nella formazione di tumori. Come controllo nel ruolo di iniziatore è stato usato il 3-methylcholanthrene (MCA) mentre il 12-O-tetradecanoylphorbol 13 acetato (TPA) è stato utilizzato come controllo nel ruolo di promotore. Tutti i tipi di NPs sono stati testati alla concentrazione sub-tossica di 1,5 microgr x 10^6 cellule.
I dati di vitalità e proliferazione cellulare ottenuti hanno mostrato risultati diversi a seconda della linea cellulare e della diluizione di NPs. Nel caso della linea neuronale SH-SY5Y, tutte le NPs testate dopo 48 e 72 ore di esposizione hanno mostrato una diminuzione significativa nella vitalità cellulare. La linea cellulare gliale U87 MG ha mostrato una diminuzione della vitalità cellulare dopo trattamento con NPs di ossido di ferro, cobalto e ossido di cerio sia a 48 che a 72 ore. Le SH-SY5Y e U87 MG hanno mostrato un comportamento diverso nell'uptake di NPs dopo 48 ore. Le U87 MG hanno dimostrato una maggiore capacità di internalizzazione rispetto alle SH-SY5Y, indicando la presenza, nelle cellule gliali, di un meccanismo specifico che è in grado di sequestrare le NPs in grande quantità. Nessuna riduzione nella vitalità cellulare dopo esposizione a NPs di oro e di ossido di ferro è stata rilevata nelle cellule primarie di ratto in entrambe le sub popolazioni (cellule gliali e neuroni). Al contrario le cellule BV2 di microglia hanno mostrato un aumento della vitalità cellulare dopo 48h di esposizione a NPs. I dati di cancerogenicità hanno mostrato che le nanoparticelle di oro e di ossido di ferro svolgono un ruolo significativo come promotore. Tuttavia, tutte le NPs testate non hanno mostrato alcun effetto di iniziatore tumorale.
Modena & Reggio Emilia University
TASCEDDA FABIO
CORSI LORENZO
2013-02-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11292012-200032/
it
unrestricted
Copyright information available at source archive
BIO/13
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-12032012-103957
2016-05-04
dtype:D1
dtype:PhD
Tracciabilità geografica: un approccio metodologico per prodotti enologici
BERTACCHINI, LUCIA
Sr-IR
MC-ICP/MS
chemiometria
vino
tracciabilità
I concetti di qualità e tracciabilità alimentare ricoprono un ruolo primario nella società, principalmente a causa dei recenti casi che hanno minacciato l'autenticità e la sicurezza di alcuni prodotti. Le produzioni enologiche, per le loro caratteristiche e la vasta diffusione, necessitano di interventi per la protezione, valorizzazione e innovazione, da cui possono trarre opportunità di crescita. Poiché la qualità del vino è strettamente legata al concetto di terroir (storia, origine, metodi e materie prime tradizionali), il legame tra alimento e territorio di origine può rappresentare un valore aggiunto. Quindi, la definizione di criteri oggettivi per la tracciabilità geografica dei vini, con particolare attenzione per prodotti a denominazione (DOP, IGP, ecc.), può rappresentare una svolta innovativa. Il progetto di ricerca di cui fa parte questo lavoro è finalizzato allo sviluppo di modelli di tracciabilità geografica e opera con una duplice strategia: da una parte l'investigazione estesa di vini commerciali e matrici territoriali e dall'altra uno studio pilota per chiarire alcuni punti critici. In particolare, i seguenti aspetti sono stati presi in considerazione: 1) l'identificazione degli indicatori adatti, 2) l'ottimizzazione di metodologie analitiche per la loro determinazione, 3) lo studio del comportamento degli indicatori in relazione alle diverse fonti di variabilità (suolo, uptake della pianta, processo produttivo) e 4) la pianificazione di un campionamento rappresentativo per tutte le matrici.
In questa tesi, un approccio basato sulla sinergia tra metodi analitici e analisi multivariata è stato utilizzato per studiare alcuni degli aspetti sopra citati, al fine di ottenere informazioni sul sistema analizzato.
In particolare, è stato fatto uno screening dei terreni mediante diffrazione a raggi X e tecniche chemiometriche, per valutare in modo semplice e veloce la variabilità inter e intra sito, considerando l'influenza della profondità e del periodo di prelievo, ottenendo così indicazioni sulla procedura di campionamento (profondità e periodo, numero e posizione dei campioni all'interno dei campi).
In seguito, il rapporto isotopico 87Sr/86Sr è stato scelto tra gli indicatori analitici di tracciabilità e valutato in diverse matrici della filiera enologica. Il rapporto isotopico dello stronzio varia in base all'età delle rocce, all'iniziale rapporto Rb/Sr e al tempo trascorso, risultando quindi correlato alle caratteristiche geologiche del territorio. Inoltre, lo stronzio è coinvolto nel metabolismo delle piante e risulta assorbito senza effetti di frazionamento sul rapporto isotopico. Per questo, il rapporto isotopico dello stronzio dovrebbe mantenersi costante dal terreno alla pianta e infine nell'alimento. D'altro canto, diversi fattori (assorbimento della pianta, processo produttivo, contaminazioni antropiche o naturali) potrebbero influenzare l'indicatore e dovrebbero quindi essere considerati.
Un ICP/MS multicollettore ad alta risoluzione è stato utilizzato per determinare il rapporto isotopico 87Sr/86Sr in diverse matrici (terreno – tralci – succhi) al fine di monitorare la variabilità dell'indicatore nel terreno e verificare la sua efficacia. Inoltre, grandi sforzi sono stati fatti nel razionalizzare gli aspetti legati all'assorbimento di elementi da parte della vite e, di conseguenza, determinare il rapporto isotopico nella frazione biodisponibile di stronzio. I risultati ottenuti evidenziano una buona corrispondenza tra i valori di rapporto isotopico misurati nelle frazioni di terreno, mimanti la parte biodisponibile, e i rispettivi succhi per quasi tutte le aree investigate. La correlazione con l'alimento migliora significativamente considerando i valori ottenuti per i tralci.
Modena & Reggio Emilia University
COCCHI MARINA
MARCHETTI ANDREA
MENZIANI MARIA CRISTINA
2013-02-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-12032012-103957/
it
unrestricted
Copyright information available at source archive
CHIM/01
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02182013-182934
2014-05-12
dtype:D1
dtype:PhD
Produzione e caratterizzazione di rivestimenti in biovetri e idrossiapatite
CATTINI, ANDREA
Hydroxyapatite
Coating
Bioglass
Plasma-Spray
Suspension
Negli ultimi decenni la ricerca in campo biomedico ha acquisito un'importanza sempre maggiore. A causa del progressivo invecchiamento della popolazione, un settore di grande sviluppo è quello dei materiali per le protesi ossee. Nonostante la realizzazione di impianti protesici sia una pratica già matura e consolidata, la ricerca è in continua evoluzione con lo scopo di aumentare sia la compatibilità delle protesi con i tessuti ospiti che l'aspettativa di vita delle protesi stesse. Scopo di questo lavoro di tesi è la produzione di rivestimenti per protesi che siano in grado di aumentare l'adesione tra impianti protesici ed i tessuti ossei. Per la realizzazione dei rivestimenti sono stati presi in considerazione dei materiali bioattivi, ossia speciali materiali in grado sia di favorire la formazione di nuovi tessuti ossei sia di legarsi con essi. In particolare, questo studio si è occupato di due tipologie di materiali bioattivi: l'idrossiapatite ed i biovetri. L'idrossiapatite è il materiale ceramico bioattivo attualmente più utilizzato in campo biomedico, sia per la sua composizione molto simile a quella della componente minerale delle ossa, sia per la sua elevata stabilità in ambiente biologico. I biovetri sono invece vetri speciali caratterizzati da una elevatissima bioattività. Purtroppo l'utilizzo di l'idrossiapatite e biovetri in impieghi strutturali è precluso dalle loro proprietà meccaniche, in particolare dalla loro fragilità. Una soluzione a questo problema è l'utilizzo dei materiali bioattivi per la realizzazione di rivestimenti su protesi metalliche; in tal modo la peculiare capacità di legarsi ai tessuti ossei dei materiali bioattivi viene abbinata alle elevate proprietà meccaniche tipiche dei metalli. Il metodo di produzione di rivestimenti bioattivi attualmente più utilizzato è il plasma spray, in particolare in questo studio si è utilizzato una recente evoluzione di questa tecnica: il plasma spray da sospensione. La differenza tra questa tecnica ed il tradizionale plasma spray risiede nell'utilizzo di materie prime in forma di sospensione invece che di polveri secche; ciò consente di processare particelle sub-micrometriche o nanometriche e quindi di ottenere rivestimenti dalla microstruttura più fine. Nella prima parte di questo lavoro si sono studiati dei biovetri massivi di diversa composizione, al fine di selezionare le composizioni più promettenti per la produzione di rivestimenti. Nello specifico si è effettuato uno studio in vitro per comparare la bioattività dei diversi biovetri. In seguito sono stati studiati i parametri di deposizione ottimali per la produzione di rivestimenti in biovetro. I rivestimenti sono poi stati caratterizzati da un punto di vista microstrutturale, meccanico e ne è stata testata la bioattività. Si è poi proceduto producendo ed analizzando dei rivestimenti con strutture composite in biovetro e idrossiapatite. Nella fattispecie si sono realizzati dei rivestimenti con tre microstrutture composite: a miscela, a doppio layer, e con gradiente di composizione. L'obbiettivo di questi sistemi è quello di fondere l'elevata bioattività dei biovetri con la stabilità dell'idrossiapatite. I campioni così ottenuti sono stati caratterizzati, e il composito a gradiente di composizione è stato selezionato per un'ulteriore ottimizzazione dei i parametri di processo. E' stato quindi prodotto un rivestimento con gradiente di composizione mediante un sistema simile a quelli utilizzati in ambito industriale. Questo rivestimento è stato analizzato dal punto di vista microstrutturale e meccanico sia prima che post test in vitro, in modo da valutarne sia la bioattività che la stabilità.
Modena & Reggio Emilia University
CANNILLO VALERIA
PAWLOWSKI LECH
2013-02-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02182013-182934/
it
unrestricted
Copyright information available at source archive
ING-IND/22
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02182013-123413
2016-05-04
dtype:D1
dtype:PhD
Problemi ai minimi quadrati separabili e loro applicazione alla blind deconvolution
CORNELIO, ANASTASIA
Variable-Projection
Separable-problems
Nonneg-constraints
Blind-deconvolution
Altern-Optimization
In questo lavoro si analizzano problemi ai minimi quadrati separabili, in cui le variabili possono essere divise in un sottoinsieme lineare e uno non lineare. Questo tipo di problemi sono stati trattati in letteratura con due diversi approcci: il metodo di Proiezione delle Variabili e quello della Minimizzazione Alternata. L'idea su cui entrambi i metodi si basano è di sfruttare la separabilità delle variabili per modificare il problema originale ed ottenere una nuova formulazione, più semplice e di dimensioni minori della prima. E' presentato un dettagliato confronto tra i due metodi, sottolineando i rispettivi pro e contro e per quali applicazioni la scelta di un approccio è preferibile all'altro. Un punto cruciale per entrambi i metodi, che rappresenta la loro maggiore differenza, è nel calcolo della matrice Jacobiana.
In particolare, ci siamo concentrati su problemi ai minimi quadrati separabili vincolati, dando particolare attenzione al caso di vincoli di non-negatività sulla variabile lineare. Questa scelta è motivata dall'applicazione all'ambito dell'imaging, dove le componenti del vettore delle incognite sono pixel, che si riferiscono ad una quantità fisica quindi devo essere reali e non-negativi. Come contributo originale, si è estesa la Proiezione delle Variabili al caso non-negativo ed si è proposta una nuova formula per il calcolo della matrice Jacobiana.
Per validare i risultati teorici, è proposta una applicazione alla blind deconvolution. In questi problemi, sono fornite misure di radiazioni (microonde, raggi-X, ultrasuoni, ecc.), emesse o trasmesse da un oggetto incognito (tipicamente un segnale o un'immagine bidimensionale), insieme a parziali informazioni (o nessuna) sull'apparato che fornisce i dati. Si devono quindi risolvere il problema non banale della ricostruzione dell'oggetto e contemporaneamente del modello che descrive la formazione dei dati. Una strategia diffusa per affrontare la blind deconvolution consiste nel passare ad una formulazione ai minimi quadrati, che abbia per incognite sia l'oggetto che il modello dipendente da parametri da stimare. A causa della severa mal posizione, la presenza di rumore sui dati misurati rende inutilizzabile la strategia di semplice inversione dei dati, mentre solo un accurato studio dell'instabilità congiunta alla scelta di opportune tecniche di regolarizzazione può portare ad ottenere una soluzione fisicamente significativa.
Se l'oggetto è l'incognita lineare e i parametri da cui dipende il modello sonole variabili non lineari, la blind deconvolution può essere formulata come un problema separabile e risolta con i metodi di Proiezione delle Variabili e Minimizzazione Alternata. Per tali problemi di larga scala, l'operatore che descrive il modello possiede tipicamente speciali caratteristiche e strutture, da sfruttare per una efficiente implementazione dei metodi iterativi e delle tecniche di regolarizzazione.
Una seconda differenza cruciale tra i due metodi è nel tipo di regolarizzazione che ammettono. Infatti, nella Proiezioni delle Variabili è consentita solo la siddetta regolarizzazione diretta, che consiste nell'incorporare informazioni a priori sulla soluzione attesa. Invece la Minimizzazione Alternata ammette anche la regolarizzazione iterativa, basata sul costruire iterativamente una successione di vettori che converge alla soluzione e sul fermare il procedimento iterativo prima che il rumore introduca artefatti sulla ricostruzione.
Sono proposti numerosi esperimenti numerici nell'ambito dell'imaging astronomico, dove la formulazione "blind" della deconvoluzione arriva da una modellizzazione parametrica dell'operatore di blurring o, nel caso di dati di Fourier, da incertezza sulle frequenze spaziali corrispondenti ai dati. Tutti i test condotti mostrano che la presenza di vincoli di non-negatività sull'approccio separabile di blind deconvolution proposto forniscono miglioramenti nella qualità dei risultati ottenuti.
Modena & Reggio Emilia University
ZANNI LUCA
2013-02-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02182013-123413/
it
unrestricted
Copyright information available at source archive
MAT/08
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-12182012-101657
2016-05-04
dtype:D1
dtype:PhD
Struttura e funzione dei recettori 5-HT3 rivelate attraverso studi computazionali e sperimentali
DEL CADIA, MARTA
mutazioni
homology-modelling
docking
binding
5-HT3
Il recettore serotoninergico di tipo 3 (5-HT3) è un pentamero transmembrana selettivo per i cationi, le cui stechiometrie funzionali e la disposizione delle subunità sono ancora oggetto di discussione. Sono state identificate cinque differenti subunità, da A ad E. Solo la subunità A è in grado di formare recettori omopentamerici funzionali; le altre subunità sono apparentemente funzionali solo se co-espresse con A. La struttura 3D non è stata ancora risolta per nessuna delle subunità. Inoltre, la maggior parte dei dati disponibili su struttura e funzione del recettore riguardano il dominio extracellulare (ECD), mentre i domini transmembrana (TMD) e intracellulare (ICD) sono molto meno caratterizzati, anche se noti per avere un ruolo cruciale per la funzionalità del recettore. Il 5-HT3R è un bersaglio importante per molti farmaci neuroattivi, tra i quali il palonosetron rappresenta un potente antagonista di nuova generazione, il cui meccanismo d'azione non è stato ancora pienamente compreso. Recenti studi computazionali suggeriscono un possibile secondo sito d’azione nell’ECD, stimolando quindi un ulteriore interesse per lo studio della multivalenza nei 5-HT3Rs. Questa tesi ha l’obiettivo di comprendere le caratteristiche strutturali e funzionali del recettore 5-HT3 per approfondire la conoscienza di aspetti chiave ancora ampiamente discussi in letteratura, come ad esempio l'interfaccia di legame, la multivalenza del recettore e la sua composizione stechiometrica funzionale. A questo scopo, è stato realizzato un approccio combinato computazionale-sperimentale. Studi di docking su nuovi antagonisti sono stati effettuati utilizzando l’interfaccia di legame omomerica 5 HT3RAA precedentemente modellata, allo scopo di verificare la possibilità per il recettore di ospitare ligandi bivalenti arilpiperazina-derivati. L'analisi dei modi di legame ha identificato siti di legame supplementari che, assieme all’identificazione del possibile sito allosterico trovato per il palonosetron, potrebbe essere un punto chiave per la comprensione del funzionamento del 5-HT3R, in quanto suggerisce che la multivalenza potrebbe coinvolgere domini differenti dal sito di legame ortosterico. Al fine di verificare la presenza del possibile sito di legame allosterico trovato per il palonosetron, sono stati effettuati esperimenti di mutagenesi. Questi studi sono stati condotti nei laboratori di biochimica della Dr. Sarah Lummis presso la University of Cambridge (U.K.). Sono state prodotte una serie di mutazioni sperimentali: Tyr68, Phe125, Ser158 e Asp160 nella subunità A e His66, Phe123, Glu158, Tyr136 e Ile176 nella subunità B. I recettori omomerici ed eteromerici sono stati poi espressi in cellule HEK293 per determinare la potenza del palonosetron, sia attraverso studi funzionali, che di legame con radioligandi. I dati mostrano che solo Tyr68 potrebbe contribuire ad un sito di legame alternativo per il palonosetron. Gli altri residui potrebbero modificare la sensibilità del recettore. Infine, è stata eseguita un'analisi fisico-chimica sia dell’ECD che dei TMD/ICD allo scopo di identificare fattori che possano influenzare la stechiometria del recettore. I potenziali elettrostatico ed idrofobico delle diverse interfacce del 5-HT3R, calcolati su modelli 3D precedentemente costruiti, confermano la presenza di un cluster aromatico situato al centro dell'interfaccia AA quale fattore determinante per garantire sia la stabilità che la funzionalità dell'interfaccia. Inoltre, per la prima volta, sono stati costruiti per omologia modelli 3D dei domini TM/IC di tutte le subunità del recettore umano 5-HT3 ed assemblati in omo- ed eteropentameri. Dalle analisi delle sequenze, dei modelli e delle proprietà elettrostatiche, emerge che il passaggio dello ione Ca2+ attraverso il poro, all’altezza dei TMD e ICD, è favorito quando non più di due subunità B sono co-espresse nel pentamero.
Modena & Reggio Emilia University
MENZIANI MARIA CRISTINA
CAPPELLI ANDREA
2013-02-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-12182012-101657/
it
unrestricted
Copyright information available at source archive
CHIM/02
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-12062012-181959
2016-05-04
dtype:D1
dtype:PhD
Approcci Multiset e Multi-way nell'Autenticazione Alimentare
SALVATORE, ELISA
MCR
Food-Analysis
ClassificationTools
ALS-Regression
N-SIMCA
I progressi nella progettazione della strumentazione analitica, in special modo per le tecniche ifenate, hanno portato a una crescente necessità di analizzare dati con una struttura multi-way, dove ciascun campione è rappresentato da un landscape a due dimensioni (es. cromatografia/spettrometria di massa, eccitazione/ emissione in fluorescenza). Da qui nasce il bisogno di strumenti di analisi dati, in grado di trattare queste strutture complesse. La questione diventa poi di fondamentale importanza nell’analisi alimentare, dove le certificazioni di qualità e autenticità oggi sono un obbligo sia dal punto di vista del consumatore che del produttore. Diventa chiaramente necessario migliorare le metodiche analitiche in termini di efficienza robustezza e rapidità, ed accoppiarle all’analisi multivariata dei dati per selezionare l’effettiva informazione. Il mio progetto di tesi esplora due strumenti chemiometrici che operano sui dati multi-way: Multivariate Curve Resolution (MCR) e i metodi di classificazione per array a tre dimensioni (o superiori). Inoltre vengono studiati due campi di applicazione: la risoluzione e quantificazione dei costituenti alimentari, attraverso il così detto ‘approccio matematico alla cromatografia’, dove i picchi sono risolti a posteriori utilizzando MCR, il che permette di risolvere problemi di coeluzione; e la costruzione di modelli di autenticazione per riconoscere prodotti identificati dalla denominazione di origine protetta (DOP). Per questo scopo metodi discriminanti multi-way (NPLS-DA) e multiset (MCR discriminante), così come modellamento di classe multi-way (N-SIMCA) sono applicati confrontandoli rispetto all’attuale stato dell’arte. I casi studiati derivano da applicazioni per tecniche ifenate, qui utilizzate come metodo di fingerprinting, in particolare, tre diverse denominazioni di vino Lambrusco DOP sono state per la prima volta caratterizzate rispetto alla frazione di composti fenolici (HPLC-DAD). Altri dataset di precedenti lavori del nostro gruppo o della letteratura riguardano Olio Extra Vergine di Oliva Ligure DOP e vini di differente provenienza geografica (entrambi caratterizzati tramite HS-SPME/GC-MS). Gli aspetti salienti delle applicazioni MCR, del lavoro di ricerca, sono stati l’uso di alcuni vincoli come il rango locale o la selettività, fondamentali per la corretta risoluzione e quantificazione dei composti d’interesse. Per la classificazione, lo studio si è concentrato sulla versione a n dimensioni del metodo SIMCA (Soft Independent Modeling of Class Analogies), di recente sviluppo, N-SIMCA. L’obiettivo era di dimostrare quali sono i vantaggi e svantaggi di una tecnica di modellamento di classe rispetto a un approccio discriminante e della classificazione multi-way rispetto a quella 2-way sugli stessi dati srotolati o sugli scores ottenuti da un metodo di decomposizione come PARAFAC o Tucker3.
Si è dimostrato che l’analisi multi-way rappresenta una valida strategia per i casi di autenticazione e classificazione, fornendo alti valori di sensibilità e specificità per tutti i modelli calcolati; le tecniche di modellamento di classe rispetto agli approcci discriminanti sono meno performanti nel caso in cui ci sia una forte eterogeneità all’interno della classe. Inoltre è descritto e proposto un nuovo metodo di classificazione discriminante, basato su una regressione attraverso MCR. Il metodo è basato sul fornire l’informazione riguardante la classe attraverso un vincolo di selettività. I principali vantaggi riguardano i profili di concentrazioni risultanti (matrice degli spettri) che forniscono un’interessante interpretazione delle caratteristiche del modello.
Modena & Reggio Emilia University
COCCHI MARINA
MARINI FEDERICO
2013-02-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-12062012-181959/
it
unrestricted
Copyright information available at source archive
CHIM/01
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02182013-094940
2013-05-30
dtype:D1
dtype:PhD
Tecniche di virtualizzazione per lo studio di reti di emergenza
CALARCO, GIORGIO
wireless
virtualizzazione
NetBoxIT
emulazione
emergenza
Le reti di supporto agli operatori d’emergenza sono tradizionalmente basate su infrastrutture Professional Mobile Radio con capacità trasmissive alquanto limitate. Le agenzie di protezione civile palesano invece la necessità di accrescere l'efficacia e l’affidabilità delle operazioni tramite una migliore qualità delle
comunicazioni. Per questa ragione, sembra probabile che le future reti per l’emergenza possano utilizzare tecnologie eterogenee a banda larga (con modalità trasmissive diverse per le reti sensoriali, d’accesso,
metropolitane e geografiche) per collegare tra loro i soccorritori, i Centri tattici mobili e i Centri remoti di coordinamento.
Allargando lo spettro d’interesse, si può affermare che, in generale, la progettazione di un qualsivoglia sistema di telecomunicazione eterogeneo porge sempre svariate sfide. Un primo problema è capire fin
dall’inizio se l'architettura composita che si sta progettando sia idonea a offrire le prestazioni attese. In particolare, sarebbe utile disporre di uno strumento di progettazione flessibile, che consenta di
confrontare rapidamente le prestazioni di sistemi differenti al fine di selezionare subito la soluzione ottimale. A tal fine, sono disponibili svariate metodologie, dai modelli matematici puri fino all’uso di dispositivi reali. In teoria, lo strumento perfetto dovrebbe riassumere il meglio di tutti i possibili approcci: essere flessibile e conveniente come un simulatore software, modulare come un emulatore hardware, e realistico come solo i dispositivi fisici possono essere.
Per questi motivi, l’emulazione software delle reti è una tecnica di recente interesse per la comunità scientifica. L'idea di fondo è quella di puntare su di un approccio “ibrido”, in cui gli emulatori software possono essere interposti a dispositivi reali, allo scopo di accrescere il realismo delle valutazioni. Chiaramente, gli emulatori sono rapidi da configurare ed economici quanto i simulatori puri; al tempo stesso, la loro precisione è indiscutibilmente legata ai modelli simulativi in essi integrati. Diversamente da un simulatore, un emulatore però non può essere eseguito in unità di tempo virtuali, se vuole poter dialogare con sistemi reali, e occorre dotarlo di risorse computazionali certe, che gli consentano di osservare dei vincoli temporali rigorosi durante l'elaborazione dei dati in ingresso. In tal senso, l'esecuzione di una rete complessa ed eterogenea all'interno di un singolo emulatore richiederebbe una quantità enorme di risorse di calcolo. Una soluzione banale potrebbe essere quella di frazionare
l'infrastruttura in più parti ed eseguirne l’emulazione in parallelo su più calcolatori. Tuttavia, oggigiorno, le tecniche di virtualizzazione sono divenute molto efficienti e permettono di ospitare diverse entità software autonome su un unico hardware; inoltre, i sistemi di calcolo multi-processore sono ormai disponibili a costi ridotti.
Per queste ragioni, il presente lavoro è dedicato agli studi svolti per l’implementazione di un testbed modulare, NetBoxIT, basato su tecniche di virtualizzazione e di simulazione software in ambiente multi-core, in grado di emulare reti complesse su un’unica piattaforma. Utilizzando i container Linux e il simulatore di rete NS-3, è possibile creare, concatenare ed eseguire in parallelo un insieme di reti virtuali distinte che rappresentano i diversi segmenti di una rete eterogenea reale. NetBoxIT supporta la gestione del traffico in ingresso con distorsioni temporali quasi sempre trascurabili, e può essere collegato tramite interfacce standard con nodi esterni in modo semplice e trasparente. Il risultato che offriamo è costituito da un’estesa analisi delle prestazioni del testbed durante l’emulazione di vari generi di reti, con particolare riferimento alla rete d’emergenza identificata per il progetto europeo “A holistic approach towards the development of the first responder of the future”.
Modena & Reggio Emilia University
CASONI MAURIZIO
VITETTA GIORGIO MATTEO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02182013-094940/
it
unrestricted
Copyright information available at source archive
ING-INF/03
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01312013-112706
2013-05-30
dtype:D1
dtype:PhD
Integrazione dell'informazione per sorgenti dati biologici
DANNAOUI, ABDUL RAHMAN
Data
Data
Integration
Provenance
Cerealab_DB
Data integration è il processo di combinare i dati che risiedono in fonti diverse al fine di offrire all'utente finale una visione unificata dell'intera informazione disponibile.
Data Provenance è il processo dell'identificazione dell'origine del dato, come è stato derivato e come è stato modificato nel tempo.
Questa attività di ricerca sull'integrazione dell'informazione per fonti di dati biologici è stata finanziata dal progetto SITEIA e si è concentrata sul miglioramento e le estensioni del database CEREALAB. Il database CEREALAB è uno strumento web-based realizzato per aiutare i breeders di cereali nella scelta di marcatori molecolari associati a caratteri fenotipici economicamente importanti, esso contiene i dati fenotipici e genotipici ottenuti dall'integrazione delle banche dati open source disponibili con i dati ottenuti dal progetto CEREALAB. L'integrazione dell'informazione nel database CEREALAB è stata ottenuta utilizzando il sistema MOMIS (Mediator Environment for Multiple Information Sources), sviluppato dal DBGroup dell'Università degli Studi di Modena e Reggio Emilia.
Come risultato dell'estensivo uso del database CEREALAB, diverse estensioni e miglioramenti, che possono essere classificati in due categorie, sono state introdotte. In primo luogo, il contenuto del database CEREALAB è stato esteso in modo da offrire ai breeder nuovi dati significativi. Per migliorare e semplificare l'accesso al database, una nuova interfaccia grafica Breeder-Friendly è stata
sviluppata. Per massimizzare e ottimizzare l'accessibilità delle informazioni disponibili, nuove funzionalità e strumenti aggiuntivi sono stati realizzati. Infine, un nuovo modulo di inserimento dati è stato implementato.
Inoltre, al fine di soddisfare le esigenze degli utenti finali, la data provenance è stata introdotta e parzialmente implementata nel contesto del database CEREALAB. La Data Provenance è un problema di ricerca aperto, ma è particolarmente richiesto nei sistemi di integrazione dati, dove informazioni provenienti da fonti diverse, potenzialmente incerti o anche in contrasto tra di loro, sono integrati. In questo contesto, avendo la possibilità di risalire all'origine del dato può aiutare a identificare possibili risultati inattesi o discutibili.
Modena & Reggio Emilia University
BENEVENTANO DOMENICO
PECCHIONI NICOLA
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01312013-112706/
it
unrestricted
Copyright information available at source archive
ING-INF/06
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01232013-093214
2013-05-30
dtype:D1
dtype:PhD
Modellistica e Controllo di Motori Sincroni Polifase per Applicazioni Automotive
FEI, MARCO
Sincroni
Polifase
Motori
Modellistica
Controllo
Negli ultimi due decenni l'interesse per le macchine elettriche con più di tre fasi per applicazioni a velocità variabile è aumentato in tutto il mondo.
La resistenza ai guasti degli azionamenti polifase e la possibilità di aumentare la coppia mediante l’iniezione di armoniche di ordine superiore nelle correnti di statore, rendono i motori elettrici sincroni polifase adatti per i veicoli elettrici e i veicoli ibridi in cui l'affidabilità e la densità di potenza sono dei requisiti fondamentali.
Questa tesi affronta pertanto la modellistica e il controllo di motori sincroni polifase a magneti permanenti per migliorare l'efficienza e la sicurezza di nuovi veicoli elettrici e nuovi veicoli ibridi. Per quanto riguarda questi due argomenti la prima parte di questa tesi tratta i motori sincroni polifase in condizione di normale funzionamento, mentre la seconda parte li indaga in condizione di guasto.
La tecnica modellistica Power-Oriented Graphs viene utilizzata con una notazione vettoriale in modo da ottenere un approccio il più generale possibile. Tutti i parametri elettrici e meccanici del motore (come il numero delle fasi, il tipo di connessione statorica, la forma del flusso rotorico, il numero di guasti, ecc..) possono essere modificati senza cambiare la struttura dei modelli che possono essere direttamente implementati in ambiente Matlab / Simulink. Partendo da questi modelli e usando un approccio vettoriale si ottiene il riferimento ottimo di corrente che fornisce la coppia desiderata minimizzando le dissipazioni e rispettando il limite di corrente sia in condizioni di normale utilizzo che in condizioni di guasto. I controlli proposti possono essere utilizzati per ogni tipo di flusso rotorico, per un generico numero di fasi dispari e in presenza di uno o più guasti. I risultati delle simulazioni, validano l'efficacia del tecniche di controllo affrontate in questa tesi.
Nella parte finale i modelli e i controlli proposti vengono impiegati nel controllo dinamico di potenza del sistema Toyota Hybrid System. I risultati simulativi del veicolo ibrido proposto pongono le basi per studi futuri su nuove architetture di veicoli elettrici e di veicoli ibridi che sfruttino i vantaggi introdotti dall’impiego di questo tipo motori.
Modena & Reggio Emilia University
ZANASI ROBERTO
VITETTA GIORGIO MATTEO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01232013-093214/
it
unrestricted
Copyright information available at source archive
ING-INF/04
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02062013-155141
2014-05-12
dtype:D1
dtype:PhD
Sensori per l'industria biomedicale e agroalimentare: studi teorici e sperimentali
FERRARI, LUCA
ottico
elettrico
biomedicale
agroalimentare
Sensori
I sensori acquisiscono sempre maggiore importanza nelle scienze della vita. Sia nel campo biomedicale, dove è sempre più auspicabile un continuo monitoraggio dei principali parametri vitali, che nell'industria alimentare, dove il controllo della qualità è ormai un requisito fondamentale.
Tuttavia, ogni ambito applicativo richiede una specifica tecnica di misura.
La presente tesi descrive la progettazione e la realizzazione di differenti tipologie di sensori per la misura di importanti parametri nelle scienze della vita.
Inizialmente si descriverà la realizzazione di un sensore opto-chimico per la misura del pH e della pCO2 del sangue durante la circolazione extracorporea. Il sensore sviluppato è costituito da un elemento di sensing polimerico monouso, da una testa ottica di interrogazione e dall'elettronica di front-end e di controllo. L'indicatore di pH utilizzato è un nuovo tipo di monomero fluorescente (fluoresceina O-metacrilata), in grado di legarsi covalentemente alla matrice polimerica, così da ridurre la fuoriuscita di indicatore.
Il sensore è stato testato dapprima in acqua, quindi in-vitro su sangue bovino ed infine ex-vivo su una pecora e un maiale. Il sensore ha mostrato un comportamento lineare all'interno del range fisiologico, dimostrando di essere idoneo per un'applicazione biomedicale.
In seguito, si presenterà una combinazione di tecniche elettrochimiche e ottiche, mediante l'integrazione sullo stesso chip di tecniche SPR (Surface Plasmon Resonance) ed elettrochimiche. Il sistema è basato sullo strumento per misure SPR sviluppato presso l'Istituto di Fotonica ed Elettronica AS CR di Praga. Tale sistema presenta quattro canali di misura indipendenti; pertanto, sono state sviluppate quattro celle elettrochimiche, una per ogni canale, consentendo di effettuare quattro misure elettrochimiche contemporanee e indipendenti tra loro. Il substrato d'oro, utilizzato per misure SPR, è stato utilizzato anche come elettrodo di lavoro inserendo, all'interno di ogni cella, altri due elettrodi planari d'oro (elettrodo di riferimento e controelettrodo). Insieme alla realizzazione delle celle elettrochimiche, è stata sviluppata anche un'elettronica custom, in grado di applicare un potenziale arbitrario tra l'elettrodo di lavoro e quello di riferimento e misurare la corrente che scorre fra l'elettrodo di lavoro e il controelettrodo. Il biosensore realizzato dalla combinazione delle due tecniche, elettrochimica e SPR, è stato quindi utilizzato per studiare l'ibridazione delle molecole di DNA. In particolare, si è dimostrato che è possibile ottenere la densità voluta di molecole di DNA ottimizzando il potenziale applicato e che tale potenziale può essere anche utilizzato per la rigenerazione del chip SPR.
Infine saranno presentati due sensori sviluppati per l'industria alimentare, utilizzando sia tecniche elettrochimiche che ottiche.
In particolare, un sensore elettrochimico è stato sviluppato per stimare la concentrazione di glicerolo nel mosto d'uva durante la vendemmia, al fine di controllare la qualità delle uve. Insieme all'elemento di sensing elettrochimico, è stato sviluppato un sistema fluidico automatizzato mediante l'ausilio di micropompe a membrana. Il sistema, quindi, è stato testato durante la vendemmia su diversi tipi di mosto.
Un sensore ottico, invece, è stato realizzato per stimare la concentrazione di antibiotici nel latte, sfruttando la variazione di assorbanza di una specifica molecola organica in presenza di antibiotici. Il sistema, pertanto, è costituito da una testa ottica di interrogazione e dall'elettronica di front-end e processing del segnale. Il sistema, infine, è stato testato dapprima su soluzioni buffer quindi su campioni di latte con differenti concentrazioni di antibiotico.
Modena & Reggio Emilia University
ROVATI LUIGI
VITETTA GIORGIO MATTEO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02062013-155141/
it
unrestricted
Copyright information available at source archive
ING-INF/07
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01142013-121728
2016-05-04
dtype:D1
dtype:PhD
Localizzazione e Tracking per Ambienti Indoor
MONTORSI, FRANCESCO
radio
pedoni
localizzazione
inerziale
tracking
Questa tesi tratta la localizzazione (ovvero le tecniche di posizionamento) e il tracking di oggetti sensorizzati (ad esempio, un pallet in un magazzino equipaggiato con un dispositivo radio oppure un pedone dotato di sensore di misurazione inerziale).
Nell'ultima decade, i servizi di posizionamento satellitare (Global Navigation Satellite Systems (GNSS)), come il GPS, hanno reso possibile lo sviluppo di una moltitudine di nuovi servizi basati sulla posizione (location-based services (LBS)). Tali sistemi tuttavia sono disponibili solo all'aperto, dove gli oggetti sensorizzati riescono a ricevere i segnali trasmessi dai satelliti. In questa tesi varie tecniche di elaborazione dei segnali sono applicate al problema della localizzazione, al fine di estendere la copertura dei sistemi di posizionamento a quelle aree dove il segnale GPS non è ricevibile (ad esempio, negli ambienti indoor, nei cosiddetti “canyon urbani”, nel sottosuolo) tramite tecnologie diverse da quelle usate nei GNSS. Infatti, si prevede che i sistemi di localizzazione futuri incorporeranno varie tecnologie e saranno capaci di selezionare, in ciascun ambiente, la tecnologia migliore per raggiungere una elevata precisione nella stima di posizione. Si prevedono numerosi LBS sia per il mercato commerciale (ad esempio, navigazione indoor assistita, pubblicità basata sulla posizione, assistenza sociale, sistemi di trasporto intelligenti, etc) che per quello militare (ad esempio, tracking continuo della posizione degli alleati, operazioni di ricerca&soccorso, etc). Difatti, si prevede che il mercato globale delle tecnologie per sistemi di localizzazione in tempo reale (real time location systems (RTLS)) ammonterà a più di 60 miliardi di dollari nel 2017.
I sensori considerati in questa dissertazione sono dispositivi radio e unità di misurazione inerziale. Entrambi i tipi di sensori forniscono misure rumorose utili ai RTLS; tuttavia, la natura rumorosa dei segnali che generano rende essenziale l'uso di tecniche statistiche per migliorare la precisione delle stime finali di posizione e solleva anche il problema di determinare la massima precisione ottenibile. Per questo motivo, nella prima parte di questa tesi viene sviluppata una analisi teorica della massima precisione ottenibile nella stima di posizione, nel contesto della teoria della stima. In seguito, vengono proposti modelli statistici per le misure fornite dai sensori considerati e vengono derivati degli algoritmi che sfruttano tali modelli per la localizzazione (ovvero la stima di posizione di oggetti sensorizzati statici) e per la navigazione (ovvero la stima di posizione di oggetti sensorizzati in movimento). In particolare, questa tesi si concentra sulle tecniche di elaborazione del segnali e sui modelli statistici che possono essere adottati per sviluppare soluzioni a basso costo al complesso problema della localizzazione indoor.
Le strategie di localizzazione concepite fanno uso di tecniche allo stato dell'arte e innovative e pongono le basi per LBS futuri. I principali contributi di questa dissertazione sono: a) nuovi risultati sull'impatto della conoscenza della mappa nella stima di posizione, b) modelli statistici accurati per le misure di potenza ricevuta (received signal strength (RSS)) ottenuti da prototipi realizzati per localizzazione di pedoni e c) una nuova tecnica di filtraggio non-lineare, chiamata turbo-filtraggio.
Modena & Reggio Emilia University
VITETTA GIORGIO MATTEO
PANCALDI FABRIZIO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01142013-121728/
it
unrestricted
Copyright information available at source archive
ING-INF/03
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11262012-184755
2013-05-30
dtype:D1
dtype:PhD
Dispositivi MOSFET con Canale in InGaAs per l’Estensione della Tecnologia CMOS oltre il Nodo “16-nm"
MORASSI, LUCA
mobility
interface-traps
InGaAs
buried-channel
IIIV-MOSFET
Negli ultimi 30 anni, la legge di Moore è stata una linea guida per l'industria dei semiconduttori. Per sostenere la legge di Moore è richiesto un continuo scaling dei MOSFET in Si. Il corrente nodo tecnologico è di 22-nm, e le fasi successive previste dalla International Technology Roadmap for Semiconductor (ITRS) sono 16 nm e 11 nm. Questa tabella di marcia non garantisce che il CMOS basato su scaling del Si si estenderà ulteriormente e sta diventando sempre più pressante individuare una nuova famiglia di materiali a semiconduttore o di dispositivi in grado di sostenere la legge di Moore per alcune generazioni supplementari. I candidati più studiati sono materiali III-V, nanotubi, elettronica molecolare, spin-based computing, e dispositivi a singolo elettrone.
Tuttavia, molti di questi dispositivi sono allo stato di prototipo. Mentre i III-V FET e, in particolare, i transistor ad alta mobilità elettronica (HEMT) in InAIAs/InGaAs rappresentano una tecnologia già funzionante e la tecnologia produttiva per MOSHEMT in InGaAs è relativamente matura.
La mia attività di ricerca si è svolta in collaborazione con SEMATECH (USA), che ha fornito i dispositivi investigati. L’attività si è inizialmente concentrata su di MOSFET con canale in InGaAs, ZrO2 come dielettrico di gate e regioni di source/drain impiantate. E’ stato analizzato l'impatto delle trappole interfacciali sulle caratteristiche elettriche come tensione di soglia, pendenza del sottosoglia e correnti on/off in due MOSFET, uno convenzionale e uno a canale sepolto. E' stata effettuata un'analisi dettagliata degli effetti delle trappole di natura accettore e donore, evidenziando il comportamento non banale associato alle trappole donori nel dispositivo a canale sepolto
Un altro campo di indagine è stato l'ottimizzazione dello stack epitassiale componente un quantum-well MOSFET con Al2O3 dielettrico di gate a canale sepolto in InGaAs. Canale sepolto e MOSFET senza impianto delle regioni source/drain sono soluzioni studiate come alternativa alle strutture MOSFET standard, poiché minimizzano la degradazione della mobilità del canale ed evitano lo scattering all’interfaccia high-k/dielettrico causato dai cicli termici per l'attivazione doping. Concentrazione/tipo di doping e spessore degli strati che formano il dispositivo svolgono un ruolo chiave nel funzionamento. Per mezzo di simulazione abbiamo valutato l'impatto di differenti spessori e doping con lo scopo di fornire linee guida per progettazione e ottimizzazione dei dispositivi futuri.
L'elevata mobilità è la ragione principale per cui semiconduttori III-V sono studiati, è di fondamentale importanza conoscere i limiti e gli errori che influenzano le tecniche sperimentali per l'estrazione della mobilità. In particolare ci siamo concentrati sulla tecnica di estrazione della mobilità detta split-CV, applicata a quantum-well MOSFET con canale in InGaAs e Al2O3 dielettrico di gate. Simulare il metodo sperimentale split-CV ha permesso di trovare e parzialmente correggere tutti gli errori possibili che interessano l’estrazione della mobilità.
Infine, mi sono concentrato sulla caratterizzazione ed estrazione delle trappole di interfaccia in strutture III-V/high-k e Si/SiO2/high-k. Ho sviluppato una nuova tecnica generalizzata per l'estrazione delle trappole di interfaccia basata sulla combinazione di due metodi ben noti: il metodo Terman e il metodo high-low frequency. Ho applicato tale tecnica per la caratterizzazione delle trappole interfacciali in MOSFET a canale InGaAs con Al2O3 dielettrico di gate.
Invece, per studiare le trappole di interfaccia in strutture Si/SiO2/high-k abbiamo usato le tecniche di charge pumping e di “Trap Spectroscopy by Charge Injection and Sensing”. Infine, i parametri delle trappole estratti con i metodi sopra elencati sono stati confrontati con i parametri ottenuti tramite simulazioni in grado di riprodurre le correnti di perdita attraverso l'ossido di gate.
Modena & Reggio Emilia University
VERZELLESI GIOVANNI
VITETTA GIORGIO MATTEO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11262012-184755/
it
unrestricted
Copyright information available at source archive
ING-INF/01
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02182013-221136
2013-05-30
dtype:D1
dtype:PhD
Sicurezza e Analisi delle Prestazioni nei Sistemi di Emergenza di Prossima Generazione
PAGANELLI, ALESSANDRO
prestazioni
qoe
rete
sicurezza
emergenza
L'evoluzione delle moderne tecniche e tecnologie di telecomunicazione ha rivoluzionato e riscritto il modo in cui l'informazione, oggi, viene trasferita a livello globale. L'interoperabilità garantita da scelte protocollari quali l'adozione dello stack TPC/IP, così come gli standard internazionali originati in ambiti quali l'IEEE e l'ITU, ha promosso la proliferazione di un gran numero di dispositivi collegati in rete, i quali hanno contribuito in modo sostanziale a cambiare il modo in cui oggi viviamo.
Una delle applicazioni più importanti dei moderni sistemi ICT riguarda il settore della pubblica sicurezza, poiché l'incisività della risposta ad una situazione di crisi è strettamente collegata all'efficacia dell'infrastruttura di comunicazione disponibile. L'attuale stato dell'arte relativo alle tecnologie di telecomunicazioni wireless offre una vasta gamma di alternative che, in linea di principio, sarebbero in grado di supportare servizi innovativi per i sistemi di pubblica sicurezza del presente e del futuro; tuttavia, sebbene esistano implementazioni di sistemi di emergenza che adottano tecnologie all'avanguardia di tipo eterogeneo, fino ad oggi pochi di essi sono stati specificatamente pensati e progettati cercando di unificare sotto il principio cardine dell'interoperabilità il meglio delle tecnologie disponibili.
In questo lavoro viene presentato un approccio innovativo alla realizzazione di moderni sistemi ICT per la pubblica sicurezza, basato sull'attuale stato dell'arte nelle tecnologie di comunicazione e di elaborazione dell'informazione. Questo percorso trova fondamento in un large scale integration project, co-finanziato dalla Commissione Europea, dal titolo “E-SPONDER: a holistic approach toward the development of the first responder of the future”, che ha visto e vede coinvolti numerosi partner tecnici ed accademici Europei. E-SPONDER ha come obiettivo lo studio, il design e la prototipazione di un sistema ICT innovativo, pervasivo ed eterogeneo, che sia in grado di soddisfare gli attuali requisiti d'utente del personale operante nella pubblica sicurezza.
Più nel dettaglio, nel presente lavoro verrà dapprima fornita una panoramica ad alto livello delle problematiche esistenti negli attuali sistemi di pubblica sicurezza adottati a livello Europeo, per poi passare ad una attenta discussione delle possibili tecnologie allo stato dell'arte utilizzabili per la realizzazione di un sistema di nuova generazione.
La sicurezza delle comunicazioni e delle informazioni ricopre un ruolo chiave, oggigiorno, in qualsiasi sistema collegato in rete: per questo motivo, uno studio approfondito delle problematiche di sicurezza informatica è stato condotto al fine di individuare quali potessero essere i requisiti specifici per un sistema di pubblica sicurezza moderno.
Un ulteriore aspetto di notevole importanza per la progettazione di un'infrastruttura di telecomunicazioni a supporto delle emergenze riguarda, poi, la qualità dell'esperienza percepita dall'utente del sistema. Al fine di indagare questa problematica, si è deciso di partire dapprima dall'analisi delle problematiche di qualità del servizio a dal punto di vista network-oriented, per poi passare all'analisi della qualità percepita dall'utente, attraverso lo sviluppo di un apposito software di valutazione, rilasciato sotto licenza open-source GPL v.2, utilizzabile per valutare in modo oggettivo la qualità di una trasmissione audio e/o video.
Modena & Reggio Emilia University
CASONI MAURIZIO
VITETTA GIORGIO MATTEO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02182013-221136/
it
unrestricted
Copyright information available at source archive
ING-INF/03
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02062013-153523
2013-05-30
dtype:D1
dtype:PhD
Keyword Search su Database Relazionali: un approccio basato su Hidden Markov Models
ROTA, SILVIA
Viterbi
Retrieval
Metadata
Database
HMM
La ricerca per keywords su database è diventata popolare in quanto permette ad utenti non esperti di formulare query senza la necessità di imparare un linguaggio strutturato e capire come i dati siano rappresentati all'interno di un database. Le tecniche attuali si basano sull'analizzare a priori il contenuto del database e sulla creazione di un indice che viene poi utilizzato in fase di esecuzione per identificare e recuperare le informazioni richieste dall'utente.
Questa tesi si concentra su un nuovo approccio che non assume alcuna conoscenza sull'istanza del database. Lo schema del database, o qualsiasi metadato che descriva la struttura del database, viene utilizzato per estrarne la semantica e per scoprire il significato delle query inserite dagli utenti. Le query vengono poi confrontate con la struttura del database, e combinate insieme per formulare una query strutturata. Poiché le query sono intrinsecamente ambigue, il processo di corrispondenza delle query con gli elementi del database, che è il nucleo dell'approccio, è probabilistico e prevede l'utilizzo di Hidden Markov Models.
Due diverse tecniche per utilizzare gli Hidden Markov Models sono presentate in questa tesi. Il primo approccio prevede l'utilizzo di regole euristiche per inizializzare i parametri del modello. Il secondo approccio, più sofisticato, presenta un nuovo algoritmo chiamato List Viterbi training algorithm, che è una versione del noto algoritmo Expectation Maximization, che utilizza l'algoritmo List Viterbi durante la fase di Expectation al posto dell'algoritmo forward-backward comunemente utilizzato.
Infine, questa tesi presenta un prototipo di motore di ricerca nominato KEYRY (dalle KEYwords alle queRY) che implementa le tecniche esposte. Il prototipo è stato utilizzato per testare le prestazioni degli algoritmi su database ben noti alla comunità scientifica.
Modena & Reggio Emilia University
BERGAMASCHI SONIA
GUERRA FRANCESCO
VITETTA GIORGIO MATTEO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02062013-153523/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03052013-103907
2013-05-30
dtype:D1
dtype:PhD
Tecnologie e Dispositivi a Semiconduttore Avanzati per Applicazioni Optoelettroniche
SAGUATTI, DAVIDE
droop
optoelectronics
LED
HEMT
field-plate
L'optoelettronica è uno dei settori dell'ingegneria in cui diversi dispositivi e tecnologie sono combinati insieme, integrando trasduttori, sensori, amplificatori e processori in sistemi eterogenei. L'industria dei semiconduttori gioca chiaramente un ruolo chiave, dovendo definire il modo più veloce ed efficace per trasformare i più recenti risultati della ricerca scientifica in processi di produzione su larga scala.
L'attività di ricerca riportata in questo lavoro riguarda due diverse tecnologie di dispositivo a semiconduttore con applicazioni nel campo dell'optoelettronica: l'High Electron Mobility Transistor (HEMT) basato su fosfuro d'indio (InP) e il Light-Emitting Diode (LED) basato su nitruro di gallio (GaN). Due diverse strutture di dispositivo, incentrate su diversi materiali, con diverse funzionalità, che sfruttano tuttavia la stessa tecnologia di base (le eterostrutture a semiconduttori composti) e, per questo motivo, condividono problematiche di materiale/dispositivo, modelli fisici e approcci di simulazione.
L'HEMT in InP è il miglior dispositivo elettronico per ciò che riguarda prestazioni di velocità e/o frequenza, e trova applicazioni nelle comunicazioni wireless e ottiche, imaging passivo e analisi atmosferiche. Grazie alla compatibilità a livello wafer con laser in InP, questi HEMT sono i transistor che permetteranno la realizzazione di circuiti optoelettronici monolitici integrati. La prima parte del mio dottorato è stata dedicata alla progettazione, caratterizzazione e ottimizzazione di InP HEMTs ad alta tensione. La capacità in tensione di questi dispositivi è stata migliorata introducendo un cosiddetto "field-plate", ottimizzato e inserito nella struttura del dispositivo. Questi HEMT dotati di field-plate sono stati progettati attraverso simulazioni numeriche di dispositivo, per poi essere fabbricati e caratterizzati. Questa nuova tecnologia sviluppata ha il potenziale necessario per rendere possibile la fabbricazione di amplificatori di potenza ad alta efficienza, ricetrasmettitori integrati e amplificatori a basso rumore (LNAs) più robusti.
La seconda parte del mio dottorato si è invece incentrata su LED in GaN. Questi emettitori di luce hanno praticamente saturato il mercato della retroilluminazione LCD (cellulari, PC e display) e hanno già iniziato la penetrazione in quello molto più ampio dell'illuminazione, spiazzando le lampade ad incandescenza e fluorescenza grazie all'efficienza superiore. Per essere utilizzati per l'illuminazione, tuttavia, i LED devono funzionare ad alte correnti. Sotto queste condizioni, i LED in GaN sono sfortunatamente affetti dal cosiddetto "efficiency droop", un fenomeno penalizzante che diminuisce l'efficienza quantica interna dei LED all'aumentare della corrente di funzionamento, riducendo pertanto significativamente il vantaggio competitivo di questi dispositivi nei confronti delle lampade a fluorescenza. L'origine fisica del droop è ancora incerta e oggetto di intenso dibattito all'interno della comunità scientifica. Inoltre, sono state proposte diverse modifiche tecnologiche in modo da mitigare l'effetto, ma una soluzione definitiva non è stata ancora individuata. La mia ricerca in questo ambito si è basata su di una analisi sistematica, incentrata su simulazione, dei meccanismi che possono generare il droop e delle relative modifiche tecnologiche. L'analisi ha indicato che un droop che ha l'intensità tipica osservata nei dispositivi reali può essere difficilmente giustificato da un punto di vista fisico (nell'ipotesi che un solo meccanismo domini sugli altri), suggerendo quindi un'origine multi-fattore per questo fenomeno e giustificando le difficoltà che gli esperti di tecnologia stanno incontrando nel produrre LED liberi dal droop.
Modena & Reggio Emilia University
VERZELLESI GIOVANNI
VITETTA GIORGIO MATTEO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03052013-103907/
it
unrestricted
Copyright information available at source archive
ING-INF/01
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02032013-104306
2014-10-22
dtype:D1
dtype:PhD
Fibre a nucleo cavo per applicazioni nella gamma dei terahertz
SETTI, VALERIO
terahertz
manufacturing
hollow-core
characterization
tube-lattice-fibers
Lo scopo di questa tesi è la modellizazione e la realizzazione di una fibra ottica flessibile, a basse perdite e a larga banda per applicazioni nella gamma dei terahertz (0.1THz-10THz). Negli ultimi anni la tecnologia impiegata per la generazione/ricezione di radiazioni THz ha conosciuto un notevole sviluppo, creando i presupposti per numerose applicazioni. La mancanza di una guida a basse perdite, tuttavia, rappresenta una delle principali cause che ne limitano l'utilizzo. A causa della limitata conduttività dei metalli e l'alto assorbimento dei materiali dielettrici nella gamma THz, le guide classiche non possono essere utilizzate. Poichè l'aria rimane uno dei materiali più trasparenti per la radiazione THz, questo ha spinto alla ricerca di nuove guide d'onda con design innovativi al fine di massimizzare la percentuale di campo propagante in aria a discapito di quella nel dielettrico. In tal senso le guide a nucleo cavo offrono un'interessante soluzione concentrando la maggior parte della potenza nella parte centrale della fibra che è fatta d'aria.
La fibra proposta in questa tesi presenta un cladding costituito da un reticolo di tubi dielettrici mentre il core è cavo. Dato che un singolo giro di tubi attorno al core è sufficiente per garantire un buon cofinamento della radiazione, la struttura proposta è al contempo compatta, flessibile e di facile realizzazione.
La prima parte della tesi si concentra sullo studio teorico delle caratteristiche transissive delle fibra al fine di migliorarne le capacità di confinamento e la larghezza di banda. A tal fine viene proposto un modello teorico che è in grado di descrivere le proprietà dell'intera struttura partendo da quelle del singolo tubo del cladding. Il notevole vantaggio risiede nel fatto che il singolo tubo può essere studiato analiticamente: in questo modo si riesce a stabilire quali siano gli effetti delle dimensioni fisiche e geometriche del cladding sulle prestazioni della fibra, definendo così le principali linee guida per il design.
Successivamente vengono analizzati anche gli effetti delle perturbazioni della struttura ideale sulle performance. Siccome i tubi del cladding sono spesso ottenuti attraverso processi di filatura, in primo luogo si studia l'impatto della loro forma sul meccanismo di confinamento. Si dimostra che la fibra è piuttosto sensibile a questo tipo di alterazioni e solo tubi sufficientemente circolari sono in grado di garantire basse perdite e larga banda. Gli altri tipi di perturbazione che vengono considerati riguardano l'ellitticità del core e la curvatura della fibra, poichè entrambi impattano direttamente sull'utilizzo della fibra hollow core in sistemi THz. Grazie ad un'accurata analisi numerica, si dimostra che la fibra proposta è in realtà fortemente robusta contro questi tipi di alterazioni.
Infine si mostrano anche le tecniche di assemblaggio e caratterizzazione per due diversi modelli di fibre hollow core: il primo basato su tubi di polimetilmetacrilato, mentre il secondo su tubi di Zeonex. In entrambi i casi le fibre vengono assemblate a mano dimostrando come, essendo strutture autosostenute, non siano necessarie ulteriori fasi di filatura o incollatura. Come jacket delle fibre viene poi utilizzato un tubo di termorestringente al fine di preservarne la flessibilità. I dati sperimentali confermano la notevole capacità di queste fibre di ridurre le perdite di propagazione ben al di sotto dell'assorbimento causato dal materiale del cladding. Per la fibra di PMMA, per esempio, si ottengono riduzioni di 31 e 272 volte rispettivamente a 0.375 e 0.828 THz, con perdite dell'ordine degli 0.3 dB/cm e 0.16 dB/cm. I test sulla curvatura, inoltre, confermano che la fibra proposta può essere effettivamente utilizzata per la realizzazione di sistemi THz flessibili dato che anche curvature di poche decine di centrimetri producono solo effetti marginali sulle caratteristiche trasmissive della fibra.
Modena & Reggio Emilia University
VINCETTI LUCA
VITETTA GIORGIO MATTEO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02032013-104306/
it
unrestricted
Copyright information available at source archive
ING-INF/02
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03052013-100543
2013-05-30
dtype:D1
dtype:PhD
Modelli 3D del corpo umano per la riacquisizione di persone
BALTIERI, DAVIDE
Vision
Surveillance
ReIdentification
Computer
Forensics
La re-identificazione di persone è un compito fondamentale per l'analisi delle attività di lungo termine e dei comportamenti di specifiche persone.
L'obiettivo è associare più istanze di una stessa persona acquisita da diversi punti di vista o dopo un intervallo temporale.
Può essere molto utile per l'analisi persone in contesti di sicurezza urbana, come metodo di associazione dati per il monitoraggio a lungo termine in materia di videsorveglianza,
come metodo soft-biometrico o come strumento per il recupero di immagini in archivi video per l'analisi forense e altre applicazioni legate alla sicurezza.
In questa tesi il problema della re-identificazione viene analizzato a fondo in tutti i suoi aspetti, i limiti ed i requisiti, vengono descritti e valutati i metodi disponibili
in letteratura. Si propone una nuova linea di ricerca : lo sfruttamento di modelli 3D non-articolati e articolata per la re-identificazione di pedoni.
I limiti e le capacità di questo nuovo paradigma sono discussi e dimostrati attraverso una dettagliata valutazione sperimentale.
Modena & Reggio Emilia University
VEZZANI ROBERTO
2013-03-14
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03052013-100543/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03172013-205640
2016-05-04
dtype:D1
dtype:PhD
L’ottimizzazione strutturale nell’analisi agli elementi finiti: dalle vetture di serie alle monoposto Formula 1
TORRICELLI, ENRICO
Optimization
FEM
Crash-test
Chassis
Automotive
L’approccio sperimentale ha da sempre costituito la base per la progettazione in ambito automotive: in passato, ogni aspetto era concepito sulla base dell’esperienza ed ogni modifica veniva testata in maniera approfondita su prototipi per validarne l’impatto. Negli ultimi tempi però, sulla base di richieste progettuali sempre più stringenti sotto diversi profili (normative ambientali, sicurezza passiva, ricerca estrema di performance, etc.) e per la volontà di ridurre tempistiche e soprattutto costi, l’approccio numerico ha acquisito un’importanza crescente. La possibilità di utilizzare software di calcolo, affiancati da un numero minore di prove sperimentali (comunque sempre presenti e fondamentali per la taratura dell’analisi numerica) ha permesso, infatti, di raggiungere buoni risultati in tempi ristretti e con costi contenuti. Tuttavia, solo grazie all’introduzione delle tecniche di ottimizzazione, questa sempre crescente potenza di calcolo ha permesso di raggiungere risultati in precedenza non immaginabili.
L’ottimizzazione, in generale, può essere vista come l’intervento diretto a realizzare il miglior risultato possibile. In ambito matematico essa si può definire come la ricerca dei punti di massimo o minimo di una determinata funzione. Quest’ultima definizione si può generalmente estendere anche ai problemi strutturali dove la funzione è la rappresentazione numerica del sistema in analisi ed il punto di massimo rappresenta la configurazione ottimale che raggiunge uno o più obiettivi e rispetta al contempo specifici vincoli.
Nel presente lavoro di ricerca, l’ottimizzazione è stata applicata a diversi temi collegati all’ambito automotive, spaziando dalle vetture stradali alle monoposto Formula1.
Nella prima parte, le diverse tecniche di ottimizzazione sono state studiate ed in seguito applicate al miglioramento di singoli componenti e, allo stesso tempo, introdotte nelle fasi di impostazione progettuale della vettura stessa. Tra le ottimizzazioni su singoli componenti, è stata riportata l’attività sulla piastra che nel telaio separa la zona abitacolo dal motore, la cosiddetta panca parafiamma, in cui è stata trovata l’ottimale combinazione tra spessori, nervature e distribuzione di materiale smorzante a seguito di un lavoro di caratterizzazione di quest’ultimo. Per quanto concerne la fase di progettazione della vettura, sono stati toccati due diversi ambiti. In primo luogo, tramite un’analisi topologica è stata definita la migliore configurazione di un telaio space-frame che rispettasse i vincoli progettuali richiesti; successivamente è stata trovata la distribuzione ottimale di rigidezza che massimizzasse le prestazioni NVH (noise vibration and harshness) del veicolo in termini di frequenze proprie modali e risposte in frequenza (inertanze).
Nella seconda parte, le tecniche di ottimizzazione sono state applicate in ambito Formula1. Dopo uno studio iniziale sui materiali compositi che caratterizzano tali monoposto, con conseguente correlazione numerico-sperimentale necessaria per la modellazione FEM, sono state analizzate le prove di crash richieste dalla Federazione Internazionale dell’Automobile per l’iscrizione al campionato di categoria. Lo studio si è focalizzato sulle strutture di assorbimento energetico utilizzate per raggiungere i target richiesti da tali prove: particolare rilievo è stato dato ai componenti per gli urti laterali che rappresentano una delle sfide più difficili dell’intera procedura di omologazione.
Modena & Reggio Emilia University
STROZZI ANTONIO
BALDINI ANDREA
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03172013-205640/
it
unrestricted
Copyright information available at source archive
ING-IND/14
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03182013-150858
2013-05-30
dtype:D1
dtype:PhD
Modellazione avanzata di flussi reagenti all'interno dei motori a combustione interna
SEVERI, ELENA
CFD
CNG
combustion
Diesel
engine
L’attività di ricerca svolta è stata caratterizzata dallo studio della modellazione fluidodinamica tridimensionale dei principali fenomeni che coinvolgono flussi reagenti nei motori a combustione interna. Il fine principale è stato quello di determinare la corretta evoluzione fisica, spaziale e temporale, di tali flussi all’interno dei motori per favorire la corretta interpretazione dei fenomeni chimico-fisici e la predizione delle prestazioni dei motori.
Lo sviluppo e la produzione di un motore endotermico alternativo sono soggetti alle norme legislative ed alle leggi del mercato, che impongono la realizzazione di motori caratterizzati da bassi consumi, alte prestazioni e basso contenuto di emissioni inquinanti allo scarico. Poiché questi tre obiettivi sono strettamente correlati alla qualità del processo di combustione, l’industria automobilistica ha concentrato gli sforzi della ricerca verso l’identificazione dei fenomeni fisici che controllano la qualità di tale processo e la formazione delle emissioni inquinanti. In questo contesto l’analisi CFD si integra nel processo progettuale come strumento in grado di restituire informazioni specifiche e di dettaglio che possano poi essere spese per acquisire maggiore consapevolezza sulle fenomenologie di interesse e per indirizzare la progettazione verso lo sviluppo di nuovi sistemi e nuove strategie.
Durante l’attività svolta si sono analizzati i modelli di combustione attualmente implementati all’interno dei codici di calcolo commerciali al fine di scoprirne potenzialità e limiti per ognuna delle modalità di combustione incontrate e tipiche dei moderni motori a combustione interna. L’analisi è stata infatti condotta su differenti tipologie di propulsore/combustibile. Questo ha permesso di acquisire una visione trasversale rispetto alle singole applicazioni considerate, generalizzando l’approccio modellistico in base ai modi di combustione più che non allo specifico sistema motore/combustibile analizzato. In ogni caso, essendo molteplici i fenomeni che influenzano le modalità con cui poi la combustione avviene, si è resa necessaria, preliminarmente, la modellazione dei processi di ricambio della carica e delle strutture di moto che si instaurano all’interno della camera di combustione. Come è noto infatti, le strutture turbolente che si instaurano all’interno della camera di combustione hanno una notevole influenza sul modo in cui i processi di miscelamento aria/combustibile e di combustione hanno poi luogo. Si è valutata in particolare l’influenza dei modelli di turbolenza e di approccio a parete sul campo di moto medio in camera e sulle strutture turbolente instauratesi in essa.
Per quel che riguarda le modalità di combustione tipiche dei motori a benzina, le indagini, supportate dai dati sperimentali forniti dal DIME dell’università Federico II di Napoli, sono state condotte per lo più su un piccolo motore 2T carter-pompa. In questo caso, lo scopo principale è stato quello di individuare potenzialità e limiti legati all’utilizzo di un combustibile considerato “pulito” quale il Natural Gas. Individuato quale flamelet il regime di combustione, si sono indagati aspetti legati al primissimo sviluppo del kernel di fiamma, alle modalità di propagazione del fronte in camera ed alla sua interazione con il campo di moto. Si è valutato, in relativo, il comportamento del combustibile rispetto ad una benzina tradizionale, la diversa interazione con l’ambiente circostante e le prestazioni fornite a pari condizione operativa. Se ne è valutato poi il limite di detonazione portandosi in condizioni di funzionamento sempre più estreme. Per quel che riguarda la combustione nei motori ad accensione per compressione, gli aspetti principalmente indagati sono stati il ritardo all’accensione e l’effetto sullo sviluppo della combustione dato dall’interazione tra la turbolenza intrinseca del getto ed il campo di moto presente in camera.
Modena & Reggio Emilia University
CANTORE GIUSEPPE
FONTANESI STEFANO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03182013-150858/
it
unrestricted
Copyright information available at source archive
ING-IND/08
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03212013-084947
2013-05-30
dtype:D1
dtype:PhD
Effetti del cambiamento climatico sulle interazioni idrologiche a scala di bacino idrografico
CUSI, ALICE
accoppiati
cambiamento
climatico
idrologia
modelli
Gli eventi climatici che si stanno verificando negli ultimi anni confermano le previsioni più pessimistiche tra quelle ipotizzate all’inizio del secolo dall’IPCC (Intergovernemental Panel on Climate Change): è dimostrato che la stazionarietà delle variabili climatiche e idrologiche, cioè l’ipotesi che, nel tempo, queste variabili (temperatura, precipitazioni, evapotraspirazione, deflusso superficiale, ricarica degli acquiferi, etc.) oscillino entro un intervallo di valori limitato, non può più essere considerata alla base della gestione delle risorse naturali, in particolare della risorsa idrica. È necessario, quindi, mettere a punto strumenti adatti alla valutazione degli effetti della non-stazionarietà, indotta dalle attività umane, dei fenomeni naturali. All’interno di un approccio multidisciplinare, i modelli idrologici di simulazione a scala di bacino rivestono un ruolo fondamentale nella protezione idraulica del territorio, quando sono in grado di dare informazioni ad alta risoluzione spaziale e temporale sulla risposta dei sistemi idrici a input atmosferici non stazionari e ai cambiamenti di uso del suolo. In tale ottica, la ricerca svolta ha riguardato: la messa a punto di un modello idrologico dettagliato con il quale comprendere le dinamiche di ricarica della falda freatica, in uno scenario di variabilità climatica, e la verifica dell’applicabilità di tale modello anche a diverse scale. Sono stati considerati due casi di studio reali, diversi sia dal punto di vista geografico e climatico, sia dal punto di vista geologico e geomorfologico. Il primo è un bacino di piccole dimensioni (100 km2), situato in Brasile; il secondo è rappresentato dalla parte montana e collinare del bacino del torrente Enza (500 km2), che divide le province di Reggio Emilia e Parma. Il modello idrologico distribuito CATHY (CATchment HYdrology) è il principale strumento applicato. CATHY permette la descrizione dettagliata dei flussi idrici sotterranei e superficiali e della loro interazione. Nel modulo sotterraneo viene risolta l’equazione di Richards in tre dimensioni, mentre il modulo superficiale è governato da un’equazione monodimensionale dell’onda diffusiva. L’accoppiamento dinamico delle due componenti è ottenuto mediante un algoritmo che, ad ogni livello temporale, seleziona automaticamente, per ognuno dei nodi superficiali, il tipo di condizione al contorno (di carico assegnato o di flusso assegnato), determinando quindi le variabili di scambio tra i due moduli e con l’atmosfera. Nel caso del Rio Toledo in Brasile, è stata effettuata un’analisi quantitativa della risorsa idrica in risposta a scenari climatici futuri, costruiti a partire da serie storiche di dati meteorologici e da studi di letteratura condotti nella zona. Nello scenario più plausibile si è ottenuto un notevole abbassamento della falda freatica, che interessa con più intensità le aree del bacino a quota più elevata. Nel caso dell’Enza, più complicato date le dimensioni maggiori e la topografia complessa, un’analisi analoga è stata necessariamente preceduta da uno studio preliminare di messa a punto del modello. Già in questa fase sono risultate evidenti le potenzialità di un modello come CATHY, in grado di rappresentare i flussi idrici in mezzi a grado di saturazione variabile e in combinazione con i deflussi superficiali, rispetto ad altri tipi di modelli che considerano invece la sola zona satura del sottosuolo. La descrizione tridimensionale delle correnti sotterranee e all’interfaccia ha permesso, tra i risultati ottenuti, la restituzione di una distribuzione eterogenea, all’interno del dominio, della variazione del livello della falda, rivelando quindi la necessità di utilizzare modelli dettagliati dei flussi idrici laterali al fine di prevedere le risorse idriche disponibili in diversi scenari meteo-climatici.
Modena & Reggio Emilia University
ORLANDINI STEFANO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03212013-084947/
it
unrestricted
Copyright information available at source archive
ICAR/02
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11302012-010100
2016-05-04
dtype:D1
dtype:PhD
Metodi di progettazione integrata e simulazione di servomeccanismi ad elevate prestazioni per la robotica e l’automazione industriale
GUERRA, ALESSANDRO
robotics
dynamic
design
control
automation
La richiesta di prodotti sempre più personalizzati, in lotti sempre più piccoli, ha portato il mondo dell’ automazione industriale a ricercare una maggiore flessibilità operativa nelle macchine e nei sistemi di produzione in genere. Questa esigenza ha fatto si che movimentazioni basate su soluzioni progettuali puramente meccaniche, utilizzate solitamente per le loro caratteristiche di precisione, velocità e robustezza, venissero sempre più sostituite da movimentazioni basate su soluzioni meccatroniche, composte da azionamenti elettrici servo-controllati e meccanismi di conversione del moto.
La progettazione di tali servomeccanismi, o “camme elettroniche”, è un campo della tecnica particolarmente impegnativo in quanto richiede l’integrazione sinergica di conoscenze e metodi propri di molteplici campi dell’ingegneria, quali la Meccanica delle Macchine, la Teoria del Controllo ed il Calcolo Strutturale.
Allo stato dell'arte, le metodologie di progettazione utilizzate nella pratica seguono un iter puramente sequenziale, in cui il dimensionamento degli organi meccanici viene seguito dalla prototipazione del sistema di controllo ed, infine, dalla realizzazione di uno o più prototipi fisici. Tale metodo è inefficiente sia dal punto di vista qualitativo, in quanto non permette di verificare a priori le interdipendenze dei vari sottosistemi e quindi cercare una soluzione di ottimo, sia in termini di tempistiche, in quanto richiede numerose reiterazioni al fine di raggiungere le performance previste.
In questo contesto, il presente lavoro si prefigge di fornire metodi e strumenti di progettazione capaci di integrare, in ambiente virtuale, le problematiche relative al dimensionamento, al controllo ed alla programmazione di servomeccanismi. Casi studio di interesse industriale dimostrano come tali tecniche di prototipazione virtuale e simulazione integrata permettano un miglioramento generale delle prestazioni di macchina nonché una riduzione dei tempi di progettazione e sviluppo prodotto.
Modena & Reggio Emilia University
ANDRISANO ANGELO ORESTE
PELLICCIARI MARCELLO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11302012-010100/
it
unrestricted
Copyright information available at source archive
ING-IND/15
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03182013-131714
2013-05-30
dtype:D1
dtype:PhD
Indagine analitico-sperimentale di gassificatori downdraft stratificati
ALLESINA, GIULIO
biomasse
combustione
energie
Gassificazione
rinnovabili
La ricerca scientifica mirata allo sviluppo e valutazione di soluzioni innovative nel campo delle biomasse destinate alla produzione di energia, ha assunto ormai un ruolo cardine nello scenario energetico mondiale. Di fatto, il costante aumento della domanda di energia primaria, così come il suo costo, sta portando alla creazione di complesse strategie di sviluppo ed incentivazione sia a livello nazionale sia internazionale.
Questo lavoro di tesi nasce con lo scopo di analizzare l'impiego di biomasse legnose all’interno di gassificatori downdraft stratificati per la produzione di energia elettrica.
Anzitutto sono state confrontate le diverse tecnologie attualmente adottate per la conversione in energia di biomasse ligno-cellulosiche. Definiti i parametri fondamentali per l'individuazione di un punto di ottimo, sono stati presentati i vantaggi termodinamici legati all'adozione di gassificatori, indicandone i principi di funzionamento e ponendo particolare attenzione ai reattori a letto fisso di tipo downdraft stratificati.
Sono stati studiati ed instrumentati reattori di diversa taglia, dal lab-scale all'impianto industriale, al fine di acquisirne i principali parametri termo-chimici. Diverse metodologie di misura sono state adottate in funzione della taglia del reattore e della sua destinazione d'uso.
I gassificatori così analizzati sono stati modellati matematicamente seguendo diversi approcci: dai bilanci energetici e di massa fino a modelli di cinetica chimica. Durante la campagna sperimentale è stata posta particolare attenzione nello sviluppo di metodi di analisi del contento di catrami e della composizione del gas tramite metodi basati sulla calorimetria.
Scalando le equazioni utilizzate per la modellazione dei reattori è stato possibile individuarne un aspetto peculiare: il diametro del gassificatore non è considerato parametro influente sulle performance del reattore. Questo risultato è in contrasto con quanto ottenuto sperimentalmente, pertanto si è posta l'attenzione su questo aspetto, permettendo di distinguere cause reologiche e termodinamiche che intervengono nel processo di scala.
I risultati ottenuti in questo lavoro hanno evidenziato la capacità di questi reattori d’essere impiegati in una molteplicità di situazioni, anche ove altri gassificatori hanno evidenti limiti operativi.
I vantaggi e gli svantaggi legati alla tecnologia studiata sono stati esposti e discussi, presentando infine alcune soluzioni innovative per l'impiego di questi reattori, specie per l'utilizzo di gassificatori di piccola taglia.
Modena & Reggio Emilia University
TARTARINI PAOLO
MUSCIO ALBERTO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03182013-131714/
it
unrestricted
Copyright information available at source archive
ING-IND/10
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03182013-084957
2016-05-04
dtype:D1
dtype:PhD
Strutture ibride a bassa densità: alluminuri di nichel e nanotubi di carbonio per applicazioni ad alta temperatura
COLOMBINI, ELENA
microwaves
CVD
combustion-synthesis
CNT
modeling
Questa attività di ricerca è focalizzata sullo studio dei metodi produttivi su scala di laboratorio di due differenti strutture ibride a bassa densità per applicazioni nel settore automotive, con lo scopo di valutare l’influenza di diversi parametri di processo sulle caratteristiche finali del materiale composito.
I materiali ibridi comprendono compositi con rinforzo mediante fibre o particelle, schiume e lattici, e quasi tutti i materiali naturali. L’interesse scientifico di questi materiali è orientato sulla loro capacità di combinare diverse proprietà, massimizzare l’efficienza strutturale, minimizzare il peso ed i costi di produzione.
In questo studio sono state analizzate due tipologie di materiali ibridi con differenti strutture ed applicazioni. Il primo materiale è un intermetallico, nello specifico un alluminuro di nichel, che viene prodotto attraverso sintesi per combustione (CS) attivata da microonde. Esso viene impiegato come elemento di giunzione fra materiali eterogenei, come inconel e titanio, e risulta essere adatto sia per riparare componenti in-situ sia per assemblare componenti con diverse caratteristiche, che devono essere contemporaneamente esposti ad ambienti, temperature o sforzi meccanici differenti. Il secondo è invece un composito nanostrutturato dove nanotubi di carbonio (CNTs) sono fatti accrescere, mediante tecnica di Chemical Vapor Deposition, su un substrato a matrice di carbonio rinforzato con fibre di carbonio. I benefici nell’impiego di tali strutture ibride risiedono nella possibilità di controllare il coefficiente di espansione termica del componente finale, migliorandone la resistenza all’usura, l’idrofobicità e la conducibilità termica. Grazie alla resistenza all’abrasione ad elevata temperatura, esso viene impiegato nel gruppo freno e/o frizione nel settore delle competizioni automobilistiche.
L’approccio analitico impiegato per lo sviluppo delle tecniche di sintesi dei due materiali sopra menzionati è differente. Nel caso degli alluminuri di nichel, lo scopo principale della attività è basato sullo sviluppo di un modello matematico predittivo della CS di polveri metalliche micrometriche innescata da microonde.
La simulazione ha accoppiato diversi moduli, in particolare chimico, termico ed elettromagnetico, al fine di ottenere informazioni altrimenti difficilmente misurabili per via sperimentale. In tal modo è possibile valutare sia la variazione composizionale e delle temperature sia la cinetica di reazione durante il procedere della sintesi, dimostrando come l’applicazione delle microonde durante e dopo la sintesi possa alterare la velocità di raffreddamento dei prodotti e, di conseguenza, la loro microstruttura. La CS è stata scelta come tecnica di giunzione grazie alla sua capacità di sfruttare reazioni chimiche fortemente esotermiche che, una volta innescate, si autopropagano fino a completo esaurimento delle specie reagenti. Inoltre grazie al riscaldamento a microonde, che si basa sul trasferimento di energia invece che sul trasporto di calore, una volta innescata la reazione, è possibile continuare a generare calore nei prodotti, riscaldandoli e minimizzando la zona termicamente alterata.
Nello studio dei compositi nanostrutturati si sono invece analizzati due differenti approcci sperimentali che permettessero la sintesi di CNT su un substrato a base carbonio; essi differiscono per la presenza o meno di uno strato intermedio tra componente e rivestimento. La crescita di CNT è un approccio promettente per migliorare le proprietà meccaniche, elettriche e termiche di compositi strutturali. Tuttavia, il presente lavoro costituisce solamente uno studio preliminare di una tematica più ampia nell’ambito dello sviluppo di un nuovo materiale composito, come l’ infiltrazione in resina e l’ottimizzazione di tale processo.
Modena & Reggio Emilia University
POLI GIORGIO
VERONESI PAOLO
STROZZI ANTONIO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03182013-084957/
it
unrestricted
Copyright information available at source archive
ING-IND/21
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03182013-131053
2016-05-04
dtype:D1
dtype:PhD
Monitoraggio e Analisi per l'Ottimizzazione dei Consumi Energetici dell'Azienda Ospedaliero - Policlinico di Modena
FERRARI, FABIO
Monitoraggio
Energetica
Efficienza
Dinamico
Consumi
Questo ricerca si propone di creare un modelle sperimentale per simulare gli interventi di efficienza energetica per ottenere un'ottimizzazione dei consumi.
L'approccio metodologico dello studio si basa sul monitoraggio dei fabbisogno elettrico e termico dell'edificio che ospita il Centro Oncologico della struttura Ospedaliero-Universitaria Policlinico di Modena. I dati relativi ai consumi vengono raccolti attraverso un sistema remoto di analisi degli impatti energetici. Le informazioni così ottenute, una volta interfacciate con i relativi dati meteo, vengono utilizzate per individuare la firma energetica (elettrica e termica) dell'edificio oggetto di analisi. Il software di simulazione in regime dinamico (EnergyPlus) viene quindi utilizzato per creare il modello del sistema edificio-impianto. Tale modello è calibrato e validato attraverso il confronto tra la situazione reale, ottenuta con la firma energetica, e la situazione simulata, relativa all'edificio che ospita il Centro Oncologico della struttura Ospedaliero-Universitaria Policlinico di Modena.
Il modello costruito diventa quindi uno strumento semplificato ed efficace, cosi come lo è la firma energetica. La qualità del servizio offerto dalla struttura Oncologica viene considerata, in questo studio, come elemento ‘costante’ ai fini dell’efficientamento energetico dell’edificio.
Modena & Reggio Emilia University
BAROZZI GIOVANNI SEBASTIANO
CORTICELLI MAURO ALESSANDRO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03182013-131053/
it
unrestricted
Copyright information available at source archive
ING-IND/10
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03182013-134409
2013-05-30
dtype:D1
dtype:PhD
Sviluppo di metodologie CFD per flussi multifase e multicomponente nei motori a combustione interna
CICALESE, GIUSEPPE
CFD
CHT
heat
ICE
transfer
I processi fluidodinamici presenti all'interno di un motore a combustione interna sono estremamente complessi poiché caratterizzati da transizioni di fase, dalla coesistenza di più fasi e/o componenti differenti e dalla presenza di reazioni chimiche.
Non tutti i fenomeni precedentemente descritti interessano contemporaneamente i diversi fluidi presenti nelle varie regioni di un propulsore, tuttavia il loro comportamento è reciprocamente influenzato: il calore che si sviluppa in camera di combustione durante l'evoluzione delle reazioni di ossido - riduzione tra comburente e combustibile, ad esempio, può riscaldare il refrigerante fino a provocare la comparsa di fenomeni di transizione di fase quali cavitazione o ebollizione. Allo stesso modo, la progressione del processo di combustione è fortemente influenzata dall'interazione del combustibile (liquido o gassoso) con il comburente (solitamente aria) durante le fasi di aspirazione e compressione.
Quando si utilizzano strumenti di analisi al calcolatore per caratterizzare singole parti di motori a combustione interna o processi isolati che avvengono all'interno dei motori stessi è, quindi, di fondamentale importanza disporre di modelli previsionali affidabili e riuscire a ben identificare le condizioni al contorno del problema, così da tenere in opportuna considerazione gli effetti dovuti a fenomeni non direttamente rappresentati. Questo obiettivo può essere raggiunto attraverso l'impiego integrato di strumenti di calcolo differenti, in modo da favorire lo scambio di informazioni tra analisi "globali" dell'intero sistema propulsore ed analisi "locali" di maggior dettaglio.
L’attività svolta nel corso del Dottorato di Ricerca e riportata in questo elaborato ha avuto come obiettivo proprio la messa a punto di metodologie di analisi integrate al fine di ottenere una caratterizzazione corretta e dettagliata dello scambio termico nei motori a combustione interna, allo scopo di riprodurre il campo termico al loro interno, sia con riferimento al refrigerante che ai componenti metallici. Ciò al fine di disporre di uno strumento predittivo da utilizzare in fase preliminare di progettazione e/o di successiva ottimizzazione o “failure analysis”. E’ ben noto, infatti, che la resistenza meccanica dei materiali si riduce progressivamente all’aumentare della temperatura a cui essi si trovano. Risulta perciò di fondamentale importanza la corretta definizione della distribuzione delle temperature, in particolare nei componenti maggiormente sollecitati dal punto di vista termomeccanico. Per raggiungere tale obiettivo si è fatto largo impiego di software di simulazione fluidodinamica, sia monodimensionale sia tridimensionale, estremamente diffusi in ambito industriale, utilizzati sia in modalità “stand alone” sia combinata. L’attività ha messo in luce le potenzialità dell’analisi CFD, il cui grande vantaggio risiede nella possibilità di ottenere una quantità di informazioni ben superiore e ben più dettagliata rispetto a quanto ricavabile da prove sperimentali, con costi fortemente inferiori.
L’intero dottorato di ricerca ha riguardato quindi la messa a punto di una metodologia per l’analisi dello scambio termico coniugato (CHT – Conjugate Heat Transfer Analises) in componenti meccanici, con particolare riferimento ai motori a combustione interna.
Sono stati presi in esame differenti propulsori sia ad accensione per compressione che ad accensione per scintilla e, in quest’ultimo caso, sia GDI che PFI, così da creare un set di prove consistente per dimostrare la flessibilità della metodologia rispetto alla tipologia di indagine da condurre e la sua indipendenza dalla tecnologia di iniezione presente sul motore.
Modena & Reggio Emilia University
CANTORE GIUSEPPE
FONTANESI STEFANO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03182013-134409/
it
unrestricted
Copyright information available at source archive
ING-IND/08
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11302012-120153
2016-05-04
dtype:D1
dtype:PhD
Problematiche di progettazione per componenti strutturali realizzati in materiale composito: l'importanza del materiale, algoritmi di ottimizzazione e metodologie di calcolo, il processo tecnologico.
MANTOVANI, SARA
optimization
materials
FEA
composite
testing
La progettazione di componenti meccanici sempre più leggeri ma strutturalmente performanti rappresenta uno dei principali vincoli ed obiettivi in settori quali l'ambito aerospaziale, automobilistico o navale. Negli ultimi anni, per soddisfare tale esigenza, la ricerca nell'ambito dei materiali compositi è cresciuta rapidamente, questi materiali rappresentano infatti una preziosa alternativa a materiali tradizionali quali i metalli.
Nel presente lavoro di tesi, sono stati presi in considerazione tre casi studio che coinvolgono l'impiego di materiali compositi a matrice polimerica con rinforzo a fibra lunga. La realizzazione e l'applicazione di questa classe di materiali non convenzionali, nasce dall'esigenza di garantire un buon rendimento in termini di peso, rigidezza e resistenza del componente finale.
Il primo caso in oggetto, mostra lo studio svolto per la verifica di fattibilità della camicia di un cilindro oleodinamico a doppio effetto che lavora ad alte pressioni, realizzata in materiale composito. La sostituzione dell'acciaio ha richiesto la messa a punto e l'ingegnerizzazione del materiale composito stesso, a partire dalla selezione delle sua fasi costituenti e del processo tecnologico ottimale per la realizzazione di alcuni cilindri prototipali. Modelli FEM volti alla valutazione della criticità a buckling del cilindro, analisi modale e della deformazione delle guarnizioni così come la progettazione di nuove giunzioni incollate tra la camicia e le testate del cilindro sono state inoltre condotte. Le proprietà di rigidezza e di resistenza di questo tessuto composito in fibra di carbonio nonchè dei prototipi sono state determinate e validate sperimentalmente.
Il secondo caso analizzato, riguarda la realizzazione di un modello agli Elementi Finiti per un'imbarcazione da canottaggio da competizione e la relativa correlazione numerica con dati sperimentali. La laminazione dell'imbarcazione coinvolge diverse tipologie di materiali quali compositi in fibra di carbonio, di vetro, Kevlar e honeycomb. A partire dai risultati ottenuti sul modello di riferimento, sono state quindi condotte ulteriori analisi di ottimizzazione volte alla ricerca della sequenza di laminazione ottimale per imbarcazione. Un'ampliamento del panorama dei materiali comunemente adottati nella struttura è stato preso in considerazione, al fine di minimazzare il peso dello scafo ma garantendo i target di rigidezza flessionale, torsionale eguali o superiori a quelli dell'imbarcazione di riferimento.
In conclusione, il terzo ed ultimo caso, si focalizza sulla messa a punto e sulle metodologie di validazione di un nuovo processo tecnologico prevalentemente automatico per la realizzazione di componenti in materiale composito sia a geometria prevalentemente piana, sia di profilati a sezione chiusa da applicare per componenti in grado di garantire prestazioni strutturali. Questa tecnologia, tuttora in fase di sviluppo, mira a semplificare la stesura delle pelli di carbonio ed inoltre a ridurre il tempo di cura del componente, garantendo una buona riproducibilità del processo nonostante gli elevati volumi produttivi.
Il presente lavoro di tesi quindi consente in parte di affrontare la complessità e la flessibilità intrinseca della progettazione di componenti realizzati in composito: partendo dal materiale, passando attraverso le metodologie di calcolo, sino alla sua realizzazione.
Modena & Reggio Emilia University
MESSORI MASSIMO
STROZZI ANTONIO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11302012-120153/
it
unrestricted
Copyright information available at source archive
ING-IND/22
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03182013-103750
2013-05-30
dtype:D1
dtype:PhD
Metodologie analitiche, sperimentali e computazionali per lo studio del campo acustico esterno di un autoveicolo
PARISE, GIORGIO
acustica
autoveicolo
BEM
esteriore
FEM
Gli ultimi anni hanno visto una crescita dell’importanza degli studi del rumore esterno di autoveicoli e della sua possibile limitazione. Già una decina di anni fa nel progetto europeo VISPeR venivano cercate soluzioni a questo problema facendo riferimento in particolare alle prove ”pass-by” (norma ISO 362). Quindi per poter meglio comprendere e capire come sia possibile ridurre il rumore esterno, si è sviluppato l’utilizzo di metodologie analitiche e computazionali. Queste metodologie si prefiggono diversi obiettivi: - gestire grandi intervalli di frequenza e modelli di grandi dimensioni, - rappresentare domini di forma complessa, - ottimizzare il percorso tra la sorgente acustica e l’ascoltatore. In questo lavoro di ricerca abbiamo applicato diverse metodologie per raccogliere informazioni parametriche capaci di accelerare la fase di progettazione degli autoveicoli e ridurre il numero di prove ”pass-by” su pista. È stata convalidata l’applicazione delle quattro seguenti metodologie: - il metodo degli elementi al contorno (Boundary Element Method, BEM), - il metodo delle funzioni di trasferimento acustiche (Patch Transfer Function, PTF), - il metodo degli elementi finiti con lo strato automaticamente adattato (Finite Element Method / Automatically Matched Layer, FEM/AML), - la tecnica basata sulle funzioni d’onda (Wave Based Technique, WBT). Per la convalida di queste metodologie è stato costruito presso l’azienda Autoneum un modello che rappresenta la parte anteriore di una macchina, con particolare attenzione alle aperture e ai trattamenti fonoassorbenti posti intorno al motore. Inoltre su tale modello sono state eseguite le misure delle funzioni di trasferimento. I confronti tra questi metodi e le misure ci hanno portato alle seguenti considerazioni: - il metodo con gli elementi al contorno dà i risultati più corretti; - il metodo dello strato automaticamente adattato e quello delle funzioni di trasferimento acustiche permettono una forte riduzione del tempo di calcolo; - la tecnica con le funzioni d’onda dà risultati promettenti, ma necessita di ulteriori implementazioni per essere applicata a questo tipo di problemi. In conclusione le misure e le simulazioni sono entrambe necessarie per la fase di progettazione dell’acustica esterna di un autoveicolo. In aggiunta, nella fase progettuale, possono essere usate le diverse metodologie analitiche e computazionali: gli elementi al contorno per ottenere risultati accurati e gli elementi finiti o il metodo delle funzioni di trasferimento per aver informazioni in tempi più brevi anche se meno precise. Altro lavoro in futuro potrà essere fatto per approfondire l’uso di diverse metodologie accoppiate per svilupparne altre che siano contemporaneamente più veloci e più precise.
Modena & Reggio Emilia University
CORTICELLI MAURO ALESSANDRO
2013-03-25
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03182013-103750/
it
unrestricted
Copyright information available at source archive
ING-IND/10
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03212013-002218
2016-05-04
dtype:D1
dtype:PhD
Calcolo strutturale in ambito automotive: metodologie di calcolo innovative in ottica ottimizzazione e valutazione delle non linearità di contatto nelle zone di trasferimento carico
COSTI, DARIO
nonlinearity
contact
chassis
Automotive
optimization
Negli ultimi decenni la ricerca della sicurezza stradale è cresciuta in modo esponenziale; inoltre, in seguito a normative antinquinamento sempre più stringenti, risulta necessaria una riduzione dei consumi. Da qui è fondamentale avere componenti strutturali per il veicolo, quali ad esempio il telaio, sempre più performanti, al fine di ottenere un risparmio di peso capace di garantire minori consumi e minore massa da decelerare durante le prove di impatto necessarie all’omologazione. Nasce quindi la necessità di sviluppare nuove tecniche di progettazione in ottica riduzione peso. In particolare, durante il periodo di dottorato, sono stati analizzati metodi esistenti e si è cercato di sviluppare nuovi strumenti sfruttando il metodo di calcolo degli Elementi Finiti, così da diminuire i tempi di progetto e produzione dell’oggetto, e quindi anticiparne l’ingresso nel mercato. In questo elaborato, verrà descritta la metodologia alla base dell’attività di ricerca sviluppata all’interno del progetto MilleChili, che fornisce le linee guida per la progettazione del cuore strutturale di una vettura sportiva, il telaio portante, partendo dagli ingombri che questo deve rispettare. Grazie a specifici software di calcolo FEM è possibile realizzare un’ottimizzazione strutturale (aumento rapporto rigidezza peso) del telaio, partendo da un design space fino al modello definitivo. Durante il processo iterativo di progettazione vengono utilizzate diverse tecniche di ottimizzazione: topologica, parametrica, di forma; nelle varie fasi del progetto tali tecniche aiutano a definire geometrie locali e globali del prodotto. Tale metodologia di calcolo è applicabile anche ad altri componenti con caratteristiche strutturali all’interno del progetto vettura. In questa sede sono stati studiati e realizzati mediante ottimizzazione: la struttura portante dei cofani anteriore e posteriore, i pannelli smorzanti e gli assorbitori d’urto. Proseguendo nell’attività di ricerca nel campo dei componenti strutturali nel settore automotive si è studiata anche la diversa filosofia di progettazione che viene spesso utilizzata nel campo delle competizioni automobilistiche. In particolare si è confrontata la diversa struttura portante delle vetture stradali sportive ad alte prestazioni rispetto a quella utilizzata nelle vetture da corsa monoposto a ruote scoperte (es. Formula 1). In questo particolare campo automobilistico il motore oltre alla sua funzione di propulsore ha anche la funzione di elemento portante, essendo interposto e collegato direttamente al telaio (parte anteriore del veicolo) e al cambio (al posteriore). Questa specifica installazione del motore in vettura rende necessaria una particolare cura nel calcolo delle diverse rigidezze del veicolo. Partendo da una metodologia classica di modellazione dei collegamenti tra il motore e le altre componenti strutturali del veicolo che non tiene conto delle non linearità di contatto dovute ai fissaggi, si è sviluppata una metodologia che invece prende in considerazione le non linearità in gioco in questa tipologia di analisi. La metodologia di calcolo è stata sviluppata e validata attraverso un confronto con risultati precedenti e con prove sperimentali di torsione e flessione del motore, dove è stato inoltre possibile ottenere una correlazione in termini di tensioni e di spostamenti tra modelli di calcolo e prove sperimentali. Terminata la validazione sperimentale è stato poi possibile inserire il nuovo metodo di calcolo, che prende in considerazione anche le non linearità, all’interno del calcolo della rigidezza dell’intero veicolo. Tale innovazione risulta significativa e migliorativa rispetto a tecniche precedenti anche in termini di valutazione dei carichi trasmessi dai fissaggi nei punti di collegamento del motore.
Modena & Reggio Emilia University
STROZZI ANTONIO
2013-03-26
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03212013-002218/
it
unrestricted
Copyright information available at source archive
ING-IND/14
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02072013-121833
2013-05-30
dtype:D1
dtype:PhD
Studio numerico di scambio termico per convezione forzata e turbolenta in un canale con parete ondulata per numeri di Prandtl bassi e di ordine unitario
ERRICO, ORSOLA
turbolenza,
separazione,
DNS,
CFD
convezione,
Questa tesi riguarda lo studio numerico di scambio termico per convezione forzata e turbolenta all'interno di un canale con una parete piana e una ondulata. Lo studio è stato condotto per tre valori del numero di Prandtl, Pr = 0.025, Pr = 0.2, e Pr = 0.71. L'interesse verso questo tipo di studio è motivato dal grande riscontro che esso trova nell'ambito delle applicazioni ingegneristiche e per l'interesse nella ricerca di base. I flussi su superfici ondulate sono caratterizzati da alcuni fenomeni, come quelli di separazione e riattacco delle corrente fluida, che favoriscono lo scambio termico tra fluido e parete. I fluidi a basso numero di Prandtl, grazie alla loro elevata capacità termica, sono particolarmente indicati come fluidi di lavoro nei dispositivi di scambio termico, ma non sono ancora stati messi a punto modelli fisici sufficientemente accurati per lo studio dello scambio termico convettivo in questo tipo di fluidi. Per lo sviluppo di un modello fisico accurato è necessario conoscere con precisione sia il campo di velocità che quello di temperatura, e nel caso dei metalli liquidi questi dati non posso essere ottenuti per via sperimentale a causa della loro opacità e della difficoltà di manipolazione. Le simulazioni numeriche costituiscono dunque un fondamentale strumento di indagine. Le simulazioni numeriche dirette (DNS) costituiscono il metodo numerico più rigoroso, ma anche il più oneroso da un punto di vista computazionale. Invece le simulazioni tipo Reynolds-Averaged Navier-Stokes (RANS) sono meno onerose, ma forniscono anche predizioni meno accurate. Per questo lavoro sono state effettuate sia delle simulazioni numeriche dirette, con l'utilizzo di un codice “home-made”, sia delle simulazioni tipo RANS con l'utilizzo del codice CFD OpenFOAM 2.0.1. Le indagini sono state condotte per due valori del numero di Reynolds, che riferiti alla velocità media ed al diametro idraulico sono Re = 13 840 and Re = 19 000. Le pareti del canale sono considerate a temperatura uniforme. Studi preliminari sono stati condotti per il caso fondamentale del canale piano, prima di indagare il caso piu` complicato del canale con parete ondulata. La validazione dei risultati ottenuti per il canale con parete ondulata si è basata sul confronto, per il campo di velocità, con i dati sperimentali e con altri dati di DNS disponibili in letteratura per Re = 13 840. Per entrambi i valori del numero di Reynolds, Re = 13840 and Re = 19000, si è osservata una zona di flusso separato nel campo medio di velocità, che si estende dalla parte discendente dell'onda fino alla valle. I fenomeni di separazione e riattacco del flusso influenzano notevolmente lo scambio termico. Mentre nella regione di flusso separato il numero di Nusselt locale risulta minimo, nella parte ascendente dell'onda, dove avviene il riattacco della corrente, si ottengono valori più elevati. Ancora una caratteristica di questo tipo di flusso è il cambio di segno nei profili degli sforzi di Reynolds e dei flussi termici turbolenti nella parte ascendente dell'onda, in prossimità della parete. Nei flussi a basso numero di Prandtl i meccanismi turbolenti di trasporto del calore risultano di minore intensità. Nel caso di Pr = 0.025 la forma dei profili di temperatura è tipicamente laminare e alcune delle caratteristiche della convezione turbolenta in canali non sono più distinguibili. Sulla base dei risultati ottenuti dalle simulazioni numeriche dirette, questo lavoro fornisce una descrizione dei fenomeni di convezione turbolenta in flussi con regioni di separazione e riattacco e con anche una valutazione sugli effetti del numero di Prandtl, che varia dai valori tipici dei metalli liquidi al valore di ordine unitario. Viene inclusa inoltre un'analisi di applicabilità di alcuni tra i più utilizzati modelli di scambio termico in regime turbolento, per il caso di flussi con regioni di separazione e per valori del numero di Prandtl non unitario.
Modena & Reggio Emilia University
STALIO ENRICO
2013-03-26
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02072013-121833/
it
unrestricted
Copyright information available at source archive
ING-IND/10
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03182013-090019
2016-05-04
dtype:D1
dtype:PhD
Caratteristiche strutturali e comportamento plastico di leghe di titanio alfa resistenti al calore
GAIANI, SILVIA
plasticità
FEA
anisotropia
tessitura
Titanio
L’attività di ricerca ha riguardato prevalentemente due leghe di titanio alfa per impieghi a caldo denominate Ti-Fe-Si-O e Ti-Al-Si-Nb. I suddetti materiali sono impiegati nell’industria automotive per la costruzione di impianti di scarico sottoposti in esercizio a temperature fino a 850 °C. La formabilità a freddo di queste leghe, che risulta estremamente limitata dal comportamento anisotropo imputabile alla peculiare configurazione cristallografica che le contraddistingue, costituisce una tematica fondamentale da approfondire qualora si vogliano comprendere a fondo i parametri di processo da impiegare durante operazioni di imbutitura, piegatura, idroformatura nonché stabilire le geometrie dei componenti ottenibili utilizzando queste tecnologie. Si è proceduto inizialmente alla caratterizzazione approfondita delle leghe studiate, con la finalità di evidenziare le loro caratteristiche meccaniche di base, prestando particolare attenzione ai parametri indicatori di anisotropia, come il parametro di Lankford. In seguito, i risultati sperimentali sono stati utilizzati come dati di ingresso per la simulazione della risposta plastica del materiale attraverso l’utilizzo di un codice ad elementi finiti. Per questa applicazione specifica è stato scelto il criterio di Barlat e Lian 1989, specificatamente sviluppato per lo studio di lamiere ortotrope soggette a sollecitazioni biassiali. L’ottimizzazione della qualità dei dati sperimentali di ingresso impiegati dal programma di simulazione ha permesso di descrivere la superficie limite del dominio elastico nella maniera più accurata possibile. Proprio l’esigenza di realizzare modelli predittivi precisi e sfruttabili per applicazioni industriali ha fatto emergere la necessità di studiare queste leghe utilizzando approcci sperimentali mirati ad evidenziare in dettaglio i loro meccanismi intrinseci di deformazione. A questo proposito, l’impiego di tecniche di misura ottiche ha permesso di compiere efficaci progressi nella comprensione dei limiti di plasticità nonché nell’affinamento dei modelli matematici. Parallelamente, lo studio dell’orientamento cristallografico preferenziale (tessitura) e della sua evoluzione durante l’esplicarsi di una deformazione monoassiale nota ha permesso di correlare le proprietà macroscopiche di deformabilità con quelle microscopiche proprie della microstruttura del materiale. In conclusione, l’attività di ricerca ha permesso di raggiungere i seguenti obiettivi: - Sviluppare e consolidare una procedura di caratterizzazione dei materiali anisotropi che può essere impiegata per l’analisi comparativa di diverse leghe e per il loro controllo di conformità in fase di acquisizione della materia prima. - Validare l’efficacia del criterio di Barlat 1989 per lo studio predittivo del comportamento plastico di materiali anisotropi con cella elementare e.c. sottoposti a sollecitazioni biassiali, nonché approfondire la tecnica di affinamento dei dati sperimentali di input. L’utilizzo di tecniche di simulazione predittive del comportamento plastico di materiali anisotropi ha permesso di comprendere come la risposta del materiale sia fortemente influenzata non solo dalle sue caratteristiche intrinseche, ma anche da natura ed orientamento della sollecitazione esterna applicata. Da questa considerazione si può intuire come l’impiego di codici FEA sia indispensabile quando si studiano particolari di geometria difficoltosa sottoposti a stati tensionali complessi. - Correlare l’orientamento cristallografico del materiale con la sua risposta plastica attraverso lo studio della tessitura permette di ottenere una migliore comprensione del suo comportamento durante la deformazione. La metodologia di analisi risulta interessante poiché in futuro potrà essere utilizzata come base sperimentale per codici di calcolo in grado di modellare la formabilità del materiale attraverso la simulazione dell’evoluzione microstrutturale della lega.
Modena & Reggio Emilia University
VERONESI PAOLO
POLI GIORGIO
STROZZI ANTONIO
2013-03-26
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03182013-090019/
it
unrestricted
Copyright information available at source archive
ING-IND/21
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-03182013-232608
2013-05-30
dtype:D1
dtype:PhD
Formulazione in Complementarietà Lineare per Risolvere Problemi di Lubrificazione con Cavitazione in Regime Elastoidrodinamico
BERTOCCHI, LUCA
Cavitation
Complementarity
Elastohydrodynamic
Lubrication
Reynolds
In questa tesi viene descritta una formulazione per lo studio di problemi di lubrificazione basata sul concetto di complementarietà lineare.
Questa formulazione si fonda sull'equazione di Reynolds riscritta in termini di pressione e frazione gassosa. La corretta descrizione del fenomeno della cavitazione, così come l'individuazione delle interfacce tra zone cavitate e zone attive, è ottenuta automaticamente grazie alla natura complementare di queste due variabili. Per questo motivo è possibile descrivere correttamente il problema fluidodinamico su tutto il dominio utilizzando un unica equazione, valida sia nelle zone attive che in quelle cavitate. Questo approccio garantisce inoltre la conservazione della massa senza la necessità di imporre opportune condizioni alle frontiere tra zone attive e zone cavitate.
La formulazione complementare dell'equazione di Reynolds, sia per casi monodimensionali che per casi bidimensionali, è analizzata in dettaglio. Inoltre, sono stati considerati vari modelli per una simulazione accurata della reologia e delle proprietà del lubrificante.
L'accoppiamento della formulazione complementare per la soluzione dell'equazione di Reynolds alla teoria Hertziana del contatto permette la soluzione di problemi elastoidrodinamici. Alternativamente, è possibile utilizzare anche un modello di deflessione elastica ottenuto da modelli strutturali a Elementi Finiti. In questo modo è possibile considerare correttamente le caratteristiche elastiche di componenti meccanici non modellabili in modo soddisfacente tramite la teoria di Hertz, quali ad esempio testa e piede di biella di motori a combustione interna.
La formulazione presentata è stata discretizzata ed implementata numericamente utilizzando uno schema a Elementi Finiti. Questa implementazione si è rivelata estremamente robusta e versatile, inoltre non richiede specifiche condizioni sulle dimensioni degli elementi della griglia di calcolo. Particolare attenzione è stata dedicata allo sviluppo del codice numerico al fine di massimizzare la velocità computazionale.
Il metodo sviluppato è capace di risolvere con efficienza una vasta gamma di problemi e di implementare qualsiasi modello reologico ed elastico risulti necessario. Un particolare vantaggio rispetto ai modelli classici è offerto nel caso di problemi di lubrificazione in regimi isoviscosi rigidi ed in presenza di forti gradienti di altezza del meato di lubrificante.
Modena & Reggio Emilia University
STROZZI ANTONIO
GIACOPINI MATTEO
2013-03-26
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-03182013-232608/
it
unrestricted
Copyright information available at source archive
ING-IND/14
other
Scuola di D.R. in HIGH MECHANICS AND AUTOMOTIVE DESIGN & TECHNOLOGY / MECCANICA AVANZATA E TECNICA DEL VEICOLO
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-04042013-104609
2016-05-05
dtype:D1
dtype:PhD
Caratterizzazione funzionale di nuove mutazioni nei geni APOB e ANGPTL3 nell’ipobetalipoproteinemia familiare e nella ipolipidemia familiare combinata
MAGNOLO, ANTONIA LUCIA
mutazioni
lipoproteine
ipolipidemia
apoB
angptl3
Introduzione: L’ipobetalipoproteinemia familiare (FHBL) è un disordine dominante caratterizzato da ridotti livelli plasmatici di colesterolo, lipoproteine a bassa densità (LDL) e apolipoproteina B (apoB), valori normali di trigliceridi e lipoproteine ad altà densità (HDL). Nella maggior parte dei casi FHBL è dovuta a mutazioni del gene APOB che portano alla formazione di apoB troncate di lunghezza variabile. Rare mutazioni del gene APOB che comportano sostituzioni amminoacidiche non-conservative sono descritte come causa di FHBL. In vitro, queste mutazioni provocano una ritenzione intracellulare della proteina mutata e riducono la secrezione delle lipoproteine contenenti apoB (LpB). Recentemente è stata identificata una nuova condizione di ipobetalipoproteinemia associata a bassi livelli plasmatici di HDL. Questa condizione denominata Ipolipidemia Familiare Combinata è dovuta a mutazioni con perdita-di-funzione del gene ANGPTL3, codificante la proteina angiopoietina-like 3 (angplt3), una proteina plasmatica secreta dal fegato e nota inibire la lipasi lipoproteica e endoteliale.
Metodi: In due soggetti FHBL abbiamo identificato due nuove varianti amminoacidiche (Thr26_27delinsAsn e Tyr102Cys) dell’apoB, localizzate nei primi 1000 amminoacidi della porzione N-terminale, dominio cruciale per il corretto folding, assemblaggio con i lipidi e secrezione dell’apoB. Per valutare l’effetto funzionale di queste varianti, le corrispondenti mutazioni sono state introdotte in plasmidi contenenti il cDNA codificante l’apoB-48 umana mediante mutagenesi sito diretta. Cellule di epatoma di ratto sono state trasfettate in modo transiente e stabile con l’apoB-48 umana wild-type e mutata. L’efficienza di secrezione dell’apoB-48 umana è stata rilevata mediante immunoblotting e l’incorporazione di apoB nelle LpB secrete nei mezzi.Esperimenti di immunocitochimica sono stati eseguiti per monitorare la localizzazione intracellulare della proteina. La stabilità post-trascrizionale dell’apoB-48 mutata è stata determinata in cellule incubate con un inibitore della sintesi proteica. Inoltre sono state valutate le vie di degradazione intracellulare dell’apoB-48 mutata.
Il gene ANGPLT3 è stato sequenziato in tre soggetti con Ipolipidemia Familiare Combinata, negativi per mutazioni nei geni APOB e PCSK9. Per valutare l’effetto di una mutazione del sito donatore di splicing del gene ANGPTL3 (IVS6+1G>T) sono stati costruiti due minigeni (mutato e wild type) mediante amplificazione delle appropriate regioni del gene ANGPLT3. I minigeni sono stati trasfettati in cellule COS-1; i loro trascritti ottenuti tramite RT-PCR, sono stati separati mediante elettroforesi e sequenziati.
Risultati e conclusioni. La mutazione Thr26_27delinsAsn del gene APOB riduce nettamente la secrezione dell’apoB-48; la proteina mutata sembra essere ritenuta nel reticolo endoplasmatico. Nelle cellule trasfettate stabilmente il difetto di secrezione dell’apoB-48 mutata è stato confermato dall’assenza di LpB nel mezzo. In presenza di un inibitore del proteosoma la degradazione intracellulare dell’apoB-48 mutante è parzialmente bloccata, suggerendo che una quota della proteina è degradata dal proteosoma. La mutazione Thr26_27delinsAsn altera la struttura del foglietto beta del dominio N-terminale dell’apoB riducendo la secrezione delle LpB.
La mutazione Tyr102Cys non ha effetto sulla secrezione di apoB-48 e LpB.
La sequenza del gene ANGPTL3 in soggetti con Ipolipidemia Familiare Combinata ha portato all’identificazione di una mutazione di splicing nell’introne 6 (c.1198+1G>T). Studi in vitro hanno dimostrato che la mutazione causa la parziale ritenzione dell’introne 6 nell’mRNA maturo portando a frameshift con la formazione di un codone di stop prematuro. Il prodotto di trascrizione dell’mRNA anomalo è una proteina troncata di 403 amminoacidi priva di funzione.
Modena & Reggio Emilia University
TARUGI PATRIZIA MARIA
TUPLER ROSSELLA
2013-04-10
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-04042013-104609/
it
unrestricted
Copyright information available at source archive
MED/04
other
Scuola di D.R. in MEDICINA MOLECOLARE E RIGENERATIVA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-04052013-091710
2016-05-05
dtype:D1
dtype:PhD
Correlazione tra saggi osteogenici ex vivo ed in vivo nel controllo di qualità di cellule staminali mesenchimali da midollo osseo “cGMP grade” destinate ad uso clinico
MURGIA, ALBA
mineralizzazione
cluster
cGMP
biomarker
osso
Tra i diversi approcci di medicina rigenerativa, c’è un crescente interesse riguardo all’utilizzo di cellule staminali mesenchimali (CSM) umane autologhe per aumentare la riparazione del tessuto osseo. Facendo parte di un consorzio europeo per la rigenerazione ossea, ci siamo occupati di valutare il potenziale osteogenico di cellule primarie di midollo osseo (MO) umano, isolate ed espanse in vitro secondo criteri “current grade manufacturing procedure” (CSM-MO-cGMP). In tale contesto, il nostro fine è stato quello di standardizzare un approccio funzionale che fosse rapido, riproducibile e facilmente applicabile.
In letteratura numerosi geni sono stati associati alla cascata delle modificazioni geniche necessarie per il differenziamento osteogenico. Attraverso l’espressione di questi geni nelle CSM differenziate ex vivo raramente si riesce a predire la formazione dell’osso in vivo, ma recenti studi su CSM immortalizzate hanno individuato alcune correlazioni. Il nostro fine era comprendere se tali cambiamenti dell’espressione genica fossero applicabili anche in contesti differenti: (1) utilizzando CSM primarie; (2) impiegando un terreno di coltura addizionato di lisato piastrinico (LP) al posto del siero fetale bovino (SFB) e (3) applicando tali marker genici dopo il differenziamento osteogenico in vitro in 1 settimana anziché in 2.
Sono stati testati 6 campioni di CSM-MO-cGMP indotti in senso osseo per valutare la mineralizzazione della matrice ex vivo. Di questi, quattro campioni sono risultati positivi per la colorazione Alizarin Red S (ALZ) e tre positivi per la colorazione di Von Kossa (VK). Dall’analisi istologica del trapianto in vivo per 6 settimane delle CSM-MO-cGMP in topi immunocompromessi è emerso che in quattro casi si è generata un’area di neoformazione ossea superiore al 15% dell’area totale della sezione. In particolare, il fenotipo della mineralizzazione della matrice ex vivo dopo due settimane di induzione ossea correla con la formazione in vivo di osso solo nel 50% dei campioni. Abbiamo testato un pannello di 12 geni considerati marcatori osteogenetici e dopo una settimana di induzione in vitro in senso osseo, sono stati identificati un gruppo di geni con una variazione statisticamente significativa nei livelli di espressione correlati con la mineralizzazione ex vivo. Non sono state rilevate correlazioni dirette tra l’espressione di singoli geni e la formazione di osso. Tuttavia, considerando l’analisi dei gruppi di 5 geni più espressi, siamo riusciti ad individuare i due donatori di CSM con la minor potenzialità di formare tessuto osseo in vivo, suggerendo il possibile utilizzo di tale approccio a supporto della sperimentazione clinica.
Modena & Reggio Emilia University
DOMINICI MASSIMO
BURNS JORGE S.
2013-04-10
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-04052013-091710/
it
unrestricted
Copyright information available at source archive
MED/06
other
Scuola di D.R. in MEDICINA MOLECOLARE E RIGENERATIVA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-12072012-150411
2016-05-05
dtype:D1
dtype:PhD
ruolo di survivina nel carcinoma squamocellulare
PETRACHI, TIZIANA
SCC
mouse
keratinocytes
survivin
tumorigenesis
Survivina inibise l’apoptosi e regola il ciclo cellulare. Il ruolo duale della survivina sembra essere correlato alla sua distribuzione subcellulare nel nucleo o nel citoplasma.
Poichè i cheratinociti staminali, che esprimono alti livelli di survivina, sembrano essere implicati nella formazione del carcinoma squamocellulare (SCC), abbiamo innanzitutto valutato l’espressione di survivina in lesioni cancerose e precancerose della cute in vivo. Nell’epidermide umana sana, survivina è espressa prevalentemente nel citoplasma. Al contrario, survivina è prevalentemente espressa nel nucleo delle cellule del cancro.
In particolare, la survivina nucleare è maggiormente espressa nel SCC scarsamente differenziato, suggerendo una correlazione con un fenotipo più invasivo.
Per caratterizzare il ruolo di surviviva nei cheratinociti, abbiamo silenziato survivina utilizzando un siRNA specifico per la proteina. Il knock down di survivina nei cheratinociti di SCC induce una riduzione nella proliferazione e nella capacità di formare le colonie.
Per testare se survivina fosse coinvolta nello sviluppo del cancro della cute, abbiamo creato due modelli murini di SCC umano. Nel primo modello, abbiamo isolato una popolazione di cellule rapidly adhering (RAD) con alti livelli di espressione di beta 1 integrina e survivina. Impiantate sulla spalla di topi NOD SCID, queste cellule sono in grado di riprodurre un tumore di grosse dimensioni e aggressivo, simile ad un SCC poco differenziato. Nel secondo modello, abbiamo overespresso l’oncogene Ha- Ras G12V e IkBa e poi silenziato survivina. Quando i cheratinociti che overesprimo Ha-Ras G12V e IkBa sono iniettati in topi NOD SCID, formano un tumore (indice mitotico index: 10,2 +/- 2,28) più aggressivo rispetto al tumore generato in seguito al silenziamento di survivina (indice mitotico 5,4 +/- 1,81).
Lo studio suggerisce che survivina è altamente espressa nel SCC ed è correlata all’invasività e alle metastasi.
Modena & Reggio Emilia University
PINCELLI CARLO
TUPLER ROSSELLA
2013-04-10
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-12072012-150411/
it
unrestricted
Copyright information available at source archive
MED/35
other
Scuola di D.R. in MEDICINA MOLECOLARE E RIGENERATIVA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11282012-145337
2016-05-05
dtype:D1
dtype:PhD
L'espressione di ZFP36 diminuisce la sopravvivenza ed il potenziale invasivo di cellule di glioblastoma interferendo con molteplici vie di trasduzione del segnale
SELMI, TOMMASO
ZFP36
XIAP
NECROPTOSI
mRNA
GLIOMA
La famiglia di proteine TIS11/TTP regola l'espressione genica a livello post-trascrizionale legando in modo specifico sequenze ricche in adenina ed uridina (AREII) contenute nella regione 3' non tradotta (3'UTR) degli RNA messaggeri. Questa famiglia annovera nell'uomo tre membri: ZFP36 (TTP), ZFP36L1 e ZFP36L2. L'effetto del legame di queste proteine agli RNA messaggeri è quello di indurne la degradazione reclutando enzimi de-adenilanti o interferendo con la sintesi della coda di adenine al 3' del messaggero. Il glioma è un tumore primario del sistema nervoso centrale, caratterizzato da alti livelli morbilità e mortalità. Dal punto di vista molecolare, tale neoplasia è sostenuta da mutazioni molto eterogenee tra loro che la rendono resistente all'apoptosi e ne favoriscono l'invasività. Alcuni tra gli oncogeni che contribuiscono a determinare il fenotipo maligno di questo tumore portano sequenze di tipo AREII nella porzione 3'UTR dei loro messaggeri, candidandosi perciò come putativi bersagli della famiglia TIS11/TTP. Tra questi, le chinasi oncogeniche PIM1 e PIM3 ricoprono un ruolo fondamentale nei processi di migrazione che sottendono all'invasività del tumore, mentre la proteina XIAP (X-linked inhibitor of apoptosis) ha un ruolo primario nella protezione delle cellule del glioma dagli stimoli di morte. Basandoci sull'evidenza che ZFP36 è scarsamente espresso nella linea cellulare di glioma ln827 abbiamo valutato le sue potenzialità come oncosoppressore in tale contesto cellulare. Ricostituendone etopicamente l’espressione abbiamo confermato che ZFP36 inibisce il potenziale invasivo e la capacita’ di sopravvivenza. Tale effetto biologico è stato caratterizzato tramite saggi di migrazione cellulare, saggi clonogenici ed analisi dei parametri vitali rilevati con marcature per Annessina V e propidio ioduro. Saggi di luciferasi confermano che le sequenze AREII contenute nel 3' UTR di PIM1, PIM3 e XIAP conferiscono instabilità a tali oncogeni in presenza di ZFP36. Inoltre, il silenziamento genico della loro espressione contribuisce ad attenuare il fenotipo maligno del glioma. Tramite Western Blot abbiamo osservato l'attivazione di programmi di morte cellulare sia di tipo apoptotico che necroptotico. L'insieme di tali evidenze suggerisce che l'azione antitumorale di ZFP36 sia effetto della sua interferenza con molteplici vie di segnalazione cellulare. In ultimo abbiamo dimostrato che è possibile ricapitolare questo effetto terapeutico tramite il trattamento di tali cellule con composti in grado di indurre l'espressione della famiglia genica TIS11/TTP.
Modena & Reggio Emilia University
ZANOCCO MARANI TOMMASO
2013-04-10
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11282012-145337/
it
unrestricted
Copyright information available at source archive
BIO/13
other
Scuola di D.R. in MEDICINA MOLECOLARE E RIGENERATIVA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-12072012-152118
2014-10-22
dtype:D1
dtype:PhD
RUOLO DI GS-1101, INIBITORE DELLA PI3K DELTA, NEL DIALOGO CELLULARE TRA CELLULE DI LEUCEMIA LINFATICA CRONICA (CLL) E MICROAMBIENTE
FIORCARI, STEFANIA
integrins
GS-1101
CLL
adhesion
microenvironment
La leucemia linfatica cronica (CLL) è un disordine linfoproliferativo cronico di natura monoclonale caratterizzato dall’accumulo di linfociti CD5+/CD23+ nel sangue periferico, midollo osseo e negli organi linfoidi secondari. In vivo le cellule di CLL si accumulano in modo progressivamente inarrestabile; al contrario, quando coltivate in vitro vanno rapidamente incontro ad apoptosi. In vivo la cellula neoplastica interagisce con il microambiente, in particolare cellule stromali mesenchimali (BMSC), cellule nurse like (NLC), cellule T e cellule endoteliali (EC), che supportano la sopravvivenza delle cellule leucemiche e le proteggono dall’apoptosi spontanea o indotta dai farmaci. Recentemente sono stati introdotti, nel trattamento della CLL, nuovi farmaci inibitori di tirosin chinasi che sono in grado di interferire con il microambiente. Questi nuovi farmaci includono l’inibitore della PI3K delta GS-1101.
Abbiamo studiato il ruolo svolto dal contatto cellulare tra cellule leucemiche e cellule endoteliali o stromali nel mediare segnali di sopravvivenza andando a esaminare i cambiamenti nei profili di espressione genica causati dal tale interazione cellulare. Abbiamo poi approfondito il meccanismo d’azione di GS-1101 concentrando la nostra attenzione sull’effetto causato sulla sopravvivenza e adesione delle cellule di CLL in coltura con cellule endoteliali (EC) e stromali (BMSC).
Per studiare il ruolo del microambiente nel mediare segnali di sopravvivenza, abbiamo coltivato le cellule di CLL in presenza o assenza di EC (HUVEC e UV-2) e BMSC (KUSA H-1 e NKtert) per 72 ore. Abbiamo dimostrato che sia EC che BMSC proteggono le cellule di CLL dall’apoptosi: le cellule BMSC mostravano un effetto maggiore che può spiegare il perché il midollo è la sede preferenziale di recidiva nei pazienti affetti da questa forma di leucemia. Il contatto con le cellule endoteliali induceva un cambiamento nei profili di espressione genica della cellula leucemica come ad esempio geni coinvolti nelle vie del segnale integrinico, nell’adesione e nella migrazione. Per meglio approfondire il meccanismo di adesione delle cellule di CLL alle cellule del microambiente, abbiamo utilizzato degli anticorpi in grado di antagonizzare la via del segnale delle integrine beta1 e beta2. Bloccando l’interazione tra l’integrina VLA4 o LFA1 presente sulla superfice della cellula di CLL e VCAM-1 o ICAM-1 sulla superficie delle cellule endoteliali, il vantaggio di sopravvivenza garantito dal contatto cellulare diminuiva.
GS-1101 presenta una peculiare attività clinica caratterizzata da una risoluzione della linfadenopatia con ridistribuzione dei linfociti di CLL dai tessuti nel sangue. Abbiamo approfondito il meccanismo di azione di questo farmaco andando ad esplorare gli effetti sull’adesione e sulla sopravvivenza della cellula di CLL mediati dal contatto cellulare. A questo scopo abbiamo stimolato le cellule endoteliali e stromali con TNF alfa in modo da aumentare l’espressione dell’integrina VCAM-1 sulla superficie delle cellule endoteliali. Questo trattamento aumentava la capacità delle cellule di CLL di aderire alle cellule EC e BMSC e risultava inibita a seguito del trattamento con GS-1101. GS-1101 era anche in grado di interferire con la protezione dall’apoptosi indotta dal contatto cellulare.
Questi dati dimostrano che le cellule endoteliali e le stromali sono in grado di proteggere le cellule di CLL dall’apoptosi e modificano il loro profilo di espressione genica. In aggiunta questi risultati mettono in luce la peculiare attività del nuovo inibitore della PI3K delta, GS-1101, mostrando un doppio meccanismo d’azione di diminuzione dei segnali di sopravvivenza mediati dal microambiente e riducendo le interazioni che mantengono il clone leucemico a contatto con il microambiente.
Modena & Reggio Emilia University
MARASCA ROBERTO
2013-04-11
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-12072012-152118/
it
unrestricted
Copyright information available at source archive
MED/15
other
Scuola di D.R. in MEDICINA MOLECOLARE E RIGENERATIVA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11302012-180020
2016-05-05
dtype:D1
dtype:PhD
Gli effetti della neurotrofina NGF sulla superficie oculare
PANARAS, ATHANASIOS
staminali
NGF
Limbus
Congiuntiva
cellule
Gli epiteli corneali e congiuntivali umani vengono costantemente rigenerati durante tutta la loro vita grazie alle cellule staminali residenti (SCs).
Alcuni disturbi oculari ( bruciature, patologie trofiche/ auto-immuni ) possono danneggiare le cellule staminali della congiuntiva e della cornea causando sia una deficienza delle cellule staminali del limbus (LSCD) sia un’ alterazione del numero delle cellule goblet con conseguente diminuzione della secrezione delle mucine. Una parziale LSCD può migliorare grazie ad un trattamento farmacologico che permette sia il reclutamento sia l’attivazione delle cellule staminali rimanenti del Limbus.
La neurotrofina NGF ha un ruolo polivalente sulla superficie oculare, esercitando un’azione trofica e una modulazione della riparazione del tessuto corneale e congiuntivale. L’NGF come trattamento in gocce promuove una riparazione della cornea nei pazienti con cheratite neurotrofica e spesso con LSCD, suggerendo che proprio questo fattore neurotrofico eserciti un’azione specifica sulle cellule staminali della superficie oculare.
Questo progetto si pone come principale obiettivo l’investigare le potenzialità del ruolo che ha l’NGF e TrkANGFR/p75 NTR nella proliferazione e/o differenziazione delle cellule staminali corneali e congiuntivali.
L’identificazione dell’espressione di questi recettori, , TrkA e p75, nelle cellule basali epiteliali situati nel limbus rafforza l’idea che essi possano essere marcatori staminali del limbus/ congiuntiva.
Sono stati condotti studi in vitro sia sulle linee cellulari umane epiteliali della congiuntiva e della cornea sia sulle cellule primarie. Abbiamo correlato l’espressione di TrkANGFR e di p75NTR ai marcatori di staminalità -noti nel limbus- (ΔN p63α, Bmi1,c/EBPδ), di differenziamento (14-3-3σ, K3/K12, K19/MUC1 and MUC5AC), di proliferazione (Ki67/Edu) dopo il trattamento di NGF e non. Andremo poi ad analizzare gli effetti sulle cellule primarie sia dopo l’esposizione ad NGF sia dopo quella ad inibitori specifici per TrkA/p75 o siRNAs.
In più abbiamo effettuato studi in vitro al fine di capire le vie di differenziamento, le quali guidano l’attivazione delle cellule staminali congiuntivali verso la generazione delle cellule goblet.
Fin a quando il progetto sarà focalizzato sui meccanismi biochimici/molecolari implicati nella patogenesi dei disturbi oculari, questi risultati avranno un’implicazione diretta con la ricerca di base, con il sapere clinico e con industria farmaceutica, conducendo ad un potenziale intervento terapeutico.
Modena & Reggio Emilia University
PELLEGRINI GRAZIELLA
TUPLER ROSSELLA
2013-04-11
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11302012-180020/
it
unrestricted
Copyright information available at source archive
BIO/12
other
Scuola di D.R. in MEDICINA MOLECOLARE E RIGENERATIVA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11262012-124213
2016-05-05
dtype:D1
dtype:PhD
Isolamento di cellule staminali epiteliali umane e approccio ad elevata prestazione per la loro caratterizzazione
DI ROCCO, ANTONIO
oloclone
meroclone
marcatore
Cheratinociti
staminali
La maggioranza dei tessuti e in particolare quelli con elevato tasso di rinnovamento, come gli epiteli della cornea e della pelle, sono mantenuti integri e riparati da una piccola popolazione residente di cellule staminali. Questi tessuti forniscono un potente sistema sperimentale per lo studio della staminalità e dell'omeostasi. Cheratinociti staminali autologhi (KSC) ricavati dall' epidermide e coltivati su uno strato di cellule-sostenitrici muriniche sono attualmente utilizzati per produrre innesti che rigenerano l'epidermide per coprire delle lesioni profonde o in casi di ulcere dermiche. La terapia cellulare si basa su diversi criteri per la qualità delle colture; in particolare, la riuscita dell'innesto epiteliale dipende dalla presenza di un adeguato numero di cellule staminali, in modo da assicurare un rinnovo epidermico a lunga durata. La mancanza di marcatori univoci per le KSC è il limite principale in questo campo, in quanto impedisce un'adeguata selezione di cellule immature. A tale scopo, abbiamo confrontato i profili di espressione genica di tre diverse popolazioni cellulari: arricchita in KSC (EnSC) e transitoria di amplificazione (TAC), popolazioni cellulari ottenute sulla base dell'espressione nello strato basale dell' integrina α6 ; la popolazione delle cellule post-mitotiche differenziate (PMDC) ottenuta esaurendo i passaggi della coltura primaria. Le tre popolazioni sono state caratterizzate in base al potenziale di crescita, alla capacità clonogenica e al valore in percentuale di p63-stringente, parametri legati alla presenza di cellule staminali. Nel tentativo di svelare i geni coinvolti nel mantenimento della staminalità e di indirizzamento differenziativo abbiamo effettuato la validazione dei geni ritenuti interessanti su ciascuna delle progenie cellulari provenienti da l'oloclone , il meroclone precoce e quello tardivo. L'analisi ha dimostrato che i geni con una possibile correlazione alla staminalità diminuiscono il loro livello di espressione durante la conversione clonale.
Modena & Reggio Emilia University
PELLEGRINI GRAZIELLA
TUPLER ROSSELLA
2013-04-11
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11262012-124213/
it
unrestricted
Copyright information available at source archive
BIO/11
other
Scuola di D.R. in MEDICINA MOLECOLARE E RIGENERATIVA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-04052013-091727
2016-05-06
dtype:D1
dtype:PhD
Approcci avanzati per la rigenerazione del tessuto osseo e adiposo utilizzando cellule staminali adulte
VERONESI, ELENA
scaffold
osso
MSC
angiogenesi
trasporto
Le diverse ricerche condotte sulle cellule staminali adulte (CSA), hanno identificato i tessuti fonti di tali cellule, la loro caratterizzazione immunofenotipica e la loro abilità di differenziarsi verso tipi cellulari mesenchimali e non. Tali evidenze hanno favorito l’introduzione delle CSA in applicazioni di medicina rigenerativa tramite lo sviluppo di modelli animali trapiantati con CSA sole o associate a supporti tridimensionali. Tali studi hanno evidenziato limiti che ancora non consentono l’utilizzo clinico delle CSA. (1) E’ necessario migliorare la vascolarizzazione dei trapianti: il nuovo tessuto, derivante dal costrutto ingegnerizzato, si forma esternamente al trapianto, vicino al tessuto sano già esistente e la scarsa vascolarizzazione del supporto tridimensionale causa la morte delle CSA. (2) Mancano procedure standardizzate per spedire le CSA: queste cellule devono essere espanse in condizioni di “good manufacturing practice (GMP)” all’interno di centri specializzati, pertanto si rende necessario uno studio degli effetti del trasporto delle CSA sulla loro funzionalità una volta trapiantate in vivo.
Il primo obiettivo di questa tesi è l’ottimizzazione della vascolarizzazione del trapianto tramite lo sviluppo di modello autologo di coniglio. CSA autologhe da tessuto adiposo (TA), positive per CD29, CD90 e CD49e, sono state associate ad un supporto tridimensionale biologico (STB) composto da liposuzione e un gel carrier a base di acido ialuronico. Abbiamo confrontato questo nuovo approccio con la tecnica di trasferimento di grasso autologo (TGA), una comune procedura per curare patologie del TA come traumi, ustioni, resezione post tumore e lipodistrofie. L’utilizzo delle CSA riduce in breve tempo la necrosi e favorisce la vascolarizzazione in modo significativo preservando l’architettura del TA. Dopo tre mesi, negli animali trattati con STB, si osserva un significativo aumento del TA con ottime caratteristiche istologiche.
Per studiare gli effetti del trasporto sulla funzionalità delle CSA, isolate da midollo osseo in centri GMP, abbiamo standardizzato un protocollo per spedire tali cellule, che ne preservasse la vitalità e il potenziale differenziativo. Abbiamo testato l’effetto di tre diverse soluzioni di trasporto (0,9% fisiologica, +/- albumina derivata da due diversi produttori), mimando una spedizione di 18 ore a +4°C riducendo la quantità di cellule e i volumi di reagenti ma mantenendo costante il loro rapporto per avere la possibile dose terapeutica. La vitalità cellulare dopo il trasporto è stata > 80% in tutti i casi, quindi sono stati valutati i seguenti parametri: proliferazione, adesione alla plastica e al biomateriale osteoconduttivo (HA/ß-TCP 3D); capacità differenziativa in senso osteogenico ex-vivo sia in un contesto bidimensionale (fiasca di coltura), sia sul biomateriale (HA/ß-TCP 3D) ed infine la formazione di osso ectopico in vivo dopo trapianto sottocute di CSA e HA/ß-TCP 3D in un modello murino immunodeficiente. Il trasporto a +4°C è stato il fattore chiave per il mantenimento della vitalità e funzionalità cellulare. Non sono state osservate differenze significative tra le soluzioni di trasporto confrontate relativamente ai parametri valutati. L’aggiunta di albumina non necessariamente migliora le caratteristiche delle CSA in termini di proliferazione, adesione e differenziamento osseo in vivo. In conclusione, considerando le nuove problematiche della medicina rigenerativa recentemente emerse, abbiamo dimostrato che le CSM derivate dal tessuto adiposo potrebbero migliorare la vascolarizzazione del trapianto e le CSM da midollo possono sopravvivere alle condizioni di trasporto differenziando in tessuto osseo in vivo. Questi risultati pre-clinici infondono ottimismo per continuare a migliorare la medicina rigenerativa espandendo il potenziale utilizzo clinico delle CSM.
Modena & Reggio Emilia University
DOMINICI MASSIMO
BURNS JORGE S.
2013-04-11
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-04052013-091727/
it
unrestricted
Copyright information available at source archive
MED/06
other
Scuola di D.R. in MEDICINA MOLECOLARE E RIGENERATIVA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02202014-213923
2015-05-05
dtype:D1
dtype:PhD
Studio e sviluppo di rivestimenti vetrosi industriali
DIGNATICI, MATTEO
Vitreous
plate
Indentator
enamelling
enamel
Fin dall’antichità l’uomo conosceva e ha utilizzato lo smalto per modificare le proprietà dei suoi manufatti, sia dal punto di vista estetico sia dal punto di vista strutturale. Molte applicazioni industriali e civili fanno uso di questi rivestimenti (il trattamento di componenti per uso domestico, la protezione delle pareti interne dei reattori per processi chimici, la protezione dei componenti meccanici di turboreattori aeromobili Gli scopi della prima parte della ricerca sono stati indagare la morfologia, la composizione chimica e le caratteristiche meccaniche dell’ interfaccia tra il rivestimento di smalto porcellanato e il substrato di acciaio. L’interfaccia è stata studiata con diverse tecniche analitiche XRD, SEM e EDS, microdurezza al fine di comprenderne le caratteristiche chimico-fisiche, mineralogiche e strutturali.
Nel secondo anno è stato indagato un altro tipo di smaltatura, mediante tecnica di deposizione elettroforetica. L'uso di un campo elettrico è necessario per spostare la fase solida e permetterne la deposizione sopra l'altro elettrodo. I risultati hanno mostrato che l’additivo chiamato Densicer ® risulta l’additivo migliore per consentire la corretta applicazione dello smalto con la tecnica EPD. Successivamente è stato eseguito un trattamento termico a 800 e 850 ° C e la caratterizzazione di questi campioni è stata eseguita utilizzando diverse tecniche sperimentali. L'ultima parte della ricerca è stato lo studio di diversi campioni aventi spessore di smalto diversi. La correlazione tra le proprietà meccaniche e chimiche dei tre diversi spessori (200μm,250μm,300μm) è stata ottenuta mediante : XRD, SEM and EDS per mostrare la microstruttura della sezione trasversale e la superficie.
Modena & Reggio Emilia University
SILIGARDI CRISTINA
MONTORSI MONIA
MENABUE LEDI
2014-02-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02202014-213923/
it
unrestricted
Copyright information available at source archive
ING-IND/22
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01272014-100201
2015-01-30
dtype:D1
dtype:PhD
Propietà elettroniche delle interfacce cromofori/ZnO per applicazioni fotovoltaiche
ARNAUD, GAELLE FRANCOISE
ZnO
interfaccia
fotvoltaico
energia-ionizzazione
catecolo
Le celle fotovoltaiche organiche (DSSCs) rappresentano un promettente approccio per la conversione della luce in energia elettrica grazie all’efficienza di funzionamento e al basso costo di produzione. In questi dispositivi la risposta ottica del semiconduttore è regolata dalla molecola organica adsorbita sulla superficie. Questa tesi è incentrata sullo studio dell’assorbimento del catecolo e del 4-nitrocatecolo sulla superficie di ZnO-(10-10), considerando questo sistema come modello per capire i meccanismi di base dell’allineamento dei livelli energetici all’interfaccia. Il meccanismo di adsorbimento è stato analizzato mediante la tecnica XPS mentre le proprietà elettroniche dell’interfaccia sono state studiate mediante UPS e HREELS: sono stati misurati l’allineamento dei livelli energetici degli stati molecolari pieni e vuoti, la variazione della funzione lavoro, indotta dall’adsorbimento della molecola, e il piegamento delle bande all'interfaccia. Il confronto tra risultati sperimentali e quelli teorici ha permesso una descrizione microscopica delle modifiche della struttura elettronica dell'interfaccia e fornito una valutazione quantitativa delle variazioni di energia di ionizzazione indotte dalla funzionalizzazione. Tale variazione è associata al momento di dipolo elettrico delle molecole ed è un parametro importante nella determinazione del potenziale VOC nelle DSSC.
Al fine di spiegare il legame esistente tra l'allineamento dei livelli dell’interfaccia e il dipolo di superficie, sono state studiate le proprietà elettroniche di ZnO a seguito della co-evaporazione di etanolo e 4-nitrocatecolo, molecole caratterizzate da momenti di dipolo molecolari opposti. La co-evaporazione può modificare, infatti, l'energetica del sistema per quanto riguarda l’energia di ionizzazione e il piegamento delle bande, la cui variazione è seguita dallo spostamento rigido degli stati molecolari e delle bande del semiconduttore.
Irraggiando il sistema 4-nitrocatechol/ZnO con raggi X e/o UV durante le misure XPS e UPS si è notato che è possibile ridurre il nitro-gruppo della molecola in un ammino-gruppo, determinando una variazione del dipolo d’interfaccia. Tale variazione, corrispondente a una forte diminuzione dell’energia di ionizzazione, mostra che le trasformazioni chimiche, indotte dall’irraggiamento, possono influire sul VOC e quindi sull’efficienza di una cella DSS.
Infine sono state esaminate le proprietà elettroniche all’interfaccia tra Cu-ftalocianina, un colorante metallorganico planare, e ZnO-(10-10). Misure UPS hanno mostrato una diminuzione dell’energia di ionizzazione a bassi ricoprimenti, associato a un trasferimento di carica che va dalla molecola alla superficie del semiconduttore. Tale variazione tende a scomparire se si supera il monostrato, suggerendo che il trasferimento di carica può avvenire a carico dei difetti superficiali e sui bordi delle terrazze del semiconduttore.
Modena & Reggio Emilia University
MANGHI FRANCA
GUNNELLA ROBERTO
DE RENZI VALENTINA
2014-02-04
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01272014-100201/
it
unrestricted
Copyright information available at source archive
FIS/01
other
Scuola di D.R. in NANO- AND PHYSICAL SCIENCES
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01272014-153849
2015-05-05
dtype:D1
dtype:PhD
Proprietà Plasmoniche di Nanoparticelle Metalliche Interagenti con Molecole
BERGAMINI, LUCA
Nanoptics
Nanoparticles
Molecules
Plasmons
Simulations
A parte per le minuscole dimensioni, i nanomateriali (NM) presentano un diverso comportamento ottico e meccanico rispetto agli analoghi di bulk (con dimensioni comparabili o maggiori del nanometro). Queste nuove e sorprendenti proprietà sono sfruttabili per la realizzazione di nanodispositivi potenzialmente rivoluzionari. Tuttavia, questo richiede una comprensione globale dei meccanismi profondi che governano la risposta ottica e meccanica dei NM e complicata dal gran numero di fattori in gioco, ad esempio la forma e la natura dei NM). Le nanoparticelle metalliche (NPM) sono di grande interesse e costituiscono il cuore di molti nanodispositivi, come i nanosensori. La caratteristica principale delle NPM è l’eccitazione collettiva degli elettroni nella banda di conduzione (plasmone) quando irradiate a specifiche lunghezze d’onda (e.g. nel NIR per nanosfere d’oro di alcune decine di nanometri). Questo fenomeno modifica il comportamento ottico sia nel Far-Field (e.g. sezione d’urto) che nel Near-Field (e.g. amplificazione del campo elettromagnetico).
Lo scopo di questo tesi è lo studio delle proprietà plasmoniche delle NP interagenti con molecole . Nel dettaglio, indaghiamo teoricamente la modifica alla risonanza plasmonica indotte da uno strato di sostanza adsorbito sulla superficie delle nanosfere. I risultati rivelano comportamenti non banali dello spostamento del plasmone, indotto dall’assorbimento, in funzione del raggio della particella. Inoltre, identifichiamo un intervallo di dimensioni in cui un campione monodisperso di nanoparticelle controintuitivamente fornisce una riproducibilità inferiore per eventuali sensori plasmonici. In aggiunta, l'indagine di questo sistema permette di verificare la validità di approssimazioni della teoria elettromagnetica classica molto diffuse, come l’approssimazione quasi-statica, individuando anche una soglia di validità rispetto al raggio delle nanosfere.
In collaborazione con un gruppo sperimentale coinvolto nella realizzazione di un sensore plasmonico a basso costo, studiamo il comportamento ottico di uno specifico sistema realistico composto da nanoisole d’oro depositate su un substrato di vetro. Le caratteristiche dell'esperimento sono riprodotte solo a condizione che una forma delle NP simile all'esperimento è adottata. Inoltre, le simulazioni rivelano un incremento della sensibilità del plasmone all'adsorbimento per NP con superficie più affusolata, come osservato nell'esperimento.
Successivamente, ci concentriamo sull’amplificazione del campo elettromagnetico (ACEM) vicino alla superficie della nanoparticella che ha luogo quando le nanosfere sono eccitate alla frequenza plasmonica. La caratterizzazione qualitativa e quantitativa dell’ACEM permette di verificare, teoricamente, la validità di possibili meccanismi-chiave coinvolti nel processo di fotorilascio in sistemi NPM-peptide-payload. I risultati mostrano che aggregati di NP sono necessari, in modo da creare hot-spots, i.e. regioni con alti valori di ACEM, che consentano il fotorilascio del payload. Inoltre, il confronto con l'approssimazione quasi-statica consente di evidenziare il ruolo dello sfasamento del campo EM già quando le NP hanno dimensione di poche decine di nanometri.
Infine, da aggregati di poche particelle, estendiamo lo studio delle proprietà ottiche ai composti con strutture complesse 3D, i.e. matrici 3D di MNP legate da catene di DNA. Il comportamento della risonanza plasmonica è estratto in funzione della distanza interparticellare che varia lungo la direzione sia perpendicolare che parallela al vettore d’onda della radiazione incidente. Questi risultati chiariscono il complesso rapporto tra la struttura della matrice e le sue proprietà ottiche.
Durante i vari studi diversi metodi numerici sono utilizzati e comparati (teoria di Mie, Boundary Element Method, Discrete Dipole Approximation, Generalized Mie Theory).
Modena & Reggio Emilia University
CORNI STEFANO
MANGHI FRANCA
2014-02-04
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01272014-153849/
it
unrestricted
Copyright information available at source archive
FIS/03
other
Scuola di D.R. in NANO- AND PHYSICAL SCIENCES
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01242014-105313
2015-05-11
dtype:D1
dtype:PhD
Trasporto elettronico in materiali calcogenuri per memorie a cambiamento di fase
CAPPELLI, ANDREA
variabilità
trasporto
ovonico
memorie
calcogenuri
In questa tesi investighiamo le proprietà di trasporto di carica di materiali calcogenuri a transizione di fase utilizzati per applicazioni di memoria. Affrontiamo il problema su due livelli. Da un punto di vista teorico, studiamo il trasporto in celle di memoria di calcogenuro amorfo tramite simulazioni basate su uno schema di conduzione limitata da trappole a portatori caldi, secondo approcci sia quasi-monodimensionale che tridimensionale. Dal lato sperimentale, caratterizziamo il comportamento elettrico e analizziamo le prestazioni di prototipi innovativi di memorie a calcogenuro con contatti basati sul grafene.
Tramite il modello compatto quasi-monodimensionale, possiamo predire le curve corrente-tensione intrinseche di dispositivi lunghi nell'ordine di alcune decine di nanometri, comprendendo anche il comportamento di commutazione per alti campi elettrici. Per ogni punto della curva, il modello fornisce anche informazioni sulla distribuzione di popolazione dei portatori, della loro energia e del potenziale elettrico lungo il dispositivo. Infine, permette di studiare la dipendenza del comportamento del dispositivo dalla densità di stati localizzati nella banda di energie proibite.
Il modello tridimensionale assume una situazione fisica simile, e la traspone su una rete di nodi casualmente distribuiti, rappresentativi di stati localizzati, all'interno di un dominio prismatico. Equazioni di bilancio vengono scritte per ogni nodo relativamente ai flussi di carica ed energia, e risolte assieme all'equazione di Poisson in condizioni stazionarie. Il modello descrive correttamente le curve corrente-tensione di dispositivi amorfi e permette di tenere conto della loro natura intrinsecamente casuale, tramite la statistica derivante da diverse generazione casuali della rete. Viene inoltre presentato uno studio microscopico dei processi di switching elettronico e di cristallizzazione.
Sperimentalmente, riportiamo la caratterizzazione elettrica di dispositivi di memoria a calcogenuro con contatti basati sul grafene. Due architetture principali sono esplorate, ovvero da una parte nanostrisce di grafene separate da un taglio, coperto da una regione rettangolare di calcogenuro, e dall'altra strisce di grafene di micron di larghezza separate da un taglio e ricollegate da un nanofilo di calcogenuro. In entrambi i casi l'intersezione tra la zona del taglio ed il calcogenuro costituisce la regione attiva. Studiamo il comportamento elettrico di questi dispositivi, estraendo parametri chiave come le tensioni di soglia, il rapporto tra le resistenze in fase amorfa e cristallina e le resistività di contatto. Infine, evidenziamo le prospettive più promettenti in termini di scalabilità e prestazioni, ed indichiamo alcune questioni aperte riguardanti la fabbricazione.
Modena & Reggio Emilia University
JACOBONI CARLO
MANGHI FRANCA
2014-02-04
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01242014-105313/
it
unrestricted
Copyright information available at source archive
FIS/03
other
Scuola di D.R. in NANO- AND PHYSICAL SCIENCES
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01152014-174046
2014-04-29
dtype:D1
dtype:PhD
Introdurre le Idee chiave delle Nanoscienze e Nanotecnologie nel Curriculum della Scuola Superiore con un Approccio Sperimentale: il Progetto NANOLAB
LISOTTI, ANNAMARIA
scuola_superiore
nanotecnologie
nanoscienze
IBSE
education
L’integrazione di argomenti di Nanoscienze e Nanotecnologie all’interno dei curricula di scuola superiore è oggetto di ampio dibattito. Viene infatti generalmente considerato un tema troppo difficile e specialistico per poter essere introdotto a livello secondario e si finisce così per focalizzare l’attenzione quasi esclusivamente sull’addestramento dei futuri ricercatori e lavoratori del settore. Tuttavia di recente si va facendo strada la tendenza a favorire tale inserimento. Vi è addirittura chi ritiene che esso possa accelerare il processo di innovazione dell’ educazione scientifica.
Questa tesi vuole fornire un contributo alla discussione, presentando NANOLAB www.nanolab.unimore.it, un progetto educational che mira ad introdurre nei curricula delle superiori percorsi didattici che illustrando le idee principali dell’attuale sviluppo di Nanoscienze e Nanotecnologie. Realizzato in Italia, viene sperimentato dal 2011. All’interno del progetto sono state selezionate alcune idee Nano chiave e ciascuna di esse è stata collegata ad un’area tematica di grande rilevanza nell’ambito della attuale ricerca: nanoparticelle, materiali intelligenti, polimeri conduttivi, superfici nanostrutturate. Grande attenzione è stata posta nel presentare le più avanzate applicazioni ma altrettanto spazio è dedicato ai principi di base. Per ciascuna area sono stati sviluppati alcuni protocolli sperimentali che permettono di investigare il comportamento della materia alla nanoscala.
Nel panorama esistente la maggior parte delle attività nano proposte agli studenti secondari si basano su quello che potremmo definire “wow-effect”, si tratta cioè di dimostrazioni spettacolari e di grande impatto che sfruttano alcune delle proprietà controintuitive dei nanomateriali per affascinare e stimolare la discussione ma che sono rigorosamente qualitative. NANOLAB mostra che è possibile spingersi oltre, utilizzando gli aspetti più spettacolari per motivare gli studenti ad approfondire con indagini quantitative. E’ infatti possibile proporre protocolli sperimentali nano-ispirati in modalità hands-on, da svolgere a scuola integrati nell’usuale pratica didattica. Ciò offre il duplice vantaggio di completare gli argomenti curricolari tradizionali introducendo anche la nuova prospettiva della materia alla nanoscala e di sperimentare direttamente modalità di lavoro proprie della ricerca scientifica. Le attività infatti sono progettate il più possibile come controparti didattiche degli esperimenti quotidianamente effettuati nei laboratori di tutto il mondo; gli studenti vengono direttamente coinvolti nella sperimentazione ed esplorano la fisica che sta dietro ai fenomeni osservati in un approccio inquiry based .
Portare la ricerca nella scuola può apparire come una sfida difficile anche per dal punto di vista tecnico e in termini di spesa. NANOLAB dimostra che non è necessariamente così. Tramite l’uso di nano materiali accuratamente selezionati, ormai disponibili sul mercato ad un costo relativamente basso, e grazie ai dispositivi elettronici degli studenti stessi utilizzati come sensibili e potenti strumenti di laboratorio integrati con altre risorse reperibili gratuitamente in rete, si può raggiungere grande efficacia ad un costo bassissimo. Il ruolo degli insegnanti è universalmente riconosciuto come fondamentale nel processo di innovazione educativa. Pertanto NANOLAB dedica particolare spazio ad aggiornarli e supportarli, fornendo risorse di elevate qualità e facile implementazione, possibilità di networking e di aggiornamento professionale sia dal vivo (summer school) che on-line (sito web e on-line community).
Tutte le risorse (sia in italiano che inglese) sono distribuite con licenza Creative Commons Licence Share Alike 3.0.
Modena & Reggio Emilia University
GOLDONI GUIDO
DE RENZI VALENTINA
MANGHI FRANCA
2014-02-04
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01152014-174046/
it
unrestricted
Copyright information available at source archive
FIS/03
other
Scuola di D.R. in NANO- AND PHYSICAL SCIENCES
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01152014-183058
2015-01-27
dtype:D1
dtype:PhD
Studio teorico di molecole magnetiche e delle loro interazioni con substrati magnetici
MAROCCHI, SIMONE
DFT
spintronica
molecole
grafene
magnetismo
La capacità di controllare i gradi di libertà di spin degli elettroni su scala nanometrica è una delle sfide cruciali nel campo delle nanoscienze sia dal punto di vista teorico che sperimentale. Questa tesi si propone di esplorare le capacità dei metodi basati sul funzionale della densità nel riprodurre le proprietà delle molecole magnetiche in fase gassosa, e i meccanismi attraverso i quali può essere raggiunto l'accoppiamento magnetico di uno spin molecolare con diversi supporti magnetici. In particolare , è stato analizzato l'accoppiamento magnetico in dimeri eterometallici supramolecolari, cioè purple-Cr7M/pyr/green-Cr7M', al variare degli ioni magnetici M,M' = Ni, Zn e Mn, e discusso i risultati in termini dei diversi percorsi di accoppiamento magnetico attraverso il ponte piridinico (pyr). Abbiamo anche affrontato il caso di una molecola di cobaltocene adsorbito su grafene cresciuto su diversi metalli ferromagnetici (cioè Ni(111) , e monostrati di Fe e Co su Ni (111) ), focalizzandoci sul ruolo del grafene. Esso permette infatti di disaccoppiare elettronicamente la molecola dai substrati metallici consentendo tuttavia l'accoppiamento di scambio tra lo spin molecolare e gli strati ferromagnetici sottostanti . A seconda della periodicità del sistema studiato, sono stati utilizzati rispettivamente basis set composti da gaussiane localizzate (NWChem) o onde piane (VASP).
Modena & Reggio Emilia University
MANGHI FRANCA
BELLINI VALERIO
2014-02-04
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01152014-183058/
it
unrestricted
Copyright information available at source archive
FIS/03
other
Scuola di D.R. in NANO- AND PHYSICAL SCIENCES
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02032014-113321
2014-05-05
dtype:D1
dtype:PhD
Simulazione dell'interazione tra una molecola di DNA e una superficie di oro
ROSA, MARTA
Au111
DFT
DNA
docking
MD
La molecola di DNA è stata al centro di una vasta attività di ricerca negli ultimi anni, sia per quello che riguarda lo studio della molecola in sè stessa, a causa del suo ruolo centrale nello sviluppo delle forme di vita e delle sue possibili applicazioni in campo medico e biologico, sia per quello che riguarda le sue applicazioni nelle nanotecnologie. In questo campo alcune delle sue particolari proprietà, come ad esempio l'appaiamento delle basi, la rendono di grande utilità nella creazione di nuovi dispositivi elettronici, e molti studi sono stati rivolti alla misura delle sue capacità come conduttore di carica.
Un passo fondamentale nella direzione di questo obiettivo è la comprensione dell'interazione tra il DNA e le superfici metalliche, che risulta fondamentale nella costruzione di nuovi dispositivi basati su componenti organiche e inorganiche. Putroppo, si tratta di un'interazione che risulta difficile da studiare sia da un punto di vista sperimentale che computazionale, e molti sforzi sono ancora necessari.
Il metodo computazionale più adatto per studiare l'assorbimento di una molecola di DNA su una superficie sarebbe la dinamica molecolare classica. Purtroppo, i force field necessari per questo scopo sono spesso inadatti per trattare un sistema simile: in molti casi l'effetto di polarizzazione della superficie non è descritto e lo stesso si può dire per gli effetti di chemiassorbimento. D'altra parte i force fields in grado di tenere conto di questi effetti risultano troppo computazionalmente dispendiosi per un sistema di queste dimensioni.
Per questo motivo abbiamo deciso di adottare un approccio che ha già dato risultati positivi nella descrizione dell'assorbimento di proteine su superfici di oro, basato su calcoli ab-initio, di dinamica molecolare classica e di docking.
Abbiamo quindi effettuato conti ab-initio Density Functional Theory (DFT) per le quattro nucleobasi assorbite con dieverse orientazioni e su diversi siti su una superficie di Au(111), includendo l'interazione di vdW nei calcoli. Ogni sistema è stato caratterizzato completamente, e sono stati riportati l'energia di assorbimento e i dettagli sulla struttura elettronica. Si è verificato che l'interazione di vdW è fondamentale nella corretta descrizione del sistema, ma che nonostante questo l'assorbimento non è conseguenza di sole forze di dispersione. Infatti è stata rilevata anche un'interazione a corto raggio, con la formazione di orbitali ibridi e di legame tra la molecola e la superficie.
I risultati ottenuti hanno permesso la parametrizzazione di un FF capace di riprodurre energie e geometrie di assorbimento dei calcoli DFT. Il force field è stato poi validato confrontando conti di dinamica molecolare classica, DFT e esperimenti sull'assorbimento di monolayer di guanina e adenina in vuoto su Au(111). Infine, è stato portato avanti uno studio sull'assorbimento delle quattro basi su oro Au(111) in soluzione. I risultati emersi sono molto interessanti, e hanno dimostrato come il passaggio da un sistema in vuoto a uno in soluzione faccia sì che l'assorbimento passi dall'essere dominato dall'entalpia a dipendere fortemente da un contributo entropico.
Infine sono stati realizzati dei conti di docking su molecole poly(dC)-poly(dG) e poly(dA)-poly(dT), trasferendo i parametri per l'interazione di dispersione dal force field al software di docking. Sono emerse due configurazioni possibili per l'assorbimento, con la molecola orientata parallelamente alla superficie o inclinata rispetto ad essa. L'interazione della basi interne all'elica con la superficie influenza le geometrie di assorbimento nonostante la presenza del backbone e della forte interazione elettrostatica tra di esso e l'oro. Le configurazioni trovate possono risultare utili come configurazioni di partenza per simulazioni di dinamica molecolare classica dove la molecola sia lasciata libera di rilassarsi compleatmente.
Modena & Reggio Emilia University
DI FELICE ROSA
CORNI STEFANO
MANGHI FRANCA
2014-02-04
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02032014-113321/
it
unrestricted
Copyright information available at source archive
FIS/03
other
Scuola di D.R. in NANO- AND PHYSICAL SCIENCES
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01242014-105311
2015-08-04
dtype:D1
dtype:PhD
Rilevazione e modulazione chimica dell'entanglement in cluster antiferromagnetici di spin
SILOI, ILARIA
witness
suscettività
nanomagneti
multipartito
entanglement
I nanomagneti molecolari (NM) costituiscono una vasta classe di sistemi fortemente correlati e a bassa dimensionalità. La capacità di modularne chimicamente proprietà fisiche e strutturali unita alla presenza di fenomeni coerenti alle basse temperature rende tali sistemi ideali per lo studio dell’entanglement quantistico. Questa tesi fornisce una descrizione teorica dell’entanglement di coppia e multipartito in NM antiferromagnetici, utilizzando tecniche sperimentali comunemente impiegate nella loro caratterizzazione come strumenti per controllarne e rilevarne le correlazioni quantistiche. In particolare, le tecniche chimiche agenti su unità molecolari ben definite si rivelano un utile strumento per ingegnerizzare diverse forme di entanglement. La distribuzione delle correlazioni intra-molecolari è fortemente influenzata dalla sostituzione chimica di un singolo ione magnetico. I NM antiferromagnetici sono sistemi frustrati, in cui ogni spin è sottoposto a interazioni competitive che, in genere, limitano la quantità di entanglement in ogni coppia di spin primi vicini. Tale frustrazione è parzialmente rimossa dall'introduzione di un difetto magnetico che rompe l’invarianza traslazionale della molecola omometallica. Ciò si traduce in una forte modulazione spaziale dell’entanglement di coppia, che può essere rafforzata combinando opportunamente più impurezze magnetiche. Questo effetto persiste a temperatura finita, dove viene rilevato attraverso funzioni di correlazione di coppia, ora sperimentalmente disponibili tramite scattering inelastico di neutroni in quattro dimensioni. Inoltre, ogni molecola può essere considerata come un elemento di una struttura supramolecolare, quale un dimero accoppiato con interazione di scambio. L'interazione magnetica indotta da un linker opportunamente costruito tende a correlare quantisticamente gli spin collettivi delle due molecole. In questo contesto si è studiata l’influenza dell’entanglement inter-molecolare sulle correlazioni locali interne alla singola molecola.
Tuttavia, i NM antiferromagnetici contengono forme di entanglement che non sono riconducibili a quello di coppia. La versatilità dell’energia di scambio come witness dell’entanglement permette la caratterizzazione dell’entanglement multipartito oltre che quello di coppia. A tal scopo è stato sviluppato un approccio generale che consente di derivare le energie di soglia per l’entanglement fra k spin in cluster omo- ed etero-metallici di spin arbitrari. A tali soglie corrispondono degli intervalli di temperatura che caratterizzano ciascuna forma di entanglement. Si ottiene pertanto una gerarchia, dove correlazioni fra più spin si azzerano a più basse temperature, e nel limite dello stato fondamentale le correlazioni coinvolgono tutti gli spin del sistema. Nonostante l’energia sia un’osservabile globale, essa riesce ad accedere a proprietà locali del sistema. Infatti, in presenza di un’impurezza magnetica è possibile derivare criteri di separabilità per il singolo spin, che permettono di rilevare la presenza di entanglement fra il singolo spin inequivalente e la parte rimanente del sistema.
Modena & Reggio Emilia University
MOLINARI ELISA
TROIANI FILIPPO
MANGHI FRANCA
2014-02-04
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01242014-105311/
it
unrestricted
Copyright information available at source archive
FIS/03
other
Scuola di D.R. in NANO- AND PHYSICAL SCIENCES
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02132014-151510
2014-05-05
dtype:D1
dtype:PhD
Strategie e strumenti combinatoriali per la ricerca di motivi in sequenze di DNA
PANUCIA TILLAN, KARINA
novo-motif
motif
finder
discovery
TFBS
La regolazione genica è un processo complesso controllato da proteine regolatrici note come Fattori di Trascrizione. Questi elementi regolatori si legano a specifiche sequenze di DNA a monte o a valle dei geni e attivano o inibiscono la loro espressione. L'identificazione della posizione dei siti di legame nelle sequenze di DNA è un elemento chiave per svelare i meccanismi coinvolti nella trascrizione di geni. In biologia computazionale i siti di legami dei fattori di trascrizione (TFBS in inglese) sono modellati come motivi e il problema relativo alla loro identificazione è conosciuto come il Motif Discovery Problem (MDP). Negli ultimi tre decenni sono stati sviluppati diversi metodi per risolvere il MDP, ma nonostante le diverse tecniche impiegate il problema è ancora aperto. Nel presente lavoro di tesi il MDP è stato affrontato con l'uso di tecniche combinatorie, che si sono dimostrate efficaci per lo sviluppo di strumenti software ad alte prestazioni. In particolare abbiamo affrontato due problemi in stretta relazione tra di loro: l’identificazione de-novo di TFBS singoli e di TFBS composti. Per quanto riguarda il primo problema abbiamo sviluppato due nuovi metodi. Il primo è un tool per la ricerca di motivi semplici chiamato Gap Motif Finder (GMF), che esegue la ricerca dei motivi basandosi sulla esistenza di un core commune tra i siti, ammettendo un numero fissato di posizioni degenerati all’intero del core. Il metodo combina diverse tecniche già utilizzate in letteratura tra cui: algoritmi enumerativi, clustering e l’ottimizazione della posizione dei siti. Gli esperimenti effettuati su due benchmark mostrano che la performance di GMF è migliore di quella di altri 11 tool esitenti per il problema. Il secondo metodo si chiama CE3 (Customizable and Easily Extensible Ensemble), ed utilizza un approccio diverso: combina i risultati di algoritmi esistenti per l’identificazione di motivi singoli con l’obbietivo di migliorare il risultato finale. La novità di CE3 sta nel fatto che supera le limitazione di estensibilita dei metodi di ensemble esistenti, permettendo la semplice inclusione di nuovi metodi terzi per l’identificazione di motivi singoli e di nuove funzioni di apprendimento per mezzi di file XML. Inoltre, CE3 include due nuove funzioni di apprendimento per la ricerca di motivi semplici. Gli esperimenti eseguiti confrontando CE3 con 11 tool e due ensemble per MDP su tre benchmark mostrano come CE3 sia altamente competitivo con gli strumenti presenti in literatura. Nel complesso, i risultati suggeriscono che l'approccio ensemble è in grado di produrre soluzioni ragionevoli per il MDP, ma anche che esiste la necessità di ulteriori indagini per quanto riguarda la scelta della configurazione dei metodi ensemble. Tuttavia, dagli esperimenti eseguiti è stato possibile identificare alcune interessanti regolarità tra i diversi dataset che hanno suggerito un metodo generale per una efficace configurazione di CE3 in grado di garantire miglioramenti sostanziali rispetto ai tradizionali metodi per la ricerca di motivi singoli. In relazione al secondo problema, in questa tesi viene presentato CMF (Composite Motif Finder) un tool che lavora in due fasi successive: nella prima vengono identificate le posizioni dei singoli TFBS, mentre nella seconda si individuano i moduli composti formati dai singoli TFBS utilizzando principalmente tecniche combinatorie. La performance di CMF è stata valutata utilizzando tre benchmarck di diversa natura, ottenendo un miglioramento significativo dei risultati rispetto a dieci metodi concorrenti presenti in letteratura.
Modena & Reggio Emilia University
BENEVENTANO DOMENICO
DELL'AMICO MAURO
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02132014-151510/
it
unrestricted
Copyright information available at source archive
INF/01
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02062014-161749
2015-05-05
dtype:D1
dtype:PhD
Gestione Avanzata di dati per applicazioni e servizi real-time data intesive
CARAFOLI, LUCA
Streaming_Data
Smart_Cities
Relational_Databases
Data_Reduction
Data_indices
Questa tesi affronta le problematiche della gestione degli stream di dati per le applicazioni e i servizi real-time data-intensive. Essa presenta i principali obiettivi ottenuti nella attività di ricerca svolta durante il mio Ph.D nell’ambito del Progetto Pegasus(Industria 2015) che ha come scopo principale la costruzione di un Sistema di trasporto Intelligente Avanzato(ITS). Pegasus mira a introdurre una nuova tipologia di ITS che sfrutti i dati provenienti dalle On-Board Units (OBUs), installate sui veicoli, per offrire ai guidatori servizi avanzati volti a migliorare la mobilità urbana quali, per esempio, il monitoraggio e la prevenzione del traffico e degli incidenti stradali, il suggerimento di percorsi alternativi, di parcheggi disponibili, etc.
In generale, dispositivi come smartphone, OBUs e sensori sono capaci di raccogliere informazioni sull’ambiente che li circonda e di trasmetterle. Ciò permette lo sviluppo di nuove applicazioni data-intensive che sfruttino non solo stream di dati in real-time, ma anche dati storici e dati statici. Alcuni esempi sono le applicazioni di monitoraggio (ITS, monitoraggio dell'aria), le applicazioni militari (tracciamento del plotone), le applicazioni di rete (sistemi di rilevazione di intrusioni). Questa tipologia di applicazioni compie interrogazioni sui dati che vanno ben oltre le standard Continuous Query (CQ), supportate dai tradizionali Data Stream Management Systems (DSMSs) perché necessitano di un livello più alto di conoscenza dato proprio dai dati storici e statici. Per rispondere a questi requisiti, vari contributi in letteratura propongono di integrare i DSMS con le funzionalità dei Database Management Systems (DBMSs). Tuttavia, questo approccio non soddisfa completamente i requisiti progettuali e prestazionali richiesti da queste applicazioni.
Questa tesi perciò presenta la prospettiva opposta e pone le fondamenta per rendere un qualsiasi DBMS capace di gestire nativamente stream di dati. A tal fine, introduciamo una nuova tipologia di tabella, la Streaming Table (ST), come una nuova struttura di memorizzazione dove i dati in stream entrano e rimangono memorizzati per un lungo periodo, idealmente per sempre. Le STs presentano un nuovo paradigma d’accesso: scritture continue e letture sia continue che one-time. Per supportare efficacemente sia update che letture a rate elevati, abbiamo inoltre introdotto due nuove tipologie di indici. Una dettagliata serie di risultati sperimentali mostra l’efficacia della tecnologia proposta rispetto allo stato dell’arte attuale.
Nonostante le STs abbiano buone performance, negli scenari con alto workload, come Pegasus, potrebbe essere necessario ridurlo sul sistema centrale e trasferirlo sui dispositivi periferici. Consideriamo il contesto del progetto Pegasus, dove i veicoli sono equipaggiati con dei dispositivi con sensori e sono capaci di processare e trasmettere informazioni al sistema centrale. In questa prospettiva, lontani dal costruire un sistema distribuito, la tesi presenta i risultati sperimentali della nostra ricerca su diverse tecniche di Data Reduction al fine di minimizzare le comunicazioni Vehicle to Infrastructure (V2I). Abbiamo esplorato due categorie di tecniche: le independent techniques, dove i veicoli inviano in maniera completamente autonoma i dati al sistema centrale e le information-need techniques, dove i dati sono inviati al sistema tenendo conto di informazioni aggiuntive che giungono da esso.
Infine, abbiamo integrato queste soluzioni tecnologiche in un middleware comune per gestire dati real-time, storici, statici e per fornire un ampio range di query possibili, supportando sia le CQ che le one-time queries. Il middleware è stato contestualizzato in uno scenario che trae spunto dalle smart city dove vari servizi sono basati sulla disponibilità immediata dei dati. Infine la tesi mostra i risultati promettenti ottenuti da una varietà di prove sperimentali effettuate su di esso.
Modena & Reggio Emilia University
MANDREOLI FEDERICA
MARTOGLIA RICCARDO
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02062014-161749/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02122014-123210
2015-05-05
dtype:D1
dtype:PhD
Apprendimento Automatico di Modelli Visuali con Dati Incompleti
COPPI, DALIA
ComputerVision
NoveltyDetection
SVMs
TransductiveLearning
VisualClassification
L'obiettivo di un sistema di apprendimento automatico è catturare la struttura e le regolarità presenti nei dati in ingresso in modo da permettere la classificazione di dati futuri. I metodi di apprendimento artificiale sono in grado di astrarre modelli di classificazione da dati di training precedentemente annotati, ma riscontrano difficoltà quando la distribuzione di tali dati non è esplicitamente modellata. Una considerevole quantità di dati visuali è oggi disponibile in varie applicazioni, le difficoltà, sfortunatamente, risiedono nell'avere a disposizione dati annotati e nella possibilità di etichettare i dati sulla base delle risorse di tempo disponibili o della conoscenza accessibile. Questa tesi è focalizzata sull'apprendimento automatico di modelli discriminativi in scenari con una scarsa disponibilità di dati annotati o con dati incompleti. Con dati incompleti ci riferiamo sia al caso in cui solamente un sottoinsieme dei dati di ingresso sia annotato, sia al caso in cui solo una frazione delle classi di addestramento sia annotata. Il problema dell'apprendimento automatico con dati parzialmente etichettati è stato qui valutato in tre diverse applicazioni nel campo della visione artificiale, ovvero localizzazione e inseguimento di persone, classificazione di nuove categorie di immagini e analisi di immagini di documenti. Nella video sorveglianza l'input di un sistema di tracking può essere visto come un insieme di dati solo parzialmente annotati, dove sono presenti alcuni esempi del target da seguire e diversi esempi non etichettati. Tali dati non etichettati possono discostarsi anche notevolmente dal modello dei dati annotati a causa di occlusioni, cambiamenti di posa o di illuminazione, rendendo il problema di associazione tra dati etichettati e non ancora più complicato. In questa tesi viene proposto un metodo di apprendimento automatico semi supervisionato per risolvere il problema di inseguimento di persone e viene dimostrato mediante un’analisi sperimentale l’efficacia della soluzione proposta. Riguardo alla classificazione di immagini, un'interessante sfida è rappresentata dall’individuazione di nuove categorie e sottocategorie di oggetti. Assumendo che gli oggetti siano organizzati in tassonomie, può verificarsi il caso in cui gli elementi da classificare differiscano dalla gerarchia appresa o condividano solo parte dei nodi parentali. Il lavoro è qui dedicato all’apprendimento di un modello dai dati di training che sia in grado di generalizzare anche su classi non viste durante la fase di apprendimento. Infine, l’ultima parte affronta la segmentazione di figure in scansioni di testi antichi e il recupero di immagini simili da altre sorgenti. Lavorare sulla segmentazione di documenti datati risulta in una considerevole quantità di elementi illustrativi e quindi nella difficoltà di avere a disposizione esempi rappresentativi di questa eterogeneità. Viene proposta una rappresentazione efficace delle caratteristiche delle immagini e l’utilizzo di Support Vector Machines come metodo di classificazione. L'uso di queste due tecniche ha condotto ad un miglioramento nei confronti di altri metodi esistenti anche nel caso in cui un modello dettagliato dei dati di training non è disponibile.
Modena & Reggio Emilia University
CUCCHIARA RITA
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02122014-123210/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-12182013-140412
2015-05-05
dtype:D1
dtype:PhD
Architetture per Reti Ottiche ad Elevata Efficienza Energetica
FIORANI, MATTEO
Data-center
Energy-Efficiency
Networks
Optical
Simulation
Il settore dell’informatica e delle telecomunicazioni svolgerà un ruolo fondamentale nel ridurre i consumi energetici della nostra società. Tuttavia il consumo energetico dovuto al settore stesso è tuttora significativo ed aumenterà rapidamente con il proliferare di dispositivi collegati ad Internet e con l’apparizione di nuove applicazioni. Il consumo energetico del settore dell’informatica e delle telecomunicazioni è dovuto a: (i) periferiche, (ii) reti di telecomunicazione e (iii) data center. Sebbene le periferiche (es. computer, stampanti, ecc.) consumino la maggioranza dell’energia del settore, le reti di telecomunicazione e i data center consumano insieme più della metà del totale. Con l’attesa crescita del traffico Internet, il loro impatto energetico è destinato a crescere e per tale motivo risulta essenziale definire nuove architetture per reti di telecomunicazione e data center che presentino un basso impatto energetico.
Le reti di telecomunicazione possono essere suddivise in: (i) reti di accesso, (ii) reti metropolitane e (iii) reti di trasporto. Il traffico Internet viene aggregato nelle reti di accesso e metropolitane e trasmesso a grande distanza attraverso le reti di trasporto. Per questo motivo le reti di trasporto devono supportare grandi quantità di traffico e di conseguenza consumano una grande quantità di energia. Al fine di incrementare l’efficienza energetica nelle reti di trasporto, nella prima parte di questo elaborato viene proposto un nuovo meccanismo di trasmissione ottico definito Hybrid Optical Switching (HOS). HOS integra sulla stessa rete commutazione ottica di pacchetto, burst e circuito e prevede l’utilizzo di due switch in parallelo, uno switch ottico “lento” per la trasmissione di circuiti e burst lunghi ed uno “veloce” per la trasmissione di pacchetti e burst corti. Ciascuna applicazione Internet può scegliere il meccanismo di commutazione più adatto alle proprie caratteristiche e gli elementi di commutazione a più basso consumo vengono scelti ed utilizzati dinamicamente dai nodi della rete. Un architettura di rete basata su HOS viene proposta ed analizzata utilizzando un approccio analitico-simulativo. I risultati mostrano che HOS migliora notevolmente l’efficienza energetica rispetto alla soluzioni attuali.
Il consumo di energia dei data center può essere suddiviso in (i) energia consumata dai dispositivi ICT, (ii) energia consumata dal sistema di raffreddamento ed (iii) energia consumata dal sistema di alimentazione. In base alle ultime specifiche costruttive, l’energia consumata dai moderni data center è quasi interamente dovuta ai dispositivi ICT. Ne consegue che per ridurre il consumo energetico dei data center è importante definire nuove tecnologie ed architetture che consentano di ridurre il consumo dei componenti ICT ed in particolare il consumo della rete di interconnessione interna. A tale scopo, nella seconda parte di questo elaborato vengono proposte due nuove architetture di interconnessione ottiche per data center. La prima architettura si basa sul meccanismo di trasmissione HOS e viene indicata con il nome HOSDC, mentre la seconda si basa sul concetto di reti ottiche elastiche e viene indicata con il nome di EODC. L’energia consumata dalle due architetture proposte viene valutata e confrontata con quella consumata dalle soluzioni tradizionali, mostrando in entrambi i casi un notevole miglioramento. Infine, nell’ultima parte di questo elaborato viene proposta un architettura di rete interamente ottica che consente di massimizzare l’efficienza energetica sia nelle comunicazione interne ai data center che nelle comunicazioni tra data center situati in diverse posizioni geografiche.
Modena & Reggio Emilia University
CASONI MAURIZIO
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-12182013-140412/
it
unrestricted
Copyright information available at source archive
ING-INF/03
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02122014-150620
2015-05-05
dtype:D1
dtype:PhD
Riconoscimento Visuale di Forme e Luoghi su Dispositivi Mobili
FORNACIARI, MICHELE
Real-Time-Processing
Place-Recognition
Optimized-Algorithms
Ellipse-Detection
Mobile-Vision
L’incremento delle capacità computazionali dei dispositivi mobili rende possibile l’esecuzione su questi dispositivi di algoritmi di elevata complessità computazionale, permettendo la realizzazione di applicazioni impensabili fino a pochi anni fa. Adesso la comunità scientifica di Visione Artificiale può sfruttare le migliori caratteristiche dei dispositivi mobili, corredati di fotocamere di qualità elevata e molti altri sensori. Tuttavia occorre tenere in considerazione una tutta una serie di limitazioni proprie dell’ambito mobile. Nonostante i continui miglioramenti, la capacità computazionale e la memoria disponibile non è ancora paragonabile ai tradizionali computer. L’autonomia limitata della batteria e i problemi di connessione posso presentare un serio problema. Inoltre, nel contesto mobile l’utente interagisce direttamente con il dispositivo e con l’applicazione, e quindi è richiesto un tempo di risposta adeguato. Queste limitazioni mostrano come l’utilizzo di algoritmi di Visione Artificiale su dispositivi mobili non sia immediato. Anche se del codice ottimizzato può essere eseguito sul dispositivo, la maggior parte delle applicazioni richiedono ulteriori dati e capacità computazionale. Lo sviluppo di applicazioni mobili richiede la progettazione di algoritmi che si adattino all’architettura del sistema composto dal dispositivo mobile, da un server remoto e da una connessione di rete che li collega. Lo scopo della Visione Mobile, campo scientifico nato di recente, è proprio di affrontare queste problematiche. Il suo scopo non è solo quello di ottimizzare gli algoritmi di Visione Artificiale in modo che possano essere eseguiti su dispositivi con prestazioni limitate, ma anche di definire l’architettura dei sistemi, di sfruttare i sensori disponibili, e di avvantaggiarsi del ruolo dell’utente in rapporto con il dispositivo. Questa tesi si pone due obiettivi principali. Il primo è esplorare i miglioramenti apportati finora grazie ai principi della Visione Mobile, fornendo un’ampia analisi della letteratura associata e focalizzandosi sulle sfide rimaste ancora aperte. Inoltre sono discusse le soluzioni architetturali e le tecniche di ottimizzazione richieste per eseguire una applicazione in ambito mobile. Il secondo è di proporre due nuove applicazioni, cioè un algoritmo che permette di eseguire in tempo reale su un dispositivo mobile il riconoscimento di forme ellittiche, e un approccio computazionalmente leggero al riconoscimento visuale di luoghi che permette di fornire contenuti tempo reale all’utente attraverso un’interazione naturale.
Modena & Reggio Emilia University
PRATI ANDREA
CUCCHIARA RITA
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02122014-150620/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11282013-093106
2015-05-05
dtype:D1
dtype:PhD
Modelli e algoritmi per le comunicazioni powerline
GIANAROLI, FABIO
Algoritmo
Canale
Comunicazioni
Modello
Powerline
Negli ultimi anni le comunicazioni ad onde convogliate sono diventate un’alternativa commercialmente molto interessante ai sistemi di comunicazione wireless per la realizzazione di sistemi di trasmissione dati all’interno dei singoli edifici. Questo successo ha incentivato da un lato la ricerca di tecniche di comunicazione a larga banda dedicate a canali di comunicazione ad onde convogliate a bassa tensione. Dall’altro lato tale successo ha stimolato l’indagine delle proprietà dei canali ad onde convogliate, che risultano profondamente diverse da quelle dei canali wireless sia in termini di risposta del canale che di caratteristiche del rumore. Questa tesi si concentra sulle comunicazioni ad onde convogliate, in particolare su: a) l'analisi e la modellazione del comportamento dei canali ad onde convogliate indoor, b ) lo sviluppo di algoritmi che sfruttano la conoscenza dello stato del canale per migliorare l'affidabilità delle comunicazioni ad onde convogliate in scenari indoor.
Nella prima parte di questa tesi i canali di comunicazione ad onde convogliate sono analizzati e descritti come sistemi lineari e tempo invarianti. Un nuovo approccio per la modellazione statistica del canale è derivato ed applicato ai sistemi di comunicazione ad onde convogliate indoor nella banda 1-30MHz per reti elettriche a bassa tensione. Inoltre, particolare attenzione è dedicata alla valutazione dell'impatto della caratterizzazione degli elettrodomestici sulle prestazioni del modello statistico proposto. Infine, diverse classi di modelli statistici di rumore sono illustrati ed analizzati per valutare, tramite una serie di simulazioni al computer, il loro impatto sulle prestazioni di un sistema di comunicazione OFDM.
La seconda parte della tesi analizza il comportamento tempo variante dei canali ad onde convogliate. Inizialmente viene descritto un channel sounder basato su una FPGA espressamente progettato per analizzare la risposta tempo variante dei canali ad onde convogliate. Un modello lineare periodicamente tempo variante per i canali ad onde convogliate è presentato e validato attraverso l’acquisizione di un insieme di misure sperimentali effettuate sfruttando il channel sounder.
L’ ultima parte della tesi è dedicata allo sviluppo di algoritmi innovati per le comunicazione ad onde convogliate basati sulla conoscenza del modello di canale tempo variante. Più in particolare, nuovi algoritmi per la stima di canale, per l’equalizzazione e la stima adattativa sono illustrati. Infine, le prestazioni ottenibili con gli algoritmi proposti vengo confrontate con le prestazioni ottenibili con le soluzioni tecniche disponibili in letteratura.
Modena & Reggio Emilia University
VITETTA GIORGIO MATTEO
PANCALDI FABRIZIO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11282013-093106/
it
unrestricted
Copyright information available at source archive
ING-INF/03
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02112014-180712
2014-05-05
dtype:D1
dtype:PhD
Sulla Computazione Parallella Dichiarativa: Modelli, Linguaggi e Semantica
INTERLANDI, MATTEO
Parallel
Logic
Distributed
Computation
Programming
Se mettiamo sotto analisi la pletora di strumenti per l’elaborazione di dati di gran- di dimensioni disponibili al giorno d’oggi, possiamo riconoscere due approcci principali: un approccio dichiarativo perseguito da sistemi DBMS paralleli e saldamente fondato sul modello relazionale, e un approccio imperativo seguito dai moderni sistemi di elaborazione di dati “MapReduce -like”, i quali sono altamente scalabili, fault-tolerant, e il cui sviluppo e` trainato principalmente da necessita` industriali. Nonostante esistano un certo numero di proposte che hanno tentato di unificare i due mondi, questi lavori si concentrano principalmente nell’esportazione di linguaggi e interfacce – linguaggi dichiarativi su sistemi imperativi, o funzioni MapReduce-like su DBMS paralleli – oppure in una fusione sistematica delle caratteristiche dei due approcci. Noi sosteniamo che un approccio dichiarativo-imperativo debba invece essere tentato: cioè lo sviluppo di un nuovo modello di calcolo, e relativo linguaggio, basati sul modello relazionale e che seguano gli stessi pattern comunemente presenti nei moderni sistemi di elaborazione di dati, pur mantenendo una base dichiarativa. L’obiettivo di questa tesi e` quindi quello di effettuare un primo passo in questa direzione. Più concretamente, abbiamo sviluppato un nuovo modello di calcolo sincrono per l’elaborazione distribuita e parallela di dati, prendendo spunto da precedenti lavori su relational transducers e transducer networks. Tale modello computazionale accetta come input specifiche espresse in una versione di Datalog¬ appositamente pensata per il calcolo parallelo. Datalog¬ e` un linguaggio che giace tra la logica e i linguaggi di interrogazione e, grazie alla sua natura, siamo stati in grado non solo di esprimere in modo dichiarativo calcolo parallelo data-driven, ma anche di esplorare le fondamenta teoriche che collegano la semantica dei programmi con le proprietà emergenti della loro esecuzione parallela.
Modena & Reggio Emilia University
BERGAMASCHI SONIA
TANCA LETIZIA
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02112014-180712/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02062014-113504
2015-05-05
dtype:D1
dtype:PhD
Analisi di Data Warehouse Eterogenei e Integrazione Dimensionale
OLARU, MARIUS OCTAVIAN
DataWarehousing
information
Integration
Matching
Schema
Il Data Warehouse (DW) è lo strumento principale di Business Intelligence per l'analisi di grandi molli di dati con lo scopo di estrare informazioni strategiche come supporto al processo decisionale.
L'integrazione di Data Warehouse è il processo di unire informazioni multidimensionali da due o più DW eterogenei, e di presentare agli utenti una vista globale e unificata dei dati strategici combinati dei vari DW. Il problema sta' diventando sempre più frequente con il contesto economico attuale che vede molte fusioni/acquisizioni di compagnie e la formazioni di nuove tipologie di reti di aziende, come le reti di co-opetition, dove i manager devono analizzare tutte le parti coinvolte a prendere decisioni strategiche che riguardano tutti i partecipanti.
Il contributo della tesi è quello di analizzare ambienti di DW eterogenei e di presentare una metodologia di integrazione delle dimensioni che permette agli utenti di unire, accedere e interrogare dati da sorgenti multidimensionali eterogenei. La metodologia di integrazione si basa sulla teoria dei grafi e sulla tecnica di disambiguazione Combined WordSense Disambiguation (CWSD) per generare equivalenze semantiche tra schemi multidimensionali. In seguito, l'eterogeneità degli schemi è analizzata e gestita, e dimensioni compatibili sono uniformate attraverso l'importazione di attributi dimensionali da una dimensione all'altra. Questo permette agli utilizzatori di sorgenti distinte di avere la stessa visione dei dati locali, e aumenta la compatibilità dei schemi locali per query di tipo drill-across. Gli attributi dimensionali sono popolati con valori d'istanza attraverso una versione dell'algoritmo chase basato sull'approccio di clustering RELEVANT.
Infine, alcune proprietà di qualità sono considerate e analizzate. Viene presentata l'omogeneità/eterogeneità delle dimensioni dalla prospettiva di integrazione, e la tesi presenta le basi teoriche sotto cui la corretezza e la consistenza sono garantite, mentre verrà dimostrata la consistenza del metodo di integrazione. Inoltre, la metodologia di integrazione verrà analizzata sotto la prospettiva delle dimensioni di tipo slowly changing.
Modena & Reggio Emilia University
VINCINI MAURIZIO
BERGAMASCHI SONIA
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02062014-113504/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01242014-143031
2015-05-11
dtype:D1
dtype:PhD
Soluzioni di Monitoraggio per Sistemi Distribuiti su Larga Scala
PIETRI, MARCELLO
Large-Scale-Systems
Cloud-Computing
Big-Data
Adaptativity
Monitoring
L'interesse crescente per la gestione di sistemi Ultra-Large-Scale è stato il principale fattore trainante per la ricerca e lo sviluppo di nuove soluzioni e architetture di monitoraggio.
I moderni data center, che spesso supportano servizi basati su cloud, sono caratterizzati da un numero enorme di risorse hardware e software che collaborano spesso in modi complessi e imprevedibili. Comprendere lo stato di questi sistemi al fine di supportare l'analisi prestazionale, la gestione del carico di lavoro, la capacità di produzione e il rilevamento dei guasti, richiede soluzioni di monitoraggio scalabili che dovrebbero raccogliere e valutare continuamente grandi flussi di dati in tempo quasi reale.
Le soluzioni di monitoraggio odierne, sia proprietarie che open-source, presentano spesso alcuni aspetti negativi, tra cui carenza di scalabilità, scarsa rappresentatività delle condizioni di stato globali del sistema, incapacità nel garantire la persistenza nella fornitura dei servizi, e limitazioni nel monitoraggio di applicazioni multi-tenant. Inoltre, queste soluzioni di monitoraggio spesso non riescono a gestire grandi flussi di dati, ovvero a monitorare ad alte frequenze di campionamento le quali causano elevati costi computazionali e di comunicazione, per la raccolta, l'archiviazione e la gestione delle informazioni.
Questa tesi valuta e propone soluzioni di monitoraggio innovative, che spaziano dai sistemi embedded, fino alla gestione di grandi flussi di dati in sistemi Ultra-Large-Scale.
In particolare, forniamo soluzioni efficaci per la raccolta, l'archiviazione e la gestione di grandi flussi di dati proponendo:
(i) architetture scalabili e robuste per monitorare numerose risorse che interagiscono con fonti eterogenee;
(ii) algoritmi di gestione che decidono in modo adattativo la ridistribuzione trasparente delle sessioni live di macchine virtuali in sistemi su larga scala;
(iii) nuove architetture che, combinando un approccio gerarchico con soluzioni decentralizzate, affrontano la sfida del monitoraggio intra-cluster in sistemi su larga scala;
(iv) algoritmi adattativi per il monitoraggio di grandi flussi di dati che migliorano la scalabilità e garantiscono un'elevata affidabilità nel catturare rilevanti variazioni di carico;
(v) nuove architetture di monitoraggio ibride che forniscono elevata scalabilità, efficienza e resilienza, nonché la possibilità monitorare servizi dislocati su diversi cluster e data centers in sistemi Ultra-Large-Scale.
Modena & Reggio Emilia University
COLAJANNI MICHELE
LANCELLOTTI RICCARDO
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01242014-143031/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01252014-121715
2015-05-11
dtype:D1
dtype:PhD
Modelli di performance per la valutazione e la gestione dei moderni sistemi informatici e applicazioni
TOSI, STEFANIA
performance-modeling
data-analysis
big-data
scalable-computing
system-management
The advent of the cloud computing paradigm has lead Internet service providers to set up large Internet systems distributed all over the world in order to efficiently serve needs of their customers. Large Internet systems are characterized by a huge number of hardware resources and software components having the goal to make computing services readily available to users on demand, like any other utility service available in today's society.
Efficient management of large Internet systems requires several strategies that decide on request dispatching, load balance, admission control, and request redirection without direct intervention of human administrators. At the basis of most autonomic management decisions there is the need of performance models for supporting system management by taking real-time decisions on the basis of information related to the state of internal system components and resources. Performance models supporting large infrastructures must be able to operate at different time scales and should support prompt reconfigurations motivated by continuous dynamic changes in system, client, and business policies. Performance models should be scalable for increasing numbers of hardware and software components, they should be adaptive to heterogeneous data streams characteristics, and they should guarantee reliable results over changing system conditions and requirements.
This thesis presents a set of novel performance models proposed for online management of large amounts of variable and heterogeneous data streams coming from several system monitors and networks. In particular, this thesis extends the state-of-the-art in performance modeling in manifold directions: (i) it presents a novel approach for improving scalability when managing large amounts of data; (ii) it introduces new adaptive models for the on-line detection of anomalies and relevant state changes in highly variable contexts, and for the identification of correlations and groups of related objects even when correlation is hidden by high variability; (iii) it uses predictive analytics for improving performance in the selection of cloud availability zones on the basis of user preferences.
Extensive evaluations of the proposed approaches in real systems demonstrate improvements in performance modeling with respect to the state-of-the-art solutions and the satisfaction of scalability, adaptivity, and reliability requirements that are mandatory for large systems management.
Modena & Reggio Emilia University
COLAJANNI MICHELE
VITETTA GIORGIO MATTEO
2014-02-17
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01252014-121715/
it
unrestricted
Copyright information available at source archive
ING-INF/05
other
Scuola di D.R. in INFORMATION AND COMMUNICATION TECHNOLOGIES (ICT)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02112014-215746
2015-09-01
dtype:D1
dtype:PhD
Trapianto di fegato con l’utilizzo di grafts da donatori HBsAg positivi: studio multicentrico italiano
BALLARIN, ROBERTO
immunosoppressione
epatite-B
donatori-marginali
donatori-HBsAg
trapianto-fegato
Introduzione e Scopi:
Il trapianto di fegato è diventato il trattamento di scelta per la cura ed il trattamento delle malattie epatiche terminali non più suscettibili di terapia medica, con un tasso di sopravvivenza del paziente di oltre l’80% ad un anno. Tuttavia la crescente domanda di organi da trapiantare ha superato la disponibilità con conseguenti lunghi periodi di attesa in lista ed inevitabilmente un alto tasso di mortalità in lista di attesa. La comunità trapiantologica ha cercato di rispondere a questa continua esigenza sviluppando diverse strategie come, ad esempio, l’utilizzo di grafts da donatori definiti marginali. Questi comprendono i donatori “a cuore non-battente”, i donatori anziani (oltre i 65 anni), l’utilizzo di grafts con moderata steatosi o con pregresse infezioni da epatite-B o epatite-C. Un ulteriore possibilità per incrementare il pool dei donatori è l’utilizzo di grafts da donatori HBsAg-positivi. Tuttavia, ad oggi, pochi dati sono disponibili sull’utilizzo di questi grafts. Il nostro obiettivo è stato valutare lo stato siero-virologico ed i risultati clinici del trapianto di fegato utilizzando grafts da donatori HBsAg-positivi.
Materiali e Metodi:
Questo è uno studio multicentrico che ha coinvolto l’Università di Modena, Bologna e Padova. Lo studio è stato approvato dai comitati etici di ogni centro trapianto. Sono stati retrospettivamente valutati i pazienti trapiantati di fegato dal 12 marzo 2004 al 21 maggio 2010. In questo periodo 28 pazienti hanno ricevuto un fegato da donatori HBsAg-positivi. La valutazione sierovirologica ha incluso: i markers per HBV, IgM e IgG anti HDV, anticorpi anti-HCV, sierologia per Herpes virus e IgG Toxoplasma. In aggiunta è stato eseguito il dosaggio per HBV-DNA. Per ottenere l’idoneità del graft erano obbligatori due parametri: l’istologia del fegato che doveva documentare uno score di fibrosi (sec. Ishak) <1 e/o una lieve attività infiammatoria (grado <4). Il decorso clinico di ogni paziente è stato retrospettivamente valutato e sono stati raccolti i dati riguardanti: il tipo di terapia immunosoppressiva, gli episodi di rigetto cellulare acuto, la recidiva istologica di epatite-B ed il trattamento antivirale durante le recidive di epatite-B. Infine è stato analizzata la sopravvivenza del graft e del paziente intese come tempo intercorso dal trapianto al decesso del paziente e/o al ritrapianto.
Risultati:
L’età media dei riceventi era di 57.6 anni (range: 26-67); 4 dei 28 pazienti trapiantati erano femmine (14.3%). Il follow-up medio è stato di 37.4 mesi (0.1-88). Il tempo medio di attesa in lista è stato di 452 giorni (range: 37-1962) ed il MELD score medio al momento del trapianto era 15.6 (7-33). 19 pazienti avevano un carcinoma epatocellulare (7.8%) che in 13 casi (68.4%) rientrava entro i criteri di Milano. L’età media dei donatori HBsAg-positivi era di 52.6 anni (range:13-79) ed il tempo medio in rianimazione è stato di 5.3 giorni (range: 1-21). Il tempo medio di ischemia fredda e di ischemia calda del graft è stata di 430 e 40 minuti, rispettivamente. La degenza media postoperatoria è stata di 21.4 giorni (range: 6-143). Durante il follow-up nessun paziente ha necessitato di un ritrapianto di fegato, due pazienti (7.1%) svilupparono un rigetto cellulare acuto, 7 pazienti (25%) presentarono una complicanza biliare e 5 (17.9%) una infezione maggiore. La sopravvivenza del graft e del paziente a 1-,3- e 5 anni è stata del 85.6%, 81.7% e 74.3% rispettivamente.
Conclusioni:
Sulla base dei nostri risultati possiamo concludere che il trapianto di fegato con l'utilizzo di grafts da donatori HBsAg-positivi può essere sicuro e la recidiva di epatite B può essere controllata soprattutto con una adeguata selezione del graft e attraverso una appropriata gestione postoperatoria della terapia antivirale.
Modena & Reggio Emilia University
GERUNDA GIORGIO ENRICO
DI BENEDETTO FABRIZIO
LORIA PAOLA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02112014-215746/
it
unrestricted
Copyright information available at source archive
MED/18
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02132014-092616
2017-02-21
dtype:D1
dtype:PhD
MELANOCORTINE: FARMACI INNOVATIVI PER IL TRATTAMENTO DEL MORBO DI ALZHEIMER SPERIMENTALE
GALANTUCCI, MARIA
Transgenicmice
Neuroprotection
Melanocortins
Inflammation
Alzheimer
Le melanocortine sono peptidi endogeni appartenenti alla famiglia degli ormoni adrenocorticotropi/melanocita stimolanti (ACTH-MSH) . In condizioni di neurodegenerazione sperimentale, questi peptidi inducono neuroprotezione e neurogenesi, inoltre sono stati trovati bassi livelli di melanocortine in pazienti affetti da demenza simile al morbo di Alzheimer (AD). AD è una malattia cronica neurodegenerativa ed è la causa più comune di demenza tra gli anziani. Nella corteccia cerebrale e nell’ippocampo, la presenilina-1 (PS1) e la presenilina-2 (PS2) (membri del complesso delle γ-secretasi) insieme alle β-secretasi elaborano il precursore della proteina amilode (APP) che genera depositi fibrillari di β-amiloide extracellulare (placche Aβ). Queste caratteristiche lesioni innescano delle risposte eccitotossiche ed infiammatorie, che portano a disfunzione sinaptica, neurodegenerazione e apoptosi associate ad una marcata perdita neuronale. In AD, giocano un ruolo-chiave anche i radicali liberi, l’ossido nitrico (NO), il glutamato, diverse citochine, le MAPK chinasi (mitogen-activated protein kinases), i membri della famiglia Bcl-2 e le caspasi. Poiché queste vie fisiopatologiche sono comuni nei disturbi neurodegenerativi acuti e cronici, in questo studio abbiamo studiato il possibile ruolo neuroprotettivo delle melanocortine anche in una patologia neurodegenerativa cronica, l’AD, usando topi transgenici (3xTG-AD) di 12 settimane (all’inizio dello studio), con mutazioni genetiche umane in APPSwe, PS1M146V e tauP301L. I topi 3xTG-AD trattati intraperitonealmente (i.p.) con soluzione fisiologica hanno mostrato un danno nell’apprendimento e nella memoria spaziale (valutato alla 17 esima e alla 30 esima di età), associato (alla 30 esima settimana), nelle corteccia cerebrale e nell’ippocampo, ad un aumento della fosforilazione/livelli dei biomarcatori della cascata delle proteine tau/amiloide, della malondialdeide, dei nitriti, dei mediatori infiammatori ed apoptotici, dei depositi di amiloide e di una marcata perdita neuronale, rispetto agli animali wild-type. Il trattamento dei topi 3xTG-AD con un analogo sintetico delle melanocortine [Nle4,D-Phe7]α-ormone melanocita-stimolante (NDP-α-MSH), somministrato i.p. una volta al giorno (dalla 12esima settimana fino alla fine dello studio) ha ridotto, nella corteccia e nell’ippocampo attraverso l’attivazione dei recettori MC4 ,la fosforilazione/livelli di tutti i biomarcatori dell’AD precedentemente citati, e ha indotto una iper-espressione dell’attività sinaptica dipende dal gene Zif268, migliorando le funzioni cognitive, rispetto agli animali trattati con soluzione fisiologica. Quindi, i nostri dati mostrano, per la prima volta, che le melanocortine, attivando i recettori MC4 ,sono in grado di contrastare il progredire dell’AD sperimentale attraverso importanti meccanismi fisiopatologici dell’AD. Tutti questi effetti benefici possono essere dovuti ad un meccanismo fisiologico di auto-difesa ( indotto dalla trasduzione del segnale dei recettori MC4 ad opera di NDP) che agisce sulle vie fisiopatologiche dell’AD.
Questi risultati potrebbero avere una rilevanza clinica e dovrebbero incoraggiare ulteriori studi per valutare il potenziale valore terapeutico delle melanocortine in diverse fasce d’età, rappresentanti la progressione della neurodegenerazione dell’AD.
Modena & Reggio Emilia University
GIULIANI DANIELA
LORIA PAOLA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02132014-092616/
it
unrestricted
Copyright information available at source archive
BIO/14
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-11282013-123942
2015-09-01
dtype:D1
dtype:PhD
Caratteristiche molecolari e stato di metilazione del cancro colorettale ad insorgenza precoce (≤ 40 anni di età)
MAGNANI, GIULIA
methylation
hereditary
early-onset
Colorectal
cancer
Introduzione: Pressochè sconosciuta fino a 3 o 4 decenni fa, la genetica del cancro ha portato a rilevanti avanzamenti della nostra conoscenza sullo sviluppo tumorale. Molte sindromi sono state identificate seguendo la legge dell’ereditarietà Mendeliana per cui la patologia era trasmessa da una generazione all’altra.
Il cancro colorettale è una patologia che insorge ad età avanzata in entrambi i sessi ed aumenta con l’avanzare dell’età. L’età media alla diagnosi degli individui affetti si aggira intorno ai 70 anni. Tuttavia una piccola frazione di pazienti sviluppa il cancro colorettale più precocemente. Le ragioni per cui alcuni individui sviluppano cancro colorettale ad un’età insolita sono ancora sconosciute.
Scopo: L’obiettivo di questo studio è quello di comparare le caratteristiche molecolari e lo stato di metilazione dei cancri colorettali che insorgono precocemente con i tumori ad età più avanzata, per individuare possibili meccanismi patogenetici che intervengono nella carcinogenesi dei tumori giovanili.
Metodi: Nel nostro studio abbiamo incluso 33 pazienti con tumori insorti prima di 40 anni di età e un gruppo di controllo composto da 41 pazienti con tumori insorti dopo i 60 anni. Il gruppo di controllo è stato selezionato tenendo in considerazione le caratteristiche principali dei casi giovanili: preponderanza di sesso maschile, stadio di Dukes C e D e localizzazione tumorale nel colon sinistro. Tutti i tumori sono stati indagati per il test di Instabilità dei Microsatelliti, l’analisi immunoistochimica dei geni del Mismatch Repair (MMR) e l’identificazione delle mutazioni a livello somatico dei geni K-RAS e BRAF. La ricerca delle mutazioni germinali dei geni del MMR è stata eseguita nei casi con test di screening positivi. L’analisi del gene APC è stata condotta in tutti i pazienti con sospetto clinico di Poliposi Familiare, mentre il gene MUTYH è stato indagato in tutti i casi giovanili. Infine, abbiamo valutato il ruolo della metilazione aberrante del DNA (ipermetilazione e ipometilazione) in tutti i 74 carcinomi colorettali. In particolare l’ipermetilazione è stata ricercata con la metodica MS-MLPA usando tre differenti kit della MRC-Holland (ME001, ME002, e ME011), mentre l’ipometilazione delle LINE-1 è stata valutata con il trattamento del bisulfito mediante l’analisi con il pirosequenziamento.
Risultati: I cancri colorettali ad insorgenza precoce mostravano un’alta incidenza di forme ereditarie (6 casi, di cui 5 di Sindrome di Lynch e 1 di Poliposi Familiare, 18%) e delle mutazioni somatiche del gene K-RAS (33% contro 7%, p<0.005). Le mutazioni somatiche del gene BRAF sono state ritrovate solamente in 4 tumori colorettali ad età avanzata con perdita dell’espressione della proteina MLH1 e instabilità dei microsatelliti. Il numero medio dei geni metilati nei cancri colorettali ad insorgenza precoce era di 3.4 mentre nei cancri colorettali ad insorgenza tardiva era di 5.22 e questa differenza era statisticamente significativa (p< 0.005). L’ipermetilazione dei geni GATA-5, WT1 e ESR1 era un evento ugualmente frequente nei carcinomi giovanili e nei controlli. Inoltre i carcinomi giovanili in assenza dei casi con Sindrome di Lynch mostravano un’elevata frequenza di ipometilazione delle sequenze LINE-1.
Conclusioni: Abbiamo riscontrato differenze nel “make-up” genetico tra i carcinomi ad insorgenza precoce rispetto a quelli ad insorgenza tardiva. I tumori giovanili mostrano maggiori alterazioni costituzionali e somatiche del Sistema del Mismatch Repair, più frequenti mutazioni del gene K-RAS ed un minor numero di geni metilati. L’ipermetilazione dei geni ESR1, GATA5, WT1 potrebbe suggerire il possibile utilizzo di questi geni come marcatori nella diagnosi precoce del cancro del colon.
Modena & Reggio Emilia University
PONZ DE LEON MAURIZIO
PEDRONI MONICA
LORIA PAOLA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-11282013-123942/
it
unrestricted
Copyright information available at source archive
MED/06
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02112014-115738
2017-02-21
dtype:D1
dtype:PhD
GENETICA DELL'IPOGONADISMO IPOGONADOTROPO CENTRALE.
MARINO, MARCO
TACR3
TAC3
mutations
HYPOGONADISM
CHH
L’ipogonadismo ipogonadotropo centrale (CHH) è una malattia complessa, caratterizzata da uno sviluppo sessuale ritardato o assente, associata a bassi livelli di gonadotropine e steroidi sessuali, in assenza di anomalie anatomiche nell'asse ipotalamo-ipofisi-gonadi. CHH è una condizione patologica che frequentemente emerge in associazione a sovrappeso, sindrome metabolica e diabete. I meccanismi genetici comprendono mutazioni nucleotidiche in almeno diciotto geni che regolano la migrazione neuronale, la secrezione e l'attività di GnRH. Ad oggi, i meccanismi alla base di CHH, sia nelle forme ad esordio pre-puberale che adulta, rimangono ancora sconosciuti nella maggior parte dei casi.
Lo scopo di questo progetto è stato quello di studiare e comprendere i meccanismi molecolari coinvolti nel CHH e di identificare nuovi marcatori genetici o clinici, cercando di prevedere l'esito dei vari regimi terapeutici dei pazienti affetti. A Modena, l'approccio sperimentale è stato principalmente rivolto a studi genetici riguardanti due geni candidati, scoperti in tempi recenti, come TAC3 e TACR3, allo scopo di identificare nuove mutazioni CHH correlate.
In questo studio, sessantaquattro pazienti con CHH (con anosmia, iposmia o olfatto nella norma) sono stati arruolati e sottoposti a screening per i geni GnRH1, GnRH2, GnRHR, FGF8, KAL1, PROK2, PROKR2, FGFR1, TAC3 e TACR3.
Cinque diverse varianti causative note e sei diversi polimorfismi di singolo nucleotide (SNP) sono stati identificati in cinque geni su dieci studiati. Quattro nuove mutazioni diverse, due delle quali probabilmente patogene, sono state scoperte nei geni TAC3, FGFR1 e PROKR2.
Tutte le varianti identificate possono spiegare una piccola parte dei pazienti affetti indicando che altri geni sono coinvolti nell'insorgenza di CHH.
Abbiamo confermato l’oligogenicità di questa patologia che, in associazione con fattori epigenetici e ambientali, determina un'ampia variabilità di fenotipi.
Una percentuale elevata di pazienti affetti resta ancora da spiegare. Nuove indagini con nuove tecniche di biologia molecolare, in grado di identificare rapidamente nuovi loci candidati, come il sequenziamento massivo di nuova generazione (NGS), dovranno essere effettuate in futuro.
Modena & Reggio Emilia University
SIMONI MANUELA
LORIA PAOLA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02112014-115738/
it
unrestricted
Copyright information available at source archive
BIO/11
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01302014-161705
2015-05-06
dtype:D1
dtype:PhD
Interazioni in vitro tra virus patogeni umani e biofilm di Candida albicans
MAZAHERI TEHRANI, ELHAM
HSV
CVB
Candida
Biofilm
virus
Candida albicans è uno dei patogeni più coinvolti nelle infezioni associate ai biofilm che si formano su impianti medicali quali cateteri, valvole artificiali, protesi. L’impatto clinico di tali infezioni è molto pesante: i microrganismi cresciuti in forma di biofilm mostrano una diminuita sensibilità ai chemioterapici e le infezioni associate sono difficili da eradicare. Il biofilm di Candida diventa infatti una sorgente di candidemie invasive associate ad un’alta mortalità (30-40%). Finora pochi studi hanno indagato le interazioni tra virus patogeni umani e biofilm, focalizzandosi sui biofilm in ambiente acquatico. Non risulta invece indagata l’interrelazione tra biofilm nell’ospite umano e virus.
In questo studio abbiamo valutato: i) se l’Herpes Simplex Virus tipo 1 (HSV-1) e Coxsackievirus B5 (CVB5) possono essere trattenuti nel biofilm di Candida albicans, mantenendo la loro infettività, e poi rilasciati; ii) se il biofilm di Candida può intrappolare cellule non aderenti infettate da HSV-1; iii) se differenti materiali per cateteri (silicone e PVC) si comportano in maniera diversa per quel che concerne le interazioni tra virus e biofilm; iv) la localizzazione, all’interno del biofilm, dei virus e delle cellule inglobate; v) la sensibilità a farmaci antivirali di cellule infettate da virus e inglobate nel biofilm.
I biofilm di Candida albicans venivano cresciuti in micropiastre da coltura cellulare e poi esposti a inoculi acellulari di HSV-1 e CVB5 per 48h: dopo un abbondante lavaggio e raschiamento dei pozzetti per staccare e recuperare il biofilm, la carica virale in questo materiale veniva titolato con il metodo della diluizione limite. In parallelo, venivano allestiti anche pozzetti con un ceppo di Candida albicans non produttore di biofilm (planctonica) e controlli negativi con solo mezo di coltura processati allo stesso modo. Inoltre, i biofilm di Candida sono stati esposti anche a cellule linfoblastoidi non aderenti infettate con HSV-1 e, dopo lavaggio e raschiamento, sono stati determinati il numero di cellule vitali attaccate al biofilm e il titolo virale. Successivamente a queste prove effettuate su plastica, il biofilm è stato fatto crescere su cateteri di silicone e di PVC e anche su dischi di silicone: in questo caso sono stati determinati la massa e l’attività metabolica del biofilm mediante colorazione con Cristal Violetto e saggio XTT e l’abilità di inglobare particelle di HSV-1 e cellule infettate con HSV-1. Per la localizzazione degli antigeni virali edelle cellule infettate all’interno del biofilm è stata utilizzata una doppia colorazione in fluorescenza con un anticorpo monoclonale contro HSV-1 e UVitexB. E’ stata valutata la sensibilità ad acyclovir e foscarnet in cellule infettate da HSV-1 inglobate o no nel biofilm aggiungendo dosi scalari dei due farmaci alle colture determinando la Dose Inibente 50 (DI50).
Particelle virali di HSV-1 e di CVB5 e anche linfociti infettati con HSV-1vengono trattenuti nel biofilm, mantenendo la loro infettività, con titoli significativamente più elevati che in presenza di Candida planctonica o nei controlli negativi. Questo fenomeno si verifica indipendentemente dal tipo di superficie (plastica delle piastre da coltura, silicone, PCV). Le prove di sensibilità ai farmaci antiherpetici hanno evidenziato un aumento di molte volte della DI50 nelle cellule inglobate nel biofilm. Il materiale virale è stato osservato disperso irregolarmente all’interno del biofilm. Questi risultati mostrano per la prima volta che il biofilm di Candida può intrappolare virus e cellule infettate da virus che mantengono la loro infettività e vengono poi successivamente rilasciati. Questi riscontri suggeriscono l’ipotesi che il biofilm che cresce su impianti biomedicali possa costituire un ulteriore rischio anche di infezioni virali meno responsive ai farmaci antivirali nei pazienti con impianti biomedicali
Modena & Reggio Emilia University
CERMELLI CLAUDIO
LORIA PAOLA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01302014-161705/
it
unrestricted
Copyright information available at source archive
MED/07
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02062014-170102
2017-02-21
dtype:D1
dtype:PhD
TERAPIA COMBINATA DEL METABOLISMO TUMORALE E DELLA VIA DI SEGNALE PI3K/AKT/mTOR NEL LINFOMA PRIMARIO DELLE CAVITA' SIEROSE
MEDIANI, LAURA
PI3K/Akt/mTOR
PEL
Ipossia
Inhibitor-therapy
Effetto-Warburg
Lo scopo di questo studio è stato quello di identificare nuovi approcci terapeutici per il linfoma non-Hodgkin (LNH), attraverso l’inibizione combinata del metabolismo tumorale e delle vie di segnale coinvolte nella regolazione dei principali processi metabolici. Le cellule tumorali acquisiscono alterazioni geniche che forniscono loro un vantaggio proliferativo. Tuttavia, la capacità delle cellule altamente proliferanti di continuare a dividersi dipende dall’apporto costante di notevoli quantità di lipidi, nucleotidi, aminoacidi, oltre che da una produzione di energia sufficiente a sostenerne la crescita. E’ perciò perfettamente comprensibile come gli adattamenti metabolici osservati nella crescita tumorale siano un’area di crescente interesse. In particolare, l’adattamento metabolico che consente di produrre questi metaboliti, che favoriscono la proliferazione e sono probabilmente coinvolti nell’evasione dall’apoptosi, è definito fenotipo Warburg, ed è una peculiarità delle cellule tumorali. Il fenotipo Warburg è caratterizzato da un elevato flusso glicolitico e da uno shift del metabolismo glucidico dalla fosforilazione ossidativa alla produzione di lattato, anche in presenza di ossigeno. L’elevato flusso glicolitico consente alle cellule tumorali di deviare gli intermedi della glicolisi verso le vie biosintetiche. Pertanto, a causa della stretta dipendenza delle cellule tumorali dalla glicolisi, nuovi promettenti approcci terapeutici sono basati sull’utilizzo di inibitori specifici degli enzimi chiave di questa via metabolica. Il linfoma primario delle cavità sierose (PEL) è un LNH a cellule B caratterizzato da prognosi molto sfavorevole,con sopravvivenza media di soli sei mesi dalla diagnosi. Le cellule di PEL crescono in vivo nelle cavità sierose, cioè in un ambiente altamente ipossico, e sono caratterizzate dal fenotipo Warburg. L’agente eziologico del PEL è il virus associato al sarcoma di Kaposi. Alcune proteine virali, come K1 e vGPCR, attivano la via PI3K/Akt/mTOR, che a sua volta svolge un ruolo importante nella sopravvivenza di queste cellule. Recentemente, è stato riportato che mutazioni nella via di segnale PI3K/Akt/mTOR, che peraltro è tra quelle maggiormente mutate nei tumori umani, causano un rimodellamento del metabolismo delle cellule tumorali. In particolare, per la sua capacità di promuovere la glicolisi aerobia e di ostacolare la funzionalità mitocondriale, la chinasi Akt è stata indicata come ‘Warburg kinase’. Nel loro insieme queste caratteristiche suggeriscono la possibilita’ di un nuovo approccio terapeutico per il PEL. Quindi, questo studio ha valutato in cellule di PEL la citotossicità di un pannello di inibitori della glicolisi, già in fase I o II per tumori solidi, da soli o in combinazione con inibitori della via di segnale PI3K/Akt/mTOR, in condizione sia di normossia che di ipossia, che mima l’ambiente di crescita in vivo delle cellule di PEL. Mediante questo approccio, è stato possibile dimostrare che le cellule di PEL sono altamente sensibili agli inibitori della glicolisi, quali il 2-deossiglucosio (2DG) e l’estere del 3-Bromopiruvato (3BrOP) e che la loro sensibilità al 2DG è maggiore in condizioni di ipossia. In particolare, la combinazione di questi farmaci con inibitori della via di segnale di PI3K/Akt/mTOR ha un effetto citotossico sinergico o additivo sulle cellule di PEL, con un un’inibizione della crescita maggiore in condizioni di ipossia. Pertanto la combinazione porta allo stesso effetto antiproliferativo a dosi minori e meno tossiche rispetto ai singoli trattamenti. Poichè le suddette combinazioni sono molto efficaci anche in condizione di normossia, un’ ulteriore ricaduta di questo approccio potrebbe essere la sua estensione anche ad altri tipi di linfomi, purché caratterizzati da un rimodellamento del metabolismo glucidico.In conclusione, questo studio ha individuato un nuovo approccio terapeutico per il PEL.
Modena & Reggio Emilia University
MARMIROLI SANDRA
LORIA PAOLA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02062014-170102/
it
unrestricted
Copyright information available at source archive
BIO/17
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-12022013-101542
2015-05-11
dtype:D1
dtype:PhD
Studio della steatosi epatica, fetuina-A e disordine cardiovascolare.
MESCHIARI, ERICA
steatosis
NAFLD
ICP
bile
acids
1)Nella colestasi intraepatica della gravidanza(ICP)alterazioni genetiche nei geni ATP-binding cassette subfamily B member 4(ABCB4)e ATP-binding cassette subfamily B member(ABCB11)sono state associate alla comparsa di ICP in donne predisposte. Tuttavia non molti dati sono disponibili sulla correlazione tra le alterazioni genetiche e le manifestazioni fenotipiche di ICP.
2)Recentemente diverse linee di evidenza hanno sottolineato l'importanza delle variazioni quantitative e qualitative di acidi grassi alimentari(FAs)(saturi vs insaturi), in associazione con acidi biliari(BAs), nella patogenesi della NAFLD. Inoltre è stato chiaramente dimostrato un ruolo degli acidi biliari come regolatori del metabolismo lipidico epatico ed extraepatico. Pertanto, al di là del noto impatto sulla secrezione/degradazione di colesterolo è ormai chiaro che gli acidi biliari possono regolare l'espressione di diversi geni coinvolti nel metabolismo glucidico e lipidico ed interagire con l’apporto dietetico in acidi grassi. Inoltre, essi rappresentano interessanti candidati per il trattamento di diversi disordini epatici cronici e malattie metaboliche come la steatoepatite non alcolica(NASH)e il diabete.
3)La steatosi epatica non alcolica(NAFLD)è considerata un fattore indipendente di rischio per la malattia cardiovascolare(CVD), che è la principale causa di morte in questi individui. La Fetuina -A inibisce la calcificazione arteriosa, induce resistenza insulinica e aumenta nella NAFLD. Sebbene i meccanismi patogenetici che collegano NAFLD e CVD non siano completamente compresi, il ruolo svolto dalla fetuina-A ha acquisito sempre maggiore interesse.
Gli obiettivi dei miei progetti di ricerca sono: utilizzando una nuova molecola di acido biliare, che potrebbe essere un potenziale bersaglio per la prevenzione farmacologica e/o il trattamento di NAFLD e aterosclerosi, si è tentato di fare luce sull’incertezza che ancora accompagna le conoscenze sulla regolazione tra acidi biliari e metabolismo del colesterolo/trigliceridi. In secondo luogo valutare se NAFLD, CVD e fetuina-A differiscono in pazienti con CVD di 4 diversi siti anatomici: arterie carotidi, arti inferiori, aorta addominale/toracica e arterie coronarie(CAD+).
Per lo studio della colestasi gravidica il DNA di 33 donne italiane non imparentate con ICP è stato analizzato mediante sequenziamento per ricercare mutazioni nell’intera sequenza codificante dei geni ABCB4 e ABCB11.
Per lo studio degli effetti degli acidi biliari sul metabolismo lipidico è stato utilizzato un modello in vitro di steatosi indotta in cellule HepG2 da diversi acidi grassi(palmitico ed oleico)su cui è stato testato l'effetto di un nuovo acido biliare(6-ECDCA)sullo stoccaggio lipidico, sulla tossicità cellulare e sull'espressione genica.
Infine, il terzo tema è stato studiato valutando il rapporto tra NAFLD(US), CVD(tecniche standard), parametri antropometrici, indici metabolici e concentrazione di fetuina-A ELISA)nei pazienti raccolti.
La genotipizzazione delle pazienti ICP ha rivelato 11 mutazioni, 5 delle quali erano nuove varianti, inoltre è stata riscontrata una correlazione genotipo-fenotipo.
La valutazione dell'effetto del 6-ECDCA nel modello ha mostrato un aumento della steatosi dopo incubazione con acido palmitico, una diminuzione della tossicità indotta da acido palmitico, una inibizione dell'induzione del gene ACACB(promossa dall’acido palmitico)e l'induzione dell’ossidazione degli acidi grassi attraverso l'espressione del gene CPT1A.
La prevalenza di NAFLD in pazienti arteriopatici è del 53.80%, una percentuale superiore a quella della popolazione generale. I pazienti con malattia arteriosa periferica presentano il maggior numero di fattori associati a sindrome metabolica e i livelli di colesterolo-HDL più bassi. La concentrazione di fetuina-A è maggiore nel gruppo CAD+ e, in ogni gruppo studiato, la fetuina-A è più elevata nei NAFLD rispetto ai non-NAFLD.
Modena & Reggio Emilia University
LORIA PAOLA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-12022013-101542/
it
unrestricted
Copyright information available at source archive
BIO/11
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02112014-165153
2017-02-21
dtype:D1
dtype:PhD
Progettazione razionale attraverso metodi computazionali di ligandi multi-target come potenziali farmaci
ANIGHORO, ANDREW
virtual
screening
polypharmacology
hsp90
docking
I metodi computazionali giocano un ruolo sempre più importante nella progettazione del farmaco. Lo screening virtuale (SV) è uno strumento potente per l'identificazione di composti attivi. Durante il dottorato ho studiato ed applicato metodi computazionali volti alla scoperta di potenziali farmaci. In particolare ho lavorato nel campo emergente della polifarmacologia. Molti farmaci esercitano il loro effetto terapeutico interagendo con bersagli multipli (es. molti farmaci usati nella terapia del cancro e delle patologie del sistema nervoso centrale). La capacità di progettare piccole molecole con un profilo di attività predefinito è un obiettivo attraente ed impegnativo. Ho lavorato alla messa a punto di un protocollo computazionale di polifarmacologia su Hsp90, un bersaglio rilevante per la terapia del cancro. Hsp90 è un chaperone molecolare con un vasto interattoma di cui fanno parte diversi bersagli validati per la terapia del cancro. L'obiettivo principale è stato la selezione di combinazioni di bersagli adatte per la progettazione di inibitori duali e di molecole candidate per la duplice attività. Le informazioni depositate in banche dati molecolari è stata ampiamente analizzata per la determinazione di combinazioni promettenti di bersagli costituite da Hsp90 ed un interattore. Lo SV basato sui ligandi, comprendente calcoli di ricerca per similarità e macchine a vettori di supporto, condotto sulle banche dati ChEMBL e ZINC è stato effettuato nel corso di un periodo che ho trascorso nel laboratorio del Prof. Jürgen Bajorath a Bonn. Sono state costituite una libreria di composti ChEMBL ed una di composti ZINC per ciascuna combinazione di bersagli. Successivamente uno SV basato sulla struttura dei bersagli è stato effettuato utilizzando programmi di docking (AutoDock4, Glide) e processamento post-docking (BEAR). Cinque composti ChEMBL e sette composti ZINC sono stati selezionati per i saggi biologici. Due composti attivi sono stati identificati nella libreria ZINC Hsp90-B-Raf. Un nuovo SV è stato effettuato per espandere le molecole attive e selezionare nuovi candidati. Ventinove composti sono stati infine selezionati. I risultati ottenuti sono riportati e discussi in questa tesi. Ho valutato l'impatto del processamento post-docking nell'identificazione di antagonisti noti di recettori accoppiati a proteina-G (GPCR) in un insieme più ampio di decoy molecolari. Le GPCR sono bersagli rilevanti e recenti progressi nella cristallografia stanno aprendo nuove prospettive per la progettazione di farmaci. Nonostante il loro successo è noto che i programmi di docking possono risultare inaccurati nella valutazione dell'energia di legame. Ho confrontato le prestazioni di AutoDock4 con un metodo di processamento post-docking (BEAR). Sono state studiate quattro GPCR: il recettore adrenergico beta-2, il recettore per l'adenosina A2a, il recettore della dopamina D3 ed il recettore dell'istamina H1. I risultati ottenuti hanno confermato AutoDock4 come strumento utile per la previsione di modalità di legame. D'altra parte l'applicazione di una funzione di scoring più accurata come MM-PBSA può migliorare il fattore di arricchimento dello SV. E' stata presentata inoltre una prospettiva sulla progettazione di molecole con bersagli multpli osservando il successo del metodo studiato nel classificare in posizioni elevate gli antagonisti condivisi da due differenti GPCR nei rispettivi SV. Lo stesso metodo di SV è stato applicato nella ricerca di inibitori allosterici della chinasi ciclina-dipendenti 2 (CDK2). CDK2 è coinvolta nel controllo del ciclo cellulare ed è un bersaglio validato nella terapia del cancro. Una libreria commerciale di 600.000 composti e stata processata tramite docking e post-docking. Trentacinque composti sono stati scelti per i saggi biologici e 7 di questi sono risultati attivi a livello micromolare in saggi su proteina e linee cellulari modello.
Modena & Reggio Emilia University
RASTELLI GIULIO
TAIT ANNALISA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02112014-165153/
it
unrestricted
Copyright information available at source archive
CHIM/08
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-12092013-142857
2015-05-05
dtype:D1
dtype:PhD
Mucopolisaccaridosi: approcci analitici alla diagnosi asintomatica.
GALEOTTI, FABIO
mucopolisaccaridosi
glucosamina
glicosaminoglicani
galattosamina
esosamine
Sovente patologie progressive possono essere controllate o arrestate se diagnosticate precocemente anche in assenza di un’evidente sintomatologia. È questo il caso delle Mucopolisaccaridosi, ovvero malattie rare dovute all’accumulo lisosomiale di glicosaminoglicani e causate da uno specifico deficit enzimatico che ne compromette la corretta degradazione.
L’obiettivo di questo studio è proprio quello di proporre metodi semplici, affidabili, non invasivi, riproducibili ed economici per la diagnosi della menzionata patologia.
Dal punto di vista clinico è fondamentale creare quanto prima i presupposti per un piano di screening neonatale esteso a tutta la popolazione dei nuovi nati.
Questa necessità è ancora più impellente se si considera che le moderne terapie di sostituzione enzimatica sono efficaci solo se attuate sin dalle prime settimane di vita del neonato.
Dal punto di vista sperimentale è stato ideato un insieme di protocolli diagnostici destinati appunto alla diagnosi precoce e asintomatica. Trattasi di un insieme di approcci più sofisticati rispetto alle tradizionali tecniche elettroforetiche e/o colorimetriche che ancora oggi rappresentano il principale screening correlato alla diagnosi delle Mucopolisaccaridosi. Il primo verte sulla determinazione qualitativa e quantitativa delle esosamine contenute nelle urine mediante Elettroforesi Capillare in UV. La loro concentrazione è di fatto correlabile al contenuto in glicosaminoglicani. Gli stessi risultati sono stati ottenuti anche mediante HPLC in fluorescenza, confermando la validità del metodo elettroforetico HPCE. Il secondo dipende invece dal contenuto di galattosaminoglicani (DS e CS) a livello plasmatico e si fonda su una particolare condizione fisiopatologica recentemente dimostrata. In sostanza è ormai noto che l’accumulo primario di un tipo di GAG ha come conseguenza un accumulo secondario di altre forme di glicosaminoglicani aspecifici rispetto alla forma di MPS in esame. Abbiamo dunque stabilito che il contenuto di DS-CS può essere considerato un marker appropriato per la diagnosi precoce di tutte le forme di MPS.
A conclusione della parte concernente la presentazione dei risultati ottenuti abbiamo inserito anche i dati relativi ad uno specifico soggetto affetto da MPS IIIA caratterizzato da lieve ritardo mentale e bassi livelli urinari di HS.
Modena & Reggio Emilia University
VOLPI NICOLA
TAIT ANNALISA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-12092013-142857/
it
unrestricted
Copyright information available at source archive
BIO/10
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02062014-151801
2015-09-01
dtype:D1
dtype:PhD
Metodiche analitiche avanzate per lo studio, il controllo e la valorizzazione di alimenti, alimenti funzionali e prodotti nutraceutici.
GRAZIOSI, RICCARDO
vino
NMR
HPLC-MS
ciliegie
aceto
Il presente lavoro di tesi è articolato in quattro sezioni, relative a tre matrici alimentari di particolare rilevanza ed allo sviluppo di un toolbox per MATLAB per l’analisi di spettri NMR bidimensionali.
Lambruschi D.O.P. di Modena: questi vini, originari della provincia di Modena, rinomati nel nostro Paese ed apprezzati all’estero, sono prodotti a denominazione di origine controllata fin dal 1970 e divenuti poi DOP nel 2009. Questo prezioso riconoscimento impone l’osservanza dei disciplinari di produzione da parte degli operatori del settore, pensati per garantire ai consumatori un prodotto di qualità eccellente e certificata secondo le normative italiane ed europee. Nasce quindi la necessità di avere a disposizione dei metodi analitici comprovati in grado di certificare in modo oggettivo le caratteristiche di pregio di tali prodotti, come l’origine varietale o geografica, fondamentale per un vino. Nel presente studio sono quindi stati analizzati un totale di 110 campioni tramite spettroscopia NMR ed analisi statistica multivariata, divisi fra i tre vitigni di Lambrusco di maggiore pregio (Grasparossa, Salamino e Sorbara). Ai dati strumentali ottenuti sono state applicate analisi PCA e PLS-DA, ottenendo così un modello classificatorio in grado di discriminare con efficienza i Lambruschi DOP di Modena in base alla loro origine varietale, oltre a rendere possibile l’identificazione dei principali metaboliti responsabili di tale classificazione.
Caratterizzazione chimico-fisica e funzionale di ciliegie: le ciliegie (Prunus avium L.) sono apprezzate dai consumatori italiani ed europei per la loro qualità, e l’Italia risulta essere uno dei maggiori produttori in EU con 112775 t. prodotte nel 2011 (dati FAO). Questo frutto è ricco di zuccheri, vitamine, fibre e minerali, e possiede spiccate proprietà antiossidanti e funzionali, anche grazie alla presenza di sostanze fenoliche note per avere effetti benefici, tra cui gli antociani. Molte di queste preziose caratteristiche sono state valutate, analizzando diverse componenti chimiche, fisiche e funzionali di otto differenti cultivar di ciliegie tipiche della provincia modenese. Sono quindi stati misurati peso medio delle drupe e parte edibile, acidità, zuccheri riducenti, umidità e ceneri a partire da estratti acquosi, mentre sostanze fenoliche, potere antiossidante, riducente ed attività chelante sulla base di estratti metanolici. È stata effettuata un’estrazione sequenziale per valutare il contenuto di pectine, ed è stato messo a punto un metodo di purificazione tramite SPE che ha permesso l’identificazione e la quantificazione degli antociani presenti tramite HPLC-MS.
Aceto Balsamico Tradizionale di Modena: una delle eccellenze italiane maggiormente apprezzate nel mondo, questo prezioso prodotto viene ottenuto dalla cottura del mosto d’uva e successivamente invecchiato in botti di legno. Durante l’invecchiamento avvengono svariate trasformazioni chimiche, fisiche e biologiche, tra cui le reazioni di Maillard che portano alla formazione di polimeri biologici noti come melanoidine. È stato quindi sviluppato un metodo per l’estrazione e la purificazione di questi composti, analizzando aceti a diverso grado di invecchiamento. In secondo luogo, sono stati analizzati tramite spettroscopia NMR diversi aceti affinati, extravecchi ed industriali, differenti per quanto riguarda caratteristiche e durata del processo di invecchiamento. I dati spettrali sono poi stati riuniti in un dataset, successivamente analizzato tramite PCA e GDA, per ottenere un modello di classificazione in grado di differenziarli nelle tre classi merceologiche di appartenenza.
Software per l’analisi di spettri NMR: è stato sviluppato un software, sotto forma di toolbox per MATLAB, in grado di leggere spettri bidimensionali NMR Bruker, trasformarli in dataset ed analizzarli sia come intensità assoluta sia come immagini.
Modena & Reggio Emilia University
BERTELLI DAVIDE
TAIT ANNALISA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02062014-151801/
it
unrestricted
Copyright information available at source archive
CHIM/10
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02122014-094253
2017-02-21
dtype:D1
dtype:PhD
FOLATE RECEPTOR TARGETING ATTRAVERSO UN PTEROYL-NONAPEPTIDE CONIUGATO IN LINEE CELLULARI DI TUMORE OVARICO
PIRONDI, SILVIA
Target-strategy
Ovarian-cancer
Folate-receptor
Drug-resistance
Thymidilate-Synthase
Il tumore Ovarico (OC) è la quinta causa di morte più comune per tumore nelle donne e la più letale neoplasia ginecologica [1-3]. La resistenza alla chemioterapia standard [4-6] si instaura rapidamente e la sovra espressione della timidilato sintasi (hTS) è uno dei maggiori meccanismi coinvolti [7]. hTS è una enzima della via metabolica dei folati che catalizza un precursore fondamentale per la sintesi di DNA, nonché bersaglio di importanti farmaci anti tumorali (raltitrexed, pemetrexed e il pro-farmaco 5-fluorouracile) [8]. Recentemente, studi su peptidi specificamente progettati per interagire a livello dell’interfaccia monomero-monomero della TS hanno dimostrato che un peptide (LR e i suoi analoghi) è in grado di inibirne l’attività con un nuovo meccanismo, stabilizzando la forma dimerica inattiva della TS e inibendo così la crescita tumorale, pur mantenendo inalterati i livelli di TS in linee cellulari di tumore ovarico[9]. Durante il mio lavoro di dottorato ho contribuito a dimostrare che il peptide derivato [DGln4] LR mostra un aumentata attività biologica rispetto al peptide LR, pur mantenendo un simile comportamento in linee cellulari di tumore ovarico. (M.Pelà et al., J Med Chem in revisione). Lo specifico meccanismo di azione di questi peptidi non è ancora stato chiarito ed è attualmente in corso di studio. In questo contesto, ho contribuito a confermare la modulazione, indotta dal trattamento, di un profilo proteico, che è stato recentemente identificato attraverso un approccio proteomico e bioinformatico combinato (F.Genovese at al., in preparazione). In particolare mi sono occupata della valutazione della distribuzione del peptide all’interno della cellula, attraverso la microscopia a fluorescenza, osservando che esso sembra localizzarsi in modo preferenziale nel citoplasma. Inoltre un nuovo pteroyl-nonapeptide (FA-LR) coniugato è stato progettato per migliorare l’ingresso del peptide all’interno delle cellule attraverso l’endocitosi mediata dal recettore dei folati (FRα). FRα è un recettore di membrana, sovra espresso in più del 90% dei tumori ovarici non mucinosi. Inoltre, è stato dimostrato che esso è in grado di legare l’acido folico (FA) con elevata affinità e di internalizzare in modo efficiente sia gli analoghi del FA che le molecole ad esso coniugate [10]. Quindi per identificare il modello cellulare più adatto per valutare gli effetti del nostro FA-peptide coniugato, mi sono occupata della analisi dei livelli di espressione di FRα in un pannello di linee cellulari di OC, attraverso l’utilizzo metodi quantitativi e semi quantitativi [10-13]. Studi preliminari hanno mostrato che il coniugato compete con [³H] acido folico per l’entrata attraverso FRαin cellule che sovra esprimono il recettore, (G.Marverti et al., manuscript in preparation). La valutazione degli effetti sulla crescita cellulare e lo studio dell’efficienza della strategia basata sul recettore del folato, attraverso la microscopia a fluorescenza, sono in corso. Questo lavoro è parte del IG grant AIRC 2010 “TARGETING OVARIAN CANCER DRUG RESISTANCE”.
[1] E.Weiderpass, et al., Saf Health Work, 2012, 3, 166-80. [2] A.Jose, et al., Rev Obstet Gynecol, 2011, 4 NO.1, 15-21. [3] A.Burges, et al., Dtsch Arztebl Int, 2011, 108(38), 635–41. [4] RF.Ozols, et al., Lancet, 2002, 360, 2086-2087. [5] SA.Cannistra, et al., N Engl J Med, 2004, 351, 2519-2529. [6] F.A.Raja, et al., Ann Oncol 2012, 23 118–127. [7] KJ.Scanlon, et al., Cancer Commun, 1990, 2(10), 339-343. [8] R. Metzger; et al. J. Clin. Oncol. 1998, 16, 309-316. [9] D.Cardinale, et al., PNAS USA, 2011, 108 (34), 542-549. [10] CP.Leamon, et al., Advanced Drug Delivery Rev, 2004, 56, 1127-1141. [11] E.Basal, et al., Plos One, 2009, 4, 1-7. [12] N.Parker, et al., Analitic Biochem, 2005, 338, 284–293. [13] M.Figini, et al., Gene Therapy, 2003, 10, 1018–1025.
Modena & Reggio Emilia University
COSTI MARIA PAOLA
MARVERTI GAETANO
TAIT ANNALISA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02122014-094253/
it
unrestricted
Copyright information available at source archive
CHIM/08
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02122014-132311
2015-05-11
dtype:D1
dtype:PhD
Politiofeni funzionalizzati con biomolecole: sintesi, caratterizzazione e applicazioni.
TASSINARI, FRANCESCO
Polythiophene
Laccase
Chiral
Biosensor
Alignment
I politiofeni sono parte della famiglia dei polimeri conduttori. Sono estremamente popolari oggigiorno per le loro promettenti applicazioni nel campo delle celle solari a base organica. La loro reattività è ben nota, e un grande numero di reazioni per la loro funzionalizzazione è disponibile in letteratura. La possibilità di modificare questi politiofeni con una vasta libreria di vari gruppi funzionali apre la porta a numerose applicazioni.
Sono stati sintetizzati due politiofeni funzionalizzati con biomolecole, uno recante come sostituente in catena laterale l'amminoacido cisteina, l'altro un'anilina che serve come ponte per l'aggangio dell'enzima laccasi.
La presenza della cisteina nella catena laterale del polimero conferisce al politiofene un'elevata attività di dicroismo circolare. Il segno dell'assorbimento è legato alla chiralità dell'amminoacido cisteina. La lunghezza d'onda del picco di dicroismo circolare corrisponde a quella dell'assorbimento degli anelli politiofenici della catena principale, ad indicare che il dicroismo è dovuto ad un arrangiamento elicoidale del polimero. Questa struttura elicoidale è promossa dagli amminoacidi in catena laterale, e la chiralità del sostituente influenza la direzione dell'elica.
Questo polimero conduttore chirale e la sua struttura elicoidale allo stato solido sono un materiale molto appropriato per lo studio della conduzione dello spin elettronico all'interno di molecole organiche (come descritto dall'effetto di Chiral Induced Spin Selectivity).
Il polimero sostituito con l'anello anilinico è stato pensato per un utilizzo all'interno di applicazioni bio-sensoristiche. Il monomero tiofenico sostituito è elettropolimerizzato direttamente sulla superficie dell'elettrodo, e la presenza dell'anilina permette il legame diretto dell'enzima laccasi con il polimero e la superficie. L'enzima catalizza l'ossidazione di fenoli e polifenoli, e il prodotto dell'ossidazione può essere ridotto alla superficie dell'elettrodo a dare un segnale elettrochimico proporzionale alla concentrazione di analita.
Modena & Reggio Emilia University
SCHENETTI LUISA
TAIT ANNALISA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02122014-132311/
it
unrestricted
Copyright information available at source archive
CHIM/05
other
Scuola di D.R. in SCIENZE E TECNOLOGIE DEI PRODOTTI PER LA SALUTE
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-01282014-114159
2017-02-21
dtype:D1
dtype:PhD
Il fenomeno dello stigma in una popolazione studentesca della Facoltà di Medicina e Chirurgia dell’Università degli Studi di Modena e Reggio Emilia: caratteristiche epidemiologiche, sociologiche e personologiche
PINGANI, LUCA
Stereotyping
Reliability
Recovery
Questionnaire
Psychometrics
INTRODUZIONE. Lo stigma in salute mentale è stato riconosciuto come uno dei fattori maggiormente sfavorenti la guarigione, la riabilitazione e il reinserimento nel contesto sociale di persone affette da un disturbo mentale.
SCOPI DELLO STUDIO. Il presente studio si propone di indagare tre diverse aree legate al fenomeno della stigmatizzazione nel contesto della popolazione studentesca della Facoltà di Medicina e Chirurgia dell’Università degli Studi di Modena e Reggio Emilia: 1) validazione psicometrica della versione italiana dell’Attribution Questionnaire 27 (AQ-27-I), questionario autosomministrato utile per la verifica di presenza di atteggiamenti stigmatizzanti; 2) definizione e analisi delle differenze statisticamente significative relative agli atteggiamenti stigmatizzanti presenti nella popolazione generale e nella popolazione studentesca universitaria oggetto di studio; 3) analisi delle caratteristiche personologiche della popolazione studentesca universitaria come possibili predittori di atteggiamenti stigmatizzanti verso persone affette da un disturbo mentale.
METODOLOGIA. 1) La validità interna dello strumento è stata stimata attraverso il calcolo dell’Alpha di Cronbach. L’Analisi Confermativa Fattoriale è stata utilizzata per verificare l’applicabilità del costrutto teorico del questionario. 2) Le informazioni ottenute dalla popolazione studentesca universitaria sono state confrontate con le medesime informazioni raccolte presso un campione rappresentativo della popolazione generale per verificare la presenza di differenze statisticamente significative per quanto riguarda gli atteggiamenti stigmatizzanti. 3) E’ stato inviato l’AQ-27-I, il Temperament and Character Inventory e una scheda raccolta dati socio-demografici agli studenti della Facoltà di Medicina e Chirurgia dell’Università di UNIMORE. I dati raccolti sono stati descritti ed analizzati tramite l’utilizzo della regressione lineare per individuare un eventuale ruolo predittivo delle caratteristiche personologiche rispetto ad atteggiamenti stigmatizzanti.
RISULTATI. 1) 311 studenti (response rate = 32.81%) hanno restituito il questionario. La validità interna ha dato risultati soddisfacenti (α=.68) e gli indicatori relativi alla path analysis supportano la struttura fattoriale del questionario. 2) Ad eccezione della sottoscala “Aiuto” la popolazione generale (N=222) ha ottenuto, in modo significativo, punteggi medi sempre maggiori nelle diverse sottoscale dell’I-AQ-27 (punteggio totale: 111,77 vs 99,68) . 3) Nel modello della “Pericolosità” è stata definita una maggiore omogeneità dei possibili predittori di atteggiamenti stigmatizzanti fra la componente cognitiva e quella emozionale (“Evitamento del danno”, “Persistenza”, Autodirezionalità” e “Cooperatività”). Al contrario nel modello della “Responsabilità Personale” è stata riscontrata una significativa sovrapposizione fra i predittori del fattore “Rabbia” e quelli del fattore “Segregazione” (“Ricerca della novità”, “Evitamento del danno”, “Autodirezionalità” e “Cooperatività”).
DISCUSSIONE E CONCLUSIONI. 1) L’AQ-27-I dimostrato di poter essere utilizzato nel contesto della popolazione studentesca universitaria. 2) Le differenze di atteggiamento stigmatizzante emerse fra le due popolazioni (studentesca e generale) potranno essere utilizzate per progettare interventi di lotta allo stigma. 3) L’individuazione delle caratteristiche personologiche considerate come predittori di atteggiamenti stigmatizzanti può di fatto essere considerato un importante passo per la definizione dei meccanismi intrinseci che portano un individuo ad assumere atteggiamenti stigmatizzanti.
Modena & Reggio Emilia University
RIGATELLI MARCO
LORIA PAOLA
2014-02-18
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-01282014-114159/
it
unrestricted
Copyright information available at source archive
MED/25
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02162014-180243
2017-02-21
dtype:D1
dtype:PhD
Salute mentale materna e problemi emotivi e comportamentali in età prescolare: uno studio longitudinale prospettico a livello di popolazione in Etiopia.
SERVILI, CHIARA
postnatal-depression
emotional-disorders
child_mental_health
behavioral-disorders
SDQ
Introduzione La scarsa conoscenza dei determinanti precoci di salute mentale nell’infanzia sono un ostacolo al miglioramento dei servizi per la prevenzione e cura dei disturbi neuropsichiatrici dell’infanzia. L’evidenza scientifica dimostra che la presenza di disturbi di tipo ansioso-depressivo nella madre (“maternal common mental disorders”) durante il periodo perinatale e nella prima infanzia è associato a problemi emotivi e comportamentali nei bambini di età successive. Gli studi epidemiologici di tipo prospettico longitudinale che indagano i determimanti di salute mentale infantile sono pochi, particolarmente in paesi a basso e medio reddito. Obiettivi a) Analizzare la validità dello Strengths and Difficulties Questionnaire (SDQ) come strumento di screening per problemi emotivi e comportamentali infantili nel contesto etiope. b) Indagare la correlazione tra la presenza di disturbi di tipo ansioso-depressivo nelle madri e l’esposizione ad altri fattori di rischio e protettivi psicosociali nei primi anni di vita e la comparsa di problemi emotivi e comportamentali nei bambini in età prescolare (a 5 anni di età). Metodi Contesto: sito di sorveglianza demografica nell’area rurale di Butajira (distretti di Meskan e Mareko), in Etiopia. Lo studio comprende due componenti distinte: Analisi di validità: analsi della validità di impostazione (construct validity) di SDQ e valutazione della validità di convergenza utilizzando il Child Behaviour Checklist come scala di riferimento, in uno studio trasversale (o cross-sectional) su una popolazione di 854 bambini di 5 anni. 1) Studio longitudinale prospettico a livello di popolazione: 1065 donne incluse nello studio durante il periodo della gravidanza, 854 diadi madri-bambini seguite fino al raggiungimento del quinto anno di età dei bambini. Il Self-Reporting Questionnaire (SRQ-20)è stato utilizzato per lo screening di disturbi ansioso-depressivi durante la gravidanza, il periodo postnatale e la prima infanzia.Le informazioni relative alla presenza di fattori di rischio e protettivi psicosociali sono state raccolte a diversi intervalli di tempo (2 mesi dopo la nascita, 12 mesi, 30 mesi, 36 mesi, 42 mesi, 54 mesi e 60 mesi) e hanno compreso domande circa eventi stressanti, lo stato socioeconomico, ambiente domestico conflittuale e il livello di educazione materna.I dati sono stati raccolti attraverso un’intervista strutturata somministrata recandosi direttamente nelle case delle donne intervistate. Il comitato etico dell’Università di Addis Abeba ha approvato l’implementazione dello studio. Risultati Validità: Le SDQ subscales risultano avere soddisfacenti parametri di validità di impostazione (’construct validity’)e validità di convergenza. Studio longitudinale: I disturbi ansioso-depressivi nelle madri durante il periodo postnatale e i disturbi ansioso-depressivi materni ricorrenti durante i primi anni di vita del bambino risultano essere correlati in modo significativo con la presenza di problemi emotivi e comportamentali nei figli all’età di 5 anni, indipendentemente da altre variabili. Conclusioni L’indagine attraverso uno studio longitudinale prospettico dei determinanti precoci di disturbi psichiatrici dell’infanzia in Etiopia sono in linea con i risultati di studi condotti in altre regioni. I risultati di questo studio supportano l’ipotesi che il periodo postnatale sia una periodo critico per il possibile esordio di problemi emotivi e comportamentali in bambini di età successive. Inoltre, l’effetto cumulativo della presenza di disturbi ansioso-depressivi materni ricorrenti durante la prima infanzia influenza negativamente il benessere psicologico dei bambini in età prescolare. Il miglioramento dell’accesso a servizi efficaci e culturalmente accettabili per la prevenzione, il riconoscimento e la cura dei disturbi ansioso-depressivi durante il periodo postnalate e la prima infanzia dovrebbe essere una priorità.
Modena & Reggio Emilia University
FERRARI SILVIA
PRINCE MARTIN
LORIA PAOLA
2014-02-19
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02162014-180243/
it
unrestricted
Copyright information available at source archive
MED/25
other
Scuola di D.R. in MEDICINA CLINICA E SPERIMENTALE (CLINICAL AND EXPERIMENTAL MEDICINE)
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02072014-152814
2015-05-12
dtype:D1
dtype:PhD
Protezione di componenti per la produzione di energia attraverso tecniche di ingegneria delle superfici: sviluppo di bondcoat rinforzati tramite dispersione di ossidi e coating diffusivi a base cromo.
BOZZA, FRANCESCO
Rivestimenti
Ossidazione
Energia
Diffusione
Chromizing
Per proteggere i componenti dei moderni sistemi Turbogas per la produzione di energia,si utilizza negli stadi più caldi una barriera termica multistrato (Thermal Barrier Coating, TBC), formata da un layer ceramico esterno e da un rivestimento metallico più interno. Il coating ceramico garantisce l’isolamento termico, quello metallico (bondcoat) protegge il materiale dai fenomeni degradativi. Negli stadi più freddi, come alternativa più economica alla termospruzzatura del bond coating metallico, si impiegano rivestimenti diffusivi ottenuti tramite pack-cementation.
Il continuo innalzamento delle temperature di esercizio delle turbine, necessario per aumentarne il rendimento, richiede l’uso di TBC sempre più performanti.
Scopo del presente lavoro è lo sviluppo di rivestimenti protettivi, applicati utilizzando diverse tecniche di ingegneria delle superfici, per incrementare la longevità dei componenti per turbine a gas.
Lo studio è stato focalizzato sull’indagine sistematica dei parametri di processo e sulla valutazione della resistenza alle alte temperature di bondcoat termospruzzati e di rivestimenti diffusivi ottenuti tramite pack-cementation.
La prima parte del lavoro ha riguardato la deposizione di bondcoat rinforzati tramite aggiunta di ossidi ceramici (Oxide-Dispersion-Strenghtened, ODS).
L’aggiunta di tali ossidi porta ad un incremento della resistenza al creep e ad una riduzione del coefficiente di espansione lineare (CTE) del rivestimento, con conseguente diminuzione degli stress termomeccanici tra i diversi strati della TBC.
Le polveri ODS sono state ottenuti attraverso la macinazione ad alta energia di una miscela composta da particelle di CoNiCrAlY e Al2O3. Il processo di macinazione è stato analizzato nel dettaglio, variando la concentrazione di Al2O3, il tempo e la velocità di macinazione.
Le polveri sono state successivamente termospruzzate tramite High Velocity Oxygen Fuel (HVOF) e Air Plasma Spray (APS), su substrati di Inconel 738.
In particolare sono state depositate due tipologie di rivestimenti: un bondcoat interamente ODS e un sistema ibrido, composto da un bondcoat standard sopra il quale è stato applicato un sottile layer ODS.
I coating depositati tramite APS hanno una porosità molto elevata e zone parzialmente ossidate, quelli applicati tramite HVOF sono invece più densi e omogenei.
Il comportamento dei rivestimenti alle alte T è stato valutato tramite test di ossidazione ciclica e isoterma.
La resistenza all’ossidazione ciclica è fortemente influenzata dalla microstruttura dei coating. I rivestimenti ODS depositati tramite APS si sono danneggiati dopo un numero limitato di cicli mentre quelli depositati tramite HVOF hanno mostrato comportamento migliore. La quantità di Al2O3 all’interno del coating influenza il CTE e di conseguenza ha effetto anche sulla resistenza agli shock termici.
Lo spessore del thermally grown oxide layer (TGO) dipende dalla durata del test di ossidazione isoterma. Durante le fasi iniziali la TGO è composta da Al2O3. L’incremento del tempo di esposizione porta alla formazione di ossidi misti.
Le analisi hanno rivelato che nonostante l’aggiunta di particelle di ossido, la matrice metallica è ancora interconnessa in modo appropriato, permettendo all’Al di diffondere verso l’esterno per formare la scaglia di ossido.
La seconda parte del lavoro ha riguardato la deposizione di rivestimenti diffusivi a base di Cr, utilizzando il processo di pack-chromizing.
Sono stati caratterizzati coating prodotti utilizzando differenti parametri di processo e diverse composizioni del pack-mix.
Al termine del ciclo termico i coating sono composti da un layer esterno ricco di cromo, una zona intermedia contenente particelle ossidate e un layer interno formato da carburi e nitruri di Ti e Cr.
Modena & Reggio Emilia University
SILIGARDI CRISTINA
LUSVARGHI LUCA
MENABUE LEDI
2014-02-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02072014-152814/
it
unrestricted
Copyright information available at source archive
ING-IND/22
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02172014-094552
2014-05-05
dtype:D1
dtype:PhD
Metodi e software per la ricostruzione di immagini in diversi ambienti paralleli.
CAVICCHIOLI, ROBERTO
deconvoluzione
GPGPU
imaging
ottimizzazione
problemi-inversi
Da molti anni le immagini digitali sono state utilizzate in vari settori della scienza, come astronomia, biologia e medicina, e in tutti i casi queste sono inevitabilmente danneggiate da rumore e sfocatura. In particolare il rumore è principalmente dovuto alla conversione del segnale da analogico a digitale, mentre la sfocatura solitamente è conseguenza della natura delle osservazioni, quali presenza di atmosfera, aberrazione delle lenti o effetti di diffrazione della luce.
Una possibile strategia per la ricostruzione di queste immagini prevede un approccio statistico, noto come massima verosimiglianza.
Tutti gli algoritmi appartenenti a questo gruppo presuppongono che l'immagine in ingresso sia affetta da rumore, di cui è nota la densità di probabilità, e tentano di trovare l'immagine iniziale più probabile data l'osservazione. Questo porta a risolvere problemi di ottimizzazione le cui funzioni obiettivo dipendono da questa densità di probabilità.
Sebbene questi metodi di deconvoluzione diano spesso risultati accettabili, in campi applicativi come microscopia a fluorescenza e astronomia, essi sono computazionalmente intensivi, tipicamente a causa della grande dimensione dei dati. Una possibile soluzione per superare questo problema è la parallelizzazione del calcolo. Le strategie di parallelizzazione più comuni attualmente possono essere divise in due categorie principali.
Per prima cosa, esistono algoritmi che sono implementati come applicazioni multi-thread e sviluppati per le architetture SMP (symmetric multiprocessing).
Questo modello presuppone che tutte le unità di elaborazione (processori) siano identiche e usino un'unica memoria condivisa.
Tali applicazioni parallele possono sfruttare le moderne architetture CPU multi-core, workstaion con diversi processori e memoria globale condivisa, o un diverso tipo di dispositivi multiprocessore ad alte prestazioni come le GPU (schede grafiche).
In secondo luogo, gli algoritmi possono essere progettati per architetture a memoria distribuita. In questo caso ogni processore ha la propria memoria privata e i processori possono operare solo su dati locali, dovendo comunicare con altri per accedere ai loro dati.
Software sviluppato con questo approccio può sfruttare un cluster di computer (un gruppo di PC collegati in rete) e può anche essere eseguito in modo efficiente su architetture SMP, per velocizzare i calcoli suddividendo il carico di lavoro tra i thread.
Tuttavia la deconvoluzione di immagini di grandi dimensioni può essere ancora un problema.
I computer general-purpose di solito contengono solo pochi GB di memoria e un processore con due o quattro core.
Le workstation multiprocessore sono costose e contengono non più di quattro CPU.
Le GPU potrebbero essere una buona soluzione per ottenere una migliore velocità, grazie alla loro architettura massicciamente parallela.
In questa tesi sono presentate due versioni parallele del metodo del gradiente scalato proiettato (SGP) per risolvere i problemi di ottimizzazione che sorgono nella deconvoluzione di immagini e modificate per affrontare anche la riduzione dell'effetto di bordo tipicamente introdotto dagli algoritmi di ricostruzione.
La prima versione sfrutta l'ambiente Message Passing Interface (MPI) e funziona in modo efficiente su cluster di computer, l'altra sfrutta l'ambiente CUDA per l'utilizzo con GPU NVidia.
L'implementazione è stata progettata originalmente per i casi a 2 dimensioni o per immagini multiple in 2D, ma è stata estesa per immagini N-dimensionali.
L'efficacia delle implementazioni parallele è stata valutata ricostruendo immagini di piccoli e grandi dimensioni, dando risultati notevoli e accelerazioni molto promettenti rispetto alle versioni scalari.
Una sperimentazione numerica intensiva su immagini reali provenienti da astronomia e microscopia ha dimostrato che gli algoritmi proposti sono uno strumento molto promettente per deconvolvere in tempo reale immagini di grandi dimensioni.
Modena & Reggio Emilia University
ZANNI LUCA
PRATO MARCO
MENABUE LEDI
2014-02-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02172014-094552/
it
unrestricted
Copyright information available at source archive
MAT/08
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
oai:morethesis.unimore.it:etd-02172014-132330
2014-05-05
dtype:D1
dtype:PhD
Studio e sviluppo di materiali avanzati per l’architettura e l’edilizia: preparazione e caratterizzazione di rivestimenti di TiO2 per materiali da costruzione.
CEDILLO GONZALEZ, ERIKA IVETH
Weathering
Materiali
Adesione
Ambiente
auto-pulenti
Oggigiorno, l'uso di rivestimenti di TiO2 fotocatalitico depositati su componenti edilizi sta diventando molto interessante per lo sviluppo di materiali autopulenti. La proprietà autopulente della TiO2 è esprimibile in termini di reazione redox fotoindotta di inquinanti adsorbiti e super- idrofilia fotoindotta della superficie quando è irradiata con energia ultravioletta. Entrambi i fenomeni sono stati ampiamente utilizzati nella progettazione di diversi tipi di materiali da costruzione con caratteristiche autopulenti. Infatti, alcuni di essi sono ad oggi disponibili in commercio. Tuttavia, le limitazioni correlate con l'ottenimento di prodotti efficaci e la loro applicazione in condizioni d’uso (atmosferiche, per l’ordinaria manutenzione e pulizia) impediscono ancora un loro diffuso uso nel settore dell'edilizia. Pertanto, in questo lavoro, diversi studi sono stati condotti su queste principali limitazioni allo scopo di promuovere un più vasto utilizzo dei materiali autopulenti contenenti TiO2 nell’edilizia.
La ricerca è stata divisa in due aspetti principali, che riguardano: (i) problematiche legate alla produzione di materiali autopulenti di TiO2 e (ii) problematiche associate con all'utilizzo dei rivestimenti autopulenti in condizioni d’uso. Tra le limitazioni associate alla produzione di materiali autopulenti ci sono la bassa adesione dei rivestimenti al loro substrato, l'uso di substrati che influenzano l'attività fotocatalitica (o PCA) e la presenza di residui provenienti dalla sintesi del fotocatalizzatore (TiO2) che possono compromettere la PCA dei prodotti finali. In questa ricerca, il miglioramento dell’adesione tra i rivestimenti di TiO2 e i substrati di vetro è stato raggiunto mediante la modificazione della rugosità superficiale dei vetri ottenuta con trattamenti chimici applicati alla superficie. Inoltre, questa procedura decrementa anche il contenuto di Na+ sulla superficie del vetro, limitando le riduzioni della PCA dei prodotti finali. I problemi associati alla presenza dei residui di sintesi sono stati superati mediante trattamenti chimici dei prodotti appena preparati. Riguardo alle limitazioni connesse con l'applicazione di rivestimenti autopulenti in condizioni d’uso, le più comuni includono il “weathering” e le variazioni di PCA con fattori atmosferici come la temperatura e l’umidità. Il weathering non solo influenza la PCA, ma anche promuove il rilascio di nanoparticelle potenzialmente pericolose per l'ambiente o la salute umana. D'altra parte, la temperatura e l'umidità sono note per influenzare i meccanismi di reazione e la cinetica del processo di degradazione organica. Qui, rivestimenti di TiO2 sono stati esposti al weathering e a differenti valori di temperatura e umidità per valutare gli effetti di questi fattori sulle proprietà autopulenti dei rivestimenti . Inoltre, per determinare come le caratteristiche superficiali del rivestimento influenzino la proprietà autopulente in condizioni d’uso, sono state testate tre diverse morfologie di TiO2 (nanoparticolato, mesoporoso e non poroso). Le informazioni ottenute in questo lavoro consentono non solo di superare alcuni limiti tipici associati alla produzione di vetri autopulenti, ma anche per stabilire le condizioni d’uso in cui ognuno di questi materiali presenta le prestazioni migliori. Inoltre, sono state proposte alcune linee guida volte a favorire la scelta adeguata del tipo di rivestimento di TiO2 a seconda delle prestazioni nelle condizioni ambientali a cui vengono sottoposte e quindi definirne l'applicazione finale, rendendo questi materiali estremamente interessanti per l’edilizia dal punto di vista sia commerciale che tecnologico.
Modena & Reggio Emilia University
SILIGARDI CRISTINA
MONTORSI MONIA
MENABUE LEDI
2014-02-27
Electronic Thesis or Dissertation
application/pdf
https://morethesis.unimore.it/theses/available/etd-02172014-132330/
it
unrestricted
Copyright information available at source archive
ING-IND/22
other
Scuola di D.R. in MODELLISTICA, SIMULAZIONE COMPUTAZIONALE E CARATTERIZZAZIONE MULTISCALA PER LE SCIENZE DEI MATERIALI E DELLA VITA
Modena & Reggio Emilia University
dtype:PhD!!!oai_etdms!100