Riassunto analitico
Ridurre i consumi di potenza nei moderni calcolatori rappresenta una sfida sempre più difficile. Le architetture classiche soffrono del cosiddetto collo di bottiglia di von Neumann, che consiste nel continuo bisogno di scambiare dati tra l’unità di memoria e quella di calcolo, causando un significativo e apparentemente inevitabile consumo di potenza. Anche l’hardware tipicamente utilizzato per gli algoritmi di intelligenza artificiale, come reti neurali profonde (Deep Neural Networks), soffre di queste limitazioni. Serve quindi un cambio di paradigma per sostenere il bisogno sempre più crescente di sistemi a bassa potenza, autonomi e intelligenti. Si pensa che questo ambizioso obiettivo sarà realizzato grazie a piattaforme eterogenee che combinano logica binaria e reti neurali, in un ambiente hardware ultra-low power che è però difficile da ottenere con le tradizionali architetture CMOS. Per questo obiettivo sembrano invece promettenti nuove memorie non volatili, come le Resistive Random Access Memories (RRAMs), considerate come ottime candidate per guidare questa transizione tecnologica verso una nuova generazione di piattaforme hardware. Questo grazie alla possibilità di sfruttare questi dispositivi per replicare una delle caratteristiche più interessanti della struttura cerebrale, che memorizza e processa le informazioni nello stesso luogo, permettendo il superamento del limite imposto dalle architetture di von Neumann. In questa tesi sono studiati dei dispositivi RRAM in package, con l’obiettivo di valutare le performance nell’ambito della computazione in memoria (in-memory computing). In particolare, sono state individuate determinate condizioni, e relativi problemi, per applicazioni che prevedono sia un aggiornamento dei pesi sinaptici nelle reti neurali sia livelli stabili binari per applicazioni di logica Booleana. È stata quindi ideata e sviluppata una piattaforma di controllo per questi dispositivi basata su FPGA, per caratterizzare le performance in termini di consumo di energia di una innovativa metodologia per logica in memoria (Logic-in-Memory), chiamata SIMPLY, che permette un’affidabile computazione in memoria delle classiche operazioni binarie. La proiezione di questi risultati al regime dei nanosecondi porta quindi ad una stima delle reali potenzialità di questa tecnologia. Inoltre, la piattaforma presentata può essere sfruttata anche per testare reti neurali basate su RRAM, che combinate con la logica in memoria forniscono una architettura eterogenea e flessibile ideale per sostenere le richieste di una tecnologia intelligente sempre più pervasiva.
|
Abstract
Reducing power consumption in nowadays computer technologies represents an increasingly difficult challenge. Classical architectures suffer from the so-called von Neumann bottleneck (VNB), that consists in the continuous need to exchange data and instructions between the memory and the processing unit, leading to significant and apparently unavoidable power consumption. Even the hardware typically employed to run Artificial Intelligence (AI) algorithms, such as Deep Neural Networks (DNN), suffers from this limitation. A change of paradigm is so needed to comply with the ever increasing demand of ultra-low power, autonomous, and intelligent systems. It is envisioned that this ambitious goal will be pursued by means of heterogeneous platforms combining logic, DNN, and Spiking Neural Networks (SNNs) in an ultra-low power hardware environment that is hardly attainable with current CMOS devices. From this perspective, emerging non-volatile memories, such as the Resistive Random Access Memories (RRAMs), are considered a good candidate to lead this technological change toward the next-generation hardware platforms. This is mainly because such devices allow replicating one of the most intriguing features of the brain structure, that is to store and process information in the same place, therefore bypassing the VNB.
In this thesis, commercial-grade packaged RRAMs are thoroughly studied with the aim of evaluating their performance in the framework of in-memory computing. Specifically, the operating conditions allowing both analog update of the synaptic weight and stable binary switching are identified, along with the associated issues. To this purpose, a dedicated system based on an FPGA control platform is designed and realized. Then, it is exploited to fully characterize the performance in terms of power consumption of an innovative Smart IMPLY (SIMPLY) Logic-in-Memory (LiM) methodology that allows reliable in-memory computation of classical Boolean operations. The projection of these results to the nanoseconds regime leads to an estimation of the real potential of this technology. In addition, the platform can also be exploited to test RRAM-based SNN and Binarized DNNs (i.e.,BNN), that can combine with LiM to provide the heterogeneous flexible architecture envisioned as the long-term goal for ubiquitous and pervasive AI.
|