The ever-increasing amount of data processed everyday due to Artificial Intelligence applications in the era of Internet of Things has challenging the performance of conventional digital computer based on CMOS technology and Von Neumann architecture. For more than 50 years CMOS tecnhology scaling has followed the Moore’s law. However, this trend has been slowed down due to technology limitation like short-channel effect of transistors but also frequency and power limitation related to the so called heat wall. Moreover, the architecture based on separation between the Central Processing Unit and the Memory creates latency due to the continuous transfer of data among these units impacting on the performance. In addition, in the memory hierarchy structure of conventional digital computing devices there is a gap among performance and capability storage which requires new kind of memories. In this scenario in memory computing appears as a novel computing paradigm able to overcome the so called Von Neumann Bottleneck or memory wall. It in fact, consists in co-location of memory and processing unit. In memory computing allows to implement artificial neural network able to solve intensive-data task in parallel, thus providing optimal performance and energy efficiency. The human brain is a biological example of in memory computing device in which memories and processing happens in same place with small frequency and power consumption. This is exactly what Neuromorphic Computing is inspired by which in fact is another possible solution in addition to In Memory Computing. In the wide range of In Memory Computing applications, emerging not volatile material storage memories appears as promising candidates to be implemented memory array for in situ data processing. Among these, RRAM has particularly attracted attention since it offers low dimensions, high integration density thanks to great stack-ability in 3D structures comparable with NAND flash memories, high energy efficiency with write voltage of few volts, great endurance and high speed. RRAMs can be organized in 2D memory array enabling the implementation of parallel Matrix Vector Multiplication based on Ohm’s law and Kirchhoff’s law to accelerate many types of computation. Based on Matrix Vector Multiplication an hardware neural network can be implemented where the synaptic weight can be stored as conductance value within the array. Moreover due to its capability of imitating biological synaptic activities, the RRAM can be also implemented in brain inspired neuromorphic networks. Before the implementation of array, the single RRAM device must be studied and characterized in order to be able to better treat it also in case of high density memory array. This master thesis work is based on theoretical study and experimental characterization of single RRAM devices going through some literature trends. This could be the way to better understand who are the perfect candidate to be used in memory array. Chapter 1 describes the challenging scenario of conventional digital computer technology and architecture to cope with the ever-increasing amount of data to be processed, including Moore’s law slow down trend, heat wall and memory wall. In this scenario In Memory Computing is presented together with the Matrix Vector Multiplication concept and some possible operational accelerators examples. Some memory structures are generally introduced. Then some new two terminals emerging memory devices are briefly described. Chapter 2 describes in detail the switching mechanism of RRAM devices with focus on some characteristic trends. It follows the explanation of possible biasing schemes and architectures for RRAM array. Neuromorphic computing is introduced with example of Artificial Neural Network and Brain Inspired Neural Network involving RRAMs. An example of characterization and application of crossbar from literature is presented. Chapter 3 describes the experimental set-up used in this thesis work and the main results on single device characterization measurements. In particular, study on dependance on oxide thickness and on oxygen percentage during sputtering deposition of metal oxide layer and a comparison among some hetero-integration devices. Chapter 4 describes an experiment, including the set up, involving a vector of RRAMs to perform a Vector Vector Multiplication implementing a small artificial neural network for signal classification and recognition to better handle with array dimensions and value of conductances. Chapter 5 summarizes the main results and introduces some possible future developments.

La quantità sempre crescente di dati elaborati ogni giorno per via delle applicazioni dell’ Intelligenza Artificiale nell’era dell’Internet of Things ha messo a dura prova le prestazioni dei convenzionali computer digitali basati sulla tecnologia CMOS e sull’architettura di Von Neumann. Per più di 50 anni lo scaling della tecnologia CMOS ha seguito la legge di Moore. Tuttavia, questa tendenza è stata rallentata a causa di limitazioni tecnologiche come l’effetto del canale corto dei transistori, ma anche limitazioni della frequenza e della potenza legata al cosiddetto heat wall. Inoltre, l’architettura basata sulla separazione tra l’unità di elaborazione centrale e la memoria crea latenza a causa del continuo trasferimento di dati tra queste unità con un impatto sulle prestazioni. Inoltre, nella struttura gerarchica della memoria dei convenzionali dispositivi informatici digitali c’è un gap tra la performance e la capacità di storage che richiede nuovi tipi di memorie. In questo scenario l’In Memory Computing si presenta come un nuovo paradigma di calcolo in grado di superare il cosiddetto collo di bottiglia di Von Neumann o memory wall. Consiste infatti nella co-locazione della memoria e dell’unità di elaborazione. Il calcolo in memoria consente di implementare reti neurali artificiali in grado di risolvere compiti di dati intensivi in parallelo, fornendo così prestazioni ed efficienza energetica ottimali. Il cervello umano è un esempio biologico di dispositivo di calcolo in memoria in cui i ricordi e l’elaborazione avvengono nello stesso luogo con una frequenza e un consumo energetico ridotti. Questo è esattamente ciò a cui si ispira il neuromorphic computing, che di fatto è un’altra possibile soluzione oltre all’In Memory Computing. Nell’ampia gamma di applicazioni dell’In Memory Computing, le memorie emergenti non volatili di tipo storage material appaiono come candidati promettenti per essere implementate in array di memorie per l’elaborazione di dati in loco. Tra queste, la RRAM ha attirato particolarmente l’attenzione poiché offre dimensioni ridotte, alta densità di integrazione grazie alla grande impilabilità in strutture 3D paragonabili alle memorie flash NAND, elevata efficienza energetica con tensione necessaria per la scrittura di pochi volts, grande capacità di cicli e alta velocità. Le RRAM possono essere organizzate in array di memoria 2D che consentono l’implementazione del Matrix Vector Multiplication in parallelo basato sulla legge di Ohm e sulla legge di Kirchhoff per accelerare molti tipi di calcolo. Sulla base del Matrix Vector Multiplication è possibile implementare una rete neurale hardware in cui il peso sinaptico può essere memorizzato come valore di conduttanza all’interno dell’array. Inoltre, grazie alla sua capacità di imitare le attività sinaptiche biologiche, la RRAM può essere implementata anche in reti neuromorfiche ispirate al cervello. Prima dell’implementazione dell’array, il singolo dispositivo RRAM deve essere studiato e caratterizzato in modo da poterlo trattare al meglio anche in caso di array di memoria ad alta densità. Questo lavoro di tesi magistrale si basa sullo studio teorico e sulla caratterizzazione sperimentale di singoli dispositivi RRAM affrontando alcuni trend della letteratura. Questo potrebbe essere il modo per capire meglio chi sono i candidati perfetti da utilizzare negli array di memoria. Il Capitolo 1 descrive lo scenario della tecnologia e dell’architettura informatica digitale convenzionale messo a dura prova per far fronte alla quantità sempre crescente di dati da elaborare, tra cui il rallentamento del trend della legge di Moore, l’heat wall e il memory wall. In questo scenario viene presentato l’In Memory Computing insieme al concetto di Matrix Vector Multiplication e ad alcuni possibili esempi di acceleratori operazionali. Vengono introdotte alcune strutture di memoria in modo generale. Vengono quindi brevemente descritti i nuovi dispositivi di memoria emergenti a due terminali. Il Capitolo 2 descrive in dettaglio il meccanismo di commutazione dei dispositivi RRAM con particolare attenzione su alcuni trend caratteristici. Segue la spiegazione dei possibili schemi di polarizzazione e delle architetture per l’array RRAM. Viene introdotto il neuromorphic computing con esempi di reti neurali artificiali e reti neurali ispirate al cervello che coinvolgono le RRAM. Viene presentato un esempio di caratterizzazione e applicazione della crossbar dalla letteratura. Il Capitolo 3 descrive il set-up sperimentale utilizzato in questo lavoro di tesi e i principali risultati sulle misure di caratterizzazione di singoli dispositivi. In particolare, studio sulla dipendenza dallo spessore dell’ossido e dalla percentuale di ossigeno durante la deposizione dell’ossido con sputter e un confronto tra alcuni dispositivi di etero-integrazione. Il Capitolo 4 descrive un esperimento che coinvolge un vettore di RRAM per eseguire una moltiplicazione vettoriale implementando una piccola rete neurale per la classificazione e il riconoscimento dei segnali per gestire meglio le dimensioni e i valori di conduttanze negli array. Il Capitolo 5 riassume i principali risultati e introduce alcuni possibili sviluppi futuri.

Characterization of non-volatile RRAMs for in memory computing

INDELICATO, DEBORA
2022/2023

Abstract

The ever-increasing amount of data processed everyday due to Artificial Intelligence applications in the era of Internet of Things has challenging the performance of conventional digital computer based on CMOS technology and Von Neumann architecture. For more than 50 years CMOS tecnhology scaling has followed the Moore’s law. However, this trend has been slowed down due to technology limitation like short-channel effect of transistors but also frequency and power limitation related to the so called heat wall. Moreover, the architecture based on separation between the Central Processing Unit and the Memory creates latency due to the continuous transfer of data among these units impacting on the performance. In addition, in the memory hierarchy structure of conventional digital computing devices there is a gap among performance and capability storage which requires new kind of memories. In this scenario in memory computing appears as a novel computing paradigm able to overcome the so called Von Neumann Bottleneck or memory wall. It in fact, consists in co-location of memory and processing unit. In memory computing allows to implement artificial neural network able to solve intensive-data task in parallel, thus providing optimal performance and energy efficiency. The human brain is a biological example of in memory computing device in which memories and processing happens in same place with small frequency and power consumption. This is exactly what Neuromorphic Computing is inspired by which in fact is another possible solution in addition to In Memory Computing. In the wide range of In Memory Computing applications, emerging not volatile material storage memories appears as promising candidates to be implemented memory array for in situ data processing. Among these, RRAM has particularly attracted attention since it offers low dimensions, high integration density thanks to great stack-ability in 3D structures comparable with NAND flash memories, high energy efficiency with write voltage of few volts, great endurance and high speed. RRAMs can be organized in 2D memory array enabling the implementation of parallel Matrix Vector Multiplication based on Ohm’s law and Kirchhoff’s law to accelerate many types of computation. Based on Matrix Vector Multiplication an hardware neural network can be implemented where the synaptic weight can be stored as conductance value within the array. Moreover due to its capability of imitating biological synaptic activities, the RRAM can be also implemented in brain inspired neuromorphic networks. Before the implementation of array, the single RRAM device must be studied and characterized in order to be able to better treat it also in case of high density memory array. This master thesis work is based on theoretical study and experimental characterization of single RRAM devices going through some literature trends. This could be the way to better understand who are the perfect candidate to be used in memory array. Chapter 1 describes the challenging scenario of conventional digital computer technology and architecture to cope with the ever-increasing amount of data to be processed, including Moore’s law slow down trend, heat wall and memory wall. In this scenario In Memory Computing is presented together with the Matrix Vector Multiplication concept and some possible operational accelerators examples. Some memory structures are generally introduced. Then some new two terminals emerging memory devices are briefly described. Chapter 2 describes in detail the switching mechanism of RRAM devices with focus on some characteristic trends. It follows the explanation of possible biasing schemes and architectures for RRAM array. Neuromorphic computing is introduced with example of Artificial Neural Network and Brain Inspired Neural Network involving RRAMs. An example of characterization and application of crossbar from literature is presented. Chapter 3 describes the experimental set-up used in this thesis work and the main results on single device characterization measurements. In particular, study on dependance on oxide thickness and on oxygen percentage during sputtering deposition of metal oxide layer and a comparison among some hetero-integration devices. Chapter 4 describes an experiment, including the set up, involving a vector of RRAMs to perform a Vector Vector Multiplication implementing a small artificial neural network for signal classification and recognition to better handle with array dimensions and value of conductances. Chapter 5 summarizes the main results and introduces some possible future developments.
BRIDAROLLI, DAVIDE
RICCI, SAVERIO
ING - Scuola di Ingegneria Industriale e dell'Informazione
9-apr-2024
2022/2023
La quantità sempre crescente di dati elaborati ogni giorno per via delle applicazioni dell’ Intelligenza Artificiale nell’era dell’Internet of Things ha messo a dura prova le prestazioni dei convenzionali computer digitali basati sulla tecnologia CMOS e sull’architettura di Von Neumann. Per più di 50 anni lo scaling della tecnologia CMOS ha seguito la legge di Moore. Tuttavia, questa tendenza è stata rallentata a causa di limitazioni tecnologiche come l’effetto del canale corto dei transistori, ma anche limitazioni della frequenza e della potenza legata al cosiddetto heat wall. Inoltre, l’architettura basata sulla separazione tra l’unità di elaborazione centrale e la memoria crea latenza a causa del continuo trasferimento di dati tra queste unità con un impatto sulle prestazioni. Inoltre, nella struttura gerarchica della memoria dei convenzionali dispositivi informatici digitali c’è un gap tra la performance e la capacità di storage che richiede nuovi tipi di memorie. In questo scenario l’In Memory Computing si presenta come un nuovo paradigma di calcolo in grado di superare il cosiddetto collo di bottiglia di Von Neumann o memory wall. Consiste infatti nella co-locazione della memoria e dell’unità di elaborazione. Il calcolo in memoria consente di implementare reti neurali artificiali in grado di risolvere compiti di dati intensivi in parallelo, fornendo così prestazioni ed efficienza energetica ottimali. Il cervello umano è un esempio biologico di dispositivo di calcolo in memoria in cui i ricordi e l’elaborazione avvengono nello stesso luogo con una frequenza e un consumo energetico ridotti. Questo è esattamente ciò a cui si ispira il neuromorphic computing, che di fatto è un’altra possibile soluzione oltre all’In Memory Computing. Nell’ampia gamma di applicazioni dell’In Memory Computing, le memorie emergenti non volatili di tipo storage material appaiono come candidati promettenti per essere implementate in array di memorie per l’elaborazione di dati in loco. Tra queste, la RRAM ha attirato particolarmente l’attenzione poiché offre dimensioni ridotte, alta densità di integrazione grazie alla grande impilabilità in strutture 3D paragonabili alle memorie flash NAND, elevata efficienza energetica con tensione necessaria per la scrittura di pochi volts, grande capacità di cicli e alta velocità. Le RRAM possono essere organizzate in array di memoria 2D che consentono l’implementazione del Matrix Vector Multiplication in parallelo basato sulla legge di Ohm e sulla legge di Kirchhoff per accelerare molti tipi di calcolo. Sulla base del Matrix Vector Multiplication è possibile implementare una rete neurale hardware in cui il peso sinaptico può essere memorizzato come valore di conduttanza all’interno dell’array. Inoltre, grazie alla sua capacità di imitare le attività sinaptiche biologiche, la RRAM può essere implementata anche in reti neuromorfiche ispirate al cervello. Prima dell’implementazione dell’array, il singolo dispositivo RRAM deve essere studiato e caratterizzato in modo da poterlo trattare al meglio anche in caso di array di memoria ad alta densità. Questo lavoro di tesi magistrale si basa sullo studio teorico e sulla caratterizzazione sperimentale di singoli dispositivi RRAM affrontando alcuni trend della letteratura. Questo potrebbe essere il modo per capire meglio chi sono i candidati perfetti da utilizzare negli array di memoria. Il Capitolo 1 descrive lo scenario della tecnologia e dell’architettura informatica digitale convenzionale messo a dura prova per far fronte alla quantità sempre crescente di dati da elaborare, tra cui il rallentamento del trend della legge di Moore, l’heat wall e il memory wall. In questo scenario viene presentato l’In Memory Computing insieme al concetto di Matrix Vector Multiplication e ad alcuni possibili esempi di acceleratori operazionali. Vengono introdotte alcune strutture di memoria in modo generale. Vengono quindi brevemente descritti i nuovi dispositivi di memoria emergenti a due terminali. Il Capitolo 2 descrive in dettaglio il meccanismo di commutazione dei dispositivi RRAM con particolare attenzione su alcuni trend caratteristici. Segue la spiegazione dei possibili schemi di polarizzazione e delle architetture per l’array RRAM. Viene introdotto il neuromorphic computing con esempi di reti neurali artificiali e reti neurali ispirate al cervello che coinvolgono le RRAM. Viene presentato un esempio di caratterizzazione e applicazione della crossbar dalla letteratura. Il Capitolo 3 descrive il set-up sperimentale utilizzato in questo lavoro di tesi e i principali risultati sulle misure di caratterizzazione di singoli dispositivi. In particolare, studio sulla dipendenza dallo spessore dell’ossido e dalla percentuale di ossigeno durante la deposizione dell’ossido con sputter e un confronto tra alcuni dispositivi di etero-integrazione. Il Capitolo 4 descrive un esperimento che coinvolge un vettore di RRAM per eseguire una moltiplicazione vettoriale implementando una piccola rete neurale per la classificazione e il riconoscimento dei segnali per gestire meglio le dimensioni e i valori di conduttanze negli array. Il Capitolo 5 riassume i principali risultati e introduce alcuni possibili sviluppi futuri.
File allegati
File Dimensione Formato  
2024_04_Indelicato.pdf

accessibile in internet solo dagli utenti autorizzati

Descrizione: testo della tesi
Dimensione 17.95 MB
Formato Adobe PDF
17.95 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/217692