La programmazione parallela ha rappresentato per lungo tempo una tematica di interesse quasi esclusivamente per università, centri di ricerca e poche realtà aziendali di grandi dimensioni. Oggi invece rappresenta un requisito per la maggior parte delle applicazioni.
Fino al 2006 ogni nuova generazione di CPU forniva prestazioni migliori agendo su aspetti legati a velocità di clock, ottimizzazione dell'esecuzione e dimensioni della cache. Ma ora il miglioramento è dovuto principalmente al hyperthreading, multicore, oltre alla dimensioni della cache. Queste CPU non hanno quasi alcun impatto positivo sulla maggior parte del software attuale perché questo è stato progettato in modo sequenziale.
Questo insegnamento introduce l'architettura dei sistemi di elaborazione parallela con i paradigmi di programmazione (openMP, MPI e CUDA) essenziali per sfruttarli.
Poiché l'insegnamento viene tenuto in lingua inglese, si invita a visionare la scheda in inglese per ulteriori informazioni.
Learning the main aspects of modern, heterogeneous high-performance computing systems (e.g. pipeline/superscalar processors, accelerators as GPUs, shared-memory systems, clusters, supercomputers) and basic programming skills for high-performance computing, i.e. the proper use of the cache and vectorization, OpenMP, MPI, and CUDA.
L'insegnamento è erogato integralmente in lingua Inglese. Per tutte le informazioni relative, si veda la corrispondente sezione in lingua Inglese.
Buona conoscenza del linguaggio C/C++ o Fortran.
Lezioni frontali (22) ed attività di laboratorio (6).
Slide, tutorial ed esempi di codice saranno forniti durante le lezioni.
Ricevimento: Su appuntamento, in presenza o via Teams
DANIELE D'AGOSTINO (Presidente)
ANNALISA BARLA
GIORGIO DELZANNO (Presidente Supplente)
NICOLETTA NOCETI (Supplente)
In accordo con il calendario didattico approvato dal Consiglio dei Corsi di Studio in Informatica: https://corsi.unige.it/corsi/10852/studenti-orari
L'orario di questo insegnamento è consultabile all'indirizzo: Portale EasyAcademy
L’esame consiste in una prova scritta sui principali argomenti teorici trattati durante il corso, seguita dalla discussione di un progetto svolto individualmente o in un piccolo gruppo (2-3 studenti).
Per 6 crediti, il progetto consiste nella parallelizzazione di un algoritmo sequenziale utilizzando OpenMP e CUDA.
Per 9 crediti, il progetto consiste nella parallelizzazione di un algoritmo sequenziale utilizzando OpenMP, MPI + OpenMP e CUDA.
Indicazioni per studenti con certificazione di DSA, di disabilità o di altri bisogni educativi speciali sono disponibili a partire da https://corsi.unige.it/corsi/10852/studenti-disabilita-dsa
L’esame scritto verterà sulla comprensione efficace dei concetti teorici presentati nella prima parte del corso. Sarà composto da un quiz con domande aperte e chiuse e rappresenta il 40% del voto finale.
Il progetto sarà valutato non solo in base alle prestazioni ottenute dal codice parallelo, ma anche sulla qualità dell’analisi del codice, delle strategie di parallelizzazione adottate e della presentazione e discussione dei risultati.
Ciò significa, ad esempio, che i concetti di parallelismo siano correttamente applicati, i risultati presentati in modo adeguato e significativo, e che siano stati identificati e discussi correttamente eventuali overhead e problematiche. Il progetto rappresenta il 60% del voto finale.
Per ulteriori informazioni, consultare il modulo Aulaweb dell'insegnamento o contattare il docente.