Artikel från Umeå universitet

Den här artikeln bygger på ett pressmeddelande. Läs om hur redaktionen jobbar.

3 maj 2011

Nya metoder snabbar upp delberäkningar

En effektiv beräkning avgörs ofta av prestandan på delberäkningarna. Lars Karlsson, Umeå universitet, har i sin doktorsavhandling tagit fram nya och snabbare metoder för ett antal centrala delberäkningar som arbetar med så kallade matriser. Metoderna gör det enklare att lösa stora beräkningsproblem på kortare tid.

 En parallelldator är ett system av datorer som samverkar för att lösa en uppgift snabbare än vad en enskild dator skulle förmå. Det sker genom att uppgiften delas upp i flera deluppgifter som hanteras samtidigt av flera processorer. Processorerna måste också kunna kommunicera med varandra för att koordinera arbetet. Om delarna är för små riskerar koordinationen att bli alltför kostsam och därmed spoliera nyttan med parallella beräkningar. Lars Karlsson har i sin avhandling tagit fram metoder där syftet är att få en bra balans mellan, å ena sidan, hur stora deluppgifterna är och, å andra sidan, hur effektivt de parallella processorerna utnyttjas.

Tänk dig att du vill utföra en beräkning med matriser i en parallelldator. Matriserna lagras då i datorns minne och processorn hämtar sedan in matriselementen. Därefter utförs beräkningarna i processorn och de nya matriselementen skickas tillbaka till minnet. Eftersom kommunikationen med datorns minne är ganska långsam innehåller processorer en hierarki av snabba men små så kallade cacheminnen. Matriselementen mellanlagras först i ett eller flera cache-minnen och på detta sätt slipper man involvera det långsamma minnet alltför ofta. Detta ger snabbare överföringar mellan dator och processor och därmed i slutändan snabbare beräkningar. Eftersom cache-minnen har begränsad kapacitet är det viktigt att använda dem på bästa sätt. Specifikt handlar det om att omorganisera beräkningsmetoderna så att överföringarna till och från minnet så ofta som möjligt går direkt till ett cache-minne.

Dessutom måste datorn lagra matriserna på ett sätt som passar den aktuella metoden. Lars Karlsson har i sin avhandling tagit fram nya metoder som använder cache-minnen mer effektivt än tidigare. Han har även tagit fram parallella metoder som minnessnålt omordnar lagrade matriselement till format som passar så kallade flerkärniga processorer.

Torsdagen den 19 maj försvarar Lars Karlsson, Institutionen för datavetenskap, Umeå universitet, sin avhandling med titeln Scheduling of parallel matrix computations and data layout conversion for HPC and multi-core architectures.

Svensk titel: Schemaläggning av parallella matrisberäkningar samt konvertering av datalagringsformat för högpresterande och flerkärniga datorarkitekturer.

Disputationen äger rum kl 13.00 i hörsal KB3B1, KBC-huset.

Fakultetsopponent är professor Charles Van Loan, Department of Computer Science, Cornell University, USA.

E-publikation av avhandlingen
[Ref 1]
För ytterligare information, kontakta gärna:
Lars Karlsson Telefon: 090-7866190 E-post: larsk@cs.umu.se
 
 

Nyhetsbrev med aktuell forskning

Visste du att robotar som ser en i ögonen är lättare att snacka med? Missa ingen ny forskning, prenumerera på vårt nyhetsbrev!

Jag vill prenumerera