Paralelizmi në informatikë është formë e llogaritjes në të cilën shumë llogaritje bëhen në të njëjtën kohë [1], që veprojnë në parimin se problemet e mëdha shpesh mund të jenë të ndara në më të vogla, të cilat pastaj janë zgjidhur njëkohësisht ("paralelisht"). Ka disa forma të ndryshme të paralelizmit në informatikë : bit-niveli, niveli i instruksionit, të dhënat dhe paralelizmi i kontrollit. Paralelizmi ka qenë i punësuar për shumë vjet, kryesisht në informatikë me performancë të lartë, por interesi në të është rritur kohët e fundit për shkak se kufizimet fizike parandalojnë shkallën e frekuencave [2]. Si konsumi i energjisë (dhe si pasojë e gjenerimit të ngrohjes) nga kompjuterat është bërë një shqetësim në vitet e fundit [3], paralelizmi është bërë paradigmë dominuese në arkitekturën e kompjuterit, kryesisht në formën e multicore procesor [4].
Kompjutera paralel mund të klasifikohen përafërsisht sipas shkallës në të cilën mbështet paralelizëmi i hardverit me multi-core dhe multi-procesor kompjutera që ka elemente të shumta të përpunimit brenda një makinë e vetme, ndërsa grup, masiv, dhe rrjetet përdorin shumë kompjuterë për të punuar në të njëjtën detyrë. Arkitekturat kompjuterike paralele të specializuara janë përdorur ndonjëherë së bashku me procesorë tradicionale, për përshpejtimin e detyrave specifike.
Programet kompjuterike paralele janë më të vështirë për të shkruar se sa ato sekuincial [5] [6], Sepse njëkohësisht fut disa klasa të reja të mundshme bug software. Komunikimi dhe sinkronizimi ndërmjet nëndetyrave të ndryshme janë tipike një nga pengesat më të mëdha në marrjen e mirë punës paralele të programit.
Shpejtësia e një programi si rezultat i paralelizmit është konstatuar si Ligji i Amdahl. |