Även paritet, även om den är enkel att implementera, har betydande begränsningar i feldetektering:
* upptäcker endast enbit-fel: Även paritet kan på ett tillförlitligt sätt upptäcka ett * udda * antal bitfel. Om en enda bit vänder kommer pariteten att förändras, vilket indikerar ett fel. Men om * två * bitar vänder, kommer pariteten att förbli densamma och maskera felet. Detta gör det opålitligt för miljöer med högre felfrekvens.
* identifierar inte felplatsen: Även paritet säger bara * att * ett fel inträffade; Det säger inte dig * var * felet inträffade. Detta gör korrigering omöjlig utan ytterligare mekanismer.
* mottaglig för Burst -fel: Ett burst -fel är en sammanhängande sekvens av bitar som påverkas av ett fel. Om ett jämnt antal bitar i en spräng vänds kommer även paritet att missa felet.
* ökade overhead med större data: Medan paritet lägger till bara en bit per byte eller ord, blir denna omkostnad proportionellt större med mindre dataenheter. Detta innebär att för små meddelanden är overheaden jämförelsevis större.
* Ingen felkorrigeringsförmåga: Även paritet är enbart för *upptäckt *. Det erbjuder ingen mekanism för att korrigera fel. Om ett fel upptäcks måste hela dataenheten överföras.
Sammanfattningsvis är till och med paritet ett rudimentärt feldetekteringsschema som endast är lämpligt för applikationer med mycket låga felfrekvenser och där enkelheten i implementeringen uppväger begränsningarna för dess låga feldetekteringsförmåga och bristen på felkorrigering. Mer sofistikerade tekniker som kontrollsumman, CRC och Hamming-koder föredras i de flesta verkliga applikationer.