ASCII (amerikansk standardkod för informationsutbyte) använder 7 bitar av binär kod för att representera 128 olika tecken och nummer. Varje tecken eller nummer tilldelas en unik 7-bitars binär kod.
Så här fungerar det:
1. 7-bitars binär: Sju binära siffror (bitar) kan representera 2
7
=128 olika kombinationer. Varje kombination motsvarar en specifik karaktär.
2. decimalekvivalenter: Varje 7-bitars binär kombination har en decimalekvivalent. Till exempel:
* Den binära `01000001` motsvarar decimalnumret 65.
* Den binära `01100001` motsvarar decimalnumret 97.
3. Karaktärskartläggning: ASCII tilldelar dessa decimalvärden (och deras motsvarande binära representationer) till tecken. Till exempel:
* Decimal 65 (binär `01000001 ') representerar versionen' A '.
* Decimal 97 (binär `01100001`) representerar små bokstäver 'a'.
* Decimal 48 (binär `00110000`) representerar siffran '0'.
* Decimal 32 (binär `00100000 ') representerar ett utrymme.
4. Tabellrepresentation: Hela ASCII -standarden representeras ofta som en tabell som visar decimalvärdet, den binära koden och motsvarande tecken.
Exempel:
Låt oss ta stora bokstaven 'C':
1. Dess decimalvärde i ASCII är 67.
2. Konvertering av 67 till binär ger oss `01000011 '.
Därför är ASCII -koden för 'C' `01000011`. En dator lagrar och bearbetar detta 'C' som denna 7-bitars binära sekvens.
Det är viktigt att notera att ASCII endast täcker 128 tecken. Utökade ASCII -uppsättningar använder en åttonde bit för att representera ytterligare 128 tecken, ofta inklusive accentter och symboler. Unicode är ett mycket mer omfattande karaktärskodningssystem som stöder ett mycket större antal tecken från olika språk.