Perché sono Schemi di codifica binaria necessario?

May 4

Perché sono Schemi di codifica binaria necessario?


La moderna tecnologia elettronica inclusi computer si basa su circuiti logici, che, a sua volta, si basano su piccoli dispositivi elettronici, detti transistori. I transistor sono molto veloci, interruttori a due vie, che può essere sia "on" o "off". Il sistema di numerazione binario, in cui ci sono solo due possibili valori - "1", che rappresenta "vero" o "on" e "0", che rappresenta "falso" o "off" - è un candidato naturale per rappresentare il comportamento di circuiti logici. schemi di codifica binaria sono necessarie per tradurre i dati del mondo reale in una forma che può essere facilmente comprensibile per i computer.

Ambiguità

Uno dei motivi principali per l'utilizzo del sistema binario per circuiti logici è che ogni condizione deve essere completamente vero o completamente falso; non può essere parzialmente vera o parzialmente falsa. Ciò significa che è facile progettare semplici circuiti elettronici stabili che passare avanti e indietro tra vero e falso, senza ambiguità. Inoltre, è possibile progettare un circuito che rimane in uno stato indeterminato - o, almeno, finché non è deliberatamente commutato l'altro stato - rendendo possibile per computer per ricordare sequenze di eventi.

codifica binaria

Tutti, tranne i primissimi computer hanno usato uno schema di codifica binaria a che fare con i numeri interi, o interi. Uno schema di codifica binaria rappresenta un numero intero basato sulle potenze di 2, anziché potenze di 10. Ogni cifra binario è codificato come una punta, con un valore di "1" o "0", e cifre binarie possono essere messe insieme, finale to-end, per rappresentare segnali più complicate. Tre cifre binarie possono rappresentare qualsiasi valore da "000" ( "0" in decimale) a "111" ( "7" in decimale) o otto possibili combinazioni in totale. schemi di codifica binarie consentono la circuiteria per eseguire aritmetica binaria per essere più veloce e più semplice di quella per schemi di codifica decimali.

Conversione

Per essere utili, i computer devono consentire agli utenti di interi ingresso in, forma decimale leggibile e uscita del display nella stessa forma. I computer non hanno alcuna funzionalità built-in per convertire interi da decimale a binario e viceversa, ma la conversione può essere eseguita facilmente usando l'aritmetica binaria. I programmi per computer che traducono i linguaggi di programmazione di alto livello in codice macchina, conosciuta come compilatori, inserire il codice necessario per eseguire la conversione nel punto appropriato.

Misure comuni

La dimensione più grande intero che può essere rappresentato da uno schema di codifica binaria dipende dal numero totale di cifre binarie usati per rappresentare esso. Per mantenere la circuiteria aritmetica più semplice possibile, computer più moderni utilizzano un piccolo numero di dimensione fissa schemi di codifica binaria. formati comuni includono sistemi a 32 bit di codifica, che sono in grado di rappresentare interi fino a 9 cifre, e schemi di codifica a 64 bit, che sono in grado di rappresentare interi fino a 18 cifre.