Bits sono l’unità di base del codice binario su cui si basano i software e tutta l’informatica.
Un bits può essere utilizzato per indicare quante informazioni sono presenti o quanto un dispositivo è in grado di memorizzare. I bit al secondo (bps) mostrano la velocità di trasferimento dei dati. Tuttavia, il bit non è spesso usato da solo, ma è prefissato con prefissi metrici come Kilo-, Mega-, Giga-, e Tera- che sono usati per mostrare quantità sempre maggiori di informazioni.
Un bits (abbreviazione di cifra binaria – bi[nary] [digi]t) è la più piccola unità di dati in un computer. Un bit ha un singolo valore binario, 0 (zero) o 1 (uno).
Sebbene i computer di solito forniscono istruzioni che possono testare e manipolare i bit, essi sono generalmente progettati per memorizzare i dati ed eseguire istruzioni in multipli di bit chiamati byte. Nella maggior parte dei sistemi informatici, ci sono otto bit in un byte.
Nelle telecomunicazioni, la velocità di trasmissione dei bit è il numero di bit che vengono trasmessi in un determinato periodo di tempo, di solito un secondo.
I calcolatori usano la base 2, detta anche sistema binario. Tale sistema di numerazione usa solo due cifre 0 e 1, ciascuna delle quali prende il nome di bit. Il bit è dunque una unità di misura informatica nel senso che consente di misurare una determinata quantità di informazioni.
Come si può intuire facilmente un’informazione di 1 bit è piuttosto ridotta, ma se si considerano gruppi di bit è possibile codificare informazioni più elaborate come lettere, numeri e simboli grafici.