Come vengono trasmessi i bit

Posto qui il mio quesito perché non so esattamente dove dovrei inserirlo.

Ciao,
Leggevo un passaggio in un libro sulle reti in cui si spiegava come vengono trasmesse le informazioni. Il segnale contenente le informazioni può essere digitale e analogico.
Per quello digitale, una serie di binari 0 e 1 viene usato rispettivamente un voltaggio di 0V (per 0) e uno di 5V (per 1). Riporto l’immagine di riferimento trovata nel libro:

Mi domandavo però con quale metodo viene interpretato univocamente il giusto numero e la giusta sequenza di bit.
Mi spiego meglio. Nel caso la sequenza fosse tipo 10101010 ad esempio, risulterebbe in una serie alternata di 5V e 0V e non ci sarebbe possibilità di “confusione”, ma nel caso reale, come sopra in figura, ci siano due 1 o meglio ancora due 0 (assenza di segnale-voltaggio) o più in linea, come fa il sistema o il dispositivo che li riceve (non saprei come definire questo punto) a “capire” che una prolungata assenza di segnale equivale a due zero in linea ad esempio. Ci deve essere ovviamente un modo.
Gli spazi sono definiti? C’è un tempo da "rispettare per ogni assenza, presenza di segnale?
Grazie