La capacità di canale, in informatica e nella teoria dell'informazione, è "il più piccolo limite superiore" alla quantità di informazione che può essere trasmessa in maniera affidabile su un canale. Secondo il teorema della codifica di canale la capacità di canale di un certo canale è il massimo tasso di trasferimento di dati che può fornire il canale per un dato livello di rapporto segnale/rumore, con un tasso di errore piccolo a piacere. [1][2]
La teoria dell'informazione, sviluppata da Claude Shannon durante la Seconda guerra mondiale, definisce la capacità di canale e fornisce un modello matematico per calcolarla. Il risultato principale stabilisce che la capacità di canale è data dal massimo dell'informazione mutua tra l'ingresso e l'uscita di un canale, dove la massimizzazione è condotta rispetto alla distribuzione del segnale d'ingresso[3].
Formule generali
Segnale ideale
La capacità di canale si ricava con la seguente formula generica:
dove B è la banda. Questa formula è valida solo in presenza di un segnale ideale sprovvisto di codifica e di rumore.
Segnale con codifica
Quando un segnale è libero da rumore ma in esso è presente una codifica, è valida la seguente formula:
dove B è la banda e M rappresenta il numero di livelli della codifica.
Segnale con codifica e rumore
Quando in un canale è presente sia rumore che codifica, è valida la formula:
Dati X, che rappresenta lo spazio dei segnali che possono essere trasmessi ed Y, che rappresenta lo spazio dei segnali ricevuti durante un blocco di tempo all'interno del canale. Sia
la funzione di probabilità condizionata di Y dato X.
Modellando il canale come un sistema statistico noto, è una proprietà fissata che dipende dal canale di comunicazione (poiché rappresenta la natura del rumore al suo interno). Dunque la probabilità congiunta
di X e Y è completamente determinata dal canale e dalla scelta della probabilità marginale dei segnali all'ingresso del canale
La probabilità congiunta può esser ricavata utilizzando l'identità
Sotto questi vincoli, bisogna massimizzare la quantità di informazione che può essere comunicata attraverso il canale.
Un'appropriata misura è dunque l'informazione mutua; il massimo di questa informazione mutua è chiamata capacità di canale ed è data da
Legame con il teorema della codifica di canale
Secondo il teorema della codifica di canale per ogni ε > 0 e per ogni tasso R, minore della capacità di canale C, c'è uno schema di codifica e di decodifica che può essere utilizzato per assicurare che la probabilità d'errore sul blocco sia minore di ε per un codice sufficientemente lungo. Inoltre per ogni tasso superiore alla capacità di canale, la probabilità di errore sul blocco ricevuto tende ad uno quando la lunghezza del blocco tende ad infinito.
^ Saleem Bhatti, Channel capacity, su Lecture notes for M.Sc. Data Communication Networks and Distributed Systems D51 -- Basic Communications and Networks (archiviato dall'url originale il 21 agosto 2007).