Primo teorema di Shannon

Nella teoria dell'informazione, il primo teorema di Shannon (o teorema della codifica di sorgente), stabilisce dei limiti alla massima compressione possibile di un insieme di dati e definisce il significato operativo dell'entropia.

Il teorema stabilisce che, per una serie di variabili aleatorie indipendenti ed identicamente distribuite (i.i.d.) di lunghezza che tende ad infinito, non è possibile comprimere i dati in un messaggio più corto dell'entropia totale senza perdita di informazione. Al contrario, compressioni arbitrariamente vicine al valore di entropia sono possibili, con probabilità di perdita di informazione piccola a piacere.

Il teorema della codifica di sorgente per simboli di codice, stabilisce un limite inferiore e superiore alla minima lunghezza attesa di una serie di parole di codice, in funzione dell'entropia della parola in ingresso (vista come una variabile aleatoria) e della dimensione dell'alfabeto in esame.

Codifica di sorgente[modifica | modifica wikitesto]

La codifica di sorgente è un mappaggio da una sequenza di simboli generati da una sorgente ad una sequenza di simboli di un alfabeto (solitamente binario), tale che i simboli sorgenti possano essere esattamente recuperati dai bit (codifica senza perdite) o recuperati con qualche distorsione (codifica con perdite). Questo è il concetto che sta alla base della compressione dei dati.

In altre parole si può dire che è la modalità con la quale ciascun evento associato ad una sorgente discreta viene codificato mediante una sequenza di simboli.

Qualità dell'informazione[modifica | modifica wikitesto]

La codifica di sorgente introduce i concetti alla base della "qualità dell'informazione":

  • la quantità di informazione è data da , dove è la probabilità dell'informazione. Si può quindi dire che tra l'informazione stessa e la sua probabilità vi è una relazione inversamente proporzionale (un'alta probabilità porta ad una bassa quantità di informazione e viceversa).

Volendo, ora, stabilire un'unità di misura è opportuno far riferimento al caso in cui si ha bisogno dell'informazione minima per prendere una decisione. Trascurando il caso limite (quando l'evento è certo) nel quale esiste un solo risultato, il caso con il minimo bisogno di informazione è quello in cui esistono due possibili risultati equiprobabili (es.: il lancio di una moneta).

Si definisce con bit la quantità di informazione necessaria, e sufficiente, per discriminare e decidere tra due soli eventi equiprobabili: , dove è l'indice di proporzionalità.

  • L'informazione mediata, o entropia, è pesata dai contributi dell'informazione per la sua probabilità: [bit/simbolo].
  • La velocità di modulazione, o baudrate è la velocità di emissione dei simboli da parte della sorgente: , dove è la durata del simbolo.
  • La velocità di trasmissione media dell'informazione del sistema, o bitrate, si calcola con: .

Altri parametri importanti si riassumono in:

  • Lunghezza media del simbolo (ni=lunghezza del codice)
  • Rendimento del codice (η assume valori da 0 a 1)
  • Ridondanza .

Teorema della codifica di sorgente[modifica | modifica wikitesto]

In teoria dell'informazione il teorema della codifica di sorgente (Claude Shannon, 1948) stabilisce che:

« variabili casuali i.i.d., ognuna con entropia possono essere compresse in più di bit con una probabilità di perdita di informazione piccola a piacere, al tendere di all'infinito; al contrario, se sono compresse in meno di bit è virtualmente certo che una parte dell'informazione andrà persa.»

Teorema della codifica di sorgente per simboli di codice[modifica | modifica wikitesto]

Sia una variabile casuale a valori in un alfabeto finito e sia un codice decifrabile (ossia una funzione univoca) da a , dove . Sia S la risultante lunghezza della parola di codice .

Se è ottima nel senso che ha la minima lunghezza attesa per la parola di codice , allora

(Shannon 1948)

Dimostrazione: teorema della codifica di sorgente[modifica | modifica wikitesto]

Siano una sorgente di variabili i.i.d. e una serie di uscite con entropia nel caso discreto ed uguale entropia differenziale nel caso continuo. Il teorema della codifica di sorgente stabilsce che per ogni , esiste un abbastanza grande ed un codificatore che prende uscite i.i.d. della sorgente e le mappa su bit, in modo che i simboli sorgente siano recuperabili con probabilità di almeno .

Dimostrazione di raggiungibilità

Sia fissata una qualche . L'insieme tipico, , è definito come

La proprietà di equipartizione asintotica (AEP), mostra che per un largo abbastanza, la probabilità che una sequenza generata dalla sorgente cada nell'insieme tipico, , tende ad uno. In particolare per un grande abbastanza,.

La definizione di insieme tipico, implica che le sequenze che cadono nell'insieme tipico soddisfano la condizione

Si noti che:

  • La probabilità che una sequenza di cada in è maggiore di
  • , dato che la probabilità dell'insieme è al massimo uno.
  • . Per la prova è sufficiente utilizzare il limite superiore della probabilità di ogni termine nell'insieme tipico ed il limite inferiore sulla probabilità dell'insieme set .

Dato che bit sono sufficienti per rappresentare ogni stringa nell'insieme.

L'algoritmo di codifica: il codificatore controlla che la sequenza di ingresso cada nell'insieme tipico; se sì produce in uscita l'indice della sequenza d'ingresso nell'insieme tipico; se no, il codificatore produce un arbitrario unumero binario . Se la sequenza ricade nell'insieme tipico, il che avviene con probabilità di almeno , il codificatore non commette errori. Quindi la probabilità di errore del codificatore è inferiore a .

Prova dell'inverso

L'inverso si dimostra mostrando che qualunque insieme di dimensione inferiore a , avrebbe probabilità al limite sicuramente inferiore a 1 .

Dimostrazione: teorema della codifica di sorgente per simboli di codice[modifica | modifica wikitesto]

Sia la lunghezza di ogni possibile parola di codice (). Definito , dove è tale che .

Allora

dove la seconda linea deriva dalla disuguaglianza di Gibbs e la quarta dalla disuguaglianza di Kraft-McMillan: e dunque .

per la seconda disuguaglianza possiamo imporre

in modo che

e quindi

e

e dalla disuguaglianza di Kraft, esiste una codice univoco con parole di codice aventi tale lunghezza. Quindi il minimo soddisfa

Estensione a sorgenti indipendenti non-stazionarie[modifica | modifica wikitesto]

Codifica di sorgente senza perdita a tasso fisso per sorgenti indipendenti discrete e non stazionarie[modifica | modifica wikitesto]

Sia definito l'insieme tipico come

Allora per un dato , per un grande abbastanza, .Ora ci limitiamo a codificare le sequenze nell'insieme tipico ed il solito metodo di codifica mostra che la cardinalità di questo insieme è inferiore a . Quindi, in media, bitn sono sufficienti per codificare la sequenza con probabilità di corretta decodifica superiore a , dove possono essere rese piccole a piacere aumentando .

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]