Scienza dell’informazione

Elementi di scienza dell’informazione.

  • INFORMATICA: informazione automatica, informazione trattata con sistemi automatici (computer).
  • INFORMAZIONE: dato di cui si conosce il significato, conoscenza che si trasmette.
  • QUANTITA’ D’INFORMAZIONE: si misura in BIT (BINARY DIGIT), si calcola in base alla probabilità che la sorgente fornisca proprio l’informazione in esame tra tutte le informazioni possibili.

con  P=probabilità dell’evento

si ha I=quantità di informazione

I=log2 (1/P) [bit]

esempio: lancio di una moneta  –  eventi equiprobabili :  testa P=0,5  –  croce P=0,5

      I(testa)=log2 (1/0,5)=log2 (2) = 1 bit

      I(croce)=log2 (1/0,5)=log2 (2) = 1 bit

esempio: lancio di un dado a 6 facce  eventi equiprobabili

                   * P=1/6 – ** P=1/6 – *** P=1/6 – **** P=1/6 – ***** P=1/6 – ****** P=1/6

      I(*)=log2 (1/1/6)=log2 (6) = 2,585 bit

      I(**)=log2 (1/1/6)=log2 (6) = 2,585 bit

       ……..

  • ENTROPIA:il numero di bit necessari in media a memorizzare un simbolo emesso dalla sorgente; pari alla media della quantità di informazione di ogni simbolo emesso della sorgente pesata con la propria probabilità.

H(X)=  \sum_{i=1}^n{P(x_i) \cdot \log{1 \over P(x_i)}}