2001.
február 24-én, 85 éves korában elhunyt
Claude Elwood Shannon, az információelmélet
megteremtője, a 20. század egyik
legeredetibb gondolkodója.
1916.
április 30-án született. A University of
Michigan-en 1936-ban matematikai és villamosmérnöki
BSc fokozatot szerzett, majd 1940-ben az MIT-n
villamosmérnöki
MSc-t és matematikai PhD-t. Témavezetője szerint a
villamosmérnöki diplomaterve ezen a területen a
század legnagyobb hatású munkája.
Témája:
hogyan lehet digitális hálózatot Boole
algebrával leírni és tervezni. A feladat onnan
eredt, hogy a témavezetője analóg mechanikus
számítógéppel oldott meg
differenciálegyenleteket, és megkérte Shannont,
hogy segítsen neki. Mivel a gép gyakran romlott el,
Shanonnak sűrűn kellett azt megjavítania. Ezt a feladatot
nagyon unta, és igyekezett a gép
részegységeit
áramkörökkel kiváltani. Az
áramkörök
egy része kapcsolóhálózat volt, amelynek
tervezésére ekkor még nem létezett
módszertan. Az volt az eljárás, hogy ad hoc
módon megépítették az áramkört,
utána pedig kipróbálták, teljesíti-e
az előírást. Shannon remek ötlete rögtön
azt eredményezte, hogy az áramkör
megépítése
és kipróbálása helyett elegendő az őt
leíró Boole függvény bizonyos
helyettesítési értékeinek a
kiszámítása.
További előny a tervezés szempontjából,
hogy optimalizálható a Boole függvény olyan
értelemben, hogy az adott specifikációt
teljesítő digitális hálózatok
közül
megkereshető a legkevesebb kapcsolót tartalmazó
hálózat. Bár ma ez egy villamosmérnök
számára trivialitás, kevesen tudják, hogy
ez is Shannon nevéhez fűződik, de nem ettől lett híres.
1941-től
dolgozott a Bell Laboratóriumban. A második
világháború
alatt titkosítással foglalkozott, az ő
eljárását
használta a SIGSALY telefon, amellyel Churchill és
Roosevelt biztonságosan tudott beszélgetni. 1948-ban
jelent meg a The Mathematical Theory of Communication, Bell Syst.
Tech. J., vol 27, pp. 379-423, 623-656 cikke (magyarul is megjelent
az OMIKK kiadásában), amellyel megteremtette az
információelméletet. Emlékeztetek arra,
hogy ugyanebben az évben, ugyanezen a kutatóhelyen
találták fel a tranzisztort.
Az információelmélet az információ tömörítésének, átvitelének, tárolásának, védelmének és feldolgozásának a természettörvényeit foglalja egységbe. Az információ tömörítésének, a forráskódolásnak két típusát különböztetjük meg. Az egyik a veszteségmentes – ezt adattömörítésnek is hívjuk –, a másik megenged torzítást is a reprodukció során.
Az adattömörítés feladata, hogy egy üzenetsorozatot gazdaságosan reprezentáljon, vagyis kódoljon úgy, hogy a kódsorozatból az üzenetsorozat egyértelműen reprodukálható legyen. Ilyen problémával találkozunk, ha például könyvet, programot, adatsorozatot kell kódolni. A matematikai feladat megfogalmazásához 1948-ban elég kevés tapasztalat állt rendelkezésre. Egyedül a Morse kód törekedett valamilyen tömörítésre akkor, amikor az ABC gyakran előforduló betűihez rövid, a ritkábban előfordulókhoz hosszabb ti-tá (mai szóhasználattal bináris) kódszavakat rendelt. A modellezés első lépcsőjében a tömörítendő sorozat legkisebb egységét nevezzük betűnek, és tekintsük azt egy véletlen, azaz valószínűségi változónak, az egész sorozatot, az információforrást pedig egy valószínűségi változósorozatnak, tudálékosan sztochasztikus folyamatnak. Ez az egyszerű fogás tette lehetővé, hogy Shannon a valószínűségszámítás módszereivel megfogalmazhatta és megoldhatta a tömörítés feladatát. Az egyszerűség kedvéért nézzük a bináris kódszavak esetét! Shannon első észrevétele az volt, hogy ha egy betűt tömörítünk, kódolunk egyértelműen dekódolható kóddal, akkor az átlagos kódhossz legalább akkora, mint a betű valószínűségeloszlásához rendelt entrópia, tehát az átlagos kódhosszra talált egy alsó korlátot. Ezt a felismerést ezek után kombinálta azzal az elvvel, hogy egy betű tömörítése helyett több, mondjuk k betűből álló blokkot kódoljunk. Ha most egy blokkot tekintünk információs egységnek, akkor az előzőek miatt az egy betűre jutó átlagos kódszóhossz nagyobb vagy egyenlő, mint a blokk egy betűre jutó entrópiája. Az összes, gyakorlatban előforduló forrás esetén az egy betűre jutó entrópia a blokkhossz monoton fogyó függvénye, és az infimumot forrásentrópiának nevezzük. Shannon megmutatta, hogy ez az alsó korlát éles, vagyis alsó határ abban az értelemben, hogy a blokkhossz növelésével megadható egy kód, amelynek egy betűre jutó átlagos kódhossza a forrásentrópiát tetszőlegesen megközelíti, a forrásentrópia tehát az adattömörítés problémájában az elvi határ.
Ha valakinek az érdeklődését felkeltettem, akkor ajánlom a következő olvasnivalót: