Claude Shannon és miről híres? röviden. Információelmélet K


Küldje el a jó munkát a tudásbázis egyszerű. Használja az alábbi űrlapot

Diákok, végzős hallgatók, fiatal tudósok, akik a tudásbázist tanulmányaikban és munkájukban használják, nagyon hálásak lesznek Önnek.

Közzétéve: http://www.allbest.ru/

Az Orosz Föderáció Oktatási és Tudományos Minisztériuma

Szövetségi Oktatási Ügynökség

Állami Szakmai Felsőoktatási Intézmény Syktyvkar Állami Egyetem

Menedzsment osztály

Claude Shannon információelmélete

Vezető: Bolotov S.P.

Előadó: Paneva Y.V.

411 csoport

Sziktivkar 2010

Bevezetés

Információelmélet

Következtetés

Bibliográfia

Bevezetés

Claude Ellwood Shannon (1916-2001) - amerikai mérnök és matematikus. Az ember, akit a modern információs és kommunikációs elméletek atyjának neveznek.

1989 egy őszi napon a Scientific American magazin tudósítója besétált egy régi házba, ahonnan a Bostontól északra fekvő tóra nézett. De a tulajdonos, aki találkozott vele, egy 73 éves, karcsú, dús szürke sörényű, huncut mosolyú öregember egyáltalán nem akart emlékezni „a régmúlt idők ügyeire” és megvitatni 30-50 éves tudományos felfedezéseit. ezelőtt. Talán a vendég inkább a játékait nézegeti?

A tulajdonos anélkül, hogy megvárta volna a választ és nem hallgatott felesége, Betty intelmeire, bevitte a meghökkent újságírót a szomszéd szobába, ahol egy 10 éves fiú büszkeségével megmutatta kincseit: hét sakkgépet, egy cirkuszi rúd rugóval és benzinmotorral, összecsukható kés száz pengével, kétüléses egykerekű, zsonglőrbábu és római számrendszerben számoló számítógép. És nem számít, hogy a tulajdonos alkotásai közül sok már régóta törött és meglehetősen poros – örül. Ki ez az öreg? Valóban ő volt az, aki még fiatal mérnökként a Bell Laboratoriesnél megírta az információs korszak „Magna Cartáját” – „A kommunikáció matematikai elméletét” 1948-ban? Munkáját „a műszaki gondolkodás évkönyveinek legnagyobb művének” nevezték? Úttörő intuíciója volt Einstein zsenialitásához képest? Igen, minden róla szól. Ugyanebben a 40-es években pedig egy repülő korongot tervezett egy rakétahajtóműre, és zsonglőrködés közben egykerekűvel száguldott végig a Bell Labs folyosóin. Ez Claude Ellwood Shannon, a kibernetika és az információelmélet atyja, aki büszkén kijelentette: „Mindig is az érdekeimet követtem, anélkül, hogy belegondoltam volna, mennyibe kerülne ez nekem, vagy a világ számára, hogy sok időt pazaroltam rá haszontalan dolgok.”

Információelmélet

1941-ben a 25 éves Claude Shannon a Bell Laboratories-hoz ment dolgozni. A háború alatt kriptográfiai rendszerek fejlesztésével foglalkozott, és ez később segítette felfedezni a hibajavító kódolási módszereket. Szabadidejében pedig olyan ötleteket kezdett kidolgozni, amelyekből később információelmélet született. Shannon eredeti célja az volt, hogy javítsa az információátvitelt az elektromos zaj által érintett távíró- vagy telefoncsatornán. Gyorsan arra a következtetésre jutott, hogy a probléma legjobb megoldása az információk hatékonyabb csomagolása.

De mi az információ? Hogyan mérjük a mennyiségét? Shannonnak még azelőtt válaszolnia kellett ezekre a kérdésekre, hogy elkezdte volna kutatni a kommunikációs csatorna kapacitását. 1948-49-es munkáiban az információ mennyiségét az entrópián keresztül határozta meg – a termodinamikában és a statisztikus fizikában a rendszer rendezetlenségének mértékeként ismert mennyiséget, és információegységnek vette azt, amit később „bitnek” neveztek. ”, vagyis a két egyformán valószínű lehetőség egyikének kiválasztása . Shannon később szívesen mesélte, hogy az entrópia alkalmazását a híres matematikus, Neumann János javasolta neki, aki azzal indokolta tanácsát, hogy kevés matematikus és mérnök tudott az entrópiáról, és ez nagy előnyhöz juttatná Shannont az elkerülhetetlen vitákban. Akár vicc ez, akár nem, milyen nehéz most elképzelnünk, hogy alig fél évszázaddal ezelőtt az „információ mennyisége” fogalmának még szigorú definícióra volt szüksége, és ez a meghatározás némi vitát okozhat.

Claude Shannon az információ mennyiségére vonatkozó definíciójának szilárd alapjain bizonyított egy csodálatos tételt a zajos kommunikációs csatornák kapacitásáról. Ezt a tételt teljes terjedelmében publikálták 1957-61-es munkáiban, és ma az ő nevét viseli. Mi a Shannon-tétel lényege? Minden zajos kommunikációs csatornát a maximális információátviteli sebesség jellemzi, amelyet Shannon határértéknek neveznek. E határ feletti átviteli sebességnél elkerülhetetlenek a továbbított információ hibái. De alulról ezt a határértéket tetszőlegesen közelíthetjük meg, megfelelő információkódolással tetszőlegesen kicsi hiba valószínűséget biztosítva bármely zajos csatorna számára.

Shannon ezen ötletei túlságosan látnokinak bizonyultak, és nem találtak alkalmazást a lassú csöves elektronika éveiben. De a mi nagy sebességű mikroáramkörök korában mindenhol működnek, ahol információkat tárolnak, feldolgoznak és továbbítanak: számítógépben és lézerlemezen, faxkészülékben és bolygóközi állomáson. Nem vesszük észre Shannon tételét, ahogy a levegőt sem.

Az információelmélet a K. Shannon által javasolt módszeren alapul, amellyel kiszámítható a technikai kommunikációs csatornákon továbbított üzenetekben található új (megjósolhatatlan) és redundáns (megjósolható) információ mennyisége.

A Shannon által az információmennyiség mérésére javasolt módszer olyan univerzálisnak bizonyult, hogy használata már nem korlátozódik a tisztán technikai alkalmazások szűk keretére.

Ellentétben magának K. Shannonnak a véleményével, aki óva intette a tudósokat az általa javasolt módszer elhamarkodott bővítésétől a kommunikációs technológia alkalmazott problémáinak határain túl, ez a módszer egyre nagyobb alkalmazásra kezdett találni a fizikai, biológiai és társadalmi rendszerek kutatásában.

Az információ jelensége lényegének és az információs folyamatok mechanizmusának új megértésének kulcsa az információ és a fizikai entrópia közötti kapcsolat volt, amelyet L. Brillouin állapított meg. Ezt az összefüggést eredetileg az információelmélet alapjaiban fektették le, mivel az információmennyiség kiszámítását Shannon a statisztikai termodinamikából kölcsönzött valószínű entrópiafüggvény felhasználásával javasolta.

Sok tudós (magával K. Shannonnal kezdve) hajlamos volt az ilyen kölcsönzést pusztán formális technikának tekinteni. L. Brillouin kimutatta, hogy az információ mennyisége és a Shannon szerint számított fizikai entrópia között nem formális, hanem értelmes kapcsolat van.

A statisztikus fizikában a valószínűségi entrópiafüggvény segítségével olyan termodinamikai egyensúlyhoz vezető folyamatokat vizsgálnak, amelyekben a molekulák minden állapota (energiája, sebessége) egyformán valószínűsíthető, és az entrópia a maximális értékre törekszik.

Az információelméletnek köszönhetően nyilvánvalóvá vált, hogy ugyanazzal a funkcióval olyan rendszereket is lehet vizsgálni, amelyek távol állnak a maximális entrópia állapotától, mint például egy írott szöveg.

Egy másik fontos következtetés, hogy a valószínűségi entrópiafüggvény segítségével elemezni lehet egy rendszer teljes káosz állapotából, amely egyenlő valószínűségeknek és az entrópia maximális értékének felel meg, a szélsőséges állapotba való átmenetének minden szakaszát. sorrend (merev meghatározás), amely elemei egyetlen lehetséges állapotának felel meg.

Ez a következtetés ugyanúgy érvényes a természetükben eltérő rendszerekre, például gázokra, kristályokra, írott szövegekre, biológiai szervezetekre vagy közösségekre stb.

Ezen túlmenően, ha egy gáz vagy kristály esetében az entrópia számításakor csak a mikroállapotot (azaz az atomok és molekulák állapotát) és a makroállapotot (azaz a gáz vagy a kristály egészét) hasonlítjuk össze, akkor a rendszereknél eltérő természetű (biológiai, intellektuális, társadalmi), entrópia számítható egyik vagy másik tetszőlegesen választott szinten. Ebben az esetben a vizsgált rendszer entrópiájának számított értéke és a rendszer rendezettségi fokát jellemző információ mennyisége, amely megegyezik az entrópia maximális és valós értéke közötti különbséggel, az állapotok valószínűségi eloszlásától függ. a mögöttes szint elemei közül, azaz. azokat az elemeket, amelyek együtt alkotják ezeket a rendszereket.

A rendszer struktúrájában tárolt információ mennyisége arányos a rendszer egyensúlyi állapottól való eltérésének mértékével, a rendszer szerkezetében megőrzött rend miatt.

Anélkül, hogy sejtette volna, Shannon egy univerzális mércével fegyverezte fel a tudományt, amely elvileg (az összes valószínűség értékének meghatározásától függően) alkalmas a világon létező összes rendszer rendezettségének felmérésére.

Ha a Chenon által bevezetett információs mértéket a mozgás rendezettségének mérőszámaként definiálta, lehetséges az információ és az energia kapcsolatának megállapítása, az energiát a mozgás intenzitásának mérőszámának tekintve. Ebben az esetben a rendszerek szerkezetében tárolt információ mennyisége arányos e rendszerek belső kapcsolatainak összenergiájával.

Az információ, mint jelenség általános tulajdonságainak azonosításával egyidejűleg feltárulnak az információs rendszerek különböző összetettségi szintjeihez kapcsolódó alapvető különbségei is.

Például minden fizikai objektum a biológiaiakkal ellentétben nem rendelkezik speciális memóriaszervekkel, a külvilágból érkező jelek átkódolásával, információs kommunikációs csatornákkal. A bennük tárolt információk mintegy „elkenődnek” a teljes szerkezetükön. Ugyanakkor, ha a kristályok nem lennének képesek információt tárolni a sorrendjüket meghatározó belső kapcsolatokban, akkor nem lehetne mesterséges memóriát és információfeldolgozásra tervezett kristálystruktúrákon alapuló technikai eszközöket létrehozni.

Ugyanakkor figyelembe kell venni, hogy az ilyen eszközök létrehozása csak egy olyan ember elméjének köszönhetően vált lehetségessé, aki képes volt felhasználni a kristályok elemi információs tulajdonságait összetett információs rendszerek felépítésére.

A legegyszerűbb biológiai rendszer összetettségében felülmúlja az ember által létrehozott legfejlettebb információs rendszert. Már a legegyszerűbb egysejtű szervezetek szintjén a szaporodásukhoz szükséges legösszetettebb információs genetikai mechanizmus érintett. A többsejtű élőlényekben az öröklődés információs rendszere mellett speciális szervek vannak az információ tárolására és feldolgozására (például olyan rendszerek, amelyek a külvilágból érkező vizuális és hallási jeleket újrakódolják, mielőtt az agyba küldenék, ezeket feldolgozó rendszerek jelek az agyban). Az információs kommunikáció összetett hálózata (idegrendszer) áthatja és egésszé alakítja át az egész többsejtű szervezetet.

Már a biológiai rendszerek szintjén is problémák merülnek fel az e rendszerek által felhasznált információ értékének és jelentésének figyelembevételével. Az ilyen elszámolás még inkább szükséges az intelligens információs rendszerek működésének elemzéséhez.

A biológiai és intellektuális rendszerek sajátosságainak mélyreható ismerete lehetővé teszi azoknak a határoknak a beazonosítását, amelyeken túl a modern tudomány által kidolgozott információ-entrópia megközelítés elveszti kompetenciáját.

Shannonnak már az információelmélet megalkotásának kezdeti szakaszában meg kellett határoznia ezeket a határokat, mivel e nélkül lehetetlen volt az információ mennyiségi mérőszámával értékelni az írott szövegeket és más, az emberi elme által létrehozott információs rendszereket. Shannon ezért tesz egy fenntartást azzal kapcsolatban, hogy az írott szövegek információinak kiszámítására javasolt módszere figyelmen kívül hagyja azok eredendő tulajdonságait, például a bennük lévő üzenetek jelentését és értékét.

Így például a két üzenetben található információ mennyiségének kiszámításakor, például „Kaszparov fehérrel játssza a következő játékot” és „Belov állampolgárnak fia van”, ugyanazt az értéket kapjuk - 1 bitet. Kétségtelen, hogy ennek a két üzenetnek különböző jelentése van, és közel sem egyenlő értékű Belov polgár számára. Azonban, amint fentebb megjegyeztük, az információ jelentésének és értékének felmérése meghaladja az információelmélet kompetenciáját, ezért nem befolyásolja a Shannon-formulával számított bitek számát.

Az információ jelentésének és értékének figyelmen kívül hagyása nem akadályozta meg Shannont abban, hogy olyan alkalmazott problémákat oldjon meg, amelyekre elmélete eredetileg készült: a kommunikációs mérnöknek nem feltétlenül kell elmélyülnie a kommunikációs vonalon továbbított üzenetek lényegében. Feladata, hogy minden ilyen üzenetet a lehető leggyorsabban, a lehető legkisebb erőforrás-ráfordítással (energia, használt frekvenciatartomány) és lehetőleg veszteség nélkül továbbítson. És hagyja, hogy az, akinek ezt az információt szánják (az üzenetek címzettje), mélyedjen el a jelentésben, határozza meg az értéket, és döntse el, hogyan használja fel a kapott információt.

Ez a tisztán pragmatikus megközelítés lehetővé tette Shannonnak, hogy egyetlen, jelentéstől és értéktől független mérőszámot vezessen be az információ mennyiségére, amely alkalmasnak bizonyult az összes rendszer elemzésére ilyen vagy olyan mértékben.

Shannon alapművei után elkezdődtek a szemantikai (szemantikai) és az érték (pragmatikai, axiológiai) információelméletek alapjainak kidolgozása.

Mindazonáltal ezen elméletek és a szerzőik által javasolt érték- vagy jelentésmértékegységek egyike sem volt olyan fokú univerzális, mint az a mérték, amelyet Shannon bevezetett a tudományba.

Az a helyzet, hogy az információ jelentésének és értékének kvantitatív értékelése csak előzetes egyeztetés után lehetséges, hogy az egyes konkrét esetekben pontosan minek van értéke és jelentése a vizsgált jelenségek szempontjából. Lehetetlen mérni az Ohm-törvényben és a szeretetnyilatkozatban foglalt információ értékét ugyanazon mértékegységekkel. Vagyis a jelentés- és értékkritériumok mindig szubjektívek, ezért alkalmazhatóságuk korlátozott, míg a Shannon által javasolt mérték teljesen kiküszöböli a szubjektivitást a vizsgált rendszerek szerkezetének rendezettségének megítélésekor.

Tehát mi jellemzi a Shannon-képlet alapján számított és a bitek számával kifejezett szövegentrópia értékét? Ennek a szövegnek csak egy tulajdonsága van - a rendezettségének foka, vagy más szóval a teljes káosz állapotától való eltérés mértéke, amelyben minden betű egyenlő valószínűséggel fordulna elő, és a szöveg értelmetlen halmazzá változna. betűkből.

A szöveg (vagy bármely más vizsgált rendszer) sorrendje annál nagyobb lesz, minél nagyobb a valószínűségek különbsége, és annál inkább függ egy későbbi esemény valószínűsége az előző események valószínűségétől.

Az információ negentrópia elve szerint az ezt a sorrendet kifejező információ mennyisége egyenlő lesz a rendszer entrópiájának csökkenésével a rend hiányának és a rendszerek legkaotikusabb állapotának megfelelő entrópia maximális lehetséges értékéhez képest.

A Shannon által javasolt információszámítási módszerek lehetővé teszik a megjósolható (vagyis bizonyos szabályok szerint kialakult) információk mennyiségének és az előre nem megjósolható váratlan információk mennyiségének arányát.

Ily módon lehetőség nyílik az üzenettovábbításra szánt csatorna ilyen vagy olyan szintű „kirakására”. Shannon angol szövegek elemzése azt mutatta, hogy a bennük található redundáns információ az írott szövegben található információ teljes mennyiségének körülbelül 80%-át teszi ki. A fennmaradó 20% ugyanaz az entrópia, amelynek köszönhetően a szöveg kiszámíthatatlan energiaforrásként szolgálhat.

Ha a szöveges, szóbeli vagy vizuális (különösen a televíziós) üzenetek teljesen entrópiától mentesek lennének, nem hoznának hírt az üzenetek címzettjeinek.

Ha egy írott szöveget csak előre megfogalmazott szabályok alapján építenének fel, akkor az első oldal szövege alapján ezeket a szabályokat megállapítva előre megjósolható lenne, hogy mi lesz az 50., 265., 521. oldalon. stb.

Következtetés

shannon információs csatorna kommunikáció

De a 60-as évek eleje óta Shannon gyakorlatilag semmit sem tett az információelmélet terén. Úgy tűnt, 20 év után belefáradt az általa alkotott elméletbe. 1985-ben Claude Shannon és felesége, Betty váratlanul részt vett a Nemzetközi Információelméleti Szimpóziumon az angol Brightonban. Shannon szinte egy generáción keresztül nem jelent meg konferenciákon, és először senki sem ismerte fel. Aztán a szimpózium résztvevői suttogni kezdtek: az a szerény, ősz hajú úr ott Claude Elwood Shannon, ugyanaz! A banketten Shannon mondott néhány szót, zsonglőrködött egy kicsit három (sajnos csak három) labdával, majd több száz autogramot adott a hosszú sorban felsorakozó döbbent mérnököknek és tudósoknak. A sorban állók elmondták, hogy ugyanazokat az érzéseket élték át, mint a fizikusok, ha maga Sir Isaac Newton jelenne meg a konferencián.

Claude Shannon 2001-ben halt meg egy massachusettsi idősek otthonában Alzheimer-kórban, 84 évesen.

Bibliográfia

1. Internet

2. Shannon K.E. A kommunikáció matematikai elmélete. Információelméleti és kibernetikai munkák., M, 1963.

3. Shannon K. E. Bandwagon. /Információelméleti és kibernetikai munkák/M.

Közzétéve az Allbest.ru oldalon

Hasonló dokumentumok

    Nem ismétlődő üzenetek száma. Az információátviteli sebesség és a kommunikációs csatorna kapacitásának kiszámítása. Üzenetredundancia és optimális kódolás meghatározása. Optimális kód felépítésének eljárása Shannon-Fano módszerrel.

    tanfolyami munka, hozzáadva 2009.04.17

    A kommunikációs csatornák működésének általános sémája, osztályozása és jellemzői. Diszkrét, bináris kommunikációs csatornák és kapacitásuk meghatározása, interferencia és interferencia nélküli működés jellemzői Shannon tétele szerint. Folyamatos csatorna kapacitása.

    absztrakt, hozzáadva: 2009.07.14

    Az információelmélet tárgya és feladatai, funkciói az automatizált vezérlőrendszerek létrehozásában. Diszkrét (digitális) csatornák áteresztőképességének meghatározása zaj nélkül. Információátviteli sebesség számítása. Az entrópia értékének kiszámítása - az információ átlagos mennyisége.

    teszt, hozzáadva 2015.01.18

    A karakterenkénti információ mennyiségének kiszámítása Shannon képletével. Az információs entrópia változásai közgazdasági, természettudományi és irodalmi tartalmú szövegekben. Maximális információmennyiség jelenként a Hartley-képlet szerint.

    labormunka, hozzáadva 2013.12.06

    bemutató, hozzáadva 2014.10.19

    Információ feldolgozása, csatornák elemzése lehetséges kiszivárgása szempontjából. Műszaki információbiztonsági rendszer kiépítése: illetéktelen hozzáférési csatornák blokkolása, hatósági szabályozás. Bizalmas információk védelme az autonóm PC-ken alapuló munkaállomásokon.

    szakdolgozat, hozzáadva: 2011.05.06

    Algoritmusok tanulmányozása a kiindulási információk megbízhatóságának tolerancia-szabályozására, amelyek segítségével azonosítható az információs és mérési csatornák teljes és részleges meghibásodása. Az információmennyiségek közötti kapcsolódási egyenlet végrehajtásának hibájának meghatározása.

    labormunka, hozzáadva 2012.04.14

    Az átlagos információmennyiség meghatározása. A feltételes valószínűségi mátrix szimbólumai közötti függőség. Kódolás Shannon–Fano módszerrel. Kommunikációs csatorna kapacitása. Üzenetkódolás hatékonysága D. Huffman módszerével, a kód jellemzői.

    teszt, hozzáadva: 2015.04.05

    A veszélyes jelzések forrásainak elemzése és az információszivárgás és az illetéktelen hozzáférés lehetséges műszaki csatornáinak azonosítása. Az információ védelmének szervezési és technikai módszerei külön helyiségben, az alkalmazott mérnöki berendezések.

    tanfolyami munka, hozzáadva 2015.11.18

    Az információ mennyisége és mértéke. Az üzenetben található információ mennyiségének meghatározása forrásüzenetek együtteséből. Az információmennyiség és az üzenet entrópia tulajdonságai. Redundancia, a diszkrét üzenetek forrásának információs jellemzői.

Életévek: 1916-2001

A titkosítási forrás beállítja a maximális adattömörítési határt és a Shannon-entrópia számértékét.

©Claude Shannon

Életrajz

Claude Shannon 1916. április 30-án született Petockiban, Michigan államban, az Egyesült Államokban. Claude élete első tizenhat évét a michigani Gaylordban töltötte, ahol 1932-ben végzett a Gaylord Comprehensive High School-ban. Fiatalkorában futárként dolgozott a Western Unionnál. Apja ügyvéd és egy ideig bíró volt. Édesanyja idegennyelv-tanár volt, később a Gaylord High School igazgatója lett. A fiatal Claude-ot a mechanikus és automata eszközök tervezése érdekelte. Repülőgép-modelleket és rádióáramköröket gyűjtött, rádióvezérlésű csónakot és távírórendszert hozott létre egy barátja és a saját háza között. Időnként rádióállomásokat kellett javítania egy helyi áruház számára. Thomas Edison távoli rokona volt.

1932-ben Shannon beiratkozott a Michigani Egyetemre, ahol részt vett egy tanfolyamon, amely bemutatta a törekvő tudóst George Boole munkásságában. 1936-ban Claude a Michigani Egyetemen szerzett diplomát matematikából és elektromérnökből, és a Massachusetts Institute of Technology-ba (MIT) ment, ahol kutatási asszisztensként dolgozott a Vannevar Bush Differential Analyzer nevű analóg számítógépen. Egy differenciálelemző összetett, rendkívül speciális elektromos áramköreinek tanulmányozása során Shannon látta, hogy Boole koncepciói jól használhatók. Az American Institute of Electrical Engineers kiadásában 1938-ban jelent meg egy tanulmány, amely az 1937-es mesterdolgozatából származik, "Relék és kapcsolók szimbolikus elemzése". Ez volt az oka annak is, hogy Shannont 1940-ben az American Institute of Electrical Engineers Alfred Nobel-díjjal tüntette ki. A digitális áramkörök jelentik a modern számítástechnika alapját, így munkássága a 20. század egyik legfontosabb tudományos eredménye. Howard Gardner, a Harvard Egyetem munkatársa Shannon munkáját "talán az évszázad legfontosabb, egyben leghíresebb mesterdolgozatának" nevezte.

Bush tanácsára Schennon úgy döntött, hogy matematikából doktorál az MIT-n. Jövőbeli munkájának ötlete 1939 nyarán merült fel benne, amikor egy Cold Spring Harbor-i (New York) laboratóriumban dolgozott. Bushot kinevezték a washingtoni Carnegie Intézet elnökévé, és felkérte Shannont, hogy vegyen részt Barbara Burks genetikával kapcsolatos munkájában. Bush szerint a genetika lehetett Shannon erőfeszítéseinek tárgya. Shannon doktori disszertációja „Algebra for Theoretical Genetics” címmel 1940 tavaszán készült el. Shannon matematikából PhD fokozatot és villamosmérnöki mesterképzést folytat.

Az 1941 és 1956 közötti időszakban. Shannon a Michigani Egyetemen tanít, és a Bell Labs-nál dolgozik. Bell laboratóriumában Shannon a kapcsolóáramkörök kutatása közben felfedez egy új rendszerezési módszert, amely csökkenti az összetett logikai funkciók megvalósításához szükséges reléérintkezők számát. Kiadott egy tanulmányt "Kétpólusú kapcsolóáramkörök szervezése" címmel. Shannon a kapcsolóáramkörök létrehozásának problémáin dolgozott, és kifejlesztett egy Neumann által először említett módszert, amely lehetővé tette olyan áramkörök létrehozását, amelyek megbízhatóbbak voltak, mint a relék, amelyekből készültek. 1940 végén Shannon megkapta a Nemzeti Kutatási Díjat. 1941 tavaszán visszatért Bellbe. A második világháború kitörésekor T. Fry vezette a légvédelmi tűzvezető rendszerek programjának kidolgozását. Shannon csatlakozott Fry csoportjához, és olyan eszközökön dolgozott, amelyek észlelték az ellenséges repülőgépeket és célba vették a légelhárító fegyvereket, valamint kriptográfiai rendszereket is kifejlesztett, beleértve a kormányzati kommunikációt is, amely biztosította Churchill és Roosevelt közötti tárgyalásokat az óceánon túl. Ahogy Shannon maga mondta, a kriptográfia területén végzett munka késztette őt az információelmélet megalkotására.

1950-től 1956-ig Shannon logikai gépek létrehozásával foglalkozott, így folytatta Neumann és Turing törekvéseit. Már jóval a Deep Blue létrejötte előtt létrehozott egy gépet, amely sakkozni tudott. 1952-ben Shannon megalkotott egy betanítható labirintus-megoldó gépet.

Shannon ötven éves korában, 1966-ban vonult nyugdíjba, de továbbra is a Bell Labs számára konzultált. 1985-ben Claude Shannon és felesége, Betty részt vesz a Brightonban megrendezett Nemzetközi Információelméleti Szimpóziumon. Shannon hosszú ideig nem vett részt nemzetközi konferenciákon, és először nem is ismerték fel. A banketten Claude Shannon rövid beszédet mondott, mindössze három labdával zsonglőrködött, majd száz és száz autogramot adott ki az elképedt tudósoknak és mérnököknek, akik hosszú sorban álltak, áhítatos érzelmeket érzett a nagy tudós iránt, és összehasonlították őt urammal. Isaac Newton.

Ő volt az első ipari rádióvezérlésű játék fejlesztője, amelyet az 50-es években Japánban gyártottak (fotó). Emellett kifejlesztett egy Rubik-kockát hajtogatni képes eszközt (fotó), egy mini számítógépet a Hex társasjátékhoz, amely mindig legyőzte az ellenfelet (fotó), egy mechanikus egeret, amely kiutat tudott találni a labirintusból (fotó). Ő is megvalósította az „Ultimate Machine” képregénygép ötletét (fotó).

Kommunikációs elmélet titkos rendszerekben

Shannon „titkosnak” minősített munkája, a „Theory of Communication in Secret Systems” (1945), amelyet feloldottak és csak 1949-ben publikáltak, kezdetét vette az információ kódolásának és továbbításának elméletével kapcsolatos kiterjedt kutatások. általános vélemény, tudomány státuszát adta a titkosírásnak. Claude Shannon volt az, aki először kezdett tudományos megközelítéssel tanulmányozni a kriptográfiát. Ebben a cikkben Shannon meghatározta a kriptográfia elméletének alapfogalmait, amelyek nélkül a kriptográfia már nem képzelhető el. Shannon fontos érdeme az abszolút biztonságos rendszerek kutatása és létezésük bizonyítása, valamint a kriptográfiailag erős rejtjelek megléte, és az ehhez szükséges feltételek. Shannon az erős rejtjelekkel szemben támasztott alapvető követelményeket is megfogalmazta. Bemutatta a szóródás és keverés ma már ismert fogalmait, valamint a kriptográfiailag erős, egyszerű műveleteken alapuló titkosítási rendszerek létrehozásának módszereit. Ez a cikk a kriptográfia tudományának tanulmányozásának kiindulópontja.

"A kommunikáció matematikai elmélete" cikk


A "Mathematical Theory of Communication" című cikk 1948-ban jelent meg, és világhírűvé tette Claude Shannont. Ebben Shannon felvázolta elképzeléseit, amelyek később az információfeldolgozás, -továbbítás és -tárolás modern elméleteinek és technikáinak alapjává váltak. A kommunikációs csatornákon keresztül történő információtovábbítás terén végzett munkájának eredményei hatalmas számú tanulmányt indítottak el világszerte. Shannon általánosította Hartley elképzeléseit, és bevezette a továbbított üzenetekben foglalt információ fogalmát. A továbbított üzenet információinak mérésére Hartley logaritmikus függvény használatát javasolta. Shannon volt az első, aki statisztikai szempontból vizsgálta a továbbított üzeneteket és a kommunikációs csatornákban zajló zajokat, mind a véges, mind a folyamatos üzenethalmazokat figyelembe véve. A Shannon által kidolgozott információelmélet segített megoldani az üzenetek továbbításával kapcsolatos főbb problémákat, nevezetesen: a továbbított üzenetek redundanciájának megszüntetését, az üzenetek kódolását és továbbítását zajos kommunikációs csatornákon.

A továbbítandó üzenet redundancia problémájának megoldása lehetővé teszi a kommunikációs csatorna leghatékonyabb felhasználását. Például a televíziós műsorszórási rendszerekben manapság a redundancia csökkentésére szolgáló modern, széles körben alkalmazott módszerek lehetővé teszik akár hat digitális kereskedelmi televíziós műsor továbbítását a hagyományos analóg televíziós jel által elfoglalt frekvenciasávban.

A kommunikációs csatornákon zajos üzenet továbbításának problémájának megoldása a hasznos jel teljesítményének és az interferenciajel teljesítményének adott arányában a fogadó helyen lehetővé teszi az üzenetek továbbítását a kommunikációs csatornán a hibásság tetszőlegesen alacsony valószínűségével. üzenettovábbítás. Ez az arány határozza meg a csatorna kapacitását is. Ezt az interferenciaálló kódok használata biztosítja, miközben egy adott csatornán az üzenetátvitel sebességének kisebbnek kell lennie, mint annak kapacitása.

Munkáiban Shannon bebizonyította a feltárt problémák megoldásának alapvető lehetőségét, ez igazi szenzáció volt a 40-es évek végén tudományos körökben. Ez a munka, valamint azok a munkák, amelyek a lehetséges zajtűrő képességet vizsgálták, hatalmas számú tanulmányt eredményeztek, amelyek a mai napig, több mint fél évszázada folytatódnak. A Szovjetunió és az USA tudósai (USSR - Pinsker (angol) orosz, Khinchin, Dobrusin, Kolmogorov; USA - Gallagher (angol) orosz, Wolfowitz (angol) orosz, Feinstein) szigorúan értelmezték a Shannon által felvázolt elméletet.

Ma minden digitális kommunikációs rendszert a Shannon által kidolgozott információátvitel alapelvei és törvényei alapján terveznek. Az információelmélet szerint az üzenetből először eltávolítják a redundanciát, majd interferenciának ellenálló kódok segítségével kódolják az információt, és csak ezután jut el az üzenet a csatornán keresztül a fogyasztóhoz. Az információelméletnek köszönhetően jelentősen csökkent a televíziós, hang- és faxüzenetek redundanciája.

Nagy mennyiségű kutatást szenteltek zajálló kódok létrehozásának és egyszerű módszereknek az üzenetek dekódolására. Az elmúlt ötven évben végzett kutatások képezték az alapját a zajálló kódolás és a forráskódolási módszerek modern digitális rendszerekben történő alkalmazásáról szóló ITU-ajánlásnak.

Csatorna kapacitás tétel.

Minden zajos csatornát maximális információátviteli sebesség jellemez, ez a határ Shannon nevéhez fűződik. A határértéket meghaladó sebességű információ továbbításakor elkerülhetetlen adattorzulás lép fel, de ez a határérték alulról a szükséges pontossággal megközelíthető, biztosítva az információátviteli hiba tetszőlegesen kicsi valószínűségét egy zajos csatornában.

Shannon tételei

  • Közvetlen és inverz Shannon-tételek egy általános formájú forráshoz - a forrás entrópiája és az üzenetek átlagos hossza közötti kapcsolatról.
  • Közvetlen és inverz Shannon-tételek egy memória nélküli forráshoz - a forrás entrópiája és a veszteséges kódolás és az azt követő kétértelmű dekódolás segítségével elérhető tömörítési fok közötti kapcsolatról.
  • Shannon direkt és inverz tételei zajos csatornára a csatornakapacitás és egy olyan kód meglétéről szólnak, amely nullára hajló hibával (a blokkhossz növekedésével) átvitelre használható.
  • A Nyquist-Shannon tétel (az orosz nyelvű irodalomban - Kotelnyikov tétele) egy jelnek a diszkrét mintáiból való egyértelmű rekonstrukciójáról szól.
  • A Shannon-féle titkosítási forrástétel (vagy Csendes titkosítási tétel) határt szab a maximális adattömörítésnek és számértéket a Shannon-entrópiának.
  • Shannon-Hartley tétel

Claude Ellwood Shannon díjnyertes amerikai matematikus, elektronikai mérnök és kriptográfus volt, akit az információelmélet megalkotójaként ismertek.


Hősünk volt az, aki egykor azt javasolta, hogy a ma mindenki által ismert „bit” fogalmát a legkisebb információegység megfelelőjeként használjuk.

Shannon egy 1948-ban publikált mérföldkőnek számító újságban az információelméletet megszülető emberként vált híressé. Emellett az ő nevéhez fűződik a digitális számítógép és általában a digitális technológiák megalkotásának ötlete is, még 1937-ben, amikor Shannon 21 éves hallgatóként a Massachusetts Institute of Technology mesterképzésén dolgozott. - majd írt egy szakdolgozatot, amelyben bebizonyította, hogy a Boole-algebrák felhasználásával az elektronika területén bármilyen logikai, numerikus konstruálható és megoldható.

kommunikáció. A disszertációján alapuló cikkel 1940-ben az American Institute of Electrical Engineers díját nyerte el.

A második világháború alatt Shannon jelentős mértékben hozzájárult a kriptoanalízis területéhez, miközben honvédelemmel foglalkozott, beleértve a kódok feltörését és a biztonságos távközlés biztosítását célzó alapvetô projektjét.

Shannon 1916. április 30-án született a michigani Petoskey-ben, és a közeli Michigan állambeli Gaylordban nőtt fel. Az apja egyike volt azoknak a saját készítésű férfiaknak. A korai New Jersey-i telepesek leszármazottja, üzletember és bíró volt. Claude anyja angolt tanított, és egy ideig a

Gaylord Általános Iskola. Shannon élete első 16 évének nagy részét Gaylordban töltötte, és 1932-ben végzett a helyi iskolában. Gyermekkora óta érdekelte a mechanikus és elektromos modellek tervezése. Kedvenc tantárgyai a természettudományok és a matematika voltak, otthon töltött szabadidejében repülőgép-modelleket, rádióvezérlésű hajómodelleket, sőt vezeték nélküli távírót is épített, amely egy barátja házához kötötte, aki fél mérföldre lakott Shannonoktól. .

Tinédzserként Claude részmunkaidőben futárként dolgozott a Western Unionnál. Gyermekkori hőse Thomas Edison volt, aki, mint később kiderült, szintén távoli rokona volt. Mindketten leszármazottak voltak

ami John Ogden, a 17. századi gyarmati vezető és számos prominens ember őse. Shannont nem érdekelte a politika. Ráadásul ateista volt.

1932-ben Claude a Michigani Egyetem hallgatója lett, ahol az egyik kurzus bevezette a Boole algebra bonyolultságába. Miután 1936-ban két főiskolai diplomát szerzett matematikából és villamosmérnökből, az MIT-n folytatta tanulmányait, ahol az egyik első analóg számítógépen, a Vannevar Bush differenciálelemzőn dolgozott – ekkor jött rá, hogy a Boole-féle fogalmak. Az algebra hasznosabbra is alkalmazható. Shannon diplomamunkája a m

A mesterdolgozat „Relék és kapcsolók szimbolikus elemzése” címet viselte, és a szakemberek a 20. század egyik legfontosabb mesterdolgozatának tartják.

1940 tavaszán Shannon matematikából doktorált az MIT-n „Algebra for Theoretical Genetics” címmel. ahol érdeklődését a tűzvédelmi rendszerek és a kriptográfia váltotta ki (amit a második világháború idején tett).

A Bell Labsban Shannon megismerkedett leendő feleségével, Betty Shannonnal, aki numerikus elemzéssel foglalkozott. 1949-ben házasodtak össze. 1956-ban Shannon visszatért az MIT-hez,

ahol felajánlottak neki egy széket, és ott dolgozott 22 évig.

Hobbija a cselgáncs, az egykerekű lovaglás és a sakk volt. Különféle szórakoztató szerkentyűket talált fel, köztük rakétahajtású repülő korongokat, motoros szöcskét és egy tudományos vásárra szánt tüzet kibocsátó csövet. Edward O. Thorp mellett őt is az első hordozható számítógép feltalálójaként tartják számon – ezzel az eszközzel növelték a nyerési esélyeket a ruletten, és nagyon sikeresek voltak a Las Vegas-i betöréseik.

Shannon utolsó éveit egy idősek otthonában töltötte, Alzheimer-kórban szenvedett. 2001. február 24-én elhunyt.

Claude Elwood Shannon (angolul: Claude Elwood Shannon; 1916. április 30., Petocki, Michigan – 2001. február 24., Medford, Massachusetts) - amerikai matematikus és mérnök, művei matematikai ötletek szintézise, ​​rendkívül összetett problémák specifikus elemzésével. technikai megvalósításuk. Ő az információelmélet megalapítója, amely a modern high-tech kommunikációs rendszerekben is alkalmazásra talált. Shannon óriási mértékben hozzájárult a valószínűségi áramkörök elméletéhez, az automaták elméletéhez és a vezérlőrendszerek elméletéhez – ezek a tudományterületek a kibernetika fogalmába tartoznak.

Életrajz Claude Shannon 1916. április 30-án született Petockiban, Michigan államban, az Egyesült Államokban. Claude élete első tizenhat évét a michigani Gaylordban töltötte, ahol állami iskolába járt, majd 1932-ben érettségizett a Gaylord High Schoolban. Fiatalon futárként dolgozott a Western Unionnál. Apja ügyvéd és egy ideig bíró volt. Édesanyja idegennyelv-tanár volt, majd a Gaylord High School igazgatója lett. A fiatal Claude nagyon szerette az automata készülékek tervezését. Repülőgép-modelleket és rádióáramköröket gyűjtött, valamint rádióvezérlésű csónakot és távírórendszert is készített egy barátja és a saját háza között. Időnként rádióállomásokat kellett javítania egy helyi áruház számára. Thomas Edison távoli rokona volt.

1932-ben Shannon beiratkozott a Michigani Egyetemre, ahol részt vett egy tanfolyamon, amely bemutatta a törekvő tudóst George Boole munkásságában. 1936-ban Claude a Michigani Egyetemen szerzett diplomát matematikából és elektromérnökből, és a Massachusetts Institute of Technology-ba ment, ahol kutatási asszisztensként dolgozott a Vannevar Bush Differential Analyzer nevű analóg számítógépen. Egy differenciálelemző összetett, rendkívül speciális elektromos áramköreinek tanulmányozása során Shannon látta, hogy Boole koncepciói jól használhatók. Az American Institute of Electrical Engineers (AIEE) 1938-ban publikált egy tanulmányt, amely az 1937-es mesterdolgozatából származik, "Relék és kapcsolók szimbolikus elemzése". Ez volt az oka annak is, hogy Shannont 1940-ben az American Institute of Engineering Alfred Nobel-díjjal tüntette ki. A digitális áramkörök jelentik a modern számítástechnika alapját, így munkássága a 20. század egyik legfontosabb tudományos eredménye. Howard Gardner, a Harvard Egyetem munkatársa Shannon munkáját "talán az évszázad legfontosabb, egyben leghíresebb mesterdolgozatának" nevezte.

Bush tanácsára Shannon úgy döntött, hogy matematikából doktorál az MIT-n. Jövőbeli munkájának ötlete 1939 nyarán merült fel benne, amikor a New York-i Cold Spring Harborban dolgozott. Busht kinevezték a Carnegie Intézet elnökévé Washington megyében, és felkérte Shannont, hogy vegyen részt Barbara Burks genetikával kapcsolatos munkájában. Bush szerint a genetika lehetett Shannon erőfeszítéseinek tárgya. Shannon doktori disszertációja „Algebra for Theoretical Genetics” címmel 1940 tavaszán készült el. Shannon PhD fokozatot szerez matematikából és MS fokozatot villamosmérnökből.

Az 1941 és 1956 közötti időszakban. Shannon a Michigani Egyetemen tanít, és a Bell Labs-nál dolgozik. Bell laboratóriumában Shannon a kapcsolóáramkörök kutatása közben felfedez egy új rendszerezési módszert, amely csökkenti az összetett logikai funkciók megvalósításához szükséges reléérintkezők számát. Kiadott egy tanulmányt "Kétpólusú kapcsolóáramkörök szervezése" címmel. Shannon a kapcsolóáramkörök létrehozásának problémáin dolgozott, és kifejlesztett egy Neumann által először említett módszert, amely lehetővé tette olyan áramkörök létrehozását, amelyek megbízhatóbbak voltak, mint a relék, amelyekből készültek. 1940 végén Shannon megkapta a Nemzeti Kutatási Díjat. 1941 tavaszán visszatért Bellbe. A második világháború kitörésekor T. Fry vezette a légvédelmi tűzvezető rendszerek programjának kidolgozását. Shannon csatlakozott Fry csoportjához, és olyan eszközökön dolgozott, amelyek észlelték az ellenséges repülőgépeket és célba vették a légelhárító fegyvereket, valamint kriptográfiai rendszereket is kifejlesztett, beleértve a kormányzati kommunikációt is, amely biztosította Churchill és Roosevelt közötti tárgyalásokat az óceánon túl. Ahogy Shannon maga mondta, a kriptográfia területén végzett munka késztette az információelmélet megalkotására.

1950-től 1956-ig Shannon logikai gépek létrehozásával foglalkozott, így folytatta Neumann és Turing törekvéseit. Már jóval a Deep Blue létrejötte előtt létrehozott egy gépet, amely sakkozni tudott. 1952-ben Shannon megalkotott egy betanítható labirintus-megoldó gépet.

Shannon 50 évesen vonult nyugdíjba 1966-ban, de továbbra is a Bell Labs számára konzultált. 1985-ben Claude Shannon és felesége, Betty részt vesz a Brightonban megrendezett Nemzetközi Információelméleti Szimpóziumon. Shannon hosszú ideig nem vett részt nemzetközi konferenciákon, és először nem is ismerték fel. A banketten Claude Shannon rövid beszédet mondott, mindössze három labdával zsonglőrködött, majd száz és száz autogramot adott ki az elképedt tudósoknak és mérnököknek, akik hosszú sorban álltak, áhítatos érzelmeket érzett a nagy tudós iránt, és összehasonlították őt urammal. Isaac Newton.

Claude Shannon 2001. február 24-én hunyt el. Shannon titkosnak minősített munkája, a "Theory of Communication in Secret Systems" (1945), amelyet feloldottak és csak 1949-ben publikáltak, kezdetét vette az információ kódolása és továbbítása elméletének kiterjedt kutatásának, és általános véleménynek tekinthető. , tudomány státuszát adta a titkosírásnak. Claude Shannon volt az, aki először kezdett tudományos megközelítéssel tanulmányozni a kriptográfiát. Ebben a cikkben Claude meghatározta a kriptográfia elméletének alapfogalmait, amelyek nélkül a kriptográfia már nem képzelhető el. Shannon fontos érdeme a teljesen titkos rendszerek kutatása, és létezésük bizonyítása, valamint a kriptográfiai rejtjelek megléte, és az ehhez szükséges feltételek. Shannon az erős rejtjelekkel szemben támasztott alapvető követelményeket is megfogalmazta. Bemutatta a szóródás és keverés ma már ismert fogalmait, valamint a kriptográfiailag erős, egyszerű műveleteken alapuló titkosítási rendszerek létrehozásának módszereit. Ez a cikk a kriptográfia tudományának tanulmányozásának kiindulópontja.

Matematikai kommunikációelmélet

A "Mathematical Theory of Communication" című cikk 1948-ban jelent meg, és világhírűvé tette Claude Shannont. Ebben Shannon felvázolta elképzeléseit, amelyek később az információtovábbítás és -tárolás modern elméleteinek és technikáinak alapjává váltak. A kommunikációs csatornákon keresztül történő információtovábbítás terén végzett munkájának eredményei hatalmas számú tanulmányt indítottak el világszerte. Shannon általánosította Hartley elképzeléseit, és bevezette a továbbított üzenetekben foglalt információ fogalmát. A továbbított M üzenet információinak mérésére Hartley logaritmikus függvény használatát javasolta. Shannon volt az első, aki statisztikai szempontból vette figyelembe a továbbított üzeneteket és a kommunikációs csatornákban zajló zajokat, figyelembe véve mind a véges üzenethalmazokat, mind a folyamatos üzenethalmazokat. A Shannon által kidolgozott információelmélet segített megoldani az üzenetek továbbításával kapcsolatos főbb problémákat, nevezetesen: a továbbított üzenetek redundanciájának megszüntetését, az üzenetek kódolását és továbbítását zajos kommunikációs csatornákon. A továbbítandó üzenet redundancia problémájának megoldása lehetővé teszi a kommunikációs csatorna leghatékonyabb felhasználását. Például a televíziós műsorszórási rendszerekben manapság a redundancia csökkentésére szolgáló modern, széles körben alkalmazott módszerek lehetővé teszik akár hat digitális kereskedelmi televíziós műsor továbbítását a hagyományos analóg televíziós jel által elfoglalt frekvenciasávban. A kommunikációs csatornákon zajos üzenet továbbításának problémájának megoldása a hasznos jel teljesítményének és az interferenciajel teljesítményének adott arányában a fogadó helyen lehetővé teszi az üzenetek továbbítását a kommunikációs csatornán a hibásság tetszőlegesen alacsony valószínűségével. üzenettovábbítás. Ez az arány határozza meg a csatorna kapacitását is. Ezt az interferenciaálló kódok használata biztosítja, miközben egy adott csatornán az üzenetátvitel sebességének kisebbnek kell lennie, mint annak kapacitása. Munkáiban Shannon bebizonyította a feltárt problémák megoldásának alapvető lehetőségét, ez igazi szenzáció volt a 40-es évek végén tudományos körökben. Ez a munka, valamint azok a munkák, amelyek a lehetséges zajtűrő képességet vizsgálták, hatalmas számú tanulmányt eredményeztek, amelyek a mai napig, több mint fél évszázada folytatódnak. A Szovjetunió és az USA tudósai (Szovjetunió - Pinsker, Khinchin, Dobrusin, Kolmogorov; USA - Gallagher, Wolfowitz, Feinstein) szigorúan értelmezték a Shannon által felvázolt elméletet. Ma minden digitális kommunikációs rendszert a Shannon által kidolgozott információátvitel alapelvei és törvényei alapján terveznek. Az információelméletnek megfelelően először a redundanciát eltávolítják az üzenetből, majd az információt az interferenciaálló kódok segítségével kódolják, és csak ezután jut el az üzenet a csatornán keresztül a fogyasztóhoz. A televíziós, hang- és faxüzenetek redundanciája jelentősen csökkent, éppen az információelméletnek köszönhetően.

Nagy mennyiségű kutatást szenteltek zajálló kódok létrehozásának és egyszerű módszereknek az üzenetek dekódolására. Az elmúlt ötven évben végzett kutatások képezték az alapját a zajálló kódolás és a forráskódolási módszerek modern digitális rendszerekben történő alkalmazásáról szóló ITU-ajánlásnak.

Csatorna kapacitás tétel.

Minden zajos csatornát maximális információátviteli sebesség jellemez, ez a határ Shannon nevéhez fűződik. Ezt a határt meghaladó sebességű információ továbbításakor elkerülhetetlen adattorzulás lép fel, de ez a határérték alulról a kellő pontossággal megközelíthető, biztosítva a zajos csatornában zajos csatornán történő információtovábbítás tetszőlegesen kicsi hiba valószínűségét.

Tudományos terület: Munkavégzés helye: Alma Mater: Ismert, mint: Díjak és díjak


  • után elnevezett díj A. Nobel AIEE (1940);
  • Díj M. Libman emlékére (Angol) orosz;
  • IRE (1949);
  • IEEE Medal of Honor (1966);
  • Nemzeti Tudományos Érem (1966);
  • Harvey-díj (1972).

Életrajz

1985-ben Claude Shannon és felesége, Betty részt vesz a nemzetközi információelméleti szimpóziumon Brightonban. Shannon hosszú ideig nem vett részt nemzetközi konferenciákon, és először nem is ismerték fel. A banketten Claude Shannon rövid beszédet tartott, csak három labdával zsonglőrködött, majd száz és száz autogramot adott ki a meghökkent tudósoknak és mérnököknek, akik hosszú sorokban álltak, áhítatos érzéseket érzett a nagy tudós iránt, és összehasonlították őt urammal. Isaac Newton.

Ő volt az első ipari rádióvezérlésű játék fejlesztője, amelyet az 50-es években Japánban gyártottak (fotó). Emellett kifejlesztett egy Rubik-kockát hajtogatni képes eszközt (fotó), egy mini számítógépet a Hex társasjátékhoz, amely mindig legyőzte az ellenfelet (fotó), egy mechanikus egeret, amely kiutat tudott találni a labirintusból (fotó). Ő is megvalósította az „Ultimate Machine” képregénygép ötletét (fotó).

Kommunikációs elmélet titkos rendszerekben

Shannon "titkosnak" minősített "Theory of Communication in Secret Systems" (1945) munkája, amelyet feloldottak és csak 1949-ben publikáltak, kezdetét vette az információ kódolása és továbbítása elméletének kiterjedt kutatásának. általános vélemény, tudomány státuszát adta a titkosírásnak. Claude Shannon volt az, aki először kezdett tudományos megközelítéssel tanulmányozni a kriptográfiát. Ebben a cikkben Shannon meghatározta a kriptográfia elméletének alapfogalmait, amelyek nélkül a kriptográfia már nem képzelhető el. Shannon fontos érdeme az abszolút biztonságos rendszerek kutatása és létezésük bizonyítása, valamint a kriptográfiailag erős rejtjelek megléte, és az ehhez szükséges feltételek. Shannon az erős rejtjelekkel szemben támasztott alapvető követelményeket is megfogalmazta. Bemutatta a szóródás és keverés ma már ismert fogalmait, valamint a kriptográfiailag erős, egyszerű műveleteken alapuló titkosítási rendszerek létrehozásának módszereit. Ez a cikk a kriptográfia tudományának tanulmányozásának kiindulópontja.

"A kommunikáció matematikai elmélete" cikk

  • A Nyquist-Shannon tétel (az orosz nyelvű irodalomban - Kotelnyikov tétele) egy jelnek a diszkrét mintáiból való egyértelmű rekonstrukciójáról szól.
  • (vagy csendes titkosítási tétel) korlátot ad a maximális adattömörítésnek és egy számértéket a Shannon-entrópiához.
  • Shannon-Hartley tétel

Lásd még

  • Whittaker-Shannon interpolációs képlet

Megjegyzések

Irodalom

  • Shannon C. E. A kommunikáció matematikai elmélete // Bell System Technical Journal. - 1948. - T. 27. - P. 379-423, 623-656.
  • Shannon C. E. Kommunikáció zaj jelenlétében // Proc. Rádiómérnöki Intézet. - Jan. 1949. - T. 37. - 1. szám - P. 10-21.
  • Shannon K. Információelmélettel és kibernetikával foglalkozik. - M.: Külföldi Irodalmi Kiadó, 1963. - 830 p.

Linkek

  • Bibliográfia (angol)

Kategóriák:

  • Személyiségek ábécé sorrendben
  • A tudósok ábécé szerint
  • Április 30-án született
  • 1916-ban született
  • Michiganben született
  • Halálok február 24-én
  • 2001-ben halt meg
  • Halálesetek Massachusettsben
  • amerikai matematikusok
  • Információelmélet
  • Kriptográfusok
  • Kibernetika
  • A számítástechnika úttörői
  • Mesterséges intelligencia kutatók
  • Tudósok a rendszertudomány területén
  • MIT öregdiákok
  • A Michigani Egyetem öregdiákjai
  • MIT kar
  • Az Egyesült Államok Nemzeti Tudományos Akadémia tagjai és levelező tagjai
  • A Londoni Királyi Társaság külföldi tagja
  • század matematikusai
  • Harvey-díjasok
  • Az Egyesült Államok Nemzeti Tudományos Érem díjazottai
  • IEEE Medal of Honor kitüntetettek
  • Személyek: számítógépes sakk
  • Amerikai villamosmérnökök

Wikimédia Alapítvány. 2010.