Informační entropie

Dva bity entropie: Při dvou hodech poctivou mincí je informační entropie vyjádřená v bitech logaritmus o základu 2 počtu možných výsledků; při hodu dvěma mincemi existují čtyři možné výsledky, což odpovídá dvěma bitům entropie. Informační entropie je obecně průměrné množství informace obsažené v události, pokud uvažujeme všechny možné výsledky.

Informační nebo též shannonovská entropie je střední hodnota množství informace připadající na jeden symbol generovaný stochastickým zdrojem dat.

Míra informační entropie přiřazená ke každé možné datové hodnotě je záporným logaritmem pravděpodobnostní funkce dané hodnoty:

kde je střední hodnota definovaná pravděpodobností .[1]

Když datový zdroj vyprodukuje hodnotu (symbol), která má nízkou pravděpodobnost (tj. nastane událost s nízkou pravděpodobností), nese tato událost více „informace“ (způsobí větší „překvapení“), než vyprodukování hodnoty, která má pravděpodobnost vysokou. Pokud množství informace, které nese každá událost, považujeme za náhodnou veličinu, informační entropie je střední hodnota této náhodné události.

Entropie obecně vyjadřuje neuspořádanost nebo nejistotu, a definice entropie používaná v teorii informace je přímou analogií entropie používané ve statistické termodynamice. Koncept informační entropie představil Claude Shannon v roce 1948 ve svém článku „A Mathematical Theory of Communication".[2]

Základní model systému datové komunikace obsahuje tři prvky: zdroj dat, komunikační kanál a přijímač a – jak vyjádřil Shannon – „základním problémem komunikace“ je, aby přijímač byl schopen ze signálu, který přijímá z přenosového kanálu, identifikovat, jaká data byla vygenerovaná zdrojem.[3]:s.379–423 a 623–656 Entropie vyjadřuje absolutní dolní mez průměrné délky bezztrátového kódování dat vytvářených zdrojem. Pokud je entropie zdroje menší než kapacita komunikační kanálu, je možné data generovaná zdrojem spolehlivě přenést k přijímači (alespoň teoreticky, případně se zanedbáním určitých praktických kritérií jako například času potřebného pro přenos dat a složitosti systému k tomuto účelu).

Informační entropie se nejčastěji měří v bitech (kterým se v této souvislosti také říká „shannons“), někdy v „přirozených jednotkách“ (natech) nebo v desítkových číslicích (nazývaný „dits“, „bans“ nebo „hartleys“). Jednotka měření závisí na základu logaritmu použitého pro výpočet entropie.

Logaritmus rozdělení pravděpodobnosti je vhodný jako míra entropie, protože pro nezávislé zdroje je aditivní. Například entropie vrhu poctivou mincí je 1 bit a entropie m vrhů je m bitů. V přímočaré reprezentaci je potřeba log2(n) bitů pro reprezentaci proměnné, která může nabývat jedné z n hodnot, jestliže n je mocninou dvojky, tj. n = 2k. Pokud jsou všechny hodnoty stejně pravděpodobné, entropie (v bitech) bude log2(n)= k. Pokud se jedna z hodnot bude objevovat častěji než ostatní, pozorování této hodnoty je méně informativní, než kdyby došlo k méně obvyklému výsledku. Naopak pozorování vzácnější události poskytuje více informace. Protože pozorování méně pravděpodobných událostí se objevují méně často, způsobují, že entropie (braná jako průměrná informace) pocházející z nerovnoměrně distribuovaných dat je vždy menší nebo rovna log2(n). Entropie je nulová, pokud je jisté, že nastane jedna určitá událost. Entropie je veličina, která kvantifikuje tato kritéria pro známé rozdělení pravděpodobnosti zdrojových dat. Entropie nezávisí na obsahu pozorovaných událostí (významu zprávy), ale bere v úvahu pouze pravděpodobnosti jejich výskytu. To znamená, že entropie závisí pouze na podkladovém rozdělení pravděpodobnosti, nikoli na významu událostí samých.

Úvod

Základní myšlenkou teorie informace je, že „informační hodnota“ předávané zprávy závisí na míře, jak je obsah zprávy překvapivý. Není žádným překvapením, když dojde k události, která je velmi pravděpodobná. Naopak, v případě málo pravděpodobných událostí, je jejich výskyt mnohem informativnější. Například znalost, že určité číslo nevyhraje v loterii, nese velmi malou informaci, protože jakékoli určité číslo téměř určitě nevyhraje. Ale znalost, že určité číslo v loterii vyhraje, má vysokou informační hodnotu, protože informuje o události s velmi nízkou pravděpodobností. Informační obsah (také nazývaný surprisal – překvapení) události je rostoucí funkcí převrácené hodnoty pravděpodobnosti události, přesněji . Entropie měří očekávané (tj. průměrné) množství informace obsažené v informaci o výsledku náhodného pokusu. Z toho vyplývá, že vrh kostkou má vyšší entropii než házení mincí, protože každý z výsledků vrhu kostkou má menší pravděpodobnost () než každý z výsledků vrhu mincí ().

Entropie je míra nepředvídatelnosti výsledku, jeho průměrného informačního obsahu. Chceme-li získat intuitivní porozumění těmto termínům, můžeme si představit průzkum veřejného mínění. Takové průzkumy se provádějí, aby se zjistila informace, která není známá. To znamená, že výsledek průzkumu je těžko předpověditelný a provedení průzkumu přináší nějakou novou informaci; to je jen jiný způsob jak říct, že apriorní entropie výsledků průzkumu je velká. Pokud by se stejný průzkum prováděl znovu, krátce po prvním průzkumu, když je výsledek prvního průzkum už známý, bylo by možné výsledek druhého průzkum dobře předvídat, a jeho výsledky sotva obsahují mnoho nové informace; to znamená, že apriorní entropie výsledku druhého průzkumu je relativně malá v porovnání s prvním průzkumem.

Uvažujme vrh mincí. Pokud pravděpodobnost padnutí panny je stejná jako pravděpodobnost padnutí orla, pak entropie vrhu mincí je stejně vysoká jako u libovolného pokusu se dvěma stejně pravděpodobnými výsledky. Výsledek vrhu mincí nelze předpovědět: pokud si máme vybrat, neexistuje žádná průměrná výhoda předvídat určitý výsledek, protože každá předpověď bude správná s pravděpodobností . Takový vrh mincí má jeden bit entropie, protože existují dva možné výsledky se stejnou pravděpodobností, a víme, že výsledek má jeden bit informace. Naproti tomu, vrh mincí, které by měla dvě panny a žádného orla má nulovou entropii, protože při vrhu takovou mincí vždy padne panna a výsledek lze dokonale předpovědět. Libovolná událost se stejně pravděpodobnými výsledky má Shannonovu entropii bit. Podobně každý pokus se třemi stejně pravděpodobnými hodnotami obsahuje (asi 1,58496) bitů informace, protože může nabývat jednu ze tří hodnot.

Pokud budeme anglický text považovat za řetězec znaků, má docela nízkou entropii; to znamená, že je docela dobře předvídatelný. I v případě, že nevíme přesně, jaký znak bude následovat, můžeme si být jisti, že například 'e' bude mnohem obvyklejší než 'z', nebo že kombinace 'qu' bude mnohem obvyklejší než 'q' následované jiným písmenem, a že i kombinace 'th' bude obvyklejší než 'z', 'q' nebo 'qu'. Zbytek slova můžeme často odhadnout z několika prvních písmen. Anglický text má entropii 0,6 až 1,3 bitů na znak zprávy.[4]:s.234

Pokud je komprimační schéma bezztrátové – takové, že původní zprávu lze vždy dekomprimovat – pak komprimovaná zpráva obsahuje stejné množství informace jako původní, ale je zakódována méně znaky. Obsahuje tedy více informace na znak (má vyšší entropii). Komprimovaná zpráva má menší redundanci. Shannonova věta o zdrojovém kódování říká, že bezztrátové komprimační schéma nemůže v průměru komprimovat zprávy, aby měly více než jeden bit informace na bit zprávy, ale, že jakoukoli hodnotu menší než jeden bit informace na bit zprávy lze dosáhnout použitím vhodného kódovacího schématu. Entropie zprávy na bit znásobená délkou zprávy je mírou, kolik informace zpráva celkem obsahuje.

Uvažujme, že bychom měli vysílat posloupnosti obsahující 4 znaky 'A', 'B', 'C' a 'D' – například zprávu 'ABADDCAB'. Teorie informace říká, jak spočítat nejmenší možné množství informace, kterou je třeba přenést. Jsou-li všechna 4 písmena stejně pravděpodobná (25 %), není možné najít lepší kódovací schéma (pro binární kanál), než zakódování každého písmene dvěma bity: 'A' například jako '00', 'B' jako '01', 'C' jako '10' a 'D' jako '11'. Pokud se však 'A' objevuje s 70% pravděpodobností, 'B' s 26%, a 'C' i 'D' s 2% pravděpodobností, bylo by možné přiřadit jednotlivým znakům kódy s různou délkou, takže přijetí '1' by znamenalo, že je třeba se podívat na jiný bit pokud žádná posloupnost 2 bitů jedniček už byla přijata. V tomto případě může být 'A' kódované jako '0' (jeden bit), 'B' jako '10' a 'C' a 'D' jako '110' a '111'. Je snadno vidět, že v 70 % případů stačí jeden bit informace, v 26 % případů dvou bitů a pouze ve 4 % případů 3 bitů. Průměrně stačí méně než 2 bity, protože entropie je nižší (kvůli vysoký prevalenci symbolů 'A' následovaných 'B' – současně 96 % znaků). Tento vliv zachycuje výpočet sumy pravděpodobnosti vážené logaritmem míry pravděpodobnosti.

Ze Shannonovy věty také vyplývá, že žádné bezztrátové komprimační schéma nemůže zkrátit úplně všechny zprávy. Pokud některé zprávy vyjdou kratší, alespoň jedna musí vyjít delší kvůli Dirichletově principu. Při praktickém použití to obecně není problém, protože typicky přenášíme pouze určitý typ zpráv, například dokumenty v angličtině nikoli náhodné řetězce znaků, nebo digitální fotografie a nikoli šum, a proto není důležité, že komprimační algoritmus nějaké nepravděpodobné nebo nezajímavé posloupnosti prodlužuje.

Definice

Graf binární entropie (v intervalu <0;1>)

Shannon definoval entropii Η diskrétní náhodné proměnné s možnými hodnotami a pravděpodobnostní funkcí takto:

Pro entropii používá znak Η (velké řecké písmeno éta), podle Boltzmannovy Η-věty. je operátor střední hodnoty a I je informační obsah X.[5]:s.11[6]:s.19–20 je také náhodná proměnná.

Entropii můžeme explicitně zapsat jako

kde b je základ použitého logaritmu. V tomto případě se nejčastěji jako základ b používá hodnota 2, méně často Eulerovo číslo e, nebo 10. Entropie je pro b = 2 vyjádřena v bitech, pro b = e v jednotkách nazývaných nat a pro b = 10 v jednotkách nazývaných ban, hartley nebo dit.[7]

Pokud P(xi) = 0 pro nějaké i, bere se hodnota odpovídajícího členu 0 logb(0) nulová, což odpovídá limitě

Můžeme také definovat podmíněnou entropii dvou událostí a , které nabývají hodnot a , vzorcem

kde je pravděpodobnost, že a . Tuto hodnotu chápeme jako množství náhodnosti v náhodné proměnné pro danou hodnotu náhodné proměnné .

Příklad

Entropie Η(X) (tj. střední překvapení) vrhu mincí měřené v bitech vynesené podle poctivosti mince Pr(X = 1), kde X = 1 reprezentuje padnutí panny.
Entropie je v tomto případě nejvýše 1 bit a předání výsledku vrhu mincí (se dvěma možnými výsledky) vyžaduje průměrně nejvýše 1 bit informace (pro poctivou minci je to přesně 1 bit). Zakódování vrhu poctivou kostkou (6 hodnot se stejnou pravděpodobností) vyžaduje průměrně log26 bitů.
Podrobnější informace naleznete v článcích Binární funkce entropie a Bernoulliho proces.

Uvažujme házení mincí se známými, ne nutně poctivými pravděpodobnostmi, že padne panna nebo orel; to lze modelovat Bernoulliho procesem.

Entropie neznámého výsledku dalšího vrhu mincí je nejvyšší, jestliže mince je poctivá (tj. jestliže panna i orel mají stejnou pravděpodobnost 1/2). U poctivé mince je nejobtížnější předpovídat výsledek dalšího vrhu; výsledek každého vrhu mincí přináší celý jeden bit informace. Důvodem je, že

Pokud však víme, že mince není poctivá, ale pravděpodobnosti hodu panny případně orla jsou p, příp. q, kde pq, pak je nejistota menší. Při každém vrhu je pravděpodobnější, že padne jedna strana než druhá. Snížení nejistoty je kvantifikováno nižší entropií: každý vrh mincí přináší v průměru méně než jeden bit informace. Jestliže například p=0,7, pak

Rovnoměrné rozdělení pravděpodobnosti má maximální nejistotu a tedy maximální entropii. Entropie se pak může pouze snížit z hodnoty odpovídající rovnoměrné pravděpodobnosti. Extrémním případem je, že mince má dvě panny, takže nikdy nemůže padnout orel, nebo dva orly, takže nikdy nemůže padnout panna. Vrh takovou mincí v sobě neobsahuje žádnou nejistotu, žádnou novou informaci, protože výsledek vrhu je předem známý, takže entropie je nulová.

Entropii lze normalizovat tím, že ji vydělíme délkou informace. Výsledný poměr se nazývá metrika entropie a je mírou náhodnosti informace.

Zdůvodnění

Pro pochopení významu -∑ pi log(pi), nejdříve definujeme informační funkci I pomocí události i s pravděpodobností pi. Množství informace získané pozorováním události i vyplývá z Shannonova řešení základních vlastností informace:[8]

  1. I(p) je monotonně klesající v p: zvýšení pravděpodobnosti události snižuje množství informace získané pozorováním události a naopak.
  2. I(p) ≥ 0: informace je nezáporná veličina.
  3. I(1) = 0: události, ke kterým dojde vždy, nepřinášejí žádnou informaci.
  4. I(p1 p2) = I(p1) + I(p2): informace nezávislých událostí je aditivní.

Klíčová je poslední vlastnost. Říká, že sdružená pravděpodobnost nezávislých zdrojů informace přináší stejné množství informace jako obě události samostatně. Speciálně jestliže první událost je jedním z n stejně pravděpodobných výsledků a druhá jedním z m stejně pravděpodobných výsledků, pak sdružená událost má mn možných výsledků. To znamená, že jestliže je potřeba log2(n) bitů pro zakódování první hodnoty a log2(m) bitů pro zakódování druhé, potřebujeme log2(mn) = log2(m) + log2(n) pro zakódování obou. Shannon objevil, že funkce pro určení množství informace, zachovávající tuto aditivitu, je logaritmická, tj.,

Jestliže je informační funkce, o které předpokládáme, že je dvakrát spojitě derivovatelná, dostáváme:

Tato diferenciální rovnice má k řešení pro jakékoli . Z podmínky 2. vyplývá, že k . lze zvolit ve tvaru pro , což je ekvivalentní s výběrem určitého základu logaritmu. Různé jednotky informace (bity pro binární logaritmus log2, naty pro přirozený logaritmus ln, bany pro desítkový logaritmus log10 atd.) jsou konstantní násobky jiného. Pokud například uvažujeme vrh poctivou mincí, hození panny dává log2(2) = 1 bit informace, což je přibližně 0,693 natů nebo 0,301 desítkových číslic. n vrhů přináší díky aditivitě n bitů informace, což je přibližně 0,693n natů nebo 0,301n desítkových číslic.

Pokud existuje rozdělení, u kterého událost i může nastat s pravděpodobností pi a provedeme N pokusů, při kterých výsledek i nastane ni = N pi krát, celkové množství přijaté informace je

.

Průměrné množství informace, kterou získáme z události je proto

Aspekty

Vztah k termodynamické entropii

Inspirace pro použití slova entropie v teorii informace pochází z podobnosti mezi Shannonovým vzorcem a velmi podobnými vzorci známými ze statistické mechaniky.

Nejobecnější vzorec pro termodynamickou entropii S termodynamického systému ve statistické termodynamice je Gibbsova entropie:

kde kB je Boltzmannova konstanta a pi je pravděpodobnost mikrostavu. Gibbsovu entropii definoval J. Willard Gibbs v roce 1878, krátce po publikaci díla Ludwiga Boltzmanna v roce 1872.[9]

Gibbsovu entropii lze použít téměř nezměněnou ve světě kvantové fyziky, kde dává von Neumannovu entropii, kterou zavedl John von Neumann v roce 1927:

kde ρ je matice hustoty kvantově mechanického systému a Tr je stopa matice.

Při každodenním praktickém používání není spojitost mezi informační entropií a termodynamickou entropií evidentní. Fyzici a chemici se spíše zajímají o změny entropie, protože systém se vyvíjí spontánně ze svých počátečních podmínek ve shodě s druhým zákonem termodynamiky, než o neměnné rozdělení pravděpodobnosti. Malá hodnota Boltzmannovy konstanty kB ukazuje, že změny S / kB i pro velmi malé množství látky v chemických a fyzikálních procesech reprezentuje entropii, která je extrémně velká v porovnání s čímkoli při kompresi dat nebo zpracování signálu. V klasické termodynamice je entropie definována pomocí makroskopických měření bez odkazů na nějaké rozdělení pravděpodobnosti, což je hlavním aspektem pro definici informační entropie.

Spojení mezi termodynamikou a tím, co nyní nazýváme teorie informace, si poprvé všiml Ludwig Boltzmann, který je vyjádřil svou proslulou rovnicí:

kde je termodynamická entropie určitého makroskopického stavu (definovaná termodynamickými parametry jako například teplotou, objemem, energií, atd.), W je počet mikroskopických stavů (různých kombinací částic v různých energetických stavech), které mohou dávat daný makroskopický stav a kB je Boltzmannova konstanta. Předpokládá se, že každý mikroskopický stav je stejně pravděpodobný, takže pravděpodobnost daného mikroskopického stavu je pi = 1/W. Pokud tyto pravděpodobnosti dosadíme do výše uvedeného výrazu pro Gibbsovu entropii (nebo ekvivalentně kB krát Shannonovu entropii), dostaneme Boltzmannovu rovnici. Použijeme-li termíny z teorie informace, je informační entropie systému rovna množství „chybějící“ informace potřebné pro určení mikroskopického stavu pro daný makroskopický stav.

V přístupu Edwina Thompsona Jaynese (1957) se na termodynamickou entropii, jak ji vysvětluje statistická mechanika, musí nahlížet jako na aplikaci Shannonovy teorie informace: termodynamická entropie se interpretuje jako množství další Shannonovy informace potřebné pro určení konkrétního mikroskopického stavu systému, který při popisu systému výhradně makroskopickými proměnnými klasické termodynamiky zůstává skrytý, přičemž konstanta úměrnosti je právě Boltzmannova konstanta. Dodáváním tepla do systému se zvyšuje jeho termodynamická entropie, protože se zvyšuje počet možných mikroskopických stavů systému, které jsou konzistentní s měřitelnou hodnotou své makroskopické proměnné, což způsobuje, že jakýkoli úplný popis stavu je komplikovanější. (Viz článek: Termodynamika maximální entropie). Maxwellův demon může (hypoteticky) snižovat termodynamickou entropii systému použitím informací o stavech jednotlivých molekul; ale jak ukázal v roce 1961 Rolf Landauer se svými spolupracovníky, aby démon sám fungoval, musí sám zvyšovat termodynamickou entropii v procesu, alespoň o množství Shannonovy informace, kterou potřebuje nejdřív získat a uložit; kvůli tomu se celková termodynamická entropie nesnižuje (což vysvětluje paradox). Landauerův princip určuje mimo jiné nejnižší množství tepla, které musí počítač vyprodukovat při zpracování určitého množství informací. Ani moderní počítače se k této efektivitě ani zdaleka neblíží.

Entropie jako informační obsah

Podrobnější informace naleznete v článku Shannonova věta o zdrojovém kódování.

Entropie je definovaná v kontextu pravděpodobnostního modelu. Nezávislý vrh poctivou mincí má entropii 1 bit na hod. Zdroj, které vždy generuje dlouhý řetězec znaků B má entropii 0, protože následující znak bude vždy 'B'.

Poměr entropie datového zdroje je průměrný počet bitů na symbol potřebných pro kódování tohoto zdroje. Shannonovy pokusy s lidmi jako prediktory ukazují, že anglický text má informační poměr 0,6 až 1,3 bitů na znak.[10] Komprimační algoritmus Prediction by partial matching (PPM) může na anglickém textu dosáhnout komprimačního poměru 1,5 bitu na znak.

V předchozím příkladě jsou důležité tyto body:

  1. Entropie vyjádřená v bitech nemusí být celé číslo.
  2. Mnoho bitů dat nenese žádné informace. Datové struktury často obsahují redundantní informace nebo mají identické části bez ohledu na to, jaké informace obsahují.

Pokud je Shannonova definice entropie aplikována na zdroj informace, může určovat minimální kapacitu kanálu nezbytnou pro spolehlivý přenos dat ze zdroje, pokud jsou zakódovány jako binární hodnoty (viz varování níže v kurzívě). Vzorec pro tuto kapacitu může být odvozen výpočtem matematického očekávání množství informace obsažené v každé číslici přenášených dat. Viz také Shannonova–Hartleyova věta.

Shannonova entropie měří informaci obsaženou ve zprávě jako protiklad k části zprávy, která je pevně určena (nebo předvídatelná). K dalším příkladům patří redundance ve struktuře jazyka nebo statistické vlastnosti týkající se frekvence výskytu dvojic, trojic, atd., písmen nebo slov. Viz Markovův řetězec.

Entropie jako míra rozmanitosti

Podrobnější informace naleznete v článku Index rozmanitosti.

Entropie je jedním ze způsobů, jak měřit rozmanitost. Konkrétně Shannonova entropie je logaritmus 1D, skutečný rozmanitost index s parametr rovné 1.

Komprese dat

Podrobnější informace naleznete v článku Komprimace dat.

Entropie efektivně limituje výkonnost nejsilnější bezztrátové komprimační metody, což lze teoreticky provést pomocí typické množiny nebo v praxi pomocí Huffmanova kódování, Lempel–Ziv nebo aritmetického kódování. Viz také Kolmogorovova složitost. V praxi komprimační algoritmy úmyslně zahrnují nějakou rozumnou redundanci ve formě kontrolního součtu pro zabezpečení proti chybám.

Světová technologická kapacita uložených a přenášených informací

Studie z roku 2011 v časopisu Science odhaduje světovou technologickou kapacitu pro uložení a přenos optimálně komprimovaných informací normalizovanou na nejefektivnější komprimační algoritmy dostupné v roce 2007, je vlastně odhadem entropie technologicky dostupný zdrojů.[11] :s.60–65

Hodnoty v entropicky komprimovaných exabytech
Typ Informace 1986 2007
Uložení 2,6 295
Vysílání 432 1900
Telekomunikace 0,281 65

Autoři odhadli technologickou kapacitu pro uložení (plně entropicky komprimovaných) informací, kterou má lidstvo k dispozici, v roce 1986 a 2007. Informace rozdělují do tří kategorií: objem datových médií, která byla k dispozici pro ukládání informací, množství informací předaných pomocí jednosměrných vysílacích sítí a výměnu informací pomocí obousměrných telekomunikační sítí.[11]

Omezení entropie jako informačního obsahu

Existuje několik dalších konceptů příbuzných entropii, které určitým způsobem matematicky kvantifikují informační obsah:

(pro určité posloupnosti zpráv nebo symbolů generované daným stochastickým procesem může také definovat „poměr vlastní informace“, který je vždy roven poměru entropie v případě stacionárního procesu.) Jiná množství informace se také používají pro porovnávání různých zdrojů informace.

Výše uvedené koncepty si nesmíme plést. Často je zřejmé pouze z kontextu, který koncept se myslí. Když například někdo říká, že „entropie“ angličtiny je asi 1 bit na znak, jedná se o modelování angličtiny jako stochastického procesu a mluví se o poměru entropie. I sám Shannon používal termín podobně.

Při použití velmi velkých bloků může být odhad entropie na jeden znak uměle nízký, protože rozdělení pravděpodobnosti posloupnosti není známo přesně; je to pouze odhad. Pokud bychom uvažovali text každé dosud publikované knihy jako posloupnost, a text celé knihy bychom považovali za symbol, a jestliže je celkem N publikovaných knih a každá kniha je publikovaná pouze jednou, odhad pravděpodobnosti každé knihy je 1/N a entropie (v bitech) je −log2(1/N) = log2(N). Jako praktický kód to odpovídá přiřazení jednoznačného identifikátoru každé knize a používat ho místo textu knihy, když se chceme odkázat na text knihy. To je mimořádně užitečné pro mluvení o knihách, ale není to tak užitečné pro charakterizaci informačního obsahu jednotlivých knih nebo jazyka obecně: z identifikátoru knihy nelze rekonstruovat obsah knihy bez znalosti rozdělení pravděpodobnosti, tj. úplného textu všech knih. Klíčovou myšlenkou je, že musíme uvažovat složitost pravděpodobnostního modelu. Kolmogorovova složitost je teoretické zobecnění této myšlenky, která umožňuje zvážení informačního obsahu posloupnosti nezávislý na jakýkoli určitý pravděpodobnost model; uvažuje nejkratší program pro univerzální počítač, který vytvoří požadovanou posloupnost. Kód, který dosahuje poměru entropie posloupnosti pro daný model, plus kódová kniha (tj. pravděpodobnostní model), je jedním takovým programem, ale nemusí být nejkratší.

Fibonacciho posloupnost je 1, 1, 2, 3, 5, 8, 13, .... pokud uvažujeme posloupnost jako zprávu a každé číslo jako symbol, existuje téměř stejně symbolů jako znaků ve zprávě, což dává entropii přibližně log2(n). Prvních 128 symbolů Fibonacciho posloupnost má entropii přibližně 7 bitů/symbol, ale posloupnost lze vyjádřit pomocí vzorce [F(n) = F(n−1) + F(n−2) pro n = 3, 4, 5, …, F(1) =1, F(2) = 1] a toto vzorec má mnohem nižší entropie a je použita na jakýkoli délka Fibonacciho posloupnosti.

Omezení entropie v kryptografii

V kryptoanalýze se entropie často používá jako přibližná míra nepředvídatelnosti kryptografického klíče, jehož reálná nejistota je neměřitelná. Například 128bitový klíč, který je rovnoměrně a náhodně generovaný, má entropii 128 bitů. Také je třeba (v průměru) pokusů pro prolomení šifry hrubou silou. Entropie však selhává, jestliže možné klíče nejsou voleny rovnoměrně.[12][13] Místo toho lze použít míru nazývanou guesswork pro změření úsilí potřebného pro útok hrubou silou.[14]

V kryptografii se mohou objevit další problémy při používání entropie kvůli nerovnoměrnému rozdělení. Například jednorázová šifra, která šifruje text pomocí funkce xor s miliónem binárních číslic. Pokud má tabulka entropii milión bitů, je šifrování dokonalé. Pokud má šifra entropii jen 999 999 bitů, rovnoměrně distribuovaný (každý jednotlivý bit jednorázového hesla má entropii 0,999999 bitů) může stále poskytovat dobrou bezpečnost. Ale jestliže jednorázové heslo má entropii 999 999 bitů, přičemž první bit je pevný a zbývajících 999 999 bitů je naprosto náhodných, první bit šifrového textu nebude vůbec zašifrovaný.

Data jako Markovův proces

Obvyklý způsob, jak definovat entropii textu, vychází z Markovova modelu textu. Pro zdroj 0. řádu (každý znak je vybraný nezávisle na posledních znacích) je binární entropie:

kde pi je pravděpodobnost i. Pro Markovův zdroj prvního řádu (zdroj, u něhož je pravděpodobnost výběru znak závislá pouze na předchozím znaku), je poměr entropie (anglicky entropy rate):

kde i je stav (anglicky state) (určitý předchozí znaky) a je pravděpodobnost j daný i jako předchozí znak.

Pro Markovův zdroj druhého řádu je poměr entropie

b-ární entropie

Obecně b-ární entropie zdroje = (S, P) se zdrojovou abecedou S = {a1, …, an} a diskrétním rozdělením pravděpodobnosti P = {p1, …, pn}, kde pi je pravděpodobnost ai (značíme pi = p(ai)) je definovaný vztahem:

Hodnota b v „b-ární entropie“ je počet různých symbolů ideální abecedy používané jako standardní měřítko pro měření zdrojové abecedy. V teorii informace je pro kódování informací nutné a postačující, aby abeceda obsahovala dva symboly. Proto implicitně pracujeme s b = 2 („binární entropie“). Entropie zdrojové abecedy spolu s daným empirickým rozdělením pravděpodobnosti je číslo rovné počtu (případně zlomkovému) symbolů „ideální abecedy“ s optimálním rozdělením pravděpodobnosti nezbytných pro kódování každého symbolu zdrojové abecedy. Přitom „optimální rozdělení pravděpodobnosti“ zde znamená rovnoměrné rozdělení: zdrojová abeceda s n symboly má nejvyšší možnou entropii (mezi abecedami s n symboly), je-li rozdělení pravděpodobnosti abecedy rovnoměrné. Ukazuje se, že tato optimální entropie je logb(n).

Efektivita

Zdrojová abeceda s nerovnoměrným rozdělením bude mít menší entropii, než kdyby její symboly měly rovnoměrné rozdělení („optimalizovaná abeceda“). Tento nedostatek entropie lze vyjádřit poměrem nazývaným efektivita:

Použitím základních vlastností logaritmu lze tuto hodnotu také vyjádřit jako:

Efektivita je vhodnou mírou pro využití komunikačního kanálu. Uvedená veličina se také označuje normalizovaná entropie, protože entropie je dělena maximální entropií . Efektivita je navíc nezávislá na volbě základu b, jak je ukázáno výše.

Charakterizace

Shannonova entropie je charakterizována malým počtem dále uvedených kritérií. Jakákoli definice entropie, která těmto kritériím vyhovuje, má tvar

kde K je konstanta, která závisí na volbě jednotek měření.

V dalším textu budeme psát pi = Pr(X = xi) a Ηn(p1, …, pn) = Η(X).

Spojitost

Míra musí být spojitá, takže změna hodnoty pravděpodobnosti o velmi malou hodnotu způsobí pouze malou změnu entropie.

Symetrie

Míra nesmí záviset na pořadí výsledků xi.

atd.

Maximální

Míra musí být maximální, jestliže všechny výsledky jsou stejně pravděpodobně (nejistota je nejvyšší, když všechny možné události mají stejnou pravděpodobnost).

Pro stejně pravděpodobné události se entropie musí zvyšovat s počtem výsledků.

Rozdělení, které má maximální diferenciální entropií pro spojité náhodné proměnné, je vícerozměrné normální rozdělení.

Aditivita

Velikost entropie musí být nezávislá na tom, jak je proces rozdělen do složek.

Tato poslední funkcionální podmínka charakterizuje entropii systému se subsystémy. Vyžaduje, aby entropii systému bylo možné spočítat z entropií jeho subsystémů, jestliže interakce mezi subsystémy jsou známé.

Je-li dán soubor n rovnoměrně distribuovaných prvků, které jsou rozděleny do k podsystémů, každý s b1, ..., bk prvky, entropie celého systému se musí rovnat sumě entropií jednotlivých podsystémů a entropií jednotlivých boxů, každý vážený s pravděpodobností, že je v příslušném podsystému.

Pro kladná celá čísla bi kde b1 + … + bk = n,

Pokud zvolíme k = n, b1 = … = bn = 1, z toto vyplývá, že entropie určitého výsledku je nulová: Η1(1) = 0. Z toho vyplývá, že efektivitu zdrojové abecedy s n symboly lze definovat jednoduše jako její n-ární entropii. Viz také Redundance (teorie informace).

Další vlastnosti

Shannonova entropie splňuje další vlastnosti; pro některé z nich je užitečné interpretovat entropii jako množství dodané informace (nebo odstraněné nejistoty), kterou přinese zjištění hodnoty náhodné proměnné X:

  • Přidání nebo odstranění události s nulovou pravděpodobností nepřispívá k entropii:
.
  • Entropie diskrétní náhodné proměnné je nezáporné číslo:
.[15]:s.15
[15].:s.29
Této maximální entropie logb(n) se efektivně dosáhne takovou zdrojovou abecedou, která má rovnoměrné rozdělení pravděpodobnosti: nejistota je maximální, když jsou všechny možné události stejně pravděpodobné.
  • Entropie nebo množství informace získané vyhodnocením (X,Y) (tj. vyhodnocování X a Y současně) se rovná informaci získané provedením dvou pokusů po sobě: nejdříve vyhodnotíme hodnotu Y, potom hodnotu X se znalostí hodnoty Y. To lze napsat jako
  • Pokud kde je funkce, pak . Použití předchozího vzorce na dává
takže , entropie jedné náhodné proměnné se může snížit pouze tehdy, když na druhou proměnnou aplikujeme nějakou funkci.
  • Pokud X a Y jsou dvě nezávislé náhodné proměnné, pak znalost hodnoty Y neovlivňuje naši znalost hodnoty X (protože tyto proměnné se vzájemně neovlivňují):
  • Entropie dvou současných událostí není větší než suma entropií každé z událostí, přičemž rovnost nastane, jsou-li události nezávislé. Konkrétněji, jestliže X a Y jsou dvě náhodné proměnné na stejném pravděpodobnostním prostoru a (X, Y) označuje jejich kartézský součin, pak
  • Entropie je konkávní v pravděpodobnostní funkci , tj.
pro všechny pravděpodobnostní hmotové funkce a [15].:s.32

Rozšíření diskrétní entropie na spojitý případ

Diferenciální entropie

Podrobnější informace naleznete v článku Diferenciální entropie.

Shannonova entropie je definována pouze pro náhodné proměnné nabývající diskrétních hodnot. Odpovídající vzorec pro spojitou náhodnou proměnnou s hustotou pravděpodobnosti f(x) s konečným nebo nekonečným nosičem na reálné ose je možné definovat analogicky použitím výše uvedeného tvaru entropie jako střední hodnoty:

Tato veličina se obvykle nazývá spojitá entropie nebo diferenciální entropie. Předchůdcem spojité entropie h[f] je výraz pro funkcionál Η v Boltzmannově H-větě.

Přestože analogie mezi oběma funkcemi je sugestivní, je třeba položit otázku, zda je diferenciální entropie povoleným rozšířením Shannonovy diskrétní entropie. Diferenciální entropie postrádá některé vlastnosti Shannonovy diskrétní entropie – může být mimo jiné záporná – proto byly doporučovány opravy, především omezující hustota diskrétních bodů.

Aby bylo možné odpovědět na tuto otázku, je nutné ukázat spojení mezi těmito dvěma funkcemi:

Pro získání obecně konečné míry, když se velikost intervalů, na které je rozsah hodnot rozdělen, blíží k nule. V diskrétním případě je velikost intervalu (implicitní) šířkou každého z n (konečných nebo nekonečných) intervalů, jejíchž pravděpodobnosti jsou označeny pn. Když uvažujeme rozšíření na spojitý případ, šířka intervalu musí být stanovena explicitně.

Vyjdeme od spojité funkce f diskretizované na intervaly velikosti . Podle věty o střední hodnotě existuje hodnota xi v každém intervalu tak, že

integrál funkce f lze aproximovat (v Riemannovském smyslu) jako

kde tato limita odpovídá tomu, že „velikost intervalu se blíží k nule“.

Označíme

a rozepsáním logaritmu dostáváme

Pro Δ → 0 máme

Pamatujte, že log(Δ) → −∞ pro Δ → 0, vyžaduje speciální definici diferenciální nebo spojité entropie:

čemuž říkáme, jak již bylo řečeno, diferenciální entropie. To znamená, že diferenciální entropie není limitou Shannonovy entropie pro n → ∞. Naopak, liší se od limity Shannonovy entropie o nekonečné posunutí (viz také článek informační rozměr).

Omezení hustoty diskrétních bodů

Podrobnější informace naleznete v článku Omezení hustoty diskrétních bodů.

Ukazuje se, že diferenciální entropie, na rozdíl od Shannonovy entropie, obecně není dobrou mírou nejistoty nebo informace. Diferenciální entropie může být například záporná; také není invariantní vůči spojité transformaci souřadnic. Tento problém může být ilustrován změnou jednotek, pokud by x byla veličina, která má fyzikální rozměr. f(x) pak bude mít rozměr 1/x. Argument logaritmu musí být bezrozměrný, jinak je nevlastní, takže diferenciální entropie definovaná výše bude nevlastní. Pokud Δ je nějaká „standardní“ hodnota x (tj. „velikost intervalu“) a proto má stejný rozměr, pak lze modifikovanou diferenciální entropii zapsat v patřičném tvaru jako:

Přičemž výsledek bude stejný pro jakoukoli volbu jednotek veličiny x. Totiž limita diskrétní entropie pro by také obsahovala člen , který by obecně byl nekonečný. To se dalo očekávat, protože po změně spojitých proměnných na diskrétní obvykle vyjde entropie nekonečná. Omezující hustota diskrétních bodů je skutečně mírou, o kolik snazší je popsat nějaké rozdělení než rozdělení, které je rovnoměrně přes své kvantizační schéma.

Relativní entropie

Podrobnější informace naleznete v článku Zobecněná relativní entropie.

Další užitečnou mírou entropie, která funguje stejně dobře pro diskrétní i spojitý případ, je relativní entropie rozdělení. Je definovaná jako Kullbackova–Leiblerova divergence z rozdělení na reference míra m takto. Předpokládejme, že rozdělení pravděpodobnosti p je absolutně spojité vzhledem k míře m, tj. má tvar p(dx) = f(x)m(dx) pro nějakou nezápornou m-integrovatelnou funkci f s m-integrálem 1, pak lze relativní entropii definovat jako

V tomto tvaru relativní entropie zobecňuje (až na změnu znaménka) jak diskrétní entropii, kde míra m je počítací míra, tak diferenciální entropii, kde míra m je Lebesgueova míra. Pokud míra m je samotné rozdělení pravděpodobnosti, relativní entropie je nezáporná, a je nulová, jestliže p = m jako míry. Je definována pro jakýkoli prostor s mírou, je tedy nezávislá na volbě souřadnic a invariantní vůči změně souřadnic, jestliže správně bereme v úvahu transformaci míry m. Relativní entropie a implicitně entropie a diferenciální entropie, závisí na „referenční“ míře m.

Použití v kombinatorice

Entropie se stala užitečnou veličinou v kombinatorice.

Loomisova–Whitneyova nerovnost

Jejím jednoduchým příkladem je alternativní důkaz Loomisovy–Whitneyovy nerovnosti: pro každou podmnožinu AZd, máme

kde Pi je ortogonální projekce v i-té souřadnici:

Důkaz je jednoduchým důsledkem Shearerovy nerovnosti:, jestliže X1, …, Xd jsou náhodné proměnné a S1, …, Sn jsou podmnožiny množiny {1, …, d} takové, že každé celé číslo mezi 1 a d leží přesně v r těchto podmnožinách, pak

kde je kartézský součin náhodné proměnné Xj s indexy j v Si (takže rozměry tohoto vektoru se rovnají velikosti Si).

Načrtneme, jak z uvedeného vyplývá Loomisova–Whitneyova nerovnost: Nechť X je rovnoměrně distribuovaná náhodná proměnná s hodnotami v A, takže každá hodnota A má stejnou pravděpodobnost. Pak (z dalších vlastností entropie zmíněných výše) , kde označuje mohutnost množiny . Nechť Si = {1, 2, …, i−1, i+1, …, d}. Hodnoty jsou obsaženy v Pi(A), a tedy . To nyní použijeme pro omezení pravé strany Shearerovy nerovnosti a aplikujeme exponenciální funkci na obě strany výsledné nerovnosti.

Aproximace binomickým koeficientem

Pro celá čísla 0 < k < n položíme q = k/n. Pak

kde

[16]:s.43

Zde je náčrt důkazu. Uvědomíme si, že je jeden člen výrazu

Přeskupení dává horní mez. Pro dolní mez musíme nejdřív ukázat pomocí nějaké algebry, že se jedná o největší člen v sumě. Ale pak,

protože suma má n + 1 členů. Přeskupení dává dolní mez.

Hezkým důsledkem je, že počet binárních řetězců délky n, které obsahují přesně k jedniček, je přibližně .[17]

Odkazy

Reference

V tomto článku byl použit překlad textu z článku Entropy (information theory) na anglické Wikipedii.

  1. PATHRIA, R. K.; BEALE, Paul. Statistical Mechanics. 3. vyd. [s.l.]: Academic Press, 2011. Dostupné online. ISBN 978-0123821881. S. 51. 
  2. SHANNON, Claude E. A Mathematical Theory of Communication. Bell System Technical Journal. Červenec–říjen 1948, roč. 27, čís. 3, s. 379–423. Dostupné online. DOI 10.1002/j.1538-7305.1948.tb01338.x.  (PDF, archivováno z původního zdroje)
  3. SHANNON, Claude E. A Mathematical Theory of Communication. Bell System Technical Journal. 1948, roč. 27, čís. 3, s. 379–423. Dostupné online. DOI 10.1002/j.1538-7305.1948.tb01338.x. , červenec a říjen
  4. SCHNEIER, B. Applied Cryptography. 2. vyd. [s.l.]: John Wiley and Sons, 1996. Dostupné online. 
  5. BORDA, Monica. Fundamentals in Information Theory and Coding. [s.l.]: Springer, 2011. Dostupné online. ISBN 978-3-642-20346-6. 
  6. Mathematics of Information and Coding. [s.l.]: American Mathematical Society, 2002. Dostupné online. ISBN 978-0-8218-4256-0. 
  7. SCHNEIDER, T.D. Information theory primer with an appendix on logarithms [online]. National Cancer Institute, 2007-04-14. Dostupné online. [nedostupný zdroj]
  8. CARTER, Tom. An introduction to information theory and entropy. Santa Fe: [s.n.], březen 2014. Dostupné online. 
  9. Srovnejte: Boltzmann, Ludwig (1896, 1898). Vorlesungen über Gastheorie : 2 Volumes – Lipsko 1895/98 UB: O 5262-6. anglická verze: Lectures on gas theory. Překlad Stephen G. Brush (1964) Berkeley: University of California Press; (1995) New York: Dover ISBN 0-486-68455-5
  10. Mark Nelson. The Hutter Prize [online]. 2006-08-24 [cit. 2008-11-27]. Dostupné v archivu pořízeném dne 2018-03-01. 
  11. a b "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert a Priscila López (2011), Science, 332(6025); volný přístup k článku: [martinhilbert.net/WorldInfoCapacity.html]
  12. MASSEY, James. Guessing and Entropy. In: Proc. IEEE International Symposium on Information Theory. [s.l.]: [s.n.], 1994. Dostupné online.
  13. MALONE, David; SULLIVAN, Wayne. Guesswork is not a Substitute for Entropy. In: Proceedings of the Information Technology & Telecommunications Conference. [s.l.]: [s.n.], 2005. Dostupné online.
  14. PLIAM, John. Guesswork and variation distance as measures of cipher security. In: International Workshop on Selected Areas in Cryptography. [s.l.]: [s.n.], 1999. DOI 10.1007/3-540-46513-8_5.
  15. a b c Elements of Information Theory. Hoboken, New Jersey: Wiley, 2006-07-18. Dostupné online. ISBN 978-0-471-24195-9. 
  16. Aoki, New Approaches to Macroeconomic Modeling.
  17. Probability and Computing, M. Mitzenmacher and E. Upfal, Cambridge University Press

Tento článek obsahuje informace z článku Shannon's entropy z encyklopedie PlanetMath, jejíž licence je podobná licencím Creative Commons Attribution/Share-Alike.

Související články

Literatura

Externí odkazy

Read other articles:

Gempa bumi besar Jawa Tengah 1867Kerusakan pada Candi SewuTampilkan peta JawaTampilkan peta Jawa TengahWaktu setempat04:20 WIBLama70 detikKekuatan7.8 MwKedalaman80 km (50 mi)Episentrum8°42′S 110°36′E / 8.7°S 110.6°E / -8.7; 110.6Koordinat: 8°42′S 110°36′E / 8.7°S 110.6°E / -8.7; 110.6JenisIntraslabWilayah bencanaDI Yogyakarta,Jawa Tengah, Jawa TimurHindia BelandaIntensitas maks.X (Ekstrem)TsunamiTidakLandslidesBany...

 

 

Satyalancana Wira DharmaTipeSatyalancanaNegara IndonesiaDipersembahkan olehPresiden IndonesiaSyaratMiliterStatusMasih dianugerahkanDidirikan1964 Diploma Satya Lancana Wira Dharma berdasarkan PP No. 17 Tahun 1964 Satyalancana Wira Dharma berdasarkan PP No. 17 Tahun 1964 Satyalancana Wira Dharma adalah tanda penghargaan yang diberikan kepada prajurit Tentara Nasional Indonesia yang bertugas dan mendarmabaktikan diri untuk pengamanan perbatasan Negara Kesatuan Republik Indonesia, selama min...

 

 

本條目存在以下問題,請協助改善本條目或在討論頁針對議題發表看法。 此條目需要补充更多来源。 (2018年3月17日)请协助補充多方面可靠来源以改善这篇条目,无法查证的内容可能會因為异议提出而被移除。致使用者:请搜索一下条目的标题(来源搜索:羅生門 (電影) — 网页、新闻、书籍、学术、图像),以检查网络上是否存在该主题的更多可靠来源(判定指引)。 �...

Santiago de CaliCali. BenderaLambangJulukan: Bagian dari SurgaLokasi kota Kali di provinsi Valle del Cauca.AreaArea Pasifik (Kolombia)DepartemenDepartemen Valle del CaucaTanggal peresmian25 Juli, 1536Pemerintahan • WalikotaJorge Iván OspinaLuas • Kota619 km2 (239 sq mi)Ketinggian1,018 m (3,340 ft ft)Populasi (2018)[1] • Kota2.227.642 • Kepadatan4.372/km2 (11,320/sq mi) • Metropolitan3....

 

 

Nadila WantariLahirNadila Cindi Wantari23 September 1998 (umur 25)Bogor, Jawa Barat, IndonesiaKebangsaanIndonesiaNama lainNadila WantariPekerjaanPenyanyiAktrisPresenterPenariModelTahun aktif2012 - sekarangKarier musikGenreJ-PopInstrumenVokalLabelJKT48 ProjectHits RecordsArtis terkaitJKT48Mantan anggotaJKT48 (2012-2021)JKT48 Akustik (2017-2021)Situs webhttp://www.jkt48.com/ Nadila Cindi Wantari (lahir 23 September 1998) atau yang dikenal sebagai Nadila Wantari, sebelumnya diken...

 

 

1987 single by Tina TurnerBreak Every RuleSingle by Tina Turnerfrom the album Break Every Rule B-sideTake Me to the RiverReleasedApril 1987[1]Recorded1986GenrePop rockLength4:02LabelCapitolSongwriter(s) Rupert Hine Jeannette Obstoj Producer(s)Rupert HineTina Turner singles chronology What You Get Is What You See (1987) Break Every Rule (1987) Tearing Us Apart (1987) Music videoBreak Every Rule on YouTube Break Every Rule is a song by recording artist Tina Turner. It was the title trac...

Bilateral relations between South Korea and Japan Bilateral relationsJapan–South Korea relations Japan South Korea Diplomatic missionJapanese Embassy, SeoulSouth Korean Embassy, Tokyo [ko]EnvoyAmbassador Koichi AiboshiAmbassador Nam Gwan-pyo [ko] Japan–South Korea relations (Japanese: 日韓関係, romanized: Nikkan kankei; Korean: 한일관계; RR: Han-il gwan-gye) refers to the diplomatic relations between Japan and the Republic of Ko...

 

 

Italo Svevo Italo Svevo, pseudonimo di Aron Hector Schmitz (Trieste, 19 dicembre 1861 – Motta di Livenza, 13 settembre 1928), è stato uno scrittore e drammaturgo italiano. Cresciuto in un contesto mitteleuropeo, ha tratto il suo pseudonimo dalle due culture, italiana e tedesca, che formarono la sua educazione.[1] Impiegato di banca, attività a cui fu costretto per motivi economici, iniziò a cimentarsi con la scrittura in articoli e racconti. Nel 1892 scrisse il suo primo romanzo,...

 

 

Election in Virginia Main article: 1960 United States presidential election 1960 United States presidential election in Virginia ← 1956 November 8, 1960 1964 →   Nominee Richard Nixon John F. Kennedy Party Republican Democratic Home state California Massachusetts Running mate Henry Cabot Lodge Jr. Lyndon B. Johnson Electoral vote 12 0 Popular vote 404,521 362,327 Percentage 52.44% 46.97% County and Independent City Results Nixon   40-50...

此条目序言章节没有充分总结全文内容要点。 (2019年3月21日)请考虑扩充序言,清晰概述条目所有重點。请在条目的讨论页讨论此问题。 哈萨克斯坦總統哈薩克總統旗現任Қасым-Жомарт Кемелұлы Тоқаев卡瑟姆若马尔特·托卡耶夫自2019年3月20日在任任期7年首任努尔苏丹·纳扎尔巴耶夫设立1990年4月24日(哈薩克蘇維埃社會主義共和國總統) 哈萨克斯坦 哈萨克斯坦政府...

 

 

本條目存在以下問題,請協助改善本條目或在討論頁針對議題發表看法。 此條目需要編修,以確保文法、用詞、语气、格式、標點等使用恰当。 (2013年8月6日)請按照校對指引,幫助编辑這個條目。(幫助、討論) 此條目剧情、虛構用語或人物介紹过长过细,需清理无关故事主轴的细节、用語和角色介紹。 (2020年10月6日)劇情、用語和人物介紹都只是用於了解故事主軸,輔助�...

 

 

См. также: Присоединение Прибалтики к СССР Присоединение Литвы к СССР — политический процесс в истории Литвы, приведший Литовскую Республику к включению её в состав СССР. Период нахождения республики в составе СССР самой Литвой, странами Балтии и многими другими стра...

Cover of vocal selections The Mountaineers is an English romantic comic opera in three acts with a libretto by Guy Eden and Reginald Somerville (1867–1948), lyrics by Eden and music by Somerville. The story concerns Clarice, who challenges her two suitors to retrieve an edelweiss for her from the highest peak. The opera opened at the Savoy Theatre in London on 29 September 1909, under the management of C. H. Workman, and ran for a total of 61 performances, after some additions were made by ...

 

 

Artikel ini tidak memiliki referensi atau sumber tepercaya sehingga isinya tidak bisa dipastikan. Tolong bantu perbaiki artikel ini dengan menambahkan referensi yang layak. Tulisan tanpa sumber dapat dipertanyakan dan dihapus sewaktu-waktu.Cari sumber: Beatbox – berita · surat kabar · buku · cendekiawan · JSTOR Beatboxing (4:26) Seorang beatboxer mendemonstrasikan berbagai varietas. Bermasalah memainkan berkas ini? Lihat bantuan media. Beatbox adalah s...

 

 

Former Welsh rugby union player/current coach This article includes a list of general references, but it lacks sufficient corresponding inline citations. Please help to improve this article by introducing more precise citations. (February 2009) (Learn how and when to remove this message) Rugby playerDarren MorrisDate of birth (1974-09-24) 24 September 1974 (age 49)Place of birthAberdare, WalesHeight6 ft 1 in (1.85 m)Weight19 st 2 lb (122 kg)Rugby union caree...

PT DjarumJenisKeluargaIndustriTembakauKonglomeratDidirikan21 April 1951; 73 tahun lalu (1951-04-21)PendiriOei Wie GwanKantorpusatKudus, IndonesiaTokohkunciRobert Budi HartonoMichael Bambang HartonoProdukKretekPerbankanRitelElektronikaProduk-produk perkebunanTeknologiLokapasarPariwisata dan layanan akomodasiMediaMakanan dan minumanPemilikRobert Budi Hartono Michael Bambang HartonoKaryawan75.000AnakusahaPT Sumber Cipta MultiniagaPT Stevania Ultras TobaccoPT Intertobacco Utama IndustryPT T...

 

 

Pour les articles homonymes, voir M5. 3 inch Gun M5 Un M5 exposé à Fort Sam Houston, au Texas. Présentation Pays États-Unis Type Canon anti-char Durée de service 1942-1945 Production 2500 Poids et dimensions Masse (non chargé) 2 633,00 kg Masse (chargé) 2 639,94 kg Longueur(s) 7,1 m Longueur du canon 4,023 m Caractéristiques techniques Portée maximale 14,7 km Portée pratique 1 830 m Cadence de tir 12 tirs par minute modifier  Le 3 inch Gun M5 est un canon antichar développé ...

 

 

Egyptian botanist (1921–2012) For the Lebanese footballer, see Mohammad Kassas. Mohamed Al-Kassas (1980) Dr. Mohamed Abdel Fattah Al-Kassas (also known as Mohamed Kassas, 6 July 1921[1] – 21 March 2012) was an Egyptian botanist and conservationist.[2] He was professor emeritus for Botany at the University of Cairo[1] and a specialist in Arid land Ecology. He studied at the University of Cairo, where he received a B.Sc. in 1944 and a M.Sc. in 1947, and at the Univer...

Technique used in signal processing and data compression This article may misquote or misrepresent many of its sources. Please see the cleanup page for more information. Editors: please remove this warning only after the diffs listed [[Wikipedia talk:Requests for comment/Jagged 85/{{{subpage}}}|here]] have been checked for accuracy. (July 2022) A discrete cosine transform (DCT) expresses a finite sequence of data points in terms of a sum of cosine functions oscillating at different frequencie...

 

 

法学院(知识产权学院)School of Law(School of Intellectual Property)法学院院徽类型公立建立日期法学专业:1993年法学院:2004年7月知识产权学院:2004年12月隶属华南理工大学院长蒋悟真党委书记朱文建教师数61人学生数全日制:1,071人在职硕士生:300余人地址 中国广东省广州市广州大学城华南理工大学大学城校区B9栋网站官方网站 华南理工大学法学院(知识产权学院),简称华...