Теорія інформації вивчає передавання, обробку, виділяння та використання інформації. Абстрактно інформацію можливо розглядати як розв'язання невизначеності. У випадку передавання інформації зашумленим каналом це абстрактне поняття формалізував 1948 року Клод Шеннон у статті під назвою «Математична теорія зв'язку», в якій інформацію розглянуто як набір можливих повідомлень, а метою є передавання цих повідомлень зашумленим каналом, щоби приймач міг відтворити повідомлення з низькою ймовірністю помилки, незважаючи на шум каналу. Головний результат Шеннона, теорема про кодування для зашумленого каналу(інші мови), показав, що за великої кількості використань каналу швидкість передачі інформації, яка асимптотично досяжна, дорівнює пропускній спроможності каналу, величині, яка залежить лише від статистичних характеристик каналу, яким передають повідомлення.[7]
Теорія кодування займається пошуком конкретних методів, званих кодами (англ.codes), для підвищення ефективності та зниження рівня помилок при передаванні даних зашумленими каналами, з наближенням до пропускної спроможності каналу. Ці коди можливо умовно поділити на методи стискання даних (кодування джерела) та виправляння помилок (кодування каналу). У випадку останнього знадобилося багато років, щоби знайти методи, можливість яких довів Шеннон.[джерело?]
Знаковою подією, що заклала основу дисципліни теорії інформації та привернула до неї негайну світову увагу, стала публікація класичної статті Клода Е. Шеннона «Математична теорія зв'язку» в Bell System Technical Journal(інші мови) у липні та жовтні 1948 року. Історик Джеймс Ґлік(інші мови) оцінив цю статтю як найважливіше досягнення 1948 року, вище за транзистор, зазначивши, що ця праця була «навіть глибшою й фундаментальнішою» за транзистор.[22] Шеннон став відомим як «батько теорії інформації».[23][24][25] Він викладав деякі зі своїх початкових ідей щодо теорії інформації ще 1939 року в листі до Веннівера Буша.[25]
До цієї статті обмежені інформаційно-теоретичні ідеї розробили в Bell Labs, при цьому всі вони неявно виходили з однакової ймовірності подій. У своїй статті 1924 року «Деякі чинники, які впливають на швидкість телеграфу» (англ.Certain Factors Affecting Telegraph Speed) Гаррі Найквіст помістив теоретичний розділ, де кількісно визначив «відомості» (англ."intelligence") та «швидкість лінії» (англ."line speed"), з якою їх можливо передавати комунікаційною системою, встановивши співвідношення W = K log m (що нагадує сталу Больцмана), де W — швидкість передачі відомостей, m — кількість різних рівнів напруги, з яких можна обирати на кожному часовому кроці, а K — стала. Стаття Ральфа Гартлі 1928 року «Передавання інформації» (англ.Transmission of Information) використовує термін інформація (англ.information) як вимірювану величину, що відображає здатність приймача розрізняти одну послідовність символів з будь-якими іншими, тим самим кількісно визначаючи інформацію як H = log Sn = n log S, де S — кількість можливих символів, а n — кількість символів у передаванні. Отже, одиницею інформації була десяткова цифра, яку згодом іноді називали гартлі на його честь як одиницю, шкалу або міру інформації. 1940 року Алан Тюрінг використав подібні ідеї як частину статистичного аналізу для розшифровки німецьких шифрів «Енігми» під час Другої світової війни.[джерело?]
У революційній і новаторській статті Шеннона, роботу над якою було значною мірою завершено в Bell Labs до кінця 1944 року, Шеннон уперше представив якісну та кількісну модель зв'язку як статистичний процес, що лежить в основі теорії інформації, розпочавши з твердження:
Основна задача зв'язку полягає в тому, щоби відтворити в одній точці, точно або приблизно, повідомлення, вибране в іншій точці.
Оригінальний текст (англ.)
The fundamental problem of communication is that of reproducing at one point, either exactly or approximately, a message selected at another point.
взаємної інформації та пропускної спроможності зашумленого каналу, включно з обіцянкою бездоганної передачі без втрат, яку дає теорема про кодування для зашумленого каналу;
біта — нового способу бачення найфундаментальнішої одиниці інформації.[джерело?]
Кількості інформації
Цей розділ не містить посилань на джерела. Ви можете допомогти поліпшити цей розділ, додавши посилання на надійні (авторитетні) джерела. Матеріал без джерел може бути піддано сумніву та вилучено.(листопад 2024)
Теорія інформації ґрунтується на теорії ймовірностей та статистиці, де кількісно виражену інформацію зазвичай описують у бітах. Теорія інформації часто займається вимірюванням інформації в розподілах, пов'язаних із випадковими величинами. Однією з найважливіших мір є ентропія, що є основою для багатьох інших мір. Ентропія дозволяє кількісно виразити міру інформації в окремій випадковій величині.[26] Іншим корисним поняттям є взаємна інформація, визначена для двох випадкових величин, яка описує міру інформації, спільної між цими величинами, що можливо використовувати для опису їхньої кореляції. Перша величина є властивістю розподілу ймовірності випадкової величини й визначає границю швидкості, з якою дані, породжені незалежними зразками із заданим розподілом, можливо надійно стиснути. Друга є властивістю спільного розподілу двох випадкових величин і є максимальною швидкістю надійного передавання зашумленим каналом в границі довжин блоків, коли статистика каналу визначається цим спільним розподілом.
де pi — ймовірність трапляння i-того можливого значення символу джерела. Це рівняння дає ентропію в одиницях «біт» (на символ), оскільки воно використовує логарифм з основою 2, і таку міру ентропії на основі логарифму за основою 2 іноді називають шенноном на його честь. Ентропію також часто обчислюють, використовуючи натуральний логарифм (з основою e, де e — число Ейлера), що дає вимірювання ентропії в натах на символ й іноді спрощує аналіз, усуваючи потребу в додаткових сталих у формулах. Можливі й інші основи, хоча їх використовують рідше. Наприклад, логарифм з основою 28 = 256 дає вимірювання в байтах на символ, а логарифм з основою 10 — у десяткових цифрах (або гартлі) на символ.
Інтуїтивно, ентропія HX дискретної випадкової величини X є мірою невизначеності (англ.uncertainty), пов'язаної зі значенням X, коли відомий лише її розподіл.
Ентропія джерела, яке видає послідовність з N символів, які незалежні й однаково розподілені (н. о. р.), дорівнює N ⋅ H біт (на повідомлення з N символів). Якщо символи даних джерела однаково розподілені, але не незалежні, ентропія повідомлення довжиною N буде меншою за N ⋅ H.
Якщо передати 1000 бітів (нулів та одиниць), але значення кожного з цих бітів відоме приймачу (має певне значення з упевненістю) ще до передачі, то очевидно, що жодної інформації не передано. Якщо ж кожен біт незалежно й однаково правдоподібно може бути 0 або 1, то передано 1000 шеннонів інформації (частіше званих бітами). Між цими двома крайнощами інформацію можливо кількісно виразити наступним чином. Якщо — множина всіх повідомлень {x1, ..., xn}, якими може бути X, а p(x) — імовірність деякого , то ентропію H величини X визначають як[27]
(Тут I(x) — власна інформація, що є внеском ентропії окремого повідомлення, а — математичне сподівання.) Однією з властивостей ентропії є те, що вона максимізується, коли всі повідомлення у просторі повідомлень рівноймовірні, тобто p(x) = 1/n, тобто найнепередбачуваніші, й у такому випадку H(X) = log n.
Особливий випадок інформаційної ентропії для випадкової величини з двома можливими результатами — функція бінарної ентропії, зазвичай з логарифмом за основою 2, що відтак має одиницею шеннон (Sh):
Спільна ентропія
Спільна ентропія (англ.joint entropy) двох дискретних випадкових величин X та Y — це просто ентропія їхньої двійки: (X, Y). Це означає, що якщо X та Yнезалежні, то їхня спільна ентропія дорівнює сумі їхніх окремих ентропій.
Наприклад, якщо (X, Y) подає положення шахової фігури — X це рядок, а Y це стовпець, то спільна ентропія рядка та стовпця фігури буде ентропією її положення.
Попри схожість позначень, спільну ентропію не слід плутати з перехресною ентропією (англ.cross-entropy).
Умовна ентропія (неоднозначність)
Умовна ентропія (англ.conditional entropy) або умовна невизначеність (англ.conditional uncertainty) величини X за заданої випадкової величини Y (також звана неоднозначністю[28]X щодо Y, англ.equivocation) — це усереднена умовна ентропія за Y:[29]
Оскільки ентропія може бути обумовлена випадковою величиною (загальна умовна ентропія) або конкретним значенням цієї випадкової величини (часткова умовна ентропія),[30][31] слід бути уважними, щоби не плутати ці два визначення умовної ентропії, перше з яких є поширенішим. Основною властивістю цієї форми умовної ентропії є те, що
Взаємна інформація (трансінформація)
Взаємна інформація (англ.mutual information) вимірює кількість інформації про одну випадкову величину, яку можливо отримати, спостерігаючи іншу. Вона важлива в комунікаціях, де її можливо використовувати для максимізування кількості спільної інформації між передаваним та отримуваним сигналами. Взаємну інформацію X відносно Y визначають як
Іншими словами, це міра того, наскільки в середньому зміниться розподіл імовірності X, якщо задано значення Y. Її часто переобчислюють як розходження добутку відособлених розподілів зі справжнім спільним розподілом:
Розходження Кульбака — Лейблера (англ.Kullback–Leibler divergence, або розходження інформації, англ.information divergence, приріст інформації, англ.information gain, чи відносна ентропія, англ.relative entropy) — це спосіб порівняння двох розподілів: «істинного» розподілу ймовірності та довільного розподілу . Якщо ми стискаємо дані, вважаючи, що їхній розподіл це , тоді як насправді правильний розподіл це , розходження Кульбака–Лейблера визначає середню кількість додаткових бітів на дані, необхідних для стискання. Його відтак визначають як
Хоча іноді його й використовують як «метрику відстані», КЛ-розходження не є справжньою метрикою, оскільки воно не симетричне й не задовольняє нерівність трикутника (що робить його напів-квазиметрикою).
Іншим тлумаченням КЛ-розходження є «зайва несподіваність» (англ."unnecessary surprise"), створювана апріорним розподілом у порівнянні з істинним: припустімо, що число X буде випадковим чином обрано з дискретної множини з розподілом ймовірності . Якщо Аліса знає істинний розподіл , а Боб вважає (має апріорне переконання), що цим розподілом є , то для Боба побачене значення X у середньому буде більш несподіваним, аніж для Аліси. КЛ-розходження є (об'єктивним) очікуваним значенням (суб'єктивної) несподіваності для Боба, мінус несподіваність для Аліси, виміряним у бітах, якщо логарифм взято за основою 2. Таким чином, міру того, наскільки «помилковим» є апріорне переконання Боба, можливо кількісно виразити у вигляді очікуваної «зайвої несподіваності» для нього.
Спрямована інформація
Спрямована інформація(інші мови) (англ.directed Information) — це міра в теорії інформації, що кількісно визначає інформаційний потік від випадкового процесу до випадкового процесу . Термін спрямована інформація запровадив Джеймс Мессі, її визначено як
Цей розділ не містить посилань на джерела. Ви можете допомогти поліпшити цей розділ, додавши посилання на надійні (авторитетні) джерела. Матеріал без джерел може бути піддано сумніву та вилучено.(листопад 2024)
Теорія кодування — одне з найважливіших і найбезпосередніших застосувань теорії інформації. Її можливо поділити на теорію кодування джерела та теорію кодування каналу. Використовуючи статистичний опис даних, теорія інформації визначає кількість бітів, необхідних для опису даних, що є інформаційною ентропією джерела.
Стиснення даних (кодування джерела): для задачі стиснення існують дві постановки:
Коди з виправлянням помилок (кодування каналу): тоді як стиснення даних усуває якомога більше надмірності, код з виправлянням помилок додає саме ту надмірність (тобто виправляння помилок), яка необхідна для ефективного й надійного передавання даних зашумленим каналом.
Цей поділ теорії кодування на стиснення й передавання обґрунтовано теоремами про передавання інформації, або теоремами про розділення джерела й каналу, які підтверджують використання бітів як універсальної валюти для інформації в багатьох контекстах. Проте ці теореми справедливі лише в ситуаціях, коли один передавач прагне спілкуватися з одним приймачем. У випадках, коли є понад одного передавача (канал із множинним доступом), понад одного приймача (канал мовлення) або проміжні «помічники» (ретрансляційний канал(інші мови), англ.relay channel), чи для загальніших мереж, стиснення з подальшим передавання може вже не бути оптимальним.
Теорія джерела
Будь-який процес, що породжує послідовні повідомлення, можливо розглядати як джерело (англ.source) інформації. Джерело без пам'яті (англ.memoryless) — це таке джерело, в якому кожне повідомлення — незалежна й однаково розподілена випадкова величина, тоді як властивості ергодичності та стаціонарності накладають менш жорсткі обмеження. Усі такі джерела стохастичні. Ці терміни добре вивчені й поза межами теорії інформації.
Швидкість
Інформаційна швидкість (англ.rate) — це усереднена ентропія на символ. Для джерел без пам'яті це просто ентропія кожного символу, тоді як у випадку стаціонарного стохастичного процесу це
тобто умовна ентропія символу за заданих всіх попередньо породжених символів. Для загальнішого випадку не обов'язково стаціонарного процесу середня швидкість (англ.average rate) це
тобто границя спільної ентропії на символ. Для стаціонарних джерел ці два вирази дають однаковий результат.[40]
У теорії інформації часто говорять про «швидкість» або «ентропію» мови. Це доречно, наприклад, коли джерело інформації — англомовна проза. Швидкість джерела інформації пов'язана з його надмірністю та можливістю стиснення, що є предметом кодування джерела.
Передавання інформації каналом — основний мотив теорії інформації. Проте канали часто не забезпечують точного відтворення сигналу; його якість часто можуть знижувати шум, періоди тиші та інші форми спотворення сигналу.
Розгляньмо процес передавання дискретним каналом. Просту модель процесу подано нижче:
Тут X подає простір передаваних повідомлень, а Y — простір отримуваних повідомлень за одиницю часу нашим каналом. Нехай p(y|x) — умовна ймовірністьY за заданого X. Розгляньмо p(y|x) як притаманну незмінну властивість нашого каналу (що відображає природу його шуму). Тоді спільний розподіл X та Y повністю визначається нашим каналом і вибором f(x), відособленого розподілу повідомлень, які ми обираємо для передавання каналом. За цих обмежень ми би хотіли максимізувати швидкість інформації, або сигнал, який можливо передавати цим каналом. Відповідною мірою для цього є взаємна інформація, і цю максимальну взаємну інформацію називають пропускною спроможністю каналу (англ.channel capacity), та задають як
Ця пропускна спроможність має наступну властивість, пов'язану з передаванням на інформаційній швидкості R (де R зазвичай вимірюють у бітах на символ). Для будь-якої інформаційної швидкості R < C та похибки кодування ε > 0, за достатньо великого N, існує кодування довжини N, швидкість ≥ R та алгоритм декодування, такі, що максимальна ймовірність помилки в блоці ≤ ε; тобто завжди можливо передавати з довільно малою блоковою похибкою. Крім того, для будь-якої швидкості R > C передавати з довільно малою блоковою похибкою неможливо.
Канальне кодування (англ.channel coding) займається пошуком таких майже оптимальних кодувань, які можливо використовувати для передавання даних зашумленим каналом з невеликою кодувальною похибкою на швидкості, наближеній до пропускної спроможності каналу.
Двійковий симетричний канал(інші мови) (ДСК) з імовірністю спотворення p — це канал із бінарним входом і бінарним виходом, який змінює вхідний біт на протилежний з імовірністю p. ДСК має пропускну спроможність 1 - Hb(p) бітів на одне використання каналу, де Hb — функція бінарної ентропії для логарифму за основою 2:
Двійковий канал зі стиранням(інші мови) (ДКС) з імовірністю стирання p — це канал із бінарним входом та тернарним виходом. Можливі виходи каналу — 0, 1 та третій символ 'e', званий стиранням (англ.erasure). Стирання подає повну втрату інформації про вхідний біт. Пропускна спроможність ДКС становить 1 - p бітів на одне використання каналу.
Канали з пам'яттю та спрямована інформація
На практиці багато каналів мають пам'ять. Тобто, у момент часу канал визначається умовною ймовірністю .
Часто зручніше використовувати запис , тоді канал стає .
У такому випадку пропускна спроможність визначається швидкістю взаємної інформації, коли зворотний зв'язок недоступний, та швидкістю спрямованої інформації(інші мови), якщо зворотний зв'язок наявний чи відсутній[32][41] (якщо зворотний зв'язок відсутній, спрямована інформація дорівнює взаємній інформації).
Замінна інформація
Замінна інформація (англ.fungible information) — це інформація, для якої засоби кодування не мають значення.[42] Класичні теоретики інформації та спеціалісти з комп'ютерних наук здебільшого цікавляться інформацією саме цього типу. Іноді її називають вимовною (англ.speakable) інформацією.[43]
Застосування в інших галузях
Використання в розвідці та прикладна секретність
Цей розділ не містить посилань на джерела. Ви можете допомогти поліпшити цей розділ, додавши посилання на надійні (авторитетні) джерела. Матеріал без джерел може бути піддано сумніву та вилучено.(листопад 2024)
Поняття теорії інформації застосовні до криптографії та криптоаналізу. Одиницю інформації, введену Тюрінгом — бан, використовували у проекті «Ультра(інші мови)» для зламування коду німецької машини «Енігма», що прискорило завершення Другої світової війни в Європі. Сам Шеннон визначив важливе поняття, відоме тепер як відстань єдиності. Виходячи з надмірності відкритого тексту, це поняття намагається оцінити мінімальну кількість шифротексту, необхідну для забезпечення унікальної розшифровуваності.
Теорія інформації підказує нам, що зберігати секрети набагато складніше, ніж може здатися на перший погляд. Атака повним перебором може зламувати системи на основі асиметричних ключів, або більшості широко використовуваних методів шифрування з симетричними ключами (іноді званих алгоритмами з секретним ключем), як-от блокового шифру. Безпека всіх таких методів ґрунтується на припущенні, що не існує відомих атак, здатних зламати їх за практично прийнятний час.
Інформаційно-теоретична безпека(інші мови) охоплює такі методи як одноразовий блокнот, що не вразливі до подібних атак повним перебором. У таких випадках додатна умовна взаємна інформація між відкритим і шифрованим текстом (обумовлена ключем) може забезпечувати належну передачу, тоді як безумовна взаємна інформація між відкритим і шифрованим текстом залишається нульовою, що забезпечує абсолютно захищений зв'язок. Іншими словами, перехоплювач не зможе покращити свої припущення щодо відкритого тексту, здобувши інформацію про шифротекст без ключа. Проте, як і в будь-якій іншій криптографічній системі, для правильного застосування навіть інформаційно-теоретично захищених методів потрібно бути уважними; проєкт «Венона» виявився здатним зламати одноразові блокноти Радянського Союзу через їхнє неналежне повторне використання ключового матеріалу.
Генерування псевдовипадкових чисел
Цей розділ не містить посилань на джерела. Ви можете допомогти поліпшити цей розділ, додавши посилання на надійні (авторитетні) джерела. Матеріал без джерел може бути піддано сумніву та вилучено.(листопад 2024)
Генератори псевдовипадкових чисел широко доступні в бібліотеках мов програмування та прикладних програмах. Проте майже повсюдно вони непридатні для криптографічного застосування, оскільки не обходять детерміновану природу сучасного комп'ютерного обладнання та програмного забезпечення. Один з класів удосконалених генераторів випадкових чисел називають криптографічно стійкими генераторами псевдовипадкових чисел, але навіть вони потребують для належної роботи випадкових початкових значень ззовні програмного забезпечення. Їх можливо отримувати за допомогою екстракторів(інші мови), якщо робити це належним чином. Мірою достатньої випадковості в екстракторах є мін-ентропія(інші мови), величина, пов'язана з ентропією Шеннона через ентропію Реньї; ентропію Реньї також використовують для оцінювання випадковості в криптографічних системах. Хоч ці міри й пов'язані, відмінності між ними означають, що випадкова величина з високою ентропією Шеннона не обов'язково задовільна для використання в екстракторі та, відповідно, в криптографії.
Сейсмічна розвідка
Одним із ранніх комерційних застосувань теорії інформації була галузь сейсмічного розвідування нафти. Робота в цій галузі уможливила відокремлювання небажаного шуму від потрібного сейсмічного сигналу. Теорія інформації та цифрова обробка сигналів пропонують значне підвищення роздільності та чіткості зображень порівняно з попередніми аналоговими методами.[44]
Поняття з теорії інформації, як-от керування надмірністю та кодом, використовували такі семіотики як Умберто Еко та Ферруччо Россі-Ланді(інші мови) для пояснення ідеології як форми передавання повідомлення, за якої домінантний соціальний клас передає своє повідомлення, використовуючи знаки з високим рівнем надмірності, так що з множини конкурентних повідомлень декодується лише одне.[47]
Організація інтегрованої обробки нейронної інформації
Кількісні методи теорії інформації застосували у когнітивістиці для аналізу організації інтегрованої обробки нейронної інформації в контексті проблеми зв'язування(інші мови) в когнітивній нейронауці.[48] У цьому контексті визначають або інформаційно-теоретичну міру, таку як функційні кластери (англ.functional clusters, модель функційного кластерування та гіпотеза динамічного ядра (ГДЯ, англ.dynamic core hypothesis, DCH) Джеральда Едельмана та Джуліо Тононі[49]) або ефективна інформація (англ.effective information, теорія інтегрованої інформації(інші мови) (ТІІ, англ.integrated information theory, IIT) свідомості Тононі[50][51][52]), що ґрунтується на повторновикористовній організації обробки, тобто синхронізації нейрофізіологічної активності між групами нейронних сукупностей, або міру мінімізації вільної енергії на основі статистичних методів (принцип вільної енергіїКарла Фрістана, інформаційно-теоретична міра, яка стверджує, що кожна адаптивна зміна в самоорганізовній системі веде до мінімізації вільної енергії, та гіпотеза баєсового мозку(інші мови)[53][54][55][56][57]).
↑Loy, D. Gareth (2017), Pareyon, Gabriel; Pina-Romero, Silvia; Agustín-Aquino, Octavio A.; Lluis-Puebla, Emilio (ред.), Music, Expectation, and Information Theory, The Musical-Mathematical Mind: Patterns and Transformations, Computational Music Science (англ.), Cham: Springer International Publishing, с. 161—169, doi:10.1007/978-3-319-47337-6_17, ISBN978-3-319-47337-6, процитовано 19 вересня 2024
↑Pinkard, Henry; Kabuli, Leyla; Markley, Eric; Chien, Tiffany; Jiao, Jiantao; Waller, Laura (2024). Universal evaluation and design of imaging systems using information estimation (англ.). arXiv:2405.20559 [physics.optics].
↑ абMassey, James (1990), Causality, Feedback And Directed Information, Proc. 1990 Intl. Symp. on Info. Th. and its Applications(англ.), CiteSeerX10.1.1.36.5688
↑Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory(англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID13178.
↑Kramer, G. (January 2003). Capacity results for the discrete memoryless network. IEEE Transactions on Information Theory(англ.). 49 (1): 4—21. doi:10.1109/TIT.2002.806135.
↑Permuter, Haim H.; Kim, Young-Han; Weissman, Tsachy (June 2011). Interpretations of Directed Information in Portfolio Theory, Data Compression, and Hypothesis Testing. IEEE Transactions on Information Theory(англ.). 57 (6): 3248—3259. arXiv:0912.4872. doi:10.1109/TIT.2011.2136270. S2CID11722596.
↑Simeone, Osvaldo; Permuter, Haim Henri (June 2013). Source Coding When the Side Information May Be Delayed. IEEE Transactions on Information Theory(англ.). 59 (6): 3607—3618. arXiv:1109.1293. doi:10.1109/TIT.2013.2248192. S2CID3211485.
↑Charalambous, Charalambos D.; Stavrou, Photios A. (August 2016). Directed Information on Abstract Spaces: Properties and Variational Equalities. IEEE Transactions on Information Theory(англ.). 62 (11): 6019—6052. arXiv:1302.3971. doi:10.1109/TIT.2016.2604846. S2CID8107565.
↑Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory(англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID13178.
↑Peres, A.; P. F. Scudo (2002b). A. Khrennikov (ред.). Quantum Theory: Reconsideration of Foundations(англ.). Växjö University Press, Växjö, Sweden. с. 283.
↑Haggerty, Patrick E. (1981). The corporation and innovation. Strategic Management Journal(англ.). 2 (2): 97—118. doi:10.1002/smj.4250020202.
↑ абNauta, Doede (1972). The Meaning of Information(англ.). The Hague: Mouton. ISBN9789027919960.
↑Maurer, H. (2021). Chapter 10: Systematic Class of Information Based Architecture Types. Cognitive Science: Integrative Synchronization Mechanisms in Cognitive Neuroarchitectures of the Modern Connectionism(англ.). Boca Raton/FL: CRC Press. doi:10.1201/9781351043526. ISBN978-1-351-04352-6.
J. L. Kelly Jr., Princeton, "A New Interpretation of Information Rate" Bell System Technical Journal(англ.), Vol. 35, July 1956, pp. 917–26.
R. Landauer, IEEE.org, "Information is Physical" Proc. Workshop on Physics and Computation PhysComp'92(англ.) (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1–4.
Timme, Nicholas; Alford, Wesley; Flecker, Benjamin; Beggs, John M. (2012). Multivariate information measures: an experimentalist's perspective (англ.). arXiv:1111.6857 [cs.IT].
Підручники з теорії інформації
Alajaji, F. and Chen, P.N. An Introduction to Single-User Information Theory. (англ.) Singapore: Springer, 2018. ISBN 978-981-10-8000-5
Arndt, C. Information Measures, Information and its Description in Science and Engineering(англ.) (Springer Series: Signals and Communication Technology), 2004, ISBN 978-3-540-40855-0
Csiszar, I, Korner, J. Information Theory: Coding Theorems for Discrete Memoryless Systems(англ.) Akademiai Kiado: 2nd edition, 1997. ISBN 963-05-7440-3
A. I. Khinchin, Mathematical Foundations of Information Theory(англ.), New York: Dover, 1957. ISBN 0-486-60434-9
H. S. Leff and A. F. Rex, Editors, Maxwell's Demon: Entropy, Information, Computing(англ.), Princeton University Press, Princeton, New Jersey (1990). ISBN 0-691-08727-X
Robert K. Logan(інші мови). What is Information? - Propagating Organization in the Biosphere, the Symbolosphere, the Technosphere and the Econosphere(англ.), Toronto: DEMO Publishing.
Tom Siegfried, The Bit and the Pendulum(англ.), Wiley, 2000. ISBN 0-471-32174-5