Середнє степеневе зважене — різновид середнього значення . Для набору додатних дійсних чисел
x
1
,
… … -->
,
x
n
{\displaystyle x_{1},\ldots ,x_{n}}
з параметром
q
≠ ≠ -->
0
{\displaystyle q\neq 0}
і невід'ємними вагами
w
1
,
… … -->
,
w
n
{\displaystyle w_{1},\ldots ,w_{n}}
визначається як
x
¯ ¯ -->
=
(
∑ ∑ -->
i
=
1
n
w
i
x
i
q
∑ ∑ -->
i
=
1
n
w
i
)
1
/
q
{\displaystyle {\bar {x}}=\left({\frac {\sum _{i=1}^{n}w_{i}x_{i}^{q}}{\sum _{i=1}^{n}w_{i}}}\right)^{1/q}}
.
Якщо ваги
w
1
,
… … -->
,
w
n
{\displaystyle w_{1},\ldots ,w_{n}}
нормовані до одиниці (тобто їх сума дорівнює одиниці), то вираз для середнього степеневого зваженого набуває вигляду
x
¯ ¯ -->
=
(
∑ ∑ -->
i
=
1
n
w
i
x
i
q
)
1
/
q
{\displaystyle {\bar {x}}=\left(\sum _{i=1}^{n}w_{i}x_{i}^{q}\right)^{1/q}}
.
Властивості
Зв'язок з ентропією Реньї
Інформаційну ентропію деякої системи можна визначити як логарифм числа доступних станів системи (або їх ефективної кількості, якщо стани не рівноймовірні). Врахуємо, що ймовірності
p
i
{\displaystyle p_{i}}
перебування системи в стані з номером
i
{\displaystyle i}
(
i
=
1
,
… … -->
,
N
{\displaystyle i=1,\ldots ,N}
) нормовані до
1
{\displaystyle 1}
. Якщо стани системи рівноймовірні і мають імовірність
p
{\displaystyle p}
, то
N
=
1
/
p
{\displaystyle N=1/p}
. У разі різних імовірностей станів
p
i
{\displaystyle p_{i}}
визначимо ефективну кількість станів
N
¯ ¯ -->
{\displaystyle {\overline {N}}}
як середнє степеневе зважене величин
x
i
=
1
/
p
i
{\displaystyle x_{i}=1/p_{i}}
з вагами
p
i
{\displaystyle p_{i}}
і параметром
q
=
1
− − -->
α α -->
{\displaystyle q=1-\alpha }
(де
α α -->
≠ ≠ -->
1
{\displaystyle \alpha \neq 1}
):
N
¯ ¯ -->
=
(
∑ ∑ -->
i
=
1
N
p
i
x
i
q
)
1
/
q
=
(
∑ ∑ -->
i
=
1
N
p
i
(
1
/
p
i
)
1
− − -->
α α -->
)
1
1
− − -->
α α -->
=
(
∑ ∑ -->
i
=
1
N
p
i
α α -->
)
1
1
− − -->
α α -->
{\displaystyle {\overline {N}}=\left(\sum _{i=1}^{N}p_{i}x_{i}^{q}\right)^{1/q}=\left(\sum _{i=1}^{N}p_{i}(1/p_{i})^{1-\alpha }\right)^{\frac {1}{1-\alpha }}=\left(\sum _{i=1}^{N}p_{i}^{\alpha }\right)^{\frac {1}{1-\alpha }}}
.
Звідси отримуємо вираз для ентропії
H
=
log
-->
N
¯ ¯ -->
=
log
-->
(
∑ ∑ -->
i
=
1
N
p
i
α α -->
)
1
1
− − -->
α α -->
=
1
1
− − -->
α α -->
log
-->
∑ ∑ -->
i
=
1
N
p
i
α α -->
{\displaystyle H=\log {\overline {N}}=\log \left(\sum _{i=1}^{N}p_{i}^{\alpha }\right)^{\frac {1}{1-\alpha }}={\frac {1}{1-\alpha }}\log \sum _{i=1}^{N}p_{i}^{\alpha }}
,
збігається з виразом для ентропії Реньї . Легко бачити, що в границі при
α α -->
→ → -->
1
{\displaystyle \alpha \to 1}
(або
q
→ → -->
0
{\displaystyle q\to 0}
) ентропія Реньї збігається до ентропії Шеннона (при тому, що середнє степеневе зважене — до середнього геометричного зваженого ). За визначенням ентропії Реньї має виконуватися додаткове обмеження
α α -->
≥ ≥ -->
0
{\displaystyle \alpha \geq 0}
(або
q
≤ ≤ -->
1
{\displaystyle q\leq 1}
).
Примітки
Література
Зарипов Р. Г. Новые меры и методы в теории информации. — Казань : Изд-во Казан. гос. техн. ун-та, 2005. — 364 с.
Середнє
Геометрія Теорія ймовірностей та мат. статистика Теореми Нерівності