Поліноміальний розподіл Параметри
n
>
0
{\displaystyle n>0}
p
1
,
… … -->
p
k
{\displaystyle p_{1},\ldots p_{k}}
(
Σ Σ -->
p
i
=
1
{\displaystyle \Sigma p_{i}=1}
)Носій функції
X
i
∈ ∈ -->
{
0
,
… … -->
,
n
}
{\displaystyle X_{i}\in \{0,\dots ,n\}}
Σ Σ -->
X
i
=
n
{\displaystyle \Sigma X_{i}=n\!}
Розподіл імовірностей
n
!
x
1
!
⋯ ⋯ -->
x
k
!
p
1
x
1
⋯ ⋯ -->
p
k
x
k
{\displaystyle {\frac {n!}{x_{1}!\cdots x_{k}!}}p_{1}^{x_{1}}\cdots p_{k}^{x_{k}}}
Середнє
E
{
X
i
}
=
n
p
i
{\displaystyle E\{X_{i}\}=np_{i}}
Дисперсія
V
a
r
(
X
i
)
=
n
p
i
(
1
− − -->
p
i
)
{\displaystyle {\mathrm {Var} }(X_{i})=np_{i}(1-p_{i})}
C
o
v
(
X
i
,
X
j
)
=
− − -->
n
p
i
p
j
{\displaystyle {\mathrm {Cov} }(X_{i},X_{j})=-np_{i}p_{j}}
(
i
≠ ≠ -->
j
{\displaystyle i\neq j}
)Твірна функція моментів (mgf)
(
∑ ∑ -->
i
=
1
k
p
i
e
t
i
)
n
{\displaystyle \left(\sum _{i=1}^{k}p_{i}e^{t_{i}}\right)^{n}}
У теорії імовірностей поліноміальний розподіл є узагальненням біноміального розподілу.
Біноміальний розподіл є розподілом ймовірностей числа успіхів у незалежній схемі випробувань Бернуллі , з тією ж самою імовірністю успіху в кожному випробуванні.
Означення
Нехай
X
1
,
… … -->
,
X
n
{\displaystyle X_{1},\ldots ,X_{n}}
— незалежні однаково розподілені випадкові величини , такі, що їх розподіл задається
функцією імовірності :
P
(
X
i
=
j
)
=
p
j
,
j
=
1
,
… … -->
,
k
{\displaystyle \mathbb {P} (X_{i}=j)=p_{j},\;j=1,\ldots ,k}
.
Інтуїтивно подія
{
X
i
=
j
}
{\displaystyle \{X_{i}=j\}}
означає, що
дослід з номером
i
{\displaystyle i}
привів до
j
{\displaystyle j}
. Нехай
випадкова величина
Y
j
{\displaystyle Y_{j}}
дорівнює кількості дослідів, що приводять до результату
j
{\displaystyle j}
:
Y
j
=
∑ ∑ -->
i
=
1
n
1
{
X
i
=
j
}
,
j
=
1
,
… … -->
,
k
{\displaystyle Y_{j}=\sum _{i=1}^{n}\mathbf {1} _{\{X_{i}=j\}},\;j=1,\ldots ,k}
.
Тоді розподіл вектора
Y
=
(
Y
1
,
… … -->
,
Y
k
)
⊤ ⊤ -->
{\displaystyle \mathbf {Y} =(Y_{1},\ldots ,Y_{k})^{\top }}
Має функцію імовірності
p
Y
(
y
)
=
{
(
n
y
1
… … -->
y
k
)
p
1
y
1
… … -->
p
k
y
k
,
∑ ∑ -->
j
=
1
k
y
i
=
n
0
,
∑ ∑ -->
j
=
1
k
y
i
≠
n
,
y
=
(
y
1
,
… … -->
,
y
k
)
⊤ ⊤ -->
∈ ∈ -->
N
0
k
{\displaystyle p_{\mathbf {Y} }(\mathbf {y} )=\left\{{\begin{matrix}{n \choose {y_{1}\ldots y_{k}}}p_{1}^{y_{1}}\ldots p_{k}^{y_{k}},&\sum \limits _{j=1}^{k}y_{i}=n\\0,&\sum \limits _{j=1}^{k}y_{i}\not =n\end{matrix}}\right.,\quad \mathbf {y} =(y_{1},\ldots ,y_{k})^{\top }\in \mathbb {N} _{0}^{k}}
,
де
(
n
y
1
… … -->
y
k
)
≡ ≡ -->
n
!
y
1
!
… … -->
y
k
!
{\displaystyle {n \choose {y_{1}\ldots y_{k}}}\equiv {\frac {n!}{y_{1}!\ldots y_{k}!}}}
—
мультиноміальний коефіцієнт .
Вектор середніх і матриця коваріації
Математичне сподівання випадкової величини
Y
j
{\displaystyle Y_{j}}
має вигляд:
E
[
Y
j
]
=
n
p
j
{\displaystyle \mathbb {E} [Y_{j}]=np_{j}}
.
Діагональні елементи матриці коваріації
Σ Σ -->
=
(
σ σ -->
i
j
)
{\displaystyle \Sigma =(\sigma _{ij})}
є дисперсіями
біноміальних випадкових величин , а тому
σ σ -->
j
j
=
D
[
Y
j
]
=
n
p
j
(
1
− − -->
p
j
)
,
j
=
1
,
… … -->
,
k
{\displaystyle \sigma _{jj}=\mathrm {D} [Y_{j}]=np_{j}(1-p_{j}),\;j=1,\ldots ,k}
.
Для інших елементів маємо
σ σ -->
i
j
=
c
o
v
(
Y
i
,
Y
j
)
=
− − -->
n
p
i
p
j
,
i
≠
j
{\displaystyle \sigma _{ij}=\mathrm {cov} (Y_{i},Y_{j})=-np_{i}p_{j},\;i\not =j}
.
Ранг матриці коваріації мультиноміального розподілу дорівнює
k
− − -->
1
{\displaystyle k-1}
.
Див. також
Джерела
Дискретні одновимірні зі скінченним носієм Дискретні одновимірні з нескінченним носієм Неперервні одновимірні з носієм на обмеженому проміжку Неперервні одновимірні з носієм на напів-нескінченному проміжку Неперервні одновимірні з носієм на всій дійсній прямій Неперервні одновимірні з носієм змінного типу Змішані неперервно-дискретні одновимірні Багатовимірні (спільні) Напрямкові Вироджені та сингулярні [en] Сімейства