Теория обнаружения сигнала — задача оптимального приёма сигналов.
Допустим, что в принятом сигнале
r
(
t
)
{\displaystyle r(t)}
может присутствовать или отсутствовать сигнал
s
(
t
,
λ
)
{\displaystyle s(t,\lambda )}
, то есть принимаемый сигнал
r
(
t
)
{\displaystyle r(t)}
равен
r
(
t
)
=
α
s
(
t
,
λ
)
+
n
(
t
)
{\displaystyle r(t)=\alpha s(t,\lambda )+n(t)}
, где случайная величина
α
{\displaystyle \alpha }
может принимать значения 0 (сигнал отсутствует) или 1 (сигнал присутствует);
s
(
t
,
λ
)
{\displaystyle s(t,\lambda )}
— наблюдаемый на интервале наблюдения [0, T] детерминированный сигнал. При решении задачи обнаружении сигнала необходимо определить наличие сигнала
s
(
t
,
λ
)
{\displaystyle s(t,\lambda )}
в
r
(
t
)
{\displaystyle r(t)}
, то есть оценить значение параметра
α
{\displaystyle \alpha }
. При этом возможны два варианта. Априорные данные — вероятности
p
p
{\displaystyle p_{p}}
r
(
t
,
α
=
0
)
{\displaystyle _{r}(t,\alpha =0)}
и
p
p
{\displaystyle p_{p}}
r
(
t
,
α
=
1
)
{\displaystyle _{r}(t,\alpha =1)}
— могут быть известны или нет.
Сформулированная задача обнаружения сигнала является частным случаем общей задачи статистической проверки гипотез . Гипотезу об отсутствии сигнала будем обозначать
H
0
{\displaystyle H_{0}}
, а гипотезу о наличии сигнала —
H
1
{\displaystyle H_{1}}
.
Если априорные вероятности
P
p
r
(
H
0
)
{\displaystyle P_{pr}(H_{0})}
и
P
p
r
(
H
1
)
{\displaystyle P_{pr}(H_{1})}
известны, то можно использовать критерий минимума среднего риска (байесовский критерий)
R
{\displaystyle R}
:
R
=
∑
i
,
k
=
0
1
P
p
r
(
H
i
)
Q
i
k
∫
X
k
W
(
x
H
i
)
d
x
Допустим, что в принятом сигнале
r
(
t
)
{\displaystyle r(t)}
может присутствовать или отсутствовать сигнал
s
(
t
,
λ
)
{\displaystyle s(t,\lambda )}
, то есть принимаемый сигнал
r
(
t
)
{\displaystyle r(t)}
равен
r
(
t
)
=
α
s
(
t
,
λ
)
+
n
(
t
)
{\displaystyle r(t)=\alpha s(t,\lambda )+n(t)}
, где случайная величина
α
{\displaystyle \alpha }
может принимать значения 0 (сигнал отсутствует) или 1 (сигнал присутствует);
s
(
t
,
λ
)
{\displaystyle s(t,\lambda )}
— наблюдаемый на интервале наблюдения [0, T] детерминированный сигнал. При решении задачи обнаружении сигнала необходимо определить наличие сигнала
s
(
t
,
λ
)
{\displaystyle s(t,\lambda )}
в
r
(
t
)
{\displaystyle r(t)}
, то есть оценить значение параметра
α
{\displaystyle \alpha }
. При этом возможны два варианта. Априорные данные — вероятности
p
p
{\displaystyle p_{p}}
r
(
t
,
α
=
0
)
{\displaystyle _{r}(t,\alpha =0)}
и
p
p
{\displaystyle p_{p}}
r
(
t
,
α
=
1
)
{\displaystyle _{r}(t,\alpha =1)}
— могут быть известны или нет.
Сформулированная задача обнаружения сигнала является частным случаем общей задачи статистической проверки гипотез . Гипотезу об отсутствии сигнала будем обозначать
H
0
{\displaystyle H_{0}}
, а гипотезу о наличии сигнала —
H
1
{\displaystyle H_{1}}
.
Если априорные вероятности
P
p
r
(
H
0
)
{\displaystyle P_{pr}(H_{0})}
и
P
p
r
(
H
1
)
{\displaystyle P_{pr}(H_{1})}
известны, то можно использовать критерий минимума среднего риска (байесовский критерий)
R
{\displaystyle R}
:
R
=
∑
i
,
k
=
0
1
P
p
r
(
H
i
)
Q
i
k
∫
X
k
W
(
x
H
i
)
d
x
Источник: Wipedia.org