SlideShare a Scribd company logo
1 of 24
РАЗДЕЛ 5. ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ СИГНАЛОВ

   Введение.
   При передаче сообщений детерминированное описание сигналов принципи-
ально невозможно и на смену ему приходит вероятностное (статистическое)
описание.
   Отличительная черта случайного сигнала состоит в том, что его мгновенные
значения заранее не предсказуемы. Однако, изучая такой сигнал более при-
стально, можно заметить, что ряд характеристик весьма точно описываются в
вероятностном смысле. Например, напряжение на зажимах нагретого резистора
представляет собой последовательность малых, быстроизменяющихся во вре-
мени случайных отклонений, называемых флуктуациями. Примечательно, что
чаще всего наблюдаются небольшие отклонения от среднего уровня; чем
больше отклонения по абсолютному значению, тем реже они наблюдаются.
    Уже в этом проявляется некоторая статистическая закономерность. Распола-
гая сведениями о вероятностях флуктуаций различной величины, удается со-
здать математическую модель случайного колебания, вполне приемлемую как в
научном, так и в прикладном плане.

   Исходные понятия.
   Математический аппарат анализа случайных сигналов строится на базе тео-
рии вероятностей и ее разделов – теории случайных процессов, теории стати-
стических решений и т.п. Ведущим понятием в теории вероятностей является
случайное событие.
   Если N событий равновозможны, но только n из них обладают признаком A,
то вероятность события, имеющего этот признак,
                                  P(A)=n/N.
   По смыслу определения вероятность всегда удовлетворяет условию 0≤P≤1.
   Соотношения между вероятностями различных событий, т.е. разных исходов
опыта, называют законом распределения вероятностей.
   Группа событий представляет множество возможных исходов опыта.
Несколько событий образуют полную группу, если в результате испытаний
обязательно будет происходить одно из них.
   Несовместимые события характерны тем, что появление в опыте одного из
них исключает возможность осуществления другого.
   Часто возникает необходимость выразить вероятность некоторого сложного
события через вероятности составляющих его событий. Для этого используют-
ся понятиями суммы и произведения событий.
   Суммой двух событий A и B называют событие C, состоящее в наступле-
нии или A или B:
                                   C=A+B.
   Произведением двух событий A и B называют событие C, состоящее в осу-
ществлении A и B вместе:
                                    C=AB.


                                     53
Вероятность суммы несовместимых событий определяется теоремой сложе-
ния и находится по формуле:
                              P(A+B)=P(A)+P(B).
   Вероятность суммы несовместимых событий A1, A2,    …   An, имеющих
вероятности P(A1), P(A2)    … P(An) равна
                     P (A1+A2+ … An)=P(A1)+P(A2)+ … P(An)
   Следствием такого обобщения является «правило нормировки»: если A1, A2,
… An несовместимы и составляют полную группу, то сумма вероятностей
этих событий равна единице:
                                   n
                                 ∑ P( Ai ) = 1
                                  i =1
   Вероятность произведения двух событий A и B можно определить, пользу-
ясь «теоремой умножения»: вероятность произведения событий A и B равна
произведению вероятности первого из них на условную вероятность второго
при условии, что осуществилось первое
                      P (AB) =P (A) P (B/A) =P (B) P (A/B)
   Если A и B независимы, то это означает, что P(A/B)=P(A) и P(B/A)=P(B),
откуда следует, что
                                 P(AB)=P(A)P(B).
   Приведенная формула обобщается на случай произведения нескольких неза-
висимых событий, имеющих вероятности P(A1), P(A2),         … P(An):
                       P (A1A2...An) =P (A1) P (A2)…P (An).
   Если различным результатам опыта приписать количественные характери-
стики, придем к понятию случайной величины. В зависимости от структуры
множества возможных значений случайной величины могут быть дискретными
или непрерывными.
   Описание случайной величины состоит в том, чтобы указать все возможные
ее значения и вероятности их наступления.
   В радиотехнике понятие случайной величины используется при описании
реальных процессов, протекающих в различных устройствах под действием
сигналов и помех. Эти процессы являются случайными функциями времени,
поскольку значения таких функций в произвольно взятые моменты времени мо-
гут быть охарактеризованы только как случайных величины.
   Рассмотрим ток через телеграфный ключ (рис. 5.1), с помощью которого
                i(t)




                       t1 t2              ti      t

                                Рис. 5.1
формируется последовательность посылок или пауз. Если содержание теле-
граммы заранее неизвестно, то мгновенное значение тока в любой из моментов

                                         54
t1, t2, …ti, можно рассматривать как случайное, и для его описания необходимы
вероятностные характеристики. Здесь мы впервые столкнулись со случайным
процессом, представляющим поток случайных величин, которые описывают
поведение этого процесса во времени.
     Виды случайных процессов в радиотехнике.
     Все реальные физические процессы протекают в непрерывном времени и
наиболее точно описываются непрерывными функциями. Однако при практиче-
ском анализе случайных колебаний и сигналов часто используют математиче-
ские модели, опирающиеся на дискретное представление, как аргументов, так и
функций. Применение той или иной модели определяется необходимой степе-
нью детализации различных сторон явления. Используется следующая класси-
фикация.
     1) Вполне непрерывный случайный процесс. Физическим прообразом может
служить флуктуационный шум, существующий на выходе всякого радиоприем-
ного устройства даже в отсутствие принимаемого полезного сигнала. Шкала
мгновенных значений непрерывного случайного процесса является сплошной,
так как выходное напряжение в различные моменты может принимать любые

                    u(t)


                                                  t


                                Рис. 5.2
значения (рис. 5.2).
    2) Случайный процесс, непрерывный по времени и квантованный по уровню
отличается от вполне непрерывного тем, что его мгновенные значения не обра-
зуют непрерывного ряда. Пример – телеграфный сигнал (Рис. 5.1).
   3) Случайный процесс, дискретный по времени и непрерывный по уровню,
т.е. дискретный поток непрерывных случайных величин (Рис. 5.3). Прообраз -
последовательность видеоимпульсов большой скважности («выборок», ам-
             u(t)




              0                                       t


                            Рис. 5.3

плитуда которых изменяется от импульса к импульсу по случайному закону,
причем модулирующая кривая представляет непрерывный случайный процесс.

                                       55
Случайные сигналы такого вида могут получаться в передающих устройствах
связных радиолиний с АИМ.
    4) Случайный процесс дискретный по времени и квантованный по уровню,
т.е. дискретный поток дискретных случайных величин (Рис. 5.4). Отличие от
процесса предыдущего вида состоит в том., что последовательность образуется
выборками из дискретного случайно процесса.
                 u(t)



                  0                                t


                                Рис. 5.4
    Приведенные графики, изображают отдельные вполне детерминированные
реализации случайных процессов. Но такая отдельная реализация является
представителем целого ансамбля возможных реализаций данного случайного
процесса. Ансамбль составляет полную группу событий, поэтому очевидно для
исчерпывающего описания статистических свойств процесса необходимо опре-
делить вероятность каждой реализации. Однако практически это можно сделать
только в случаях, когда реализации, входящие в ансамбль, отличаются друг от
друга параметрами, постоянными на протяжении каждой реализации.
    Подобный ансамбль соответствует, например, случайному процессу вида
x(t)=Umcos(ω0t+ϕ), где Um и ω0 – одинаковые для всех реализаций постоянные
величины а ϕ - фаза, случайная по величине, но постоянная на протяжении лю-
бой отдельной реализации (Рис.5.5). Такая функция удовлетворительно описы-
                             вает напряжение на выходе генератора гармони-
  x1(t)                      ческих колебаний с неизвестной заранее началь-
                             ной фазой. Для полного описания вероятностных
                        t
                             характеристик процесса достаточно задать рас-
 x2(t)                       пределение вероятностей фазы ϕ.
                                 Ансамбль реализаций случайного процесса
                        t    более общего вида (Рис. 5.6) – его физическим эк-
                             вивалентом можно считать, например, набор шу-
                             мящих источников одинаковой физической при-
 xi(t)                       роды, находящихся в идентичных условиях − од-
                             нотипных электронных ламп или транзисторов
                       t
                             при одинаковой окружающей температуре и рав-
                             ных питающих напряжениях. Здесь нельзя точно
          Рис. 5.5           предсказать поведение отдельной реализации по
                             одному или нескольким мгновенным значениям,
или по найденной начальной фазе. Чтобы описать статистические свойства та-
ких колебаний, необходимо уметь задавать законы распределения вероятностей

                                      56
мгновенных значений, а также учитывать вероятности смены одних значений

                     x1(t)

                        0                             t
            x1(t1)

                     x2(t)

                        0
                                                      t
            x2(t1)


                     xN(t)
           xN(t1)       0                                 t
                                t1

                                     Рис. 5.6
другими.
   Одномерные законы распределения и их моменты.
   Поскольку определение случайного процесса основано на понятии случай-
ной величины, необходимо установить достаточно универсальный способ пред-
ставления законов распределения вероятностей случайных чисел (величин).
Если случайная величина дискретна, ее закон можно описать таблицей. Веро-
ятностные характеристики непрерывных случайных чисел нельзя табулировать,
а графическое или аналитическое их описание должно отражать возможность
появления в случайном опыте любого из несчетного множества значений.
   Зафиксируем на всех реализациях момент времени t1 (Рис. 5.6) и измерим
получившиеся в этот момент мгновенные значения. В результате получим на-
бор отличающихся друг от друга чисел
                              x1(t1), x2(t1),…xN(t1).
   Выделив из общего количества N те n чисел, которые заключены в достаточ-
но малом интервале (x, x+∆x), можем установить, что относительная доля n/N
значений, попавших в этот интервал, с ростом N стремится к определенной ве-
личине, пропорциональной ∆x. Коэффициент пропорциональности зависит от x
и может изменяться также при сдвиге точки отсчета t1. Таким образом, можно
написать
                          n
                      lim = p1( x , t1)∆x
                          N                                            (5.1)
                             N →∞
   Коэффициент p1(x, t1) называют одномерной плотностью вероятности слу-
чайного процесса X(t). Индекс при t1 можно опустить, если p1 задается для лю-
бого t.

                                            57
Приведенное определение, по сути дела, повторяет определение плотности
вероятности случайной величины. Рассмотрим простой случайный опыт. Пусть
радиолокатор с дальностью действия от 0 до L км при включении обнаружива-
ет точечную цель, расстояние до которой обозначим xi. Определим вероятность
того, что при обнаружении очередной цели расстояние до нее окажется в интер-
вале (x, x+∆x), если предположить достаточную малость этого интервала. Веро-
ятность интересующего нас события P(x≤xi<x+∆x) пропорциональна ∆x и при
стягивании интервала в точку, очевидно, стремится к нулю. Следовательно, мо-
жем записать
                        P(x≤xi<x+∆x)≈p1(x) ∆x,                            (5.2)
где p1(x) – одномерная плотность вероятности случайной величины X. Вид
функции p1(x) зависит от условий опыта. Если дальность до цели может равно-
вероятно оказаться любой из интервала от 0 до L, то p1(x)=const. Для численно-
го определения этой константы следует воспользоваться правилом нормировки,
по которому сумма вероятностей попадания точки xi на бесконечно малые от-
резки, в целом образующие L, должна быть равна единице. Это правило удоб-
нее записывать в интегральной форме

                              ∞
                              ∫ p1(x )dx = 1 .                            (5.3)
                             −∞
   Бесконечные пределы интегрирования фактически предусматривают инте-
грирование по всему интервалу возможных значений случайной величины. В
нашем примере это дает
                             L
                             ∫ p1( x )dx = Lp1( x ) = 1,                  (5.4)
                             0
откуда получаем выражение для равномерного закона распределения случай-
ной величины в интервале L:
                                  p1(x)=1/L.
   График этого закона распределения приведен на рис. 5.7. Легко видеть, что
площадь под кривой равна 1.
                p1(x)

                1/L

                  0                                        x
                         x            L
                                  Рис. 5.7
  Для одномерной плотности вероятности случайного процесса правило нор-
мировки записывается аналогично:
                              ∞
                              ∫ W1(x, t )dx = 1.                          (5.5)
                             −∞

                                          58
Как и сама вероятность, плотность вероятности неотрицательна. Плотность
вероятности p1(x) иначе называют дифференциальным законом распределения в
отличие от интегральной функции распределения F(x), которая представляет
собой вероятность P события, заключающегося в том, что случайная величина
окажется внутри интервала (-∞, x). По определению интегральная функция рас-
пределения выражает вероятность суммы событий, состоящих в попадании слу-
чайной величины X во все бесконечно малые интервалы слева от точки x, и эта
вероятность может быть записана в виде интеграла
                                           x
            F( x, t ) = P(X( t ) < x ) =   ∫ p1(x, t )dx .               (5.6)
                                           −∞
   Параметр t в этой записи указывает на то, что данная случайная величина яв-
ляется выборкой случайного процесса, взятой в момент t. В случаях, когда за-
кон распределения от времени не зависит, аргумент t опускают.
   В соответствии с последней формулой, интегральная функция распределе-
ния соответствует площади, заключенной под кривой плотности вероятности
слева от выбранной точки x. В приведенном примере с равномерным диффе-
ренциальным законом распределения функция F(x), численно выражающая эту
площадь, линейно зависит от аргумента на интервале длиной L, вне него слева
равна нулю, а справа – единице (рис. 5.8).

                F(x)

                  1

                  0                                          x
                                           L
                                    Рис. 5.8
   Два последних свойства присущи любым интегральным функциям распреде-
ления и сводятся к предельным соотношениям:
                              lim F( x ) = 0
                            x → −∞
                                                                  (5.7)
                             lim F( x ) = 1
                                   x →∞
   Обратный переход от интегрального закона распределения к дифференци-
альному совершается по формуле
                                        d
                            p1 ( x ) =    F( x ) ,                    (5.8)
                                       dx
которая получена в результате дифференцирования интеграла по верхнему пре-
делу.
   При нахождении производной от ступенчатой функции возникают формаль-
ные осложнения, связанные с необходимостью математического описания раз-
рывов плотности вероятности в точках, где интегральная функция терпит скач-
ки. Эту трудность можно обойти, если воспользоваться для представления
плотности вероятности в таких точках δ-функцией. Можно показать, что в точ-

                                                59
ке разрыва производная от интегральной функции определяется произведением
разности значений функции F(x) справа и слева от рассматриваемой точки x0 на
δ-функцию p1(x)=[F+(x0)-F-(x0)]δ(x-x0), где F+(x0) и F-(x0) – значения интеграль-
ной функции справа и слева от x0 соответственно.
   Так, например, аналитическое выражение для плотности вероятности слу-
чайной величины, представляющей число очков при случайных опытах с броса-
нием игральной кости, записываются в виде
                 1           1                 1
        p1( x ) = δ( x − 1) + δ( x − 2) + ... + δ( x − 6).                  (5.9)
                 6           6                 6

   Используя δ-функцию, удается описывать статистические свойства случай-
ных процессов или величин смешанного типа. Примером такого процесса слу-
жит флуктуационное напряжение на выходе идеального широкополосного
ограничителя.

   Числовые характеристики случайных величин и процессов.
   Одномерные моментные функции.
   Одномерные законы распределения величин и процессов дают исчерпываю-
щие сведения о вероятностях отдельных значений таких величин или однократ-
ных (не связанных между собой) выборок из возможных реализаций случайно-
го процесса. Однако при некоторых преобразованиях случайного процесса за-
кон его распределения претерпевает изменения, точный расчет которых осуще-
ствим далеко не всегда. Более легкой оказывается задача пересчета отдельных
числовых характеристик распределения. Опыты по определению плотностей
вероятностей также сложнее и дороже экспериментов с нахождением числовых
характеристик. К тому же ответы на многие практические вопросы можно
найти, пользуясь лишь достаточно грубыми числовыми параметрами.
   Вспомним числовые характеристики одномерных распределений случайных
величин, а затем, зная связь между понятиями случайной величины и случайно-
го процесса, определим аналогичные характеристики последнего.
   Все числовые параметры законов распределения (иначе говоря, самой слу-
чайной величины) находятся путем вычисления математического ожидания
этой величины или простейших функций от нее. Понятие математического
ожидания вытекает из определения среднего арифметического.
   Если случайная величина X является непрерывной, то ее математическое
ожидание или среднее значение находят по формуле
                                            ∞
               M (X) = x = x = m1( x ) =    ∫ xp1(x )dx ,                  (5.10)
                                           −∞
которая представляет предел взвешенной суммы для случая, когда возможные
значения X образуют несчетное множество. Пользуясь δ-функцией для описа-
ния плотностей вероятности дискретных случайных величин, можно применять
последнюю формулу при решении любых задач с нахождением среднего.


                                       60
Математическое ожидание детерминированной функции от случайной ве-
личины ϕ(X) находим, рассматривая совокупность возможных значений этой
функции ϕ(x1), ϕ(x2),…ϕ(xn) как новую случайную величину. Таким образом
                                                ∞
                   M[ ϕ( x )] = ϕ( x ) =        ∫ ϕ( x )p1( x )dx .                   (5.11)
                                                −∞
   Эта формула устанавливает правила нахождения других числовых характе-
ристик случайной величины. К ним относятся моменты m2(x), m3(x),…mn(x) для
любого n:
                                                         ∞
                                 n          n                 n
               m n ( x ) = M (X ) = x               =    ∫x       p1( x )dx .         (5.12)
                                                        −∞
   Связь между формой закона распределения и его числовыми характеристи-
ками становится нагляднее при использовании понятия центрированной слу-
чайной величины.
   Случайная величина называется центрированной, если ее среднее значение
равно нулю. Случайную величину X можно центрировать, если вместо нее
рассматривать новую величину X-M(X).
   Поскольку это соотношение эквивалентно изменению всех возможных зна-
чений X на одну и ту же постоянную M(X), это равносильно смещению начала
координат на графике одномерной плотности вероятности на M(X) вдоль оси
абсцисс и не связано с какими-либо деформациями закона распределения.
   Моменты центрированной случайной величины называют центральными, в
отличии от начальных моментов. По определению центральный момент n-го
порядка
                                                ∞
           µ n ( x ) = [ x − m1( x )]   n
                                            =   ∫ [ x − m1(x )]
                                                                      n
                                                                          p1( x )dx   (5.13)
                                                −∞
   Первый центральный момент центрированной случайной величины всегда
равен 0.
   Второй центральный момент можно выразить через начальные моменты. Его
называют дисперсией случайной величины X, пользуясь для нее обозначением
σ2(x). Дисперсия характеризует рассеяние возможных значений случайной ве-
личины X относительно ее среднего значения.
   Первая степень σ(x), равная положительному значению корня квадратного
из второго центрального момента, носит название среднего квадратического от-
клонения (СКО) случайной величины X. Размерность СКО совпадает с размер-
ностью X, поэтому СКО может использоваться в качестве непосредственной
меры ширины кривой плотности вероятности p1(x).
   Числовые характеристики одномерных распределений случайных процессов
определяются точно так же, как для случайных величин, с той лишь разницей,
что получаемые результаты могут оказаться зависящими от времени, поскольку
сами функции распределения в общем случае тоже изменяются во времени. Та-
ким образом, указанные характеристики вместо чисел становятся функциями
времени и носят название моментных функций.
                                                    61
Двумерные и многомерные характеристики случайных величин и про-
цессов.
   До сих пор мы рассматривали способы математического описания отдель-
ных случайных величин или выборок случайного процесса. Введенные одно-
мерные характеристики дают важные, но не полные сведения об исследуемых
явлениях. Так, одномерная плотность вероятности случайного процесса не дает
представления о динамике его развития.
   Более полной характеристикой случайного процесса является двумерная
плотность вероятности, отражающая вероятностную связь между значениями
случайной функции в два произвольных момента времени t1 и t2. Если рассмат-
ривать ансамбль возможных реализаций процесса, то двумерная функция рас-
пределения будет характеризовать совместно как вероятности его значений в
моменты t1 и t2, так и вероятности смены одних значений другими при переходе
от t1 к t2.
   Совокупность выборок xi(t1) и xi(t2) можно представить как две случайные
величины, между которыми существует статистическая связь. Пользуясь таким
подходом, нетрудно понять смысл определения двумерной плотности вероятно-
сти. Оно вытекает из записи выражения, представляющего вероятность попада-
ния конца случайного вектора в пределы достаточно малой площадки ∆x1, ∆x2

                  x2             ∆x2

                  x2
                                                     ∆x1

                                           x1              x1
                                       Рис. 5.9
около точки с координатами x1, x2 (рис. 5.9)
           x ≤ X1 < x1 + ∆x1 
         P 1
           x ≤ X < x + ∆x  ≈ p 2 ( x1, x 2 ) ∆x1∆x 2
                                                                     (5.14)
           2     2   2      2
   Поделив обе части этого выражения на ∆x1∆x2 и устремив полученный ре-
зультат к пределу, найдем двумерную плотность вероятности
                                   x ≤ X1 < x1 + ∆x1 
                                 P 1
                                   x ≤ X < x + ∆x   
         p 2 ( x1, x 2 ) = lim     2    2    2      2.          (5.15)
                          ∆x1 →0        ∆x1∆x 2
                       ∆x 2 →0
   Свойства введенной функции распределения во многом подобны свойствам
одномерной плотности вероятности. Как всякая вероятность, двумерная плот-
ность – неотрицательная функция.


                                                62
Правило нормировки двумерной плотности вытекает из условия, что вероят-
ность того, что конец двумерного случайного вектора попадет в какую либо из
точек плоскости X 1X2 есть вероятность достоверного события, равная единице.
Поэтому
                  ∞ ∞
                  ∫ ∫ p 2 (x1, x 2 )dx1dx 2 = 1                        (5.16)
                 −∞ −∞
   При решении практических задач часто используют правило перехода от
двумерной плотности вероятности к одномерной. Для такого перехода необхо-
димо проинтегрировать двумерную плотность вероятности по лишней перемен-
ной. Например,
                               ∞
                 p1( x 2 ) =   ∫ p 2 ( x1, x 2 )dx1 .                  (5.17)
                               −∞

   Двумерные законы распределения учитывают статистическую связь отдель-
ных пар значений случайных величин или выборок случайного процесса. Для
учета связи между большим числом значений необходимо пользоваться функ-
циями распределения более высокой размерности. Плотность вероятности
pn(x1, x2, …,xn) применительно к случайному процессу называется его n - мер-
ной плотностью и определяет вероятность того, что значения случайной функ-
ции x(t) в моменты t1, t2,…tn заключены соответственно в интервалах (x1,
x1+∆x1), (x2, x2+∆x2),…,(xn+xn+∆xn). При достаточно малых ∆xi эта вероятность
равна pn(x1, x2, …xn) ∆x1∆x2…∆xn.
   Описание случайного процесса при помощи n – мерной плотности вероятно-
сти будет тем детальнее, чем больше n.

   Корреляционные моменты.
   Многомерные плотности вероятности (как и одномерные) можно описывать
частными числовыми характеристиками, которые в дополнение к моментам од-
номерных распределений дают информацию о статистической связанности зна-
чений случайных величин и процессов.
   Простейшей, хотя и не всегда исчерпывающей мерой связи между значения-
ми случайных величин или процессов служат смешанные моменты (моментные
функции) второго порядка. В общем случае они находятся через двумерную
плотность вероятности p2(x1, x2) по формуле

                          ∞ ∞
                 m12 =    ∫ ∫ x1x 2 p 2 (x1 x 2 )dx1dx 2 .             (5.18)
                         −∞ −∞
   Это выражение представляет собой математическое ожидание произведения
случайных величин x1 и x2, которые могут быть, например, выборками из слу-
чайного процесса X(t) в точках t1 и t2, либо значениями двух разных случайных
функций X1(t) и X2(t). Наиболее употребительной из смешанных числовых ха-


                                                63
рактеристик является математическое ожидание произведения центрированных
случайных величин
             ∞ ∞
     µ12 =   ∫ ∫ [ x1 − m1 ( x1 )][ x 2 − m1 (x 2 )] ⋅ p 2 (x 1 , x 2 )dx1dx 2 .   (5.19)
             −∞ −∞
   Эту характеристику называют корреляционным моментом случайных чисел
x1 и x2. Если представляют выборки из одной и той же случайной функции X(t),
то иногда такую характеристику называют автокорелляцией. В случае, когда
усредняется произведение центрированных значений, взятых из разных процес-
сов, его называют также взаимной корреляцией.
   Рассматривая автокорреляцию случайного процесса, легко установить, что
при достаточно малом интервале τ между моментами отсчета t2(i) и t1(i) любые
                                                   
пары центрированных значений x (i) и x (i) лишь немногим отличаются по
                                 1          2
величине и почти никогда не различаются знаками. Поэтому среднее для ан-
самбля реализаций X(t) произведение таких величин остается положительным и
по мере уменьшения τ приближается к дисперсии, т. е.
                                 µ12(t1=t2)=σ2(t)
   Невозможность сколь угодно быстрой смены значений в реализациях функ-
ции X(t), если она описывает физический процесс, объясняется инерционно-
стью элементов, в которых он протекает. Ими, в частности, могут быть конден-
саторы, катушки индуктивности, распределенные реактивности проводников.
Если реализации не содержат детерминированной или квазидетерминирован-
ной составляющей, то такой процесс называют чисто случайным. Такой про-
цесс по определению является центрированным, ибо отличное от нуля среднее
значение представляет уже некоторую детерминированную компоненту. С уве-
личением интервала τ между выборками из чисто случайного процесса относи-
                                                            
тельное количество реализаций, в которых x 1 и x 2 противоположны по знаку,
растет и становится соизмеримо с числом пар, где знаки совпадают. Это умень-
шает математическое ожидание произведения центрированных величин. Такое
свойство автоковариации можно представить неравенством
                              µ12(t1=t2)≥µ12(t1≠t2).
   При значительном разносе по оси времени точек отсчета в чисто случайном
                                     
процессе связь значений x и x уменьшается. Это свойство выражается со-
                         1     2
отношением
                                    lim     µ12 = 0
                             t 2 − t1 = τ→∞         .




  Стационарные и эргодические случайные процессы.
  В радиотехнике большую роль играют стационарные случайные процессы.

                                               64
Случайный процесс X(t) является стационарным, если любая n – мерная
функция распределения его значений не меняется при любом сдвиге всей груп-
пы точек t1, t2, …tn вдоль оси времени, что эквивалентно переносу начала отсче-
та времени. Из этого определения следует, что для стационарного случайного
процесса:
   1) одномерная функция распределения неизменна в любой момент времени
                                      p1(x, t)=p1(x, t+∆t)=p1(x);
   2) двумерная функция распределения зависит только от разности t2-t1=τ, т. е.
                                     p2(x1, x2, t1, t2)=p2(x1, x2, τ).
   То, что это действительно так, можно доказать, если учесть, что ∆t может
быть любым, в том числе и (–t1). Тогда
           p2(x1, x2, t1, t2)=p2(x1, x2, t1-t1, t2-t1)=p2(x1, x2, 0, t2-t1)=p2(x1, x2, τ).
   3) трехмерная функция распределения зависит от двух разностей t2-t1 и t3-t1 и
      т.д. Очевидно, n – мерный закон распределения зависит от (n-1) разно-
      стей, определяющих взаимное положение всех точек отсчета.
   Поскольку одномерные плотности вероятности стационарного процесса от
времени не зависят, все моменты одномерного распределения и, в частности,
среднее значение и дисперсия постоянны.
   В силу п2. автокорреляция стационарного процесса зависит лишь от разно-
сти τ=t2-t1.
   Стационарные случайные процессы получаются в установившихся режимах
работы источников случайного сигнала при неизменных внешних условиях и
постоянстве параметров цепей, пропускающих такой сигнал.
   Признаком нестационарности случайного процесса служит невыполнение
перечисленных условий неизменности распределений.
   Нестационарные случайные колебания создает любой источник шумовых
колебаний в переходном режиме работы (например, дробовой шум в электрон-
ной лампе в период разогрева катода после включения накала, случайный про-
цесс на выходе инерционной радиоцепи в течение некоторого времени после
подачи на ее вход даже стационарного случайного процесса). Анализ нестацио-
нарных случайных процессов значительно сложнее, чем стационарных.
   До сих пор характеристики случайного процесса определялись через соот-
ветствующие статистические средние значения, находимые путем усреднения
по ансамблю возможных реализаций. Оказывается, что для многих стационар-
ных случайных процессов законы распределения или их моментные функции
можно получать, усредняя необходимые величины по одной реализации за до-
статочно большой промежуток времени.
   На эту возможность указывает тот факт, что однотипные физические систе-
мы (например, радиоприемные устройства одинаковой конструкции) не могут
обладать заметно различающимися «шумовыми» характеристиками, если они
состоят из аналогичных друг другу элементов. Для создания физической моде-
ли ансамбля следовало бы заставить работать все эти системы совместно и
рассматривать каждое из выходных колебаний как отдельную реализацию. Од-
нако опыт показывает, что в реальных условиях при достаточной идентичности

                                            65
изучаемых систем каждая отдельно взятая реализация случайного процесса мо-
жет служить «полномочным» представителем ансамбля в целом.
    Процессы подобного типа носят название эргодических. Стационарные слу-
чайные процессы могут и не обладать свойством эргодичности. Физической мо-
делью неэргодического ансамбля может служить тот же набор «шумящих» ра-
диоприемников при произвольном положении регуляторов усиления в каждом
из них. Характеристики, получаемые усреднением по отдельной реализации, в
этом случае не обязательно совпадают с аналогичными характеристиками ан-
самбля. При анализе двух и более случайных процессов приходится интересо-
ваться тем, насколько они связаны между собой и постоянна ли эта статистиче-
ская связь. Простейшей функцией распределения, характеризующей степень
связи процессов, является двумерная совместная плотность вероятности p(x1,
y2, t1, t2), где в общем случае x1 и y2 – значения разных процессов X(t) и Y(t),
взятые в различающиеся моменты времени t1 и t2.
    В случае эргодических стационарных процессов усреднение по ансамблю
реализаций и по времени в пределах одной реализации приводит к одинаковым
результатам:
                              T
   ∞
                            1 2
    ∫   xp1 ( x )dx = lim
                     T →∞ T T
                                ∫ x (t )dt = x ( t ),                                         (5.20)
   −∞                      −
                             2
                              T
   ∞
                           1 2
    ∫   x 2 p1 ( x )dx = lim      ∫x
                                       2
                                           ( t )dt = x 2 ( t ),                               (5.21)
   −∞                  T →∞ T T
                             −
                               2
                                                                  T
   ∞ ∞                                                          2              
    ∫ ∫ x1 (t ) x 2 (t )p 2 ( x1x 2 )dx1dx 2 = Tlim ∫ x1 (t ) x 2 (t )dt = x1 (t ) x 2 (t )
                                                 →∞
                                                                                              (5.22)
   −∞ −∞                                                       T
                                                             −
                                                               2

   Черта сверху везде обозначает усреднение по времени. Первая из этих фор-
мул определяет среднее значение непрерывного колебания, а вторая – равно-
значна полной средней мощности, развиваемой током или напряжением X(t) на
единичном сопротивлении.
   Если считать x1 и x2 значениями одного и того же процесса
                               x1=x=x(t), x2=xτ=x(t-τ),
то правая часть последней формулы может рассматриваться как определение
автокорреляционной функции (АКФ) колебания x(t), точнее – его переменной,
т.е. центрированной слагающей.




                                                       66
В теории случайных процессов различают понятия стационарности в узком
и широком смысле. Случайную функцию называют стационарной в узком
(строгом) смысле, если выполняются условия стационарности распределения
pn, каким бы ни было n. Если же это условие гарантируется лишь до n=2 (т.е.
для функций распределения не выше второго порядка), то такой процесс назы-
вают стационарным в широком смысле. В этом случае необходимо только
определить, как ведут себя первый и второй моменты одномерного распределе-
ния. Если они зависят от времени, то процесс нестационарен. Если же эти два
момента не зависят от времени, то можно сделать вывод о стационарности про-
цесса в широком смысле. Чтобы убедиться, что процесс стационарен в узком
смысле, необходимо убедиться, что и все моменты более высоких порядков не
зависят от времени. По реализациям случайного процесса можно сделать вы-
вод только о независимости от времени первых двух моментов. На рис. 5.10
представлена реализация случайного процесса, с неизменной дисперсией и
переменным во времени средним значением, а на рис. 5.11 – реализация про-
цесса среднее значение которого равно 0, а дисперсия вполне определенным
образом (неслучайно) зависит от времени.
       x(t)
                                   x(t)                     σ2(x, t)

              σ2(x, t)=const
                               t   0                                   t
   0
                    m1(x, t)
                                               m1(x, t)=0

              Рис. 5.10                        Рис. 5.11


   Нормальные случайные процессы. Центральная предельная теорема.
   Корреляционные характеристики являются исчерпывающими для случай-
ных процессов с нормальным (Гауссовым) распределением. Такие процессы
встречаются в природе и технике чаще других. Поэтому корреляционная теория
выделена, как прикладной раздел теории вероятностей. Одномерный нормаль-
ный закон распределения плотности вероятности случайной величины X есть
функция вида (рис. 5.12):
                                   1               2    2
                       p1( x ) =      e − ( x − a ) / 2σ ,            (5.23)
                                 σ 2π
где σ2 – дисперсия случайной величины, a – ее среднее значение (первый мо-
мент).
   Интегральная форма этого закона распределения (рис. 5.13) представляется
при помощи интеграла



                                          67
x
                               1      − ( x − a ) 2 / 2σ 2
                  F( x ) =         ∫e
                             σ 2π − ∞
                                                           dx                   (5.24)



  p1(x)
                                                   F(x)

                                                      1



              a                      x                                      x

           Рис. 5.12                                            Рис. 5.13

   Значения этого интеграла табулированы, потому что он в элементарных
функциях не вычисляется.
   С нормальным законом распределения приходится сталкиваться в случаях,
когда рассматривают явления, возникшие в результате совокупного действия
большого числа случайных факторов.
   Впервые этот закон был получен при анализе случайных ошибок, присущих
многократным измерениям одной и той же физической величины.
   А.М. Ляпунов доказал теорему, получившую название центральной пре-
дельной теоремы. Из этой теоремы следует, что нормальное распределение
возникает почти во всех случаях, когда анализируемая величина складывается
из множества независимых или слабо зависимых случайных слагаемых.
   Значение нормального закона распределения для анализа случайных процес-
сов в радиотехнике очень велико, поскольку большинство первичных источни-
ков флуктуаций создают Гауссовы шумы.
   Причиной случайных флуктуаций служит дискретная природа электрическо-
го заряда. Закон распределения случайных отклонений тока или напряжения от
своего среднего значения можно выявить, рассматривая механизм образования
суммарного процесса, например, тока в выходной цепи электронной лампы.
   Не только шумы и помехи, но и полезные сигналы, являющиеся суммой
большого числа независимых случайных элементарных сигналов, например
гармонических колебаний со случайной фазой или амплитудой, часто можно
трактовать как случайные гауссовские процессы.
   На основе функции p1(x) можно найти относительное время пребывания сиг-
нала x(t) в определенном интервале уровней, отношение максимальных значе-
ний к среднеквадратическому (пикфактор) и ряд других важных для практики
параметров случайного сигнала.
   Рассмотрим пример. Дана одна из реализаций гауссовского процесса при
m1=0. Эта функция времени соответствует шумовой помехе, энергетический
спектр которой простирается от нулевой частоты до некоторой граничной ча-
                                                 68
стоты. Вероятность пребывания значений x(t) в интервале от a до b определяет-
ся выражением
                                           b
                     Pt1 (a < x ≤ b) = ∫ p1 ( x , t 1 )dx .                                                  (5.25)
                                           a
Подставим в это выражение формулу p1(x):
                                b      2      2                           b      2      2
                       1                                           1
P (a < x < b ) =                ∫ e − x / 2σ x dx =                       ∫ e − x / 2σ x dx −
                     2πσ x a                                  2πσ x 0
         a                                 b / σx                                  a / σx
   1          − x 2 / 2σ x 2          1                 − y2 / 2              1                  2
         ∫e                    dx =            ∫    e              dy −              ∫      e − y / 2 dy =   (5.26)
 2πσ x 0                              2π       0                              2π     0
   b      a
Ф( ) − Ф( ).
  σx     σx

   Функция
                                     1 u − y2 / 2
                            Ф( u ) =    ∫e
                                     2π 0
                                                  dy                       (5.27)

называется интегралом вероятностей. В математических справочниках приво-
дятся таблицы этой функции.
   Подставив в формулу для вероятности b/σx = 1, 2, 3 и a/σx=-1, -2, -3, нетруд-
но найти вероятности пребывания x(t) в полосах шириной 2σx, 4σx, 6σx, симмет-
ричных относительно оси ординат.
   В рассматриваемом частном случае (|a|=b) формулу для расчета вероятности
можно упростить на основании симметрии относительно оси ординат.
Таким образом
                                                   b / σx
                                         2 1           b
                                 ∫
                P ( − b < x < b) = 2e − y / 2 dy = 2Ф( ) .         (5.28)
                            2π 0                      σx
   Результаты вычислений сведены в таблицу. В последней графе приведены
величины, равные 1-2Ф(b/σx). Из этой таблицы следует, что ширину шумовой
дорожки нормального шума можно приравнять (4…5) σx.

   Интервал значений                  Вероятность пребывания                             Вероятность пребывания
                                            в интервале                                      вне интервала.
         (-σx, σx)                        2·0,3413=0,6826                                        ~0,317
        (-2σx, 2σx)                       2·0,4772=0,9544                                        ~0,046
        (-3σx, 3σx)                      2·0,49865=0,9973                                        ~0,003

Приведенные данные о распределении вероятностей не дают никаких представ-
лений о поведении функции x(t) во времени. Для описания временных характе-
ристик функции x(t) необходимо привлечь двумерную плотность вероятности,

                                                            69
позволяющую найти корреляционную функцию. Другой способ – нахождение
спектра мощности случайного процесса.

   Энергетический спектр стационарного случайного процесса.
   Одним из эффективных средств анализа сигналов в радиоцепях является
спектральный метод, основанный на представлении электрических колебаний и
передаточных функций систем при помощи преобразований Фурье. Естествен-
но попытаться приложить математический аппарат спектрального метода к ана-
лизу стационарных случайных процессов.
   Разложение реализаций случайного процесса общего типа в ряд Фурье недо-
пустимо из-за непериодического характера случайной функции. В то же время,
интегральное преобразование Фурье к стационарному процессу также неприме-
нимо, так как подлежащие вычислению интегралы расходятся из-за невыполне-
ния условий Дирихле.
   Если попытаться представить с помощью обычной спектральной плотности
частотные свойства хотя бы нестационарного случайного процесса, реализации
которого {xi(t)}T ограничены длительностью T, это оказывается невозможным
из-за возникшей неопределенности при усреднении по ансамблю соответствую-
щих комплексных спектров. Причина в том, что фазовая характеристика усред-
нению не поддается, поскольку фазы отдельных спектральных компонент рас-
пределены случайно в интервале (-∞, ∞). Выход состоит в том, чтобы при отыс-
кании усредненной спектральной характеристики вообще избавиться от фазо-
вого множителя ejϕi (ω)T, а это достигается путем умножения комплексного спек-
тра Фурье на сопряженную функцию, т.е. переходом к спектральной характери-
стике энергии процесса
                              ⋅       ⋅
                 Эi(ω) T = S i (ω) T S i ( −ω) T ,                (5.29)
где подразумевается существование обычной связи между реализациями и их
спектрами Фурье:
       1 ∞ ⋅          jωt
                                          ⋅
                                                                   − jωt
          ∫ Si (ω) T e dω = x i ( t ) T → Si (ω) T = ∫ x i (t ) T e dt,
      2π −∞
                                                                           (5.30)
                                                     T

                                           ⋅          ⋅
              x i ( t ) T = x i ( − t ) T ↔ S( −ω) T = Si ∗ (ω) T . (5.30)
  Чтобы не привязывать положение интервала T к началу отсчета t, вместо
пределов интегрирования здесь указана в скобках под символом неопределен-
ного интеграла только величина области интегрирования.
  В последней формуле справа показаны варианты обозначения функции,
                                  ⋅
комплексно-сопряженной с S(ω) , а слева – способы, которыми можно отме-
                              T
чать инверсии знака аргумента какой-либо функции, т.е. знаком минус перед
символом аргумента либо галочкой над символом функции.
   Чтобы обойти трудности, связанные с расходимостью интеграла Фурье в
случае преобразования стационарного процесса X(t), из него исключают посто-
                                           70
янную составляющую. Затем вводят в рассмотрение «усеченные» реализации
xi(t)T, представляющие конечные отрезки длиной T неограниченных во времени
реализаций xi(t) (рис.14). После этого при помощи предельного перехода T→∞
                     x(t)
                                 T


                     0                                      t


                                  Рис. 5.14
находят так называемый энергетический спектр i-той реализации
                                       ⋅            ⋅
                  E i (ω) T       Si (ω) Si ∗ (ω) T                  (5.31)
      Wi(ω) = lim           = lim
             T →∞      T     T →∞        T

   Wi характеризует частотное распределение усредненной по времени мощно-
сти в i-той реализации процесса. Умножение на 1/T сопряжено с неограничен-
ным возрастанием энергии при T→∞. Энергитическим спектром W(ω) cстаци-
онарного случайного процесса называется математическое ожидание найден-
ной спектральной характеристики

                                                    2
                                           ⋅
                                       S(ω)T
                                                                     (5.32)
                         W (ω) = lim                    .
                                T →∞           T
                                                                ⋅
   В этой формуле опущен индекс i у спектральной плотности S , поскольку
при усреднении учитывается весь ансамбль реализаций.
   Энергетический спектр любой действительной функции – действительная
неотрицательная функция частоты, т.е. W(ω)≥0.
   Учитывая, что модуль S(ω) обычного спектра Фурье вещественного процес-
са является четной функцией частоты, можно из приведенного определения
энергетического спектра заключить, что он также четная функция часто-
ты:W(ω)=W(-ω).
   На этом основании вместо W(ω) нередко используют функцию W0(ω), назы-
ваемую односторонним энергетическим спектром. Она считается отличной от
нуля только в области положительной частоты ω и определяется как
                                  2W (ω), ω > 0
                                  
                         W0 (ω) =  W (0), ω = 0                     (5.33)
                                   0, ω < 0
                                  
  Соотношение между W(ω) и W0(ω) графически показано на рис. 5.15.


                                               71
W0(ω


                            W(ω)
                                                       W(0)
                                                   0                ω
                                            Рис. 5.15
   Формулы Винера-Хинчина.
   Обычное преобразование Фурье устанавливает связь между законом измене-
ния сигнала во времени и его частотным спектром. Усредненные характеристи-
ки временных и частотных свойств случайного процесса, т.е. функция автокор-
реляции и энергетический спектр, также взаимосвязаны. Существует формула,
названная именами ученых Н. Винера и А.Я. Хинчина, независимо друг от дру-
га получивших ее. Согласно этой формуле энергетический спектр стационарно-
го случайного процесса с нулевым средним значением и его автокорреляцион-
ная функция связаны прямым и обратным интегральными преобразованиями
Фурье:
                 ∞                                      ∞
                                                    1
                 ∫    Ψ (τ) у − jωτ dτ ↔ Ψ (τ) =       ∫ W(ω)e dω .
                                                              jωτ
                                                                                 (5.34)
                 −∞
                                                   2π − ∞
   Здесь Ψ(τ) – автокорреляционная функция стационарного (не обязательно
эргодического) случайного процесса X(t) с нулевым средним значением.

   Свойства спектрально-корреляционных характеристик стационарного
случайного процесса.
   Функции корреляции и энергетическому спектру всякого процесса присущи
свойства, которые характерны для любой пары функций, связанных преобразо-
ванием Фурье. В частности, чем шире спектрW(ω), тем более узка функция
Ψ(τ).
   В качестве меры ширины энергетического спектра стационарного случайно-
го процесса часто берут «энергетическую ширину» ∆fэ, определяя ее по форму-
ле
                                                    ∞
       W0(f0)                              ∆f э = ∫ W (f )df / W (f 0 ),
                                                    0

                                          (5.35)
                                          где W(f0) – значение энергетического спек-
          ∆fэ                             тра на некоторой характеристической часто-
                                          те (рис. 5.16). Обычно f0 соответствует поло-
                                          жению максимума спектральной плотности
                                  f       мощности. Значение ∆fэ в общем случае пре-
         f0
                                          восходит полосу, определяемую по уровню
    Рис. 5.16                             половинной мощности 0,5W(f0) (по напряже-
нию – по уровню 0,7).
                                                   72
Ширину кривой Ψ(τ) принято оценивать интервалом корреляции, который
находят по формуле
                                          ∞

                                          ∫ Ψ (τ)dτ          ∞
                                                                            .   (5.36)
                                 ∆τ к =   0
                                                           = ∫ R ( τ ) dτ
                                              Ψ ( 0)         0

   Иначе говоря, интервал корреляции есть полуширина прямоугольника еди-
ничной высоты, равновеликого с площадью, заключенной под кривой коэффи-
циента корреляции.
   Пользуясь свойствами четности функции корреляции и энергетического
спектра, а также понятием односторонней спектральной плотности, можно при
помощи формулы Эйлера избавиться от показательных функций в формулах
Винера-Хинчина и представить их иначе:

                           ∞
                                                       1
                  W (ω) = 2 ∫ Ψ (τ) cos ωτdτ =           W0 (ω),                (5.37)
                            0
                                                       2



                  ∞                           ∞
                  1                     1
        Ψ ( τ) =    ∫ W0 (ω) cos ωτdω = π ∫ W(ω) cos ωτdω
                 2π 0
                                                                                (5.38)
                                          0

   Нередко вместо «круговой » частоты ω берут «циклическую» частоту f=ω/
2π. При такой замене прямое и обратное преобразование приобретают симмет-
ричный вид:
                                   ∞
                         W (f ) = 2 ∫ Ψ (τ) cos 2πfτdτ ,                        (5.39)
                                   0


                                  ∞
                         Ψ (τ) = 2 ∫ W (f ) cos 2πfτdf                          (5.40)
                                  0




  Из этих формул следуют следующие соотношения:
                                                  ∞
                                 W (0) = 2 ∫ Ψ ( τ)dτ,                          (5.41)
                                                  0


                                              ∞
                                 Ψ (0) = 2 ∫ W (f )df                           (5.42)
                                              0

  Если f0=0, то W(f0)=W(0) и тогда:




                                                      73
∞

                                     ∫ W(f )df
                                     0
                            ∆f э =    ∞
                                                    ,                  (5.43)
                                     2 ∫ Ψ (τ)dτ
                                      0
                                      ∞

                                      ∫ Ψ (τ)dτ
                                      0
                            ∆τ к =    ∞                                (5.44)
                                     2 ∫ W (f )df
                                         0
   Удвоив каждое из полученных равенств и перемножив правые и левые ча-
сти, придем к окончательной формуле
                             2∆fэ2∆τк=1.                               (5.44)
   Таким образом, зная интервал корреляции случайного процесса, можно
определить энергетическую ширину спектра как величину, обратно ей пропор-
циональную. Иногда интервалом корреляции называют 2∆τк, а энергетической
шириной спектра − 2∆fэ. Но это не меняет существа дела, поскольку произведе-
ние названных параметров остается постоянным.
   В тех случаях, когда ширина спектра ∆fэ не намного отличается от частоты,
соответствующей его верхней границе fв (случайный процесс с таким спектром
называется широкополосным), все приведенные формулы остаются достаточно
точными. Но, если ∆fэ<<f0 (узкополосный процесс), определение интервала кор-
реляции по приведенным формулам теряет смысл, так как сам случайный про-
цесс становится похожим на гармонический сигнал, параметры которого (ам-
плитуда и фаза) изменяются гораздо медленнее мгновенного значения колеба-
ния частоты f0. Коэффициент корреляции узкополосного процесса с симметрич-
ным относительно f0 спектром обычно представляется в виде
                             R(τ)=ρ(τ)cosω0τ,                          (5.45)
где ρ(τ) – медленная функция, представляющая собой корреляционную харак-
теристику случайных параметров процесса.
   Особого внимания заслуживает формула
                                         ∞
                            Ψ (0) = 2 ∫ W (f )df ,                     (5.46)
                                          0

которую удобнее переписать в виде
                                         ∞
                              2
                            σ x = ∫ W0 (f )df .                        (5.47)
                                          0
Она показывает, что весь энергетический спектр случайного процесса заключа-
ет в себе всю среднюю мощность. Как следует из этой формулы, если σ2x –
мощность, то энергетический спектр W(f) имеет размерность энергии
[Вт/Гц=Вт⋅с]. Этим и объясняется название спектра – энергетический.




                                              74
Белый шум.
   В случаях, когда шум возникает в результате совместного протекания мно-
жества слабо зависимых явлений (например, вылета электронов с поверхности
катода), мгновенные значения получаемого процесса оказываются почти не
связанными в статистическом смысле в достаточно близкие моменты времени.
(«достаточно близкие» - в сравнении с постоянными времени исследуемых си-
стем).
   Для многих задач весьма продуктивным является приближенное представле-
ние корреляционной характеристики подобного процесса x(t) в виде δ-функции.
                             Ψ(τ)=(W0/2)δ(τ),                         (5.48)
где W0/2 - постоянный множитель.
   Смысл такого выражения для функции корреляции состоит в том, что значе-
ние x(t) в любые два сколь угодно близкие моменты времени считаются некор-
релированными. Энергетический спектр такого процесса, вычисленный по фор-
муле прямого преобразования Фурье, равен
                                  ∞
                             W0                                W0
                                  ∫ δ(τ)e
                                                − jωτ
                   W (ω) =                              dτ =      ,       (5.49)
                             2    −∞
                                                               2
так как
                         ∞

                         ∫ δ ( τ) e
                                      − jωτ
                                              dτ = 1 .
                         −∞
   Таким образом, спектральная плотность мощности процесса постоянна при
всех частотах равна W0 (рис. 5.17).
               W0(f)



                                                 W0
               0                                                      f
                                       Рис. 5.17.
   Случайный процесс, обладающий равномерным энергетическим спектром,
называют белым шумом, по аналогии с белым светом, имеющим в видимой ча-
сти спектра равномерный сплошной спектр.
   Если найти полную мощность (дисперсию) рассматриваемого процесса, то
результат σ2=∞ будет абсурдным с физической точки зрения. Это является
следствием принятой идеализации. В то же время такая идеализация вполне
применима, когда время корреляции шума много меньше постоянной времени
системы, питаемой от источника такого случайного процесса, или иначе, когда
АЧХ исследуемой радиоцепи дает возможность считать спектральную плот-
ность на входе приближенно постоянной.
   Использование белого шума позволяет находить все необходимые характе-
ристики случайного процесса на выходе радиосистемы только через собствен-
ные параметры радиоцепей, входящих в ее состав.

                                                         75
Законы распределения плотности вероятности белого шума могут быть лю-
быми и во многих приложениях их удобно считать нормальными.

   Примеры корреляционных характеристик случайных процессов.
   Рассмотрим пример.
   Пусть стационарный эргодический случайный процесс обладает односто-
ронней спектральной плотностью мощности W0(f)=W0 постоянной в интервале
частот (0, f0) и равной нулю вне этого интервала (рис. 5.17). Найдем корреляци-
онную функцию такого процесса.

                              W0(f)




                             0                             f0          f
                                                Рис. 5.17

                  ∞                    fв
                                                                    sin 2πf в τ
         Ψ (τ) = 2 ∫ W (f ) cos 2πfτdf = ∫ W0 cos 2πfτdf = W0 f в               .   (5.50)
                  0                     0
                                                                      2πа в τ
Полученная корреляционная функция имеет вид, представленный на рис. 5.18

                                            Ψ(τ)



                                            0                        τ

                                             1/2fв

                                                    1/fв
                                     Рис. 5.18




                                                   76

More Related Content

What's hot

Презентация стр 13-17
Презентация стр 13-17Презентация стр 13-17
Презентация стр 13-17serzay
 
TMPA-2013 Frenkel: Verifying Functional Reliability
TMPA-2013 Frenkel: Verifying Functional ReliabilityTMPA-2013 Frenkel: Verifying Functional Reliability
TMPA-2013 Frenkel: Verifying Functional ReliabilityIosif Itkin
 
КОНТРОЛЬ ЗАТРАТ НА УПРАВЛЕНИЕ ПРИ ВОСПРОИЗВЕДЕНИИ ГАРМОНИЧЕСКИХ ЭКЗОГЕННЫХ ВО...
КОНТРОЛЬ ЗАТРАТ НА УПРАВЛЕНИЕ ПРИ ВОСПРОИЗВЕДЕНИИ ГАРМОНИЧЕСКИХ ЭКЗОГЕННЫХ ВО...КОНТРОЛЬ ЗАТРАТ НА УПРАВЛЕНИЕ ПРИ ВОСПРОИЗВЕДЕНИИ ГАРМОНИЧЕСКИХ ЭКЗОГЕННЫХ ВО...
КОНТРОЛЬ ЗАТРАТ НА УПРАВЛЕНИЕ ПРИ ВОСПРОИЗВЕДЕНИИ ГАРМОНИЧЕСКИХ ЭКЗОГЕННЫХ ВО...ITMO University
 
итервальное оценивание параметров распределения
итервальное оценивание параметров распределенияитервальное оценивание параметров распределения
итервальное оценивание параметров распределенияMedvedevaS
 
Laboratorhja
LaboratorhjaLaboratorhja
LaboratorhjaAntiikk
 
МЕТОД ПРЕДСТАВЛЕНИЯ АВТОМАТОВ ЛИНЕЙНЫМИ БИНАРНЫМИ ГРАФАМИ ДЛЯ ИСПОЛЬЗОВАНИЯ В...
МЕТОД ПРЕДСТАВЛЕНИЯ АВТОМАТОВ ЛИНЕЙНЫМИ БИНАРНЫМИ ГРАФАМИ ДЛЯ ИСПОЛЬЗОВАНИЯ В...МЕТОД ПРЕДСТАВЛЕНИЯ АВТОМАТОВ ЛИНЕЙНЫМИ БИНАРНЫМИ ГРАФАМИ ДЛЯ ИСПОЛЬЗОВАНИЯ В...
МЕТОД ПРЕДСТАВЛЕНИЯ АВТОМАТОВ ЛИНЕЙНЫМИ БИНАРНЫМИ ГРАФАМИ ДЛЯ ИСПОЛЬЗОВАНИЯ В...ITMO University
 
лекция №4и
лекция №4илекция №4и
лекция №4иstudent_kai
 
логические модели переключательных схем
логические модели переключательных схемлогические модели переключательных схем
логические модели переключательных схемЕлена Ключева
 
Нормальные формы для формул алгебры высказываний. Совершенные нормальные формы
Нормальные формы для формул алгебры высказываний. Совершенные нормальные формыНормальные формы для формул алгебры высказываний. Совершенные нормальные формы
Нормальные формы для формул алгебры высказываний. Совершенные нормальные формыИльдус Ситдиков
 
5 логические элементы компьютера
5 логические элементы компьютера5 логические элементы компьютера
5 логические элементы компьютераzarechneva
 

What's hot (18)

Презентация стр 13-17
Презентация стр 13-17Презентация стр 13-17
Презентация стр 13-17
 
лекция 2
лекция 2лекция 2
лекция 2
 
3 radiosign
3 radiosign3 radiosign
3 radiosign
 
Get Ft
Get FtGet Ft
Get Ft
 
TMPA-2013 Frenkel: Verifying Functional Reliability
TMPA-2013 Frenkel: Verifying Functional ReliabilityTMPA-2013 Frenkel: Verifying Functional Reliability
TMPA-2013 Frenkel: Verifying Functional Reliability
 
КОНТРОЛЬ ЗАТРАТ НА УПРАВЛЕНИЕ ПРИ ВОСПРОИЗВЕДЕНИИ ГАРМОНИЧЕСКИХ ЭКЗОГЕННЫХ ВО...
КОНТРОЛЬ ЗАТРАТ НА УПРАВЛЕНИЕ ПРИ ВОСПРОИЗВЕДЕНИИ ГАРМОНИЧЕСКИХ ЭКЗОГЕННЫХ ВО...КОНТРОЛЬ ЗАТРАТ НА УПРАВЛЕНИЕ ПРИ ВОСПРОИЗВЕДЕНИИ ГАРМОНИЧЕСКИХ ЭКЗОГЕННЫХ ВО...
КОНТРОЛЬ ЗАТРАТ НА УПРАВЛЕНИЕ ПРИ ВОСПРОИЗВЕДЕНИИ ГАРМОНИЧЕСКИХ ЭКЗОГЕННЫХ ВО...
 
итервальное оценивание параметров распределения
итервальное оценивание параметров распределенияитервальное оценивание параметров распределения
итервальное оценивание параметров распределения
 
Laboratorhja
LaboratorhjaLaboratorhja
Laboratorhja
 
МЕТОД ПРЕДСТАВЛЕНИЯ АВТОМАТОВ ЛИНЕЙНЫМИ БИНАРНЫМИ ГРАФАМИ ДЛЯ ИСПОЛЬЗОВАНИЯ В...
МЕТОД ПРЕДСТАВЛЕНИЯ АВТОМАТОВ ЛИНЕЙНЫМИ БИНАРНЫМИ ГРАФАМИ ДЛЯ ИСПОЛЬЗОВАНИЯ В...МЕТОД ПРЕДСТАВЛЕНИЯ АВТОМАТОВ ЛИНЕЙНЫМИ БИНАРНЫМИ ГРАФАМИ ДЛЯ ИСПОЛЬЗОВАНИЯ В...
МЕТОД ПРЕДСТАВЛЕНИЯ АВТОМАТОВ ЛИНЕЙНЫМИ БИНАРНЫМИ ГРАФАМИ ДЛЯ ИСПОЛЬЗОВАНИЯ В...
 
лекция №4и
лекция №4илекция №4и
лекция №4и
 
днф, кнф, сднф, скнф
днф, кнф, сднф, скнфднф, кнф, сднф, скнф
днф, кнф, сднф, скнф
 
UML: Statechart Diagram
UML: Statechart DiagramUML: Statechart Diagram
UML: Statechart Diagram
 
логические модели переключательных схем
логические модели переключательных схемлогические модели переключательных схем
логические модели переключательных схем
 
Нормальные формы для формул алгебры высказываний. Совершенные нормальные формы
Нормальные формы для формул алгебры высказываний. Совершенные нормальные формыНормальные формы для формул алгебры высказываний. Совершенные нормальные формы
Нормальные формы для формул алгебры высказываний. Совершенные нормальные формы
 
Statechart diagram
Statechart diagramStatechart diagram
Statechart diagram
 
14
1414
14
 
5 логические элементы компьютера
5 логические элементы компьютера5 логические элементы компьютера
5 логические элементы компьютера
 
Lektsia%2b6
Lektsia%2b6Lektsia%2b6
Lektsia%2b6
 

Viewers also liked

лабораторная работа №1
лабораторная работа №1лабораторная работа №1
лабораторная работа №1Zhanna Kazakova
 
дм прз-гл-1-рр-26
дм прз-гл-1-рр-26дм прз-гл-1-рр-26
дм прз-гл-1-рр-26Zhanna Kazakova
 
лабораторная работа №8
лабораторная работа №8лабораторная работа №8
лабораторная работа №8Zhanna Kazakova
 
лабораторная работа №2
лабораторная работа №2лабораторная работа №2
лабораторная работа №2Zhanna Kazakova
 
задачи для самостоятельного решения
задачи для самостоятельного решениязадачи для самостоятельного решения
задачи для самостоятельного решенияZhanna Kazakova
 
лабораторная работа №9
лабораторная работа №9лабораторная работа №9
лабораторная работа №9Zhanna Kazakova
 

Viewers also liked (9)

лабораторная работа №1
лабораторная работа №1лабораторная работа №1
лабораторная работа №1
 
дм прз-гл-1-рр-26
дм прз-гл-1-рр-26дм прз-гл-1-рр-26
дм прз-гл-1-рр-26
 
лекция 5
лекция 5лекция 5
лекция 5
 
зад2 теория
зад2 теориязад2 теория
зад2 теория
 
лабораторная работа №8
лабораторная работа №8лабораторная работа №8
лабораторная работа №8
 
лаб раб 6
лаб раб 6лаб раб 6
лаб раб 6
 
лабораторная работа №2
лабораторная работа №2лабораторная работа №2
лабораторная работа №2
 
задачи для самостоятельного решения
задачи для самостоятельного решениязадачи для самостоятельного решения
задачи для самостоятельного решения
 
лабораторная работа №9
лабораторная работа №9лабораторная работа №9
лабораторная работа №9
 

Similar to 5 sl sign

Лекция 5. Механические колебания (часть 1)
Лекция 5. Механические колебания (часть 1)Лекция 5. Механические колебания (часть 1)
Лекция 5. Механические колебания (часть 1)kotikes
 
317.оптимизация интервалов времени измерения интенсивности потоков излучений
317.оптимизация интервалов времени измерения интенсивности потоков излучений317.оптимизация интервалов времени измерения интенсивности потоков излучений
317.оптимизация интервалов времени измерения интенсивности потоков излученийivanov1566359955
 
спектральный анализ электрических сигналов в лабораторном практикуме курса об...
спектральный анализ электрических сигналов в лабораторном практикуме курса об...спектральный анализ электрических сигналов в лабораторном практикуме курса об...
спектральный анализ электрических сигналов в лабораторном практикуме курса об...Иван Иванов
 
моделирование гуманитарных процессов. Лекция 4
моделирование гуманитарных процессов. Лекция 4моделирование гуманитарных процессов. Лекция 4
моделирование гуманитарных процессов. Лекция 4Andrei V, Zhuravlev
 
7. Дискретная вероятность
7. Дискретная вероятность7. Дискретная вероятность
7. Дискретная вероятностьDEVTYPE
 
Regress 2015.05.011
Regress 2015.05.011Regress 2015.05.011
Regress 2015.05.011Kh Ider
 
моделирование Гуманитарных процессов. Лекция 3
моделирование Гуманитарных процессов. Лекция 3моделирование Гуманитарных процессов. Лекция 3
моделирование Гуманитарных процессов. Лекция 3Andrei V, Zhuravlev
 
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Alexey Paznikov
 
Учебная компьютерная модель «сложение взаимно перпендикулярных колебаний» 200...
Учебная компьютерная модель «сложение взаимно перпендикулярных колебаний» 200...Учебная компьютерная модель «сложение взаимно перпендикулярных колебаний» 200...
Учебная компьютерная модель «сложение взаимно перпендикулярных колебаний» 200...Павел Ермолович
 
Лекция 6. Механические колебания (часть 2)
Лекция 6. Механические колебания (часть 2)Лекция 6. Механические колебания (часть 2)
Лекция 6. Механические колебания (часть 2)kotikes
 

Similar to 5 sl sign (20)

109130.ppt
109130.ppt109130.ppt
109130.ppt
 
Лекция 5. Механические колебания (часть 1)
Лекция 5. Механические колебания (часть 1)Лекция 5. Механические колебания (часть 1)
Лекция 5. Механические колебания (часть 1)
 
лек. 11 скорость реакции
лек. 11 скорость реакциилек. 11 скорость реакции
лек. 11 скорость реакции
 
317.оптимизация интервалов времени измерения интенсивности потоков излучений
317.оптимизация интервалов времени измерения интенсивности потоков излучений317.оптимизация интервалов времени измерения интенсивности потоков излучений
317.оптимизация интервалов времени измерения интенсивности потоков излучений
 
1 uprsign
1 uprsign1 uprsign
1 uprsign
 
спектральный анализ электрических сигналов в лабораторном практикуме курса об...
спектральный анализ электрических сигналов в лабораторном практикуме курса об...спектральный анализ электрических сигналов в лабораторном практикуме курса об...
спектральный анализ электрических сигналов в лабораторном практикуме курса об...
 
моделирование гуманитарных процессов. Лекция 4
моделирование гуманитарных процессов. Лекция 4моделирование гуманитарных процессов. Лекция 4
моделирование гуманитарных процессов. Лекция 4
 
7. Дискретная вероятность
7. Дискретная вероятность7. Дискретная вероятность
7. Дискретная вероятность
 
Regress 2015.05.011
Regress 2015.05.011Regress 2015.05.011
Regress 2015.05.011
 
лекция 2
лекция 2лекция 2
лекция 2
 
лекция 2
лекция 2лекция 2
лекция 2
 
моделирование Гуманитарных процессов. Лекция 3
моделирование Гуманитарных процессов. Лекция 3моделирование Гуманитарных процессов. Лекция 3
моделирование Гуманитарных процессов. Лекция 3
 
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
 
test
testtest
test
 
4
44
4
 
лекция 15
лекция 15лекция 15
лекция 15
 
6 pr sl sign
6 pr sl sign6 pr sl sign
6 pr sl sign
 
Учебная компьютерная модель «сложение взаимно перпендикулярных колебаний» 200...
Учебная компьютерная модель «сложение взаимно перпендикулярных колебаний» 200...Учебная компьютерная модель «сложение взаимно перпендикулярных колебаний» 200...
Учебная компьютерная модель «сложение взаимно перпендикулярных колебаний» 200...
 
л 2 14
л 2 14л 2 14
л 2 14
 
Лекция 6. Механические колебания (часть 2)
Лекция 6. Механические колебания (часть 2)Лекция 6. Механические колебания (часть 2)
Лекция 6. Механические колебания (часть 2)
 

More from Zhanna Kazakova (20)

презентация диагностика
презентация диагностикапрезентация диагностика
презентация диагностика
 
лаб. работа №1
лаб. работа №1лаб. работа №1
лаб. работа №1
 
лекция 26
лекция 26лекция 26
лекция 26
 
лекция 25
лекция 25лекция 25
лекция 25
 
лекция 24
лекция 24лекция 24
лекция 24
 
лекция 23
лекция 23лекция 23
лекция 23
 
лекция 22
лекция 22лекция 22
лекция 22
 
лекция 22
лекция 22лекция 22
лекция 22
 
лекция 21
лекция 21лекция 21
лекция 21
 
лекция 20
лекция 20лекция 20
лекция 20
 
лекция 18
лекция 18лекция 18
лекция 18
 
лекция 19
лекция 19лекция 19
лекция 19
 
лекция 18
лекция 18лекция 18
лекция 18
 
лекция 17
лекция 17лекция 17
лекция 17
 
лекция 16
лекция 16лекция 16
лекция 16
 
лекция 15
лекция 15лекция 15
лекция 15
 
лекция 14
лекция 14лекция 14
лекция 14
 
лекция 13
лекция 13лекция 13
лекция 13
 
лекция 12
лекция 12лекция 12
лекция 12
 
лекция 11
лекция 11лекция 11
лекция 11
 

5 sl sign

  • 1. РАЗДЕЛ 5. ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ СИГНАЛОВ Введение. При передаче сообщений детерминированное описание сигналов принципи- ально невозможно и на смену ему приходит вероятностное (статистическое) описание. Отличительная черта случайного сигнала состоит в том, что его мгновенные значения заранее не предсказуемы. Однако, изучая такой сигнал более при- стально, можно заметить, что ряд характеристик весьма точно описываются в вероятностном смысле. Например, напряжение на зажимах нагретого резистора представляет собой последовательность малых, быстроизменяющихся во вре- мени случайных отклонений, называемых флуктуациями. Примечательно, что чаще всего наблюдаются небольшие отклонения от среднего уровня; чем больше отклонения по абсолютному значению, тем реже они наблюдаются. Уже в этом проявляется некоторая статистическая закономерность. Распола- гая сведениями о вероятностях флуктуаций различной величины, удается со- здать математическую модель случайного колебания, вполне приемлемую как в научном, так и в прикладном плане. Исходные понятия. Математический аппарат анализа случайных сигналов строится на базе тео- рии вероятностей и ее разделов – теории случайных процессов, теории стати- стических решений и т.п. Ведущим понятием в теории вероятностей является случайное событие. Если N событий равновозможны, но только n из них обладают признаком A, то вероятность события, имеющего этот признак, P(A)=n/N. По смыслу определения вероятность всегда удовлетворяет условию 0≤P≤1. Соотношения между вероятностями различных событий, т.е. разных исходов опыта, называют законом распределения вероятностей. Группа событий представляет множество возможных исходов опыта. Несколько событий образуют полную группу, если в результате испытаний обязательно будет происходить одно из них. Несовместимые события характерны тем, что появление в опыте одного из них исключает возможность осуществления другого. Часто возникает необходимость выразить вероятность некоторого сложного события через вероятности составляющих его событий. Для этого используют- ся понятиями суммы и произведения событий. Суммой двух событий A и B называют событие C, состоящее в наступле- нии или A или B: C=A+B. Произведением двух событий A и B называют событие C, состоящее в осу- ществлении A и B вместе: C=AB. 53
  • 2. Вероятность суммы несовместимых событий определяется теоремой сложе- ния и находится по формуле: P(A+B)=P(A)+P(B). Вероятность суммы несовместимых событий A1, A2, … An, имеющих вероятности P(A1), P(A2) … P(An) равна P (A1+A2+ … An)=P(A1)+P(A2)+ … P(An) Следствием такого обобщения является «правило нормировки»: если A1, A2, … An несовместимы и составляют полную группу, то сумма вероятностей этих событий равна единице: n ∑ P( Ai ) = 1 i =1 Вероятность произведения двух событий A и B можно определить, пользу- ясь «теоремой умножения»: вероятность произведения событий A и B равна произведению вероятности первого из них на условную вероятность второго при условии, что осуществилось первое P (AB) =P (A) P (B/A) =P (B) P (A/B) Если A и B независимы, то это означает, что P(A/B)=P(A) и P(B/A)=P(B), откуда следует, что P(AB)=P(A)P(B). Приведенная формула обобщается на случай произведения нескольких неза- висимых событий, имеющих вероятности P(A1), P(A2), … P(An): P (A1A2...An) =P (A1) P (A2)…P (An). Если различным результатам опыта приписать количественные характери- стики, придем к понятию случайной величины. В зависимости от структуры множества возможных значений случайной величины могут быть дискретными или непрерывными. Описание случайной величины состоит в том, чтобы указать все возможные ее значения и вероятности их наступления. В радиотехнике понятие случайной величины используется при описании реальных процессов, протекающих в различных устройствах под действием сигналов и помех. Эти процессы являются случайными функциями времени, поскольку значения таких функций в произвольно взятые моменты времени мо- гут быть охарактеризованы только как случайных величины. Рассмотрим ток через телеграфный ключ (рис. 5.1), с помощью которого i(t) t1 t2 ti t Рис. 5.1 формируется последовательность посылок или пауз. Если содержание теле- граммы заранее неизвестно, то мгновенное значение тока в любой из моментов 54
  • 3. t1, t2, …ti, можно рассматривать как случайное, и для его описания необходимы вероятностные характеристики. Здесь мы впервые столкнулись со случайным процессом, представляющим поток случайных величин, которые описывают поведение этого процесса во времени. Виды случайных процессов в радиотехнике. Все реальные физические процессы протекают в непрерывном времени и наиболее точно описываются непрерывными функциями. Однако при практиче- ском анализе случайных колебаний и сигналов часто используют математиче- ские модели, опирающиеся на дискретное представление, как аргументов, так и функций. Применение той или иной модели определяется необходимой степе- нью детализации различных сторон явления. Используется следующая класси- фикация. 1) Вполне непрерывный случайный процесс. Физическим прообразом может служить флуктуационный шум, существующий на выходе всякого радиоприем- ного устройства даже в отсутствие принимаемого полезного сигнала. Шкала мгновенных значений непрерывного случайного процесса является сплошной, так как выходное напряжение в различные моменты может принимать любые u(t) t Рис. 5.2 значения (рис. 5.2). 2) Случайный процесс, непрерывный по времени и квантованный по уровню отличается от вполне непрерывного тем, что его мгновенные значения не обра- зуют непрерывного ряда. Пример – телеграфный сигнал (Рис. 5.1). 3) Случайный процесс, дискретный по времени и непрерывный по уровню, т.е. дискретный поток непрерывных случайных величин (Рис. 5.3). Прообраз - последовательность видеоимпульсов большой скважности («выборок», ам- u(t) 0 t Рис. 5.3 плитуда которых изменяется от импульса к импульсу по случайному закону, причем модулирующая кривая представляет непрерывный случайный процесс. 55
  • 4. Случайные сигналы такого вида могут получаться в передающих устройствах связных радиолиний с АИМ. 4) Случайный процесс дискретный по времени и квантованный по уровню, т.е. дискретный поток дискретных случайных величин (Рис. 5.4). Отличие от процесса предыдущего вида состоит в том., что последовательность образуется выборками из дискретного случайно процесса. u(t) 0 t Рис. 5.4 Приведенные графики, изображают отдельные вполне детерминированные реализации случайных процессов. Но такая отдельная реализация является представителем целого ансамбля возможных реализаций данного случайного процесса. Ансамбль составляет полную группу событий, поэтому очевидно для исчерпывающего описания статистических свойств процесса необходимо опре- делить вероятность каждой реализации. Однако практически это можно сделать только в случаях, когда реализации, входящие в ансамбль, отличаются друг от друга параметрами, постоянными на протяжении каждой реализации. Подобный ансамбль соответствует, например, случайному процессу вида x(t)=Umcos(ω0t+ϕ), где Um и ω0 – одинаковые для всех реализаций постоянные величины а ϕ - фаза, случайная по величине, но постоянная на протяжении лю- бой отдельной реализации (Рис.5.5). Такая функция удовлетворительно описы- вает напряжение на выходе генератора гармони- x1(t) ческих колебаний с неизвестной заранее началь- ной фазой. Для полного описания вероятностных t характеристик процесса достаточно задать рас- x2(t) пределение вероятностей фазы ϕ. Ансамбль реализаций случайного процесса t более общего вида (Рис. 5.6) – его физическим эк- вивалентом можно считать, например, набор шу- мящих источников одинаковой физической при- xi(t) роды, находящихся в идентичных условиях − од- нотипных электронных ламп или транзисторов t при одинаковой окружающей температуре и рав- ных питающих напряжениях. Здесь нельзя точно Рис. 5.5 предсказать поведение отдельной реализации по одному или нескольким мгновенным значениям, или по найденной начальной фазе. Чтобы описать статистические свойства та- ких колебаний, необходимо уметь задавать законы распределения вероятностей 56
  • 5. мгновенных значений, а также учитывать вероятности смены одних значений x1(t) 0 t x1(t1) x2(t) 0 t x2(t1) xN(t) xN(t1) 0 t t1 Рис. 5.6 другими. Одномерные законы распределения и их моменты. Поскольку определение случайного процесса основано на понятии случай- ной величины, необходимо установить достаточно универсальный способ пред- ставления законов распределения вероятностей случайных чисел (величин). Если случайная величина дискретна, ее закон можно описать таблицей. Веро- ятностные характеристики непрерывных случайных чисел нельзя табулировать, а графическое или аналитическое их описание должно отражать возможность появления в случайном опыте любого из несчетного множества значений. Зафиксируем на всех реализациях момент времени t1 (Рис. 5.6) и измерим получившиеся в этот момент мгновенные значения. В результате получим на- бор отличающихся друг от друга чисел x1(t1), x2(t1),…xN(t1). Выделив из общего количества N те n чисел, которые заключены в достаточ- но малом интервале (x, x+∆x), можем установить, что относительная доля n/N значений, попавших в этот интервал, с ростом N стремится к определенной ве- личине, пропорциональной ∆x. Коэффициент пропорциональности зависит от x и может изменяться также при сдвиге точки отсчета t1. Таким образом, можно написать n lim = p1( x , t1)∆x N (5.1) N →∞ Коэффициент p1(x, t1) называют одномерной плотностью вероятности слу- чайного процесса X(t). Индекс при t1 можно опустить, если p1 задается для лю- бого t. 57
  • 6. Приведенное определение, по сути дела, повторяет определение плотности вероятности случайной величины. Рассмотрим простой случайный опыт. Пусть радиолокатор с дальностью действия от 0 до L км при включении обнаружива- ет точечную цель, расстояние до которой обозначим xi. Определим вероятность того, что при обнаружении очередной цели расстояние до нее окажется в интер- вале (x, x+∆x), если предположить достаточную малость этого интервала. Веро- ятность интересующего нас события P(x≤xi<x+∆x) пропорциональна ∆x и при стягивании интервала в точку, очевидно, стремится к нулю. Следовательно, мо- жем записать P(x≤xi<x+∆x)≈p1(x) ∆x, (5.2) где p1(x) – одномерная плотность вероятности случайной величины X. Вид функции p1(x) зависит от условий опыта. Если дальность до цели может равно- вероятно оказаться любой из интервала от 0 до L, то p1(x)=const. Для численно- го определения этой константы следует воспользоваться правилом нормировки, по которому сумма вероятностей попадания точки xi на бесконечно малые от- резки, в целом образующие L, должна быть равна единице. Это правило удоб- нее записывать в интегральной форме ∞ ∫ p1(x )dx = 1 . (5.3) −∞ Бесконечные пределы интегрирования фактически предусматривают инте- грирование по всему интервалу возможных значений случайной величины. В нашем примере это дает L ∫ p1( x )dx = Lp1( x ) = 1, (5.4) 0 откуда получаем выражение для равномерного закона распределения случай- ной величины в интервале L: p1(x)=1/L. График этого закона распределения приведен на рис. 5.7. Легко видеть, что площадь под кривой равна 1. p1(x) 1/L 0 x x L Рис. 5.7 Для одномерной плотности вероятности случайного процесса правило нор- мировки записывается аналогично: ∞ ∫ W1(x, t )dx = 1. (5.5) −∞ 58
  • 7. Как и сама вероятность, плотность вероятности неотрицательна. Плотность вероятности p1(x) иначе называют дифференциальным законом распределения в отличие от интегральной функции распределения F(x), которая представляет собой вероятность P события, заключающегося в том, что случайная величина окажется внутри интервала (-∞, x). По определению интегральная функция рас- пределения выражает вероятность суммы событий, состоящих в попадании слу- чайной величины X во все бесконечно малые интервалы слева от точки x, и эта вероятность может быть записана в виде интеграла x F( x, t ) = P(X( t ) < x ) = ∫ p1(x, t )dx . (5.6) −∞ Параметр t в этой записи указывает на то, что данная случайная величина яв- ляется выборкой случайного процесса, взятой в момент t. В случаях, когда за- кон распределения от времени не зависит, аргумент t опускают. В соответствии с последней формулой, интегральная функция распределе- ния соответствует площади, заключенной под кривой плотности вероятности слева от выбранной точки x. В приведенном примере с равномерным диффе- ренциальным законом распределения функция F(x), численно выражающая эту площадь, линейно зависит от аргумента на интервале длиной L, вне него слева равна нулю, а справа – единице (рис. 5.8). F(x) 1 0 x L Рис. 5.8 Два последних свойства присущи любым интегральным функциям распреде- ления и сводятся к предельным соотношениям: lim F( x ) = 0 x → −∞ (5.7) lim F( x ) = 1 x →∞ Обратный переход от интегрального закона распределения к дифференци- альному совершается по формуле d p1 ( x ) = F( x ) , (5.8) dx которая получена в результате дифференцирования интеграла по верхнему пре- делу. При нахождении производной от ступенчатой функции возникают формаль- ные осложнения, связанные с необходимостью математического описания раз- рывов плотности вероятности в точках, где интегральная функция терпит скач- ки. Эту трудность можно обойти, если воспользоваться для представления плотности вероятности в таких точках δ-функцией. Можно показать, что в точ- 59
  • 8. ке разрыва производная от интегральной функции определяется произведением разности значений функции F(x) справа и слева от рассматриваемой точки x0 на δ-функцию p1(x)=[F+(x0)-F-(x0)]δ(x-x0), где F+(x0) и F-(x0) – значения интеграль- ной функции справа и слева от x0 соответственно. Так, например, аналитическое выражение для плотности вероятности слу- чайной величины, представляющей число очков при случайных опытах с броса- нием игральной кости, записываются в виде 1 1 1 p1( x ) = δ( x − 1) + δ( x − 2) + ... + δ( x − 6). (5.9) 6 6 6 Используя δ-функцию, удается описывать статистические свойства случай- ных процессов или величин смешанного типа. Примером такого процесса слу- жит флуктуационное напряжение на выходе идеального широкополосного ограничителя. Числовые характеристики случайных величин и процессов. Одномерные моментные функции. Одномерные законы распределения величин и процессов дают исчерпываю- щие сведения о вероятностях отдельных значений таких величин или однократ- ных (не связанных между собой) выборок из возможных реализаций случайно- го процесса. Однако при некоторых преобразованиях случайного процесса за- кон его распределения претерпевает изменения, точный расчет которых осуще- ствим далеко не всегда. Более легкой оказывается задача пересчета отдельных числовых характеристик распределения. Опыты по определению плотностей вероятностей также сложнее и дороже экспериментов с нахождением числовых характеристик. К тому же ответы на многие практические вопросы можно найти, пользуясь лишь достаточно грубыми числовыми параметрами. Вспомним числовые характеристики одномерных распределений случайных величин, а затем, зная связь между понятиями случайной величины и случайно- го процесса, определим аналогичные характеристики последнего. Все числовые параметры законов распределения (иначе говоря, самой слу- чайной величины) находятся путем вычисления математического ожидания этой величины или простейших функций от нее. Понятие математического ожидания вытекает из определения среднего арифметического. Если случайная величина X является непрерывной, то ее математическое ожидание или среднее значение находят по формуле ∞ M (X) = x = x = m1( x ) = ∫ xp1(x )dx , (5.10) −∞ которая представляет предел взвешенной суммы для случая, когда возможные значения X образуют несчетное множество. Пользуясь δ-функцией для описа- ния плотностей вероятности дискретных случайных величин, можно применять последнюю формулу при решении любых задач с нахождением среднего. 60
  • 9. Математическое ожидание детерминированной функции от случайной ве- личины ϕ(X) находим, рассматривая совокупность возможных значений этой функции ϕ(x1), ϕ(x2),…ϕ(xn) как новую случайную величину. Таким образом ∞ M[ ϕ( x )] = ϕ( x ) = ∫ ϕ( x )p1( x )dx . (5.11) −∞ Эта формула устанавливает правила нахождения других числовых характе- ристик случайной величины. К ним относятся моменты m2(x), m3(x),…mn(x) для любого n: ∞ n n n m n ( x ) = M (X ) = x = ∫x p1( x )dx . (5.12) −∞ Связь между формой закона распределения и его числовыми характеристи- ками становится нагляднее при использовании понятия центрированной слу- чайной величины. Случайная величина называется центрированной, если ее среднее значение равно нулю. Случайную величину X можно центрировать, если вместо нее рассматривать новую величину X-M(X). Поскольку это соотношение эквивалентно изменению всех возможных зна- чений X на одну и ту же постоянную M(X), это равносильно смещению начала координат на графике одномерной плотности вероятности на M(X) вдоль оси абсцисс и не связано с какими-либо деформациями закона распределения. Моменты центрированной случайной величины называют центральными, в отличии от начальных моментов. По определению центральный момент n-го порядка ∞ µ n ( x ) = [ x − m1( x )] n = ∫ [ x − m1(x )] n p1( x )dx (5.13) −∞ Первый центральный момент центрированной случайной величины всегда равен 0. Второй центральный момент можно выразить через начальные моменты. Его называют дисперсией случайной величины X, пользуясь для нее обозначением σ2(x). Дисперсия характеризует рассеяние возможных значений случайной ве- личины X относительно ее среднего значения. Первая степень σ(x), равная положительному значению корня квадратного из второго центрального момента, носит название среднего квадратического от- клонения (СКО) случайной величины X. Размерность СКО совпадает с размер- ностью X, поэтому СКО может использоваться в качестве непосредственной меры ширины кривой плотности вероятности p1(x). Числовые характеристики одномерных распределений случайных процессов определяются точно так же, как для случайных величин, с той лишь разницей, что получаемые результаты могут оказаться зависящими от времени, поскольку сами функции распределения в общем случае тоже изменяются во времени. Та- ким образом, указанные характеристики вместо чисел становятся функциями времени и носят название моментных функций. 61
  • 10. Двумерные и многомерные характеристики случайных величин и про- цессов. До сих пор мы рассматривали способы математического описания отдель- ных случайных величин или выборок случайного процесса. Введенные одно- мерные характеристики дают важные, но не полные сведения об исследуемых явлениях. Так, одномерная плотность вероятности случайного процесса не дает представления о динамике его развития. Более полной характеристикой случайного процесса является двумерная плотность вероятности, отражающая вероятностную связь между значениями случайной функции в два произвольных момента времени t1 и t2. Если рассмат- ривать ансамбль возможных реализаций процесса, то двумерная функция рас- пределения будет характеризовать совместно как вероятности его значений в моменты t1 и t2, так и вероятности смены одних значений другими при переходе от t1 к t2. Совокупность выборок xi(t1) и xi(t2) можно представить как две случайные величины, между которыми существует статистическая связь. Пользуясь таким подходом, нетрудно понять смысл определения двумерной плотности вероятно- сти. Оно вытекает из записи выражения, представляющего вероятность попада- ния конца случайного вектора в пределы достаточно малой площадки ∆x1, ∆x2 x2 ∆x2 x2 ∆x1 x1 x1 Рис. 5.9 около точки с координатами x1, x2 (рис. 5.9)  x ≤ X1 < x1 + ∆x1  P 1  x ≤ X < x + ∆x  ≈ p 2 ( x1, x 2 ) ∆x1∆x 2  (5.14)  2 2 2 2 Поделив обе части этого выражения на ∆x1∆x2 и устремив полученный ре- зультат к пределу, найдем двумерную плотность вероятности  x ≤ X1 < x1 + ∆x1  P 1  x ≤ X < x + ∆x   p 2 ( x1, x 2 ) = lim  2 2 2 2. (5.15) ∆x1 →0 ∆x1∆x 2 ∆x 2 →0 Свойства введенной функции распределения во многом подобны свойствам одномерной плотности вероятности. Как всякая вероятность, двумерная плот- ность – неотрицательная функция. 62
  • 11. Правило нормировки двумерной плотности вытекает из условия, что вероят- ность того, что конец двумерного случайного вектора попадет в какую либо из точек плоскости X 1X2 есть вероятность достоверного события, равная единице. Поэтому ∞ ∞ ∫ ∫ p 2 (x1, x 2 )dx1dx 2 = 1 (5.16) −∞ −∞ При решении практических задач часто используют правило перехода от двумерной плотности вероятности к одномерной. Для такого перехода необхо- димо проинтегрировать двумерную плотность вероятности по лишней перемен- ной. Например, ∞ p1( x 2 ) = ∫ p 2 ( x1, x 2 )dx1 . (5.17) −∞ Двумерные законы распределения учитывают статистическую связь отдель- ных пар значений случайных величин или выборок случайного процесса. Для учета связи между большим числом значений необходимо пользоваться функ- циями распределения более высокой размерности. Плотность вероятности pn(x1, x2, …,xn) применительно к случайному процессу называется его n - мер- ной плотностью и определяет вероятность того, что значения случайной функ- ции x(t) в моменты t1, t2,…tn заключены соответственно в интервалах (x1, x1+∆x1), (x2, x2+∆x2),…,(xn+xn+∆xn). При достаточно малых ∆xi эта вероятность равна pn(x1, x2, …xn) ∆x1∆x2…∆xn. Описание случайного процесса при помощи n – мерной плотности вероятно- сти будет тем детальнее, чем больше n. Корреляционные моменты. Многомерные плотности вероятности (как и одномерные) можно описывать частными числовыми характеристиками, которые в дополнение к моментам од- номерных распределений дают информацию о статистической связанности зна- чений случайных величин и процессов. Простейшей, хотя и не всегда исчерпывающей мерой связи между значения- ми случайных величин или процессов служат смешанные моменты (моментные функции) второго порядка. В общем случае они находятся через двумерную плотность вероятности p2(x1, x2) по формуле ∞ ∞ m12 = ∫ ∫ x1x 2 p 2 (x1 x 2 )dx1dx 2 . (5.18) −∞ −∞ Это выражение представляет собой математическое ожидание произведения случайных величин x1 и x2, которые могут быть, например, выборками из слу- чайного процесса X(t) в точках t1 и t2, либо значениями двух разных случайных функций X1(t) и X2(t). Наиболее употребительной из смешанных числовых ха- 63
  • 12. рактеристик является математическое ожидание произведения центрированных случайных величин ∞ ∞ µ12 = ∫ ∫ [ x1 − m1 ( x1 )][ x 2 − m1 (x 2 )] ⋅ p 2 (x 1 , x 2 )dx1dx 2 . (5.19) −∞ −∞ Эту характеристику называют корреляционным моментом случайных чисел x1 и x2. Если представляют выборки из одной и той же случайной функции X(t), то иногда такую характеристику называют автокорелляцией. В случае, когда усредняется произведение центрированных значений, взятых из разных процес- сов, его называют также взаимной корреляцией. Рассматривая автокорреляцию случайного процесса, легко установить, что при достаточно малом интервале τ между моментами отсчета t2(i) и t1(i) любые   пары центрированных значений x (i) и x (i) лишь немногим отличаются по 1 2 величине и почти никогда не различаются знаками. Поэтому среднее для ан- самбля реализаций X(t) произведение таких величин остается положительным и по мере уменьшения τ приближается к дисперсии, т. е. µ12(t1=t2)=σ2(t) Невозможность сколь угодно быстрой смены значений в реализациях функ- ции X(t), если она описывает физический процесс, объясняется инерционно- стью элементов, в которых он протекает. Ими, в частности, могут быть конден- саторы, катушки индуктивности, распределенные реактивности проводников. Если реализации не содержат детерминированной или квазидетерминирован- ной составляющей, то такой процесс называют чисто случайным. Такой про- цесс по определению является центрированным, ибо отличное от нуля среднее значение представляет уже некоторую детерминированную компоненту. С уве- личением интервала τ между выборками из чисто случайного процесса относи-   тельное количество реализаций, в которых x 1 и x 2 противоположны по знаку, растет и становится соизмеримо с числом пар, где знаки совпадают. Это умень- шает математическое ожидание произведения центрированных величин. Такое свойство автоковариации можно представить неравенством µ12(t1=t2)≥µ12(t1≠t2). При значительном разносе по оси времени точек отсчета в чисто случайном   процессе связь значений x и x уменьшается. Это свойство выражается со- 1 2 отношением lim µ12 = 0 t 2 − t1 = τ→∞ . Стационарные и эргодические случайные процессы. В радиотехнике большую роль играют стационарные случайные процессы. 64
  • 13. Случайный процесс X(t) является стационарным, если любая n – мерная функция распределения его значений не меняется при любом сдвиге всей груп- пы точек t1, t2, …tn вдоль оси времени, что эквивалентно переносу начала отсче- та времени. Из этого определения следует, что для стационарного случайного процесса: 1) одномерная функция распределения неизменна в любой момент времени p1(x, t)=p1(x, t+∆t)=p1(x); 2) двумерная функция распределения зависит только от разности t2-t1=τ, т. е. p2(x1, x2, t1, t2)=p2(x1, x2, τ). То, что это действительно так, можно доказать, если учесть, что ∆t может быть любым, в том числе и (–t1). Тогда p2(x1, x2, t1, t2)=p2(x1, x2, t1-t1, t2-t1)=p2(x1, x2, 0, t2-t1)=p2(x1, x2, τ). 3) трехмерная функция распределения зависит от двух разностей t2-t1 и t3-t1 и т.д. Очевидно, n – мерный закон распределения зависит от (n-1) разно- стей, определяющих взаимное положение всех точек отсчета. Поскольку одномерные плотности вероятности стационарного процесса от времени не зависят, все моменты одномерного распределения и, в частности, среднее значение и дисперсия постоянны. В силу п2. автокорреляция стационарного процесса зависит лишь от разно- сти τ=t2-t1. Стационарные случайные процессы получаются в установившихся режимах работы источников случайного сигнала при неизменных внешних условиях и постоянстве параметров цепей, пропускающих такой сигнал. Признаком нестационарности случайного процесса служит невыполнение перечисленных условий неизменности распределений. Нестационарные случайные колебания создает любой источник шумовых колебаний в переходном режиме работы (например, дробовой шум в электрон- ной лампе в период разогрева катода после включения накала, случайный про- цесс на выходе инерционной радиоцепи в течение некоторого времени после подачи на ее вход даже стационарного случайного процесса). Анализ нестацио- нарных случайных процессов значительно сложнее, чем стационарных. До сих пор характеристики случайного процесса определялись через соот- ветствующие статистические средние значения, находимые путем усреднения по ансамблю возможных реализаций. Оказывается, что для многих стационар- ных случайных процессов законы распределения или их моментные функции можно получать, усредняя необходимые величины по одной реализации за до- статочно большой промежуток времени. На эту возможность указывает тот факт, что однотипные физические систе- мы (например, радиоприемные устройства одинаковой конструкции) не могут обладать заметно различающимися «шумовыми» характеристиками, если они состоят из аналогичных друг другу элементов. Для создания физической моде- ли ансамбля следовало бы заставить работать все эти системы совместно и рассматривать каждое из выходных колебаний как отдельную реализацию. Од- нако опыт показывает, что в реальных условиях при достаточной идентичности 65
  • 14. изучаемых систем каждая отдельно взятая реализация случайного процесса мо- жет служить «полномочным» представителем ансамбля в целом. Процессы подобного типа носят название эргодических. Стационарные слу- чайные процессы могут и не обладать свойством эргодичности. Физической мо- делью неэргодического ансамбля может служить тот же набор «шумящих» ра- диоприемников при произвольном положении регуляторов усиления в каждом из них. Характеристики, получаемые усреднением по отдельной реализации, в этом случае не обязательно совпадают с аналогичными характеристиками ан- самбля. При анализе двух и более случайных процессов приходится интересо- ваться тем, насколько они связаны между собой и постоянна ли эта статистиче- ская связь. Простейшей функцией распределения, характеризующей степень связи процессов, является двумерная совместная плотность вероятности p(x1, y2, t1, t2), где в общем случае x1 и y2 – значения разных процессов X(t) и Y(t), взятые в различающиеся моменты времени t1 и t2. В случае эргодических стационарных процессов усреднение по ансамблю реализаций и по времени в пределах одной реализации приводит к одинаковым результатам: T ∞ 1 2 ∫ xp1 ( x )dx = lim T →∞ T T ∫ x (t )dt = x ( t ), (5.20) −∞ − 2 T ∞ 1 2 ∫ x 2 p1 ( x )dx = lim ∫x 2 ( t )dt = x 2 ( t ), (5.21) −∞ T →∞ T T − 2 T ∞ ∞  2    ∫ ∫ x1 (t ) x 2 (t )p 2 ( x1x 2 )dx1dx 2 = Tlim ∫ x1 (t ) x 2 (t )dt = x1 (t ) x 2 (t ) →∞ (5.22) −∞ −∞ T − 2 Черта сверху везде обозначает усреднение по времени. Первая из этих фор- мул определяет среднее значение непрерывного колебания, а вторая – равно- значна полной средней мощности, развиваемой током или напряжением X(t) на единичном сопротивлении. Если считать x1 и x2 значениями одного и того же процесса x1=x=x(t), x2=xτ=x(t-τ), то правая часть последней формулы может рассматриваться как определение автокорреляционной функции (АКФ) колебания x(t), точнее – его переменной, т.е. центрированной слагающей. 66
  • 15. В теории случайных процессов различают понятия стационарности в узком и широком смысле. Случайную функцию называют стационарной в узком (строгом) смысле, если выполняются условия стационарности распределения pn, каким бы ни было n. Если же это условие гарантируется лишь до n=2 (т.е. для функций распределения не выше второго порядка), то такой процесс назы- вают стационарным в широком смысле. В этом случае необходимо только определить, как ведут себя первый и второй моменты одномерного распределе- ния. Если они зависят от времени, то процесс нестационарен. Если же эти два момента не зависят от времени, то можно сделать вывод о стационарности про- цесса в широком смысле. Чтобы убедиться, что процесс стационарен в узком смысле, необходимо убедиться, что и все моменты более высоких порядков не зависят от времени. По реализациям случайного процесса можно сделать вы- вод только о независимости от времени первых двух моментов. На рис. 5.10 представлена реализация случайного процесса, с неизменной дисперсией и переменным во времени средним значением, а на рис. 5.11 – реализация про- цесса среднее значение которого равно 0, а дисперсия вполне определенным образом (неслучайно) зависит от времени. x(t) x(t) σ2(x, t) σ2(x, t)=const t 0 t 0 m1(x, t) m1(x, t)=0 Рис. 5.10 Рис. 5.11 Нормальные случайные процессы. Центральная предельная теорема. Корреляционные характеристики являются исчерпывающими для случай- ных процессов с нормальным (Гауссовым) распределением. Такие процессы встречаются в природе и технике чаще других. Поэтому корреляционная теория выделена, как прикладной раздел теории вероятностей. Одномерный нормаль- ный закон распределения плотности вероятности случайной величины X есть функция вида (рис. 5.12): 1 2 2 p1( x ) = e − ( x − a ) / 2σ , (5.23) σ 2π где σ2 – дисперсия случайной величины, a – ее среднее значение (первый мо- мент). Интегральная форма этого закона распределения (рис. 5.13) представляется при помощи интеграла 67
  • 16. x 1 − ( x − a ) 2 / 2σ 2 F( x ) = ∫e σ 2π − ∞ dx (5.24) p1(x) F(x) 1 a x x Рис. 5.12 Рис. 5.13 Значения этого интеграла табулированы, потому что он в элементарных функциях не вычисляется. С нормальным законом распределения приходится сталкиваться в случаях, когда рассматривают явления, возникшие в результате совокупного действия большого числа случайных факторов. Впервые этот закон был получен при анализе случайных ошибок, присущих многократным измерениям одной и той же физической величины. А.М. Ляпунов доказал теорему, получившую название центральной пре- дельной теоремы. Из этой теоремы следует, что нормальное распределение возникает почти во всех случаях, когда анализируемая величина складывается из множества независимых или слабо зависимых случайных слагаемых. Значение нормального закона распределения для анализа случайных процес- сов в радиотехнике очень велико, поскольку большинство первичных источни- ков флуктуаций создают Гауссовы шумы. Причиной случайных флуктуаций служит дискретная природа электрическо- го заряда. Закон распределения случайных отклонений тока или напряжения от своего среднего значения можно выявить, рассматривая механизм образования суммарного процесса, например, тока в выходной цепи электронной лампы. Не только шумы и помехи, но и полезные сигналы, являющиеся суммой большого числа независимых случайных элементарных сигналов, например гармонических колебаний со случайной фазой или амплитудой, часто можно трактовать как случайные гауссовские процессы. На основе функции p1(x) можно найти относительное время пребывания сиг- нала x(t) в определенном интервале уровней, отношение максимальных значе- ний к среднеквадратическому (пикфактор) и ряд других важных для практики параметров случайного сигнала. Рассмотрим пример. Дана одна из реализаций гауссовского процесса при m1=0. Эта функция времени соответствует шумовой помехе, энергетический спектр которой простирается от нулевой частоты до некоторой граничной ча- 68
  • 17. стоты. Вероятность пребывания значений x(t) в интервале от a до b определяет- ся выражением b Pt1 (a < x ≤ b) = ∫ p1 ( x , t 1 )dx . (5.25) a Подставим в это выражение формулу p1(x): b 2 2 b 2 2 1 1 P (a < x < b ) = ∫ e − x / 2σ x dx = ∫ e − x / 2σ x dx − 2πσ x a 2πσ x 0 a b / σx a / σx 1 − x 2 / 2σ x 2 1 − y2 / 2 1 2 ∫e dx = ∫ e dy − ∫ e − y / 2 dy = (5.26) 2πσ x 0 2π 0 2π 0 b a Ф( ) − Ф( ). σx σx Функция 1 u − y2 / 2 Ф( u ) = ∫e 2π 0 dy (5.27) называется интегралом вероятностей. В математических справочниках приво- дятся таблицы этой функции. Подставив в формулу для вероятности b/σx = 1, 2, 3 и a/σx=-1, -2, -3, нетруд- но найти вероятности пребывания x(t) в полосах шириной 2σx, 4σx, 6σx, симмет- ричных относительно оси ординат. В рассматриваемом частном случае (|a|=b) формулу для расчета вероятности можно упростить на основании симметрии относительно оси ординат. Таким образом b / σx 2 1 b ∫ P ( − b < x < b) = 2e − y / 2 dy = 2Ф( ) . (5.28) 2π 0 σx Результаты вычислений сведены в таблицу. В последней графе приведены величины, равные 1-2Ф(b/σx). Из этой таблицы следует, что ширину шумовой дорожки нормального шума можно приравнять (4…5) σx. Интервал значений Вероятность пребывания Вероятность пребывания в интервале вне интервала. (-σx, σx) 2·0,3413=0,6826 ~0,317 (-2σx, 2σx) 2·0,4772=0,9544 ~0,046 (-3σx, 3σx) 2·0,49865=0,9973 ~0,003 Приведенные данные о распределении вероятностей не дают никаких представ- лений о поведении функции x(t) во времени. Для описания временных характе- ристик функции x(t) необходимо привлечь двумерную плотность вероятности, 69
  • 18. позволяющую найти корреляционную функцию. Другой способ – нахождение спектра мощности случайного процесса. Энергетический спектр стационарного случайного процесса. Одним из эффективных средств анализа сигналов в радиоцепях является спектральный метод, основанный на представлении электрических колебаний и передаточных функций систем при помощи преобразований Фурье. Естествен- но попытаться приложить математический аппарат спектрального метода к ана- лизу стационарных случайных процессов. Разложение реализаций случайного процесса общего типа в ряд Фурье недо- пустимо из-за непериодического характера случайной функции. В то же время, интегральное преобразование Фурье к стационарному процессу также неприме- нимо, так как подлежащие вычислению интегралы расходятся из-за невыполне- ния условий Дирихле. Если попытаться представить с помощью обычной спектральной плотности частотные свойства хотя бы нестационарного случайного процесса, реализации которого {xi(t)}T ограничены длительностью T, это оказывается невозможным из-за возникшей неопределенности при усреднении по ансамблю соответствую- щих комплексных спектров. Причина в том, что фазовая характеристика усред- нению не поддается, поскольку фазы отдельных спектральных компонент рас- пределены случайно в интервале (-∞, ∞). Выход состоит в том, чтобы при отыс- кании усредненной спектральной характеристики вообще избавиться от фазо- вого множителя ejϕi (ω)T, а это достигается путем умножения комплексного спек- тра Фурье на сопряженную функцию, т.е. переходом к спектральной характери- стике энергии процесса ⋅ ⋅ Эi(ω) T = S i (ω) T S i ( −ω) T , (5.29) где подразумевается существование обычной связи между реализациями и их спектрами Фурье: 1 ∞ ⋅ jωt ⋅ − jωt ∫ Si (ω) T e dω = x i ( t ) T → Si (ω) T = ∫ x i (t ) T e dt, 2π −∞ (5.30) T  ⋅ ⋅ x i ( t ) T = x i ( − t ) T ↔ S( −ω) T = Si ∗ (ω) T . (5.30) Чтобы не привязывать положение интервала T к началу отсчета t, вместо пределов интегрирования здесь указана в скобках под символом неопределен- ного интеграла только величина области интегрирования. В последней формуле справа показаны варианты обозначения функции, ⋅ комплексно-сопряженной с S(ω) , а слева – способы, которыми можно отме- T чать инверсии знака аргумента какой-либо функции, т.е. знаком минус перед символом аргумента либо галочкой над символом функции. Чтобы обойти трудности, связанные с расходимостью интеграла Фурье в случае преобразования стационарного процесса X(t), из него исключают посто- 70
  • 19. янную составляющую. Затем вводят в рассмотрение «усеченные» реализации xi(t)T, представляющие конечные отрезки длиной T неограниченных во времени реализаций xi(t) (рис.14). После этого при помощи предельного перехода T→∞ x(t) T 0 t Рис. 5.14 находят так называемый энергетический спектр i-той реализации ⋅ ⋅ E i (ω) T Si (ω) Si ∗ (ω) T (5.31) Wi(ω) = lim = lim T →∞ T T →∞ T Wi характеризует частотное распределение усредненной по времени мощно- сти в i-той реализации процесса. Умножение на 1/T сопряжено с неограничен- ным возрастанием энергии при T→∞. Энергитическим спектром W(ω) cстаци- онарного случайного процесса называется математическое ожидание найден- ной спектральной характеристики 2 ⋅ S(ω)T (5.32) W (ω) = lim . T →∞ T ⋅ В этой формуле опущен индекс i у спектральной плотности S , поскольку при усреднении учитывается весь ансамбль реализаций. Энергетический спектр любой действительной функции – действительная неотрицательная функция частоты, т.е. W(ω)≥0. Учитывая, что модуль S(ω) обычного спектра Фурье вещественного процес- са является четной функцией частоты, можно из приведенного определения энергетического спектра заключить, что он также четная функция часто- ты:W(ω)=W(-ω). На этом основании вместо W(ω) нередко используют функцию W0(ω), назы- ваемую односторонним энергетическим спектром. Она считается отличной от нуля только в области положительной частоты ω и определяется как 2W (ω), ω > 0  W0 (ω) =  W (0), ω = 0 (5.33)  0, ω < 0  Соотношение между W(ω) и W0(ω) графически показано на рис. 5.15. 71
  • 20. W0(ω W(ω) W(0) 0 ω Рис. 5.15 Формулы Винера-Хинчина. Обычное преобразование Фурье устанавливает связь между законом измене- ния сигнала во времени и его частотным спектром. Усредненные характеристи- ки временных и частотных свойств случайного процесса, т.е. функция автокор- реляции и энергетический спектр, также взаимосвязаны. Существует формула, названная именами ученых Н. Винера и А.Я. Хинчина, независимо друг от дру- га получивших ее. Согласно этой формуле энергетический спектр стационарно- го случайного процесса с нулевым средним значением и его автокорреляцион- ная функция связаны прямым и обратным интегральными преобразованиями Фурье: ∞ ∞ 1 ∫ Ψ (τ) у − jωτ dτ ↔ Ψ (τ) = ∫ W(ω)e dω . jωτ (5.34) −∞ 2π − ∞ Здесь Ψ(τ) – автокорреляционная функция стационарного (не обязательно эргодического) случайного процесса X(t) с нулевым средним значением. Свойства спектрально-корреляционных характеристик стационарного случайного процесса. Функции корреляции и энергетическому спектру всякого процесса присущи свойства, которые характерны для любой пары функций, связанных преобразо- ванием Фурье. В частности, чем шире спектрW(ω), тем более узка функция Ψ(τ). В качестве меры ширины энергетического спектра стационарного случайно- го процесса часто берут «энергетическую ширину» ∆fэ, определяя ее по форму- ле ∞ W0(f0) ∆f э = ∫ W (f )df / W (f 0 ), 0 (5.35) где W(f0) – значение энергетического спек- ∆fэ тра на некоторой характеристической часто- те (рис. 5.16). Обычно f0 соответствует поло- жению максимума спектральной плотности f мощности. Значение ∆fэ в общем случае пре- f0 восходит полосу, определяемую по уровню Рис. 5.16 половинной мощности 0,5W(f0) (по напряже- нию – по уровню 0,7). 72
  • 21. Ширину кривой Ψ(τ) принято оценивать интервалом корреляции, который находят по формуле ∞ ∫ Ψ (τ)dτ ∞ . (5.36) ∆τ к = 0 = ∫ R ( τ ) dτ Ψ ( 0) 0 Иначе говоря, интервал корреляции есть полуширина прямоугольника еди- ничной высоты, равновеликого с площадью, заключенной под кривой коэффи- циента корреляции. Пользуясь свойствами четности функции корреляции и энергетического спектра, а также понятием односторонней спектральной плотности, можно при помощи формулы Эйлера избавиться от показательных функций в формулах Винера-Хинчина и представить их иначе: ∞ 1 W (ω) = 2 ∫ Ψ (τ) cos ωτdτ = W0 (ω), (5.37) 0 2 ∞ ∞ 1 1 Ψ ( τ) = ∫ W0 (ω) cos ωτdω = π ∫ W(ω) cos ωτdω 2π 0 (5.38) 0 Нередко вместо «круговой » частоты ω берут «циклическую» частоту f=ω/ 2π. При такой замене прямое и обратное преобразование приобретают симмет- ричный вид: ∞ W (f ) = 2 ∫ Ψ (τ) cos 2πfτdτ , (5.39) 0 ∞ Ψ (τ) = 2 ∫ W (f ) cos 2πfτdf (5.40) 0 Из этих формул следуют следующие соотношения: ∞ W (0) = 2 ∫ Ψ ( τ)dτ, (5.41) 0 ∞ Ψ (0) = 2 ∫ W (f )df (5.42) 0 Если f0=0, то W(f0)=W(0) и тогда: 73
  • 22. ∫ W(f )df 0 ∆f э = ∞ , (5.43) 2 ∫ Ψ (τ)dτ 0 ∞ ∫ Ψ (τ)dτ 0 ∆τ к = ∞ (5.44) 2 ∫ W (f )df 0 Удвоив каждое из полученных равенств и перемножив правые и левые ча- сти, придем к окончательной формуле 2∆fэ2∆τк=1. (5.44) Таким образом, зная интервал корреляции случайного процесса, можно определить энергетическую ширину спектра как величину, обратно ей пропор- циональную. Иногда интервалом корреляции называют 2∆τк, а энергетической шириной спектра − 2∆fэ. Но это не меняет существа дела, поскольку произведе- ние названных параметров остается постоянным. В тех случаях, когда ширина спектра ∆fэ не намного отличается от частоты, соответствующей его верхней границе fв (случайный процесс с таким спектром называется широкополосным), все приведенные формулы остаются достаточно точными. Но, если ∆fэ<<f0 (узкополосный процесс), определение интервала кор- реляции по приведенным формулам теряет смысл, так как сам случайный про- цесс становится похожим на гармонический сигнал, параметры которого (ам- плитуда и фаза) изменяются гораздо медленнее мгновенного значения колеба- ния частоты f0. Коэффициент корреляции узкополосного процесса с симметрич- ным относительно f0 спектром обычно представляется в виде R(τ)=ρ(τ)cosω0τ, (5.45) где ρ(τ) – медленная функция, представляющая собой корреляционную харак- теристику случайных параметров процесса. Особого внимания заслуживает формула ∞ Ψ (0) = 2 ∫ W (f )df , (5.46) 0 которую удобнее переписать в виде ∞ 2 σ x = ∫ W0 (f )df . (5.47) 0 Она показывает, что весь энергетический спектр случайного процесса заключа- ет в себе всю среднюю мощность. Как следует из этой формулы, если σ2x – мощность, то энергетический спектр W(f) имеет размерность энергии [Вт/Гц=Вт⋅с]. Этим и объясняется название спектра – энергетический. 74
  • 23. Белый шум. В случаях, когда шум возникает в результате совместного протекания мно- жества слабо зависимых явлений (например, вылета электронов с поверхности катода), мгновенные значения получаемого процесса оказываются почти не связанными в статистическом смысле в достаточно близкие моменты времени. («достаточно близкие» - в сравнении с постоянными времени исследуемых си- стем). Для многих задач весьма продуктивным является приближенное представле- ние корреляционной характеристики подобного процесса x(t) в виде δ-функции. Ψ(τ)=(W0/2)δ(τ), (5.48) где W0/2 - постоянный множитель. Смысл такого выражения для функции корреляции состоит в том, что значе- ние x(t) в любые два сколь угодно близкие моменты времени считаются некор- релированными. Энергетический спектр такого процесса, вычисленный по фор- муле прямого преобразования Фурье, равен ∞ W0 W0 ∫ δ(τ)e − jωτ W (ω) = dτ = , (5.49) 2 −∞ 2 так как ∞ ∫ δ ( τ) e − jωτ dτ = 1 . −∞ Таким образом, спектральная плотность мощности процесса постоянна при всех частотах равна W0 (рис. 5.17). W0(f) W0 0 f Рис. 5.17. Случайный процесс, обладающий равномерным энергетическим спектром, называют белым шумом, по аналогии с белым светом, имеющим в видимой ча- сти спектра равномерный сплошной спектр. Если найти полную мощность (дисперсию) рассматриваемого процесса, то результат σ2=∞ будет абсурдным с физической точки зрения. Это является следствием принятой идеализации. В то же время такая идеализация вполне применима, когда время корреляции шума много меньше постоянной времени системы, питаемой от источника такого случайного процесса, или иначе, когда АЧХ исследуемой радиоцепи дает возможность считать спектральную плот- ность на входе приближенно постоянной. Использование белого шума позволяет находить все необходимые характе- ристики случайного процесса на выходе радиосистемы только через собствен- ные параметры радиоцепей, входящих в ее состав. 75
  • 24. Законы распределения плотности вероятности белого шума могут быть лю- быми и во многих приложениях их удобно считать нормальными. Примеры корреляционных характеристик случайных процессов. Рассмотрим пример. Пусть стационарный эргодический случайный процесс обладает односто- ронней спектральной плотностью мощности W0(f)=W0 постоянной в интервале частот (0, f0) и равной нулю вне этого интервала (рис. 5.17). Найдем корреляци- онную функцию такого процесса. W0(f) 0 f0 f Рис. 5.17 ∞ fв sin 2πf в τ Ψ (τ) = 2 ∫ W (f ) cos 2πfτdf = ∫ W0 cos 2πfτdf = W0 f в . (5.50) 0 0 2πа в τ Полученная корреляционная функция имеет вид, представленный на рис. 5.18 Ψ(τ) 0 τ 1/2fв 1/fв Рис. 5.18 76