Главная ->  Логарифмическое определение устойчивости 

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 [ 101 ] 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254

Кроме этих осредпенных характеристик х (t) п D {t), которые для каждого данного момента времени являются средними по множеству, введем понятие среднего значения случайной величины х для отдельной реализации случайного процесса х (t), которое определяется из выражения

:г;=Ит4г ( x{t)dt. (11.38)

Переход к пределу здесь необходим для того, чтобы характеризовать не какой-нибудь отдельный участок кривой, а всю возможную кривую х {t) в целом.

Для того чтобы знать связь между возможньши значениями случайной функции X (t) в последующие моменты времени со значениями в предыдущие моменты, вводится понятие двумерной плотности вероятности

2 (xi, ti; Xz, h) {wz > 0),

смысл которого можно пояснить следующим образом. Вероятность того, что в момент времени ti величина х находится в интервале {х, х -{- dxj), а в момент времени tz - в интервале (х, х- -Ь йж), будет (х, 1, х, 4) dx±dx2. Это есть вероятность того, что кривая х (t) пройдет вблизи двух заданных точек {х, tj) и {х, t). Вводится также и ?г-мерная плотность вероятности

tn).

Если ее умножить на dx, dx, . . ., dx, то это будет вероятность того, что кривая пройдет вблизи заданных п точек.

Случайный процесс полностью определяется видом функций w, Wz, Ws, . . ., Wn VL связью между ними.

Простейшим типом случайного процесса является чисто случайный процесс. В таком процессе все значения случайной величины в отдельные моменты времени {xi в момент U; Х2 в момент tz и т. д.) не зависят друг от друга. Тогда появления значений {х, ti), (х, t, {х, t) и т. д. будут независимьши случайными событиями, для которых вероятность их совместного наступления равна, как известно, произведению вероятностей наступления каждого из них в отдельности. Следовательно, для чисто случайного процесса

и>2 {xi, ti; Х2, h) = w (xi, i) w {x2, h) (11.39)

и вообще

Wn (xi, ti; X2, h; . . .; x , t) = w {xi, t) w [x, h); . . .; w [x, t). (11.40)

Это - самые простые соотношения в теории случайных процессов. Они могут применяться для характеристики некоторых видов помех (чисто случайные хаотические помехи).

Для характеристики полезных входных сигналов систем регулирования и следящих систем соотношения (11.39) и (11.40) практически не могут применяться, так как для этих сигналов ход процесса в последующие моменты времени в какой-то степени зависит от того, что было в предыдущие моменты времени.

Так, например, если речь идет о слежении за самолетом, то он не может как угодно быстро менять свое положение и скорость. Поэтому если он в момент времени ji занял положение Xi, то этим самьш его возможное положение Х2 В следующий момент ограничено, т. е. события (х, h) и {х, ti) не будут независимыми. Чем более инерционен изучаемый объект, тем больше эта взаимозависимость, или корреляция. В таких случаях вместо формулы (11.39) необходимо записать

и>2 {xi, ti; Xz, = w {xi, ti) W2,i {X2, h), (11.41).



случайный процесс в какой-то мере ана-1 логичен обычным стационарным или уста-

£f повившимся процессам в автоматических

системах. Например, при рассмотрении Рис. 11.13. обьганых установившихся периодических

колебаний ничего не изменится, если перенести начало отсчета на какую-нибудь величину. При этом сохранят свои значения такие характеристики, как частота, амплитуда, среднеквадратичное значение и т. п.

В стационарном случайном процессе закон распределения один и тот же для каждого момента времени, т. е. плотность вероятности не зависит от времени: w {х, t) == w (х).

Отсюда получаем х = const и о = const вдоль всего случайного процесса. Следовательно, в стационарном случайном процессе средняя линия, в отличие от общего случая (см. рис. 11.12), будет прямая х = const (рис. 11.13), лодобно постоянному смещению средней линии обычных периодических

где w, 1 (2, h) dx - условная вероятность того, что случайный процесс пройдет вблизи точки (жа, fg), если он уже прошел через точку (ж, f). Следовательно, зная плотности вероятности w (ж, Q и {х, ti, х, Q, можно найти также и условную плотность вероятности

г2,1(2, 2)- -. (11.42)

Кроме того, имеет место следующая связь между основными плотностями вероятности:

w{xi, ti)= j 2(1,1; 2,2) 2, (11.43)

так как w (х, tj) ecii плотность вероятности случайной величины (ж, ti) безотносительно к тому, какое потом будет значение (х, t), т. е. допускается -оо <С 2 < + оо. Аналогичньш образом любая плотность вероятности низшего порядка всегда может быть получена из высшей, т. е. высшие плотности вероятностей содержат наибольшее количество информации о случайном процессе (о взаимосвязях между возможными значениями случайной величины X в различные моменты времени).

Написанные соотношения справедливы для случайных процессов любьпс типов. В зависимости же от того, до какого порядка принимаются во внимание плотности вероятности, а также от разных дополнительных гипотез о формах связи между Wi, щ, . . ., Wn рассматриваются разные типы случайных процессов в отличие от чисто случайных.

Другая классификация всех случайных процессов состоит в разделении их на стационарные и нестационарные. Теория стационарных случайных процессов наиболее разработана и чаще всего применяется на практике.

§ 11.3. Стационарные случайные процессы

Стационарным случайным процессом называется такой процесс, вероятностные характеристики которого не зависят от времени. Все плотности вероятностей Wi, w, . - ., Wn не меняются при любом сдвиге рассматриваемого участ-з * /S *-О* ка процесса во времени, т. е. при сохра-~ х>Р=:Ь;/ нении постоянной разности.

Можно сказать, что стационарный



колебаний. Рассеяние значений переменной х в стационарном случайном процессе, определяемое о = const, также будет все время одинаковым, подобно постоянному значению среднеквадратичного отклонения обычных установившихся колебаний от средней линии.

Аналогичньш образом и двумерная плотность вероятности также будет одна и та же для одного и того же промежутка времени т = 2 - между любьши ti и tz (рис. 11.13), т. е.

Wz (xi, ti; Xz, tz) = Wz (xi, Xz, x), (11.44)

и также для ?г-мерной плотности вероятности.

Задание всех этих функций распределения плотности определяет случайный процесс. Однако более удобно иметь дело сшекоторьши осреднен-ньши и характеристиками процесса.

Прежде чем перейти к ним, отметим два важных для практики свойства.

1. Ограничиваясь только стационарньши случайными процессами, можно будет определить только установившиеся (стационарные) динамические ошибки автоматических систем при случайных воздействиях. Такой прием применялся и ранее при рассмотрении регулярных воздействий, когда определялись динамические свойства систем регулирования по величине динамических ошибок в установившемся периодическом режиме.

2. Стационарные случайные процессы обладают замечательньш свойством, которое известно под названием эргодической гипотезы.

Для стационарного случайного процесса с вероятностью, равной единице (т. е. практически достоверно), всякое среднее по множеству равно соответствующему среднему по времени, в частности х = х, х = и т. д.

В самом деле, поскольку вероятностные характеристики стационарного случайного процесса с течением времени не меняются (например, х = const), то длительное наблюдение случайного процесса на одном объекте (среднее по времени) дает в среднем такую же картину, как и большое число наблюдений, сделанное в один и тот же момент времени на большом числе одинаковых объектов (среднее по множеству).

Для многих случаев существует математическое доказательство этого свойства. Тогда оно сводится к эргодической теореме.

Итак, среднее значение (математическое ожидание) для стационарного процесса будет

х= J xw{x)dx = x = \\m~ j x{t)dt. (11.45)

Аналогичньш образом могут быть записаны моменты более высоких порядков - дисперсия, среднеквадратичное отклонение и т. п.

Эргодическая гипотеза позволяет сильно упрощать все расчеты и эксперименты. Она позволяет для определения ж, D, о и т. п., вместо параллельного испытания многих однотипных систем в один и тот же момент времени, пользоваться одной кривой х (t), полученной при испытании одной системы в течение длительного времени.

Таким образом, важное свойство стационарного случайного процесса состоит в том, что отдельная его реализация на бесконечном промежутке времени полностью определяет собой весь случайный процесс со всеми бесчисленными возможными его реализациями. Этим свойством не обладает никакой другой тип случайного процесса.



1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 [ 101 ] 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254