трусики женские украина

На головну

 Випадкові величини в статистичній радіотехніці - Комунікації і зв'язок

Зміст 1. Основні поняття теорії ймовірності 2. Випадкова величина 3. Основні теореми теорії ймовірності 4. Випадкові величини та їх закони розподілу

Бібліографічний список

1. Основні поняття теорії ймовірності

Повна група подій: кілька подій утворюють повну групу, якщо в результаті досвіду неодмінно має з'явитися хоча б одне з них.

Несумісні події: кілька подій є несумісними в даному досвіді, якщо ніякі дві з них не можуть з'явитися разом.

Рівноможливими події: кілька подій називаються рівноможливими, якщо є підстави вважати, що жодне з них не є кращим у порівнянні з іншими.

Частота події: якщо виробляється серія з N дослідів, в кожному з яких могло з'явитися або не з'явилося деяке подія А, то частотою події А в даній серії дослідів називається відношення числа дослідів, в яких з'явилося подія А, до загального числа вироблених дослідів.

Частоту події часто називають статистичною ймовірністю і обчислюють на підставі результатів досвіду за формулою, де m - число появ події А.

При невеликому числі дослідів N частота може змінюватися від однієї серії дослідів до іншої через випадковість подій. Однак при великому числі дослідів вона носить стійкий характер і прагне до значення, яке називається ймовірністю собитія.2. Випадкова величина

Випадковою величиною (СВ) називається величина, яка в результаті досвіду може прийняти те чи інше значення, причому невідомо заздалегідь, яке саме.

Приклади: число влучень у мішень при обмеженому числі пострілів; число викликів по телефону в одиницю часу; кількість некондиційних транзисторів в партії випущених виробів і т.д.

Випадкові величини, що приймають тільки окремі значення, які можна перерахувати, називаються дискретними випадковими величинами.

Існують СВ іншого типу: значення шумового тиску, виміряного в різні моменти часу; вага булки хліба, продаваного в магазині і т.д. Називають їх безперервними випадковими велічінамі.3. Основні теореми теорії ймовірності

Сума і добуток подій. Сумою двох подій А і Б називається подія С, що складається у виконанні події А, або події Б, або обох разом.

Наприклад, якщо подія А - влучення в мішень при першому пострілі, подія Б - потрапляння в мішень при другому пострілі, то подія С = А + Б тобто попадання в мішень взагалі байдуже при якому пострілі - при першому, при другому або при обох разом.

Сумою декількох подій називається подія, яке у появі хоча б однієї з цих подій.

Твором двох подій А і Б називається подія С, яке у спільному виконанні події А і події Б.

Якщо робиться два постріли по мішені і якщо подія А є попадання при першому пострілі, а подія Б - потрапляння при другому пострілі, то С = А - Б тобто попадання при обох пострілах.

Твором кількох подій називається подія, яке у спільному появу всіх цих подій.

2. Теорема додавання ймовірностей. Ймовірність суми двох несумісних подій дорівнює сумі ймовірностей цих подій:

.

Нехай можливі результати досвіду зводяться до сукупності випадків, які для наочності представлені на рис. 1 у вигляді N символів.

Рис. 1

Припустимо, що з цих випадків m сприятливі події А, а k - події Б. Тоді

.

Так як події А і Б несумісні, то немає випадків, які сприятливі подіям А і Б разом. Отже, події А + Б сприятливі m + k випадків і

.

Підставляючи отримані вирази у формулу для ймовірності суми двох подій, отримаємо тотожність.

Слідство Якщо події А1, А2, ..., АNобразуют повну групу подій, то сума їх ймовірностей дорівнює одиниці.

Наслідок 2. Сума ймовірностей протилежних подій дорівнює одиниці.

3. Теорема множення ймовірностей. Необхідно ввести поняття незалежних і залежних подій.

Подія А називається незалежною від події Б, якщо ймовірність події А не залежить від того, відбулася подія Б чи ні.

Подія А називається залежним від події Б, якщо ймовірність події А змінюється від того, відбулася подія Б чи ні.

Ймовірність події А, обчислена за умови, що мало місце інша подія В, називається умовною ймовірністю події А і позначається P (А / В).

Теорема множення ймовірностей: ймовірність добутку двох подій дорівнює добутку ймовірності однієї з них на умовну ймовірність іншого, обчислену за умови, що перше мало місце:

.

Нехай можливі результати досвіду зводяться до N випадкам, які для наочності дані у вигляді символів на рис. 2.

Рис. 2

Припустимо, що події А сприятливі m випадків, а події Б - k випадків. Так як не передбачалися події А і Б спільними, то існують випадки, сприятливі і події А, і події Б одночасно. Нехай число таких випадків l. Тоді P (АБ) = l / N; P (A) = m / N. Обчислимо P (Б / А), тобто умовну ймовірність події Б в припущенні, що А мало місце. Якщо відомо, що подія А сталося, то з сталися N випадків залишаються можливими тільки ті з m, які сприяли події А. З них l випадків сприятливі події Б. Отже, P (Б / А) = l / m. Підставляючи вирази P (АБ), P (A) і P (Б / А) у формулу ймовірності добутку двох подій, отримаємо тотожність.

Слідство Якщо подія А не залежить від події Б, то і подія Б не залежить від події А.

Слідство 2. Імовірність добутку двох незалежних подій дорівнює добутку цих подій.

4. Формула повної ймовірності. Формула повної ймовірності є наслідком обох теорем - теореми додавання ймовірностей і теореми множення ймовірностей.

Нехай потрібно визначити ймовірність деякої події А, яке може статися разом з однією з подій H1, H2, ..., HN, що утворюють повну групу несумісних подій. Будемо ці події називати гіпотезами. Тоді

,

тобто ймовірність події А обчислюється як сума добутків ймовірності кожної гіпотези на ймовірність події при цій гіпотезі.

Ця формула носить назву формули повної ймовірності.

Так як гіпотези H1, H2, ..., HNобразуют повну групу подій, то подія А може з'явитися тільки в комбінації з будь-якої з цих гіпотез: А = H1А + H2А + ... + HNА. Так як гіпотези H1, H2, ..., HNнесовместни, то і комбінації H1А, H2А, ... HNА також несумісні. Застосовуючи до них теорему додавання, отримаємо:

.

Застосовуючи до події HiА теорему додавання, отримаємо шукану формулу.

5. Теорема гіпотез (формула Байеса). Є повна група несумісних гіпотез H1, H2, ..., HN. Ймовірності цих гіпотез до досвіду відомі і дорівнюють відповідно P (H1), P (H2), ..., P (HN). Зробимо досвід, в результаті якого буде спостерігатися поява деякої події А. Питається, як слід змінити ймовірності гіпотез у зв'язку з появою цієї події?

Тут, по суті, йдеться про те, як знайти умовну вероятностьдля кожної гіпотези після проведення експерименту.

З теореми множення маємо:

, (I = 1, 2, ..., N).

Або, відкидаючи ліву частину, отримаємо

, (I = 1, 2, ..., N),

звідки

, (I = 1, 2, ..., N).

Висловлюючи P (А) за допомогою формули повної ймовірності, маємо:

, (I = 1, 2, ..., N).

Ця формула і носить назву формули Байеса або теореми гіпотез. Використовується вона в теорії перевірки статистичних гіпотез (зокрема, в теорії виявлення сигналів на тлі перешкод).

4. Випадкові величини та їх закони розподілу

Законом розподілу СВ називається всяке співвідношення, що встановлює зв'язок між можливими значеннями випадкової величини і відповідними їм ймовірностями. Про випадкову величину будемо говорити, що вона підпорядкована даному закону розподілу.

Найпростішою формою завдання закону є табл. 1, в якій перераховані можливі значення СВ та відповідні їм ймовірності.

Таблиця 1

 x1 x2 ... xN

 p1 p2 ... pN

Однак таку таблицю неможливо побудувати для безперервної СВ, оскільки для неї кожне окреме значення не володіє відмінною від нуля ймовірністю.

Для кількісної характеристики розподілу використовують залежність ймовірності події X Функція розподілу існує для всіх СВ - як безперервних, так і дискретних.

Сформулюємо деякі загальні властивості F (x):

1) F (x) є неубутна функція свого аргументу, тобто при x2> x1F (x2)> F (x1);

2) на - ? F (x) дорівнює нулю, тобто F (- ?) = 0;

3) F (?) =

За визначенням, F (x) при деякому x є ймовірність потрапляння СВ X в інтервал від - ? до x.

Для дискретної СВ розподіл F (x) має ступінчастий вигляд, причому величина кожного стрибка дорівнює ймовірності значення, при якому є стрибок F (x).

При вирішенні практичних завдань часто необхідно обчислювати ймовірність того, що СВ прийме значення, укладене в деяких межах, наприклад від x1до x2. Ця подія називається «попаданням СВ X на ділянку від x1до x2». Висловимо ймовірність цієї події через функцію розподілу СВ X. Для цього розглянемо дві події:

- Подія А, яке у тому, що X - Подія В, яке у тому, що X - Подія С, яке у тому, що x1 Враховуючи, що А = В + С, по теоремі складання ймовірностей отримаємо, або, звідки, тобто вірогідність попадання СВ на задану ділянку дорівнює приросту функції розподілу на цій ділянці.

Нехай є безперервна СВ X з функцією розподілу F (x), яку вважаємо безперервної і дифференцируемой. Обчислимо ймовірність потрапляння цієї СВ на ділянку від x до x + Dx :, тобто ця ймовірність дорівнює приросту функції розподілу на цій ділянці. Розглянемо відношення цієї ймовірності до довжини ділянки або середню ймовірність, що припадає на одиницю довжини на цій ділянці. Крім того, устремим Dx до нуля. У межі отримаємо похідну від функції розподілу:

.

Обозначімчерез f (x). Отримана функція характеризує щільність, з якою розподіляється значення СВ в даній точці x. Це і є щільність ймовірності. Іноді її називають диференціальним законом розподілу СВ X.

Якщо X є безперервна СВ з щільністю ймовірності f (x), то величина f (x) dx є елементарна ймовірність, відповідна події - потрапляння СВ X на відрізок dx. Геометрично це є площа елементарного прямокутника, що спирається на відрізок dx і обмеженого зверху функцією f (x).

Властивості щільності ймовірності:

1) при всіх x, оскільки ймовірність не може бути негативною (крім того, похідна неубивающей функції не може бути негативною);

2);

3);

4) властивість нормировки, тобто площа, обмежена графіком щільності ймовірності і віссю x, завжди дорівнює 1 (крім того, попадання СВ X в необмежену з обох сторін вісь x є достовірною подією).

У багатьох практичних ситуаціях немає необхідності характеризувати СВ щільністю ймовірності. Часто буває достатньо вказати тільки окремі числові параметри, що характеризують в якійсь мірі істотні риси розподілу СВ, наприклад, середнє значення, навколо якого групуються можливі значення СВ; число, що характеризує ступінь розкиданості цих значень щодо середнього значення і т.д. Такі характеристики називаються числовими характеристиками СВ.

Математичне сподівання (МО) іноді називають середнім значенням СВ. Воно обозначаетсяі для дискретної СВ визначається за формулою

.

Це середнє зважене значення і називають МО.

Математичним очікуванням СВ називають суму творів всіх можливих значень СВ на ймовірності цих значень.

Математичне сподівання СВ X пов'язано з середнім арифметичним значенням спостережуваних значень СВ при великому числі дослідів так само, як і ймовірність з частотою події, тобто при збільшенні числа дослідів середнє арифметичне значення прагне до МО.

Для безперервної СВ МО визначається за формулою

.

Фізично МО можна трактувати як координату центру ваги тіла (щільності ймовірності). Одиниця виміру МО відповідає одиниці виміру СВ.

Моменти. Дисперсія. Середньоквадратичне відхилення. Початковим моментом s-го порядку для дискретної СВ X називається сума виду. Для безперервної СВ -

.

З цих формул видно, що МО є не що інше, як перший початковий момент СВ X. Умовно, використовуючи знак МО, можна записати вираз для s-го початкового моменту, т.е.- початковим моментом s-го порядку СВ X називають МО s-го ступеня цієї СВ.

Центрованої СВ, відповідної СВ X, називають відхилення СВ X від її МО, т.е .. Неважко переконатися, що МО центрованої СВ дорівнює нулю. Моменти центрованої СВ називають центральними моментами. Таким чином, центральним моментом s-го порядку називають МО s-го ступеня центрованої СВ :. Для безперервної СВ s-й центральний момент висловлюють інтегралом:

.

Введемо співвідношення, що зв'язують центральні та початкові моменти різних порядків: ;;; ...

З усіх моментів найчастіше в статистичній радіотехніці застосовують МО і другі моменти - початковий і центральний. Другий центральний момент називають дисперсією СВ X. Для неї вводять спеціальне позначення, або DX.

Дисперсія характеризує ступінь розкиданості (або розсіювання) СВ X щодо математичного очікування і має розмірність квадрата СВ X. На практиці зручніше користуватися величиною, розмірність якої збігається з розмірністю СВ. Для цього з дисперсії витягують квадратний корінь. Отриману величину називають среднеквадратическим відхиленням (СКВ). Її позначають через. При витяганні квадратного кореня з другого початкового моменту виходить величина, названа среднеквадратическим значенням (СКЗ). Часто використовують формулу, що зв'язує основні моменти:

.

Третій центральний момент служить для характеристики асиметрії (або «скошеності») щільності ймовірності. Якщо щільність ймовірності симетрична щодо МО, то всі моменти непарного порядку дорівнюють нулю. Тому природно в якості характеристики асиметрії щільності ймовірності вибрати який-небудь з непарних моментів, з них найпростіший. Але щоб мати безрозмірну величину, цей момент ділять на куб середньоквадратичного відхилення. Отримана величина носить назву коефіцієнта асиметрії або просто асиметрії, позначають її через Sk:

.

Четвертий центральний момент служить для характеристики так званої «крутості» (гостровершинності або плосковершінних) щільності ймовірності. Ці властивості розподілу описуються за допомогою так званого ексцесу :. Число 3 віднімається з отношеніяпотому, що для дуже поширеного в природі нормального закону це відношення дорівнює трьом.

Крім розглянутих моментів, використовують іноді абсолютні моменти (початкові і центральні):;. З них найчастіше застосовують перший абсолютний центральний момент, званий середнім арифметичним відхиленням. Його використовують поряд зі среднеквадратическим відхиленням для характеристики розсіювання СВ, для яких не існує дисперсії.

Крім таких характеристик, використовуються поняття мода і медіана щільності ймовірності. Модою (М) називають найбільш ймовірне значення, відповідне максимуму щільності ймовірності (якщо таких максимумів кілька, то розподіл називають полімодальний). Медіана (Ме) - це таке значення СВ X, для якого P (X Me). У разі симетричного одномодальних (унімодального) розподілу медіана збігається з МО і модою.

Розподіл Лапласа (двосторонній експонентний):

,

де m - МО; l - характеризує ступінь розкиданості X щодо m.

2. Біноміальний розподіл (Бернуллі):

.

Наприклад, цей розподіл використовується для визначення ймовірностей правильного виявлення і помилкової тривоги по пачці імпульсів при заданих ймовірностях виявлення та ймовірності помилкової тривоги одного імпульсу в пачці.

3. Закон рівномірної щільності ймовірності.

Приклад. Похибка вимірювання напруги за допомогою вольтметра з дискретною шкалою (± (a - b) / 2 - половина поділу). МО є (a + b) / 2; дисперсія - (a - b) 2/12; середньоквадратичне відхилення (a - b) / (2).

4. Нормальний (Гауса) закон. Найпоширеніший у природі:

.

Центральні моменти: ;;; і т.д. Отже, Sk = 0; Ex = 0. Для нормального закону при знаходженні ймовірності попадання випадкової точки на задану ділянку осі x є таблиці так званого інтеграла ймовірностей; їх декілька для різних виразів, наприклад: (для m = 0 і s = 1). При визначенні ймовірності попадання на ділянку від а до b отримаємо. Інтерес для практики представляє визначення ймовірності попадання в інтервал, заданий в одиницях середньоквадратичного відхилення, наприклад, ± 3s. Так, наприклад, ця ймовірність є 0,997. Звідси випливає так зване «правило 3s». Для нормальних СВ це правило дозволяє на практиці наближено обчислювати s. Наприклад, при визначенні динамічного діапазону магнітофона за допомогою осцилографа при відсутності вольтметра.

Всі інші закони щільності ймовірності безперервних СВ утворені перетворенням рівномірного або нормального законів, наприклад:

- Закон Сімпсона (трикутний). Дисперсія. Згортка двох рівномірних законів відповідає щільності ймовірності суми двох незалежних рівномірно розподілених випадкових величин;

- Закон Релея (корінь квадратний із суми квадратів двох СВ, розподілених за нормальним законом)

.

Розподіл модуля комплексної випадкової величини при нормальних розподілах дійсної та уявної складових підкоряється цьому закону (розподіл обвідної вузькосмугового випадкового процесу).

Гістограма. По осі абсцис відкладаються розряди (інтервали шириною l), і на кожному з них як на підставі будується прямокутник, площа якого дорівнює частоті для даного розряду (оцінці ймовірності попадання значень в даний розряд - відношення числа влучень у розряд до загального числа випробувань). Для побудови гістограми потрібно частоту для кожного розряду розділити на його довжину й отримане число взяти як висоти прямокутника. Очевидно, що площа всіх прямокутників дорівнює

При збільшенні числа вимірів N ширину l інтервалів можна зменшувати (збільшувати їх число m). У міру збільшення N і зменшення l гістограма буде наближатися до графіка щільності ймовірності величини X. Тобто гістограма є «портретом» щільності ймовірності. Для отримання «хорошого портрета» необхідно при заданому N раціонально вибрати число інтервалів. При малому числі інтервалів щільність ймовірності буде описуватися занадто грубо, у міру збільшення числа інтервалів буде виявлятися тонка структура щільності ймовірності. Але при дуже великому числі інтервалів «портрет» знову істотно спотвориться: з'являться нерівномірності, що не закономірні для досліджуваної щільності ймовірності (в інтервали потрапить мало результатів вимірювань, і елемент випадковості призведе до спотворень).

Числові характеристики розподілу. Середнє арифметичне спостережуваних значень:

.

При збільшенні N статистичне середнє прагне до МО. Аналогічно оцінюється дисперсія - це середнє арифметичне квадрата центрованої СВ, тобто

, Де.

Таким же чином визначаються інші статистичні характеристики, наприклад: визначення щільності ймовірності по гістограмі.

Завдання це значною мірою невизначена, оскільки складно підібрати щільність ймовірності, що відповідає моделі СВ, тобто виходячи з якого критерію можна гистограмму замінити підходящої щільністю ймовірності. Більш строго, але зі значними припущеннями вирішується ця проблема за допомогою критеріїв згоди, а зараз скористаємося більш простими міркуваннями: спочатку виробляємо аналіз виду гістограми, порівнюючи її з відомими законами розподілу, а потім, підбираючи параметри цього закону, будемо домагатися найбільшого візуального подібності згладженою гістограми з кривою підібраною щільності ймовірності. Наприклад, якщо графік згладженою гістограми по виду близький до нормального закону, то розраховані за результатами вимірювань оцінки МО іможно використовувати для побудови нормальної щільності ймовірності і вважати її відповідної аналізованої вибірці СВ.

теорія ймовірності теорема дисперсія

Бібліографічний список

1. Математичні основи сучасної радіоелектроніки [Текст] / І.А. Большаков [та ін.]. - М.: Сов. радіо, 2009. - 208 с.

2. Гоноровський, І.С. Радіотехнічні ланцюги і сигнали [Текст] / І.С. Го-норовскій. - М.: Радио и связь, 2006. - 608 с.

1. Манжос, В.Н. Теорія і техніка обробки радіолокаційної інформа-ції на тлі перешкод [Текст] / Я.Д. Ширман, В.Н. Манжос. - М.: Радио и связь, 2011. - 416 с.

2. Фомічов, К.І. Моноімпульсна радіолокація [Текст] / А.І. Леонов, К.І. Фомічов. - М.: Сов. радіо, 2010. - 370 с.

3. Федосов, В.П. Статистична радіотехніка [Текст]: конспект лекцій / В.П. Федосов, В.П. Рижов. - Таганрог: Изд-во ТРТІ, 2008. - 76 с.

Авіація і космонавтика
Автоматизація та управління
Архітектура
Астрологія
Астрономія
Банківська справа
Безпека життєдіяльності
Біографії
Біологія
Біологія і хімія
Біржова справа
Ботаніка та сільське господарство
Валютні відносини
Ветеринарія
Військова кафедра
Географія
Геодезія
Геологія
Діловодство
Гроші та кредит
Природознавство
Журналістика
Зарубіжна література
Зоологія
Видавнича справа та поліграфія
Інвестиції
Інформатика
Історія
Історія техніки
Комунікації і зв'язок
Косметологія
Короткий зміст творів
Криміналістика
Кримінологія
Криптологія
Кулінарія
Культура і мистецтво
Культурологія
Логіка
Логістика
Маркетинг
Математика
Медицина, здоров'я
Медичні науки
Менеджмент
Металургія
Музика
Наука і техніка
Нарисна геометрія
Фільми онлайн
Педагогіка
Підприємництво
Промисловість, виробництво
Психологія
Психологія, педагогіка
Радіоелектроніка
Реклама
Релігія і міфологія
Риторика
Різне
Сексологія
Соціологія
Статистика
Страхування
Будівельні науки
Будівництво
Схемотехніка
Теорія організації
Теплотехніка
Технологія
Товарознавство
Транспорт
Туризм
Управління
Керуючі науки
Фізика
Фізкультура і спорт
Філософія
Фінансові науки
Фінанси
Фотографія
Хімія
Цифрові пристрої
Екологія
Економіка
Економіко-математичне моделювання
Економічна географія
Економічна теорія
Етика

8ref.com

© 8ref.com - українські реферати


енциклопедія  бефстроганов  рагу  оселедець  солянка