Когда мы говорим о вероятностных распределениях, мы имеем в виду, как именно «распределяются» вероятности между возможными значениями случайной величины. Случайная величина — это величина, которая в результате опыта (эксперимента) принимает одно из нескольких значений, и каждое значение может случиться с определенной вероятностью. Например, при броске игральной кости случайная величина X — это число точек на верхней грани. Значения X: 1, 2, 3, 4, 5, 6. У равной кости каждое из этих чисел имеет вероятность 1/6. Это и есть закон распределения для данной случайной величины. В школьной программе различают два вида случайных величин: дискретные (принимают отдельные значения: 0, 1, 2, …) и непрерывные (значения заполняют отрезок без «пробелов», например, рост человека в сантиметрах). В 9 классе мы чаще работаем с дискретными величинами, где удобно строить таблицу распределения: значения X и соответствующие им вероятности P(X = x).
Чтобы формально описать распределение, используют несколько взаимосвязанных объектов. Во-первых, это функция вероятностей для дискретной случайной величины: каждой точке x сопоставляется число p(x) = P(X = x) такое, что p(x) ≥ 0 для всех x и сумма по всем значениям равна 1. Во-вторых, это функция распределения F(x) = P(X ≤ x). Для дискретной величины график F(x) выглядит как ступенчатая кривая: в каждой точке возможного значения происходит «скачок» на величину соответствующей вероятности. Для непрерывной величины (например, равномерно распределенного значения на отрезке) чаще говорят о плотности распределения, но на уровне 9 класса важно понимать идею: плотность показывает, как «сконцентрированы» вероятности по числовой оси, а функция распределения F(x) — это накопленная вероятность попасть не выше заданного порога x.
Рассмотрим базовые примеры. 1) Распределение Бернулли: опыт с двумя исходами — «успех» (1) и «неудача» (0). Пусть вероятность успеха равна p, тогда P(X = 1) = p, а P(X = 0) = 1 − p. 2) Биномиальное распределение: проводится n независимых испытаний Бернулли с вероятностью успеха p в каждом. Случайная величина X — число успехов. Вероятность того, что успех наступит ровно k раз, вычисляется по формуле P(X = k) = C(n, k) · p^k · (1 − p)^(n − k), где C(n, k) — число сочетаний из n по k. 3) Равномерное дискретное распределение: например, при честном броске кости все исходы равновероятны и p(x) = 1/6 для x от 1 до 6. Эти модели — «рабочие лошадки» задач: они используются для оценки риска, прогнозов, анализа экспериментов и в олимпиадных заданиях.
У любого распределения есть важные количественные характеристики. Прежде всего, это математическое ожидание (среднее значение) и дисперсия (измеряет разброс значений вокруг среднего). Для дискретной случайной величины X математическое ожидание E(X) вычисляется как сумма по всем возможным значениям: E(X) = суммировать x · P(X = x). Это «среднее взвешенное», где весами выступают вероятности. Дисперсия Var(X) показывает, насколько значения «разбегаются» от среднего: Var(X) = E[(X − E(X))^2]. На практике удобно считать по формуле Var(X) = E(X^2) − [E(X)]^2, где E(X^2) — сумма x^2 · P(X = x). Корень из дисперсии — стандартное отклонение, характеризующее типичный масштаб отклонений. Еще две понятные характеристики — мода (наиболее вероятное значение) и медиана (значение, делящее распределение пополам: вероятность не выше него — не менее 50%, и не ниже — не менее 50%).
Потренируемся на классическом примере — честная кость. Закон распределения: P(X = 1) = … = P(X = 6) = 1/6. Считаем математическое ожидание: E(X) = (1 + 2 + 3 + 4 + 5 + 6) · (1/6) = 21/6 = 3,5. Далее E(X^2) = (1^2 + 2^2 + 3^2 + 4^2 + 5^2 + 6^2) · (1/6) = (1 + 4 + 9 + 16 + 25 + 36) / 6 = 91/6. Тогда дисперсия Var(X) = E(X^2) − [E(X)]^2 = 91/6 − (3,5)^2 = 91/6 − 12,25 = 91/6 − 73,5/6 = 17,5/6 ≈ 2,9167. Стандартное отклонение — корень из этого значения (примерно 1,707). Что означают эти числа? Среднее значение 3,5 — ориентир центра распределения, а стандартное отклонение показывает, что типичные отклонения от 3,5 составляют около 1,7 очка. Мода у равномерной кости отсутствует (все значения одинаково вероятны), а медиана находится между 3 и 4, то есть тоже 3,5.
Теперь пример с распределением Бернулли. Пусть X — результат подбрасывания монеты, где 1 — орел (успех), 0 — решка (неудача), монета честная, значит p = 0,5. Тогда E(X) = 0 · 0,5 + 1 · 0,5 = 0,5. Чтобы найти Var(X), удобно помнить: для Бернулли Var(X) = p(1 − p). В нашем случае Var(X) = 0,5 · 0,5 = 0,25, стандартное отклонение равно 0,5. Для биномиального распределения X ~ Bin(n, p) действует важная формула: E(X) = n · p, Var(X) = n · p · (1 − p). Например, при 10 бросках честной монеты (n = 10, p = 0,5) ожидаемое число орлов — 5, а дисперсия равна 2,5; стандартное отклонение — корень из 2,5, примерно 1,58. Эти формулы удобны и позволяют быстро оценивать «типичный диапазон» результатов, не вычисляя длинных сумм.
Часто в задачах просят «составить распределение» и «найти его характеристики». Алгоритм решения таков: 1) четко описать случайную величину X (что именно мы считаем); 2) перечислить все возможные значения X; 3) вычислить соответствующие вероятности (через правило произведения, формулу сочетаний или известные модели — Бернулли, биноминальную, равномерную); 4) проверить, что сумма вероятностей равна 1; 5) построить таблицу x и P(X = x); 6) вычислить E(X): суммировать x · P(X = x); 7) найти E(X^2) и затем Var(X) = E(X^2) − [E(X)]^2; 8) при необходимости определить моду (максимальная вероятность) и медиану (найти точку, где накопленная вероятность впервые достигает 0,5).
Полезно знать универсальные свойства, которые часто спасают время. Если Y = aX + b, то E(Y) = a · E(X) + b, а Var(Y) = a^2 · Var(X) (сдвиг b не влияет на разброс, а растяжение по масштабу в a раз увеличивает дисперсию в a^2 раз). Для суммы независимых случайных величин X и Y справедливо: E(X + Y) = E(X) + E(Y), а Var(X + Y) = Var(X) + Var(Y), если X и Y независимы. Эти свойства широко применяются при анализе серий экспериментов, подсчете суммарных выигрышей или ошибок. Например, сумма результатов двух независимых бросков кости имеет ожидание 3,5 + 3,5 = 7 и дисперсию, равную сумме дисперсий, то есть примерно 5,833.
Связь теории с практикой легко увидеть на данных наблюдений. В статистике строят эмпирическое распределение по результатам эксперимента: считают частоты попадания значений и находят относительные частоты (частота делится на общее число опытов). По закону больших чисел относительные частоты при увеличении числа опытов приближаются к истинным вероятностям. Для наглядности строят гистограмму (для дискретной величины — столбчатую диаграмму), где высота столбца отражает вероятность или относительную частоту для каждого значения. Также полезно строить кумулятивную кривую — график функции распределения F(x) = P(X ≤ x), по которому удобно находить медиану и процентные точки (квантили).
Рассмотрим типичную задачу. В урне 5 красных и 3 синих шара, вытягиваем один шар наугад. Пусть X = 1, если шар красный, и X = 0, если синий. Тогда P(X = 1) = 5/8, P(X = 0) = 3/8. E(X) = 0 · 3/8 + 1 · 5/8 = 5/8 = 0,625. Var(X) = p(1 − p) = (5/8) · (3/8) = 15/64 ≈ 0,2344. Если же тянем два шара без возвращения и считаем X — число красных, то X принимает значения 0, 1, 2. Можно вычислить вероятности по классической схеме: P(X = 2) = (число способов выбрать 2 красных)/(число способов выбрать любые 2 шара) = C(5, 2)/C(8, 2) = 10/28 = 5/14; P(X = 0) = C(3, 2)/C(8, 2) = 3/28; P(X = 1) = 1 − P(X = 0) − P(X = 2) = 1 − 3/28 − 10/28 = 15/28. Далее можно найти E(X) и Var(X) по общим формулам. Такой подход — пример построения дискретного распределения «с нуля».
Важно уметь читать и интерпретировать функцию распределения F(x). Для дискретной величины мы ищем сумму вероятностей всех значений, не превышающих x. Например, для кости F(2) = P(X ≤ 2) = P(1) + P(2) = 1/6 + 1/6 = 1/3. Чем выше x, тем больше F(x), и в итоге F(6) = 1. Если задача формулируется как «найдите медиану», можно идти по значениям x, суммируя вероятности, пока сумма не достигнет 0,5. Порог, на котором накопленная сумма впервые не меньше 0,5, и будет медианой.
Отдельно стоит упомянуть широко известные распределения, которые часто встречаются в задачах прикладного характера. Равномерное распределение — когда все исходы равновероятны (например, случайное целое от 1 до N). Нормальное распределение (колоколообразная кривая) — модель для суммарного влияния многих малых независимых факторов; хотя его плотность изучается позже, полезно знать, что многие реальные измерения (рост, ошибки измерений) близки к нормальному. Пуассоновское распределение описывает редкие события за фиксированный промежуток времени (например, число звонков за минуту при небольшой интенсивности). Эти модели расширяют арсенал, но принципы расчета характеристик остаются теми же: находить E(X), Var(X), интерпретировать их и применять к контексту задачи.
Чтобы решение задач стало уверенным, используйте следующий чек-лист.
Частые ошибки и как их избежать:
Для закрепления приведу короткий разбор задачи «с нуля». Задача: подбрасывают монету 3 раза. X — число орлов. 1) Возможные значения X: 0, 1, 2, 3. 2) Вероятности: P(0) = 1/8, P(1) = 3/8, P(2) = 3/8, P(3) = 1/8 (биномиальная модель с n = 3, p = 1/2). 3) Проверка: суммы вероятностей 1/8 + 3/8 + 3/8 + 1/8 = 1. 4) E(X) = 0 · 1/8 + 1 · 3/8 + 2 · 3/8 + 3 · 1/8 = (0 + 3 + 6 + 3)/8 = 12/8 = 1,5. 5) E(X^2) = 0^2 · 1/8 + 1^2 · 3/8 + 2^2 · 3/8 + 3^2 · 1/8 = (0 + 3 + 12 + 9)/8 = 24/8 = 3. 6) Var(X) = E(X^2) − [E(X)]^2 = 3 − 1,5^2 = 3 − 2,25 = 0,75; стандартное отклонение — корень из 0,75, примерно 0,866. 7) Мода — 1 и 2 (наибольшая вероятность 3/8), медиана — 1 или 2 (накопленная вероятность при 1 уже 1/2). Полный и прозрачный план действий помогает не допускать ошибок.
Освоив вероятностные распределения и их характеристики, вы научитесь описывать неопределенность количественно, сравнивать разные ситуации по «центру» и «разбросу», строить прогнозы и принимать решения на основе чисел. Эта тема объединяет теорию вероятностей и элементы статистики: от закона распределения и функции распределения до оценок по выборке и графической интерпретации. Чем чаще вы будете составлять таблицы распределений, вычислять математическое ожидание и дисперсию, тем быстрее это превратится в устойчивый навык, который пригодится и в задачах экзаменов, и в реальной жизни — от оценки рисков до анализа данных.