В этом тексте я подробно объясню разделы статистика и вероятность, которые изучаются в 11 классе. Постараюсь дать ясные определения, показать практические шаги решения типичных задач и привести примеры, которые помогут закрепить понимание. Важно отдать себе отчёт, что статистика ориентирована на сбор, описание и интерпретацию данных, тогда как вероятность — это теория случайных явлений и способов оценки того, насколько вероятно наступление событий.
Сначала разберёмся с основными понятиями описательной статистики. Набор элементов, которые мы анализируем, называется выборкой (или генеральной совокупностью). Для числовых данных обычно вычисляют: среднее арифметическое, медиану, моду, размах, дисперсию и стандартное отклонение. Среднее арифметическое — это сумма всех значений, делённая на их количество: mean = (x1 + x2 + ... + xn) / n. Медиана — это центральное значение при упорядочивании данных; если количество элементов чётно, медиана равна среднему двух средних значений. Мода — значение, которое встречается чаще всего. Размах = max - min. Дисперсия показывает, насколько значения в среднем отклоняются от среднего: variance = sum((xi - mean)^2) / n (или / (n-1) для несмещённой оценки выборочной дисперсии). Стандартное отклонение — квадратный корень из дисперсии и обладает тем же размерным измерением, что и исходные данные.
Пример подсчёта на практике. Допустим, есть данные: 3, 7, 7, 10, 13. Шаги решения:
Переходим к вероятности. Сначала определим пространство элементарных исходов (S) и событие (A). Вероятность классического события при равновероятных исходах: P(A) = m/n, где m — число благоприятных исходов, n — общее число исходов. Существуют и другие подходы: частотный (эмпирический) и аксиоматический. Для практики важно уметь работать с комбинациями: перестановки, сочетания и размещения. Формулы (в простом тексте):
Рассмотрим типичную задачу: из колоды 36 карт вытаскивают 2 карты подряд без возвращения. Найти вероятность, что обе карты туз. Решение по шагам:
Очень важная часть — условная вероятность и независимость событий. Условная вероятность P(A|B) = P(A ∩ B) / P(B). События A и B независимы, если P(A ∩ B) = P(A)P(B), иначе нет. Теорема Байеса — мощный инструмент для обратных задач (о причинах по следствию). Формула Байеса: P(H_i|A) = P(A|H_i)P(H_i) / sum_j P(A|H_j)P(H_j). Практический пример: тест на болезнь с чувствительностью 99% и специфичностью 95%, распространённость болезни 1%. Какова вероятность наличия болезни при положительном тесте? Решение шагами:
Далее — дискретные распределения: самое важное для школьного курса — биномиальное распределение и нормальное распределение как приближение. Для биномиального: вероятность ровно k успехов в n независимых испытаниях с вероятностью успеха p равна C(n,k) p^k (1-p)^(n-k). Пример: вероятность ровно 3 орлов при 5 подбрасываниях честной монеты: C(5,3)*(1/2)^3*(1/2)^2 = 10 * 1/32 = 10/32 = 0.3125. Нормальное распределение важно как предельное: центральная предельная теорема говорит, что сумма большого числа независимых случайных величин с конечной дисперсией приближается к нормальному распределению. Это объясняет, почему нормальное распределение часто встречается в природе и технике.
Наконец, несколько методических советов для экзамена и практики:
В заключение: совершенствование навыков приходит через практику задач разного типа — от простых вычислений средних до применения теоремы Байеса и подсчёта вероятностей сложных событий. Обращайте внимание на контекст задач, не забывайте проверять допущения (независимость, равновероятность, дискретность или непрерывность) и всегда объясняйте свои шаги — именно так строится математическое мышление в статистике и теории вероятности.