WikiZero - Теория вероятностей

  1. пример [ ред. | ред. код ]
  2. Дискретные распределения вероятностей [ ред. | ред. код ]
  3. Непрерывные распределения вероятностей [ ред. | ред. код ]
  4. Сходимость случайных величин [ ред. | ред. код ]
  5. Закон больших чисел [ ред. | ред. код ]
  6. Центральная предельная теорема [ ред. | ред. код ]
  7. Темы теории вероятностей [ ред. | ред. код ]

open wikipedia design.

теория вероятностей [1] (вероятностей [2] ), Теория вероятности [3] - раздел математики , Изучающая закономерности случайных явлений: случайные события , случайные величины , их функции , Свойства и операции над ними. математические модели в теории вероятности описывают с некоторой степенью точности испытания ( эксперименты , наблюдения , измерения ), Результаты которых неоднозначно определяются условиями испытания.

Математическим аппаратом теории вероятности есть комбинаторика и теория меры .

Теория вероятностей возникла и начала развивалась как прикладная дисциплина (в частности, для расчетов в азартных играх). Связана с именами Х.Гюйґенса, Б.Паскаля, П.Ферма. Своим теоретическим обоснованием обязана Я.Бернулли, П.Лаплас, П.Л.Чебишову, А.М.Ляпунова. [4] [5] [6] Систему аксиом теории вероятностей сформулировал А.М.Колмогоров. [7] Теория вероятностей является основой математической статистики . Широко используется для описания и изучения разнообразных технологических процессов ввиду их стохастичность.

Возникновение теории вероятностей как науки относят к средневековью и первых попыток математического анализа азартных игр . Сначала ее основные понятия не имели строго математического вида, к ним можно было относиться как к эмпирических фактов, свойств реальных событий, и формулировались они в наглядных представлениях. Первые научные работы в области теории вероятностей относятся к XVII веку. Исследуя прогнозирования выигрыша в азартных играх, Блез Паскаль и Пьер Ферма открыли первые вероятностные зависимости, возникающие при бросании игральных кубиков .

Считают, что впервые Паскаль взялся за теорию вероятностей под влиянием вопросов, поставленных перед ним одним из придворных французского двора Шевалье де Мере (1607-1648), который был азартным игроком, но игра для него тоже была поводом для довольно глубоких размышлений. Де Мере предложил Паскалю два известных вопроса, первый из которых он попытался решить сам. Вопросы были следующие: [8]

1. Сколько раз надо бросить два игровых кубика, чтобы случаев выпадения сразу двух шестерок было больше половины от общего количества бросков?

2. Как справедливо разделить поставленные двумя игроками деньги, если они по каким-то причинам прекратили декабря преждевременно?

Эти задачи обсуждались в переписке Б. Паскаля и П. Ферма (1601-1665) и послужили поводом для введения понятия математического ожидания И попыток формулировки основных теорем сложения и произведения вероятностей. Под влиянием поставленных и рассмотренных вопросов решением тех же задач занялся Христиан Гюйгенс. Он не был знаком с перепиской Паскаля и Ферма, поэтому методику решения изобрел самостоятельно. Его труд, в котором введен основные понятия теории вероятностей (понятие вероятности как величины шанса; математическое ожидание для дискретных случаев, в виде цены шанса), а также использованы теоремы сложения и умножения вероятностей (не сформулированы явно), было напечатано 1657, на двадцать лет раньше писем Паскаля и Ферма (1679).

Настоящую научную основу теории вероятностей заложил великий математик Якоб Бернулли (1654-1705). Его труд «Искусства предположений» стала первым основательным трактатом по теории вероятностей. Она содержала общую теорию перестановок и сочетаний. А сформулирован Бернулли закон больших чисел дал возможность установить связь между вероятностью любой случайного события и частоте появления, которая наблюдается непосредственно из опыта. В первой половине XIX века теория вероятностей начинает применяться к анализу ошибок наблюдений; Лаплас и Пуассон доказали первые предельные теоремы. Во второй половине XIX века значительный задел сделали российские ученые: П. Л. Чебышев, А. А. Марков и А. М. Ляпунов. Тогда было доказано закон больших чисел, центральную предельную теорему , А также разработана теория цепей Маркова . Современный вид теория вероятностей получила благодаря аксиоматизации, предложенной Андрей Николаевич Колмогоров . [9]

Значительный вклад в теорию вероятностей сделал украинский-русский математик, академик НАН Украины, директор Института математики НАН Украины, лауреат премии имени П. Чебышева Гнеденко . Ему удалось доказать в окончательной формулировке локальную предельную теорему для независимых, одинаково распределенных решетчатых слагаемых (1948 г.). В Украине он начал исследования непараметрических методов статистики, закончил работу над учебником «Курс теории вероятностей» [10] (Первое издание - 1949) и монографии «Предельные распределения для сумм независимых случайных величин».

В конце концов теория вероятностей приобрела четкого математического вида и окончательно стала восприниматься как один из разделов математики.

Под испытанием подразумевается выполнение запланированных действий и получения результата за выполнение определенного комплекса условий S. При этом предполагается, что эти условия являются фиксированными; они либо объективно существуют, или создаются искусственно и могут быть воспроизведены неограниченное количество раз.

Примерами испытания: изготовление детали или изделия, бросание монеты или игрального кубика, разыгрывание лотереи, проведение аукциона.

Предметом исследования теории вероятности есть особые зависимости, присущие результатам массовых однородных (для которых сохраняется комплекс условий S) испытаний. При этом исследуются испытания, которые характеризуются статистической регулярностью, хотя последствия испытаний в каждом случае могут быть разными.

Результатом испытания является событие . События делятся на: достоверные / правдивые (однозначно состоятся) и невозможны, совместимы и несовместимы , Эквивалентные / тождественны и противоположные. Обозначаются заглавными латинскими буквами, например, A, B, С.

Основные объекты исследования теории вероятностей:

  1. случайное событие и ее вероятность ;
  2. случайная величина и ее функция распределения ;
  3. случайный процесс и его вероятностная характеристика.

понятие события лучше рассматривать в теоретико-множественном контексте. [ Кому? ]

пример [ ред. | ред. код ]

Пусть события Ai, (i = 1, 2, 3, 4, 5, 6) состоит в том, что при одном бросании игральной кости выпало i {\ displaystyle i} Пусть события Ai, (i = 1, 2, 3, 4, 5, 6) состоит в том, что при одном бросании игральной кости выпало i {\ displaystyle i}   очков  событие А - четное количество очков очков событие А - четное количество очков. Тогда событие А есть множество событий, элементами которой являются события A2, A4, A6, то есть A = {A2, A4, A6}. Если при реализации такой совокупности условий S состоялась одно из событий A2, A4, A6, то это означает, что произошло событие А (выпала четное количество очков). Итак события A2, A4, A6 является реализациями, проявлениями события А.

Дискретные распределения вероятностей [ ред. | ред. код ]

Дискретная теория вероятностей рассматривает события, которые возникают в Счетное пространствах событий.

Например: бросание игровых косточек , Эксперименты с колодой карт , случайное блуждание И подбрасывания монет

Классическое определение: Сначала вероятность события определяли как количество случаев, в которых может случиться событие, из общего количества возможных случаев в ривноймовирнисному пространстве событий: см. классическое определение вероятности .

Например, если событием является то, «что при бросании игральной кости выпадет четное число», то вероятность составит 3 6 = 1 2 {\ displaystyle {\ tfrac {3} {6}} = {\ tfrac {1} {2}} } Например, если событием является то, «что при бросании игральной кости выпадет четное число», то вероятность составит 3 6 = 1 2 {\ displaystyle {\ tfrac {3} {6}} = {\ tfrac {1} {2}} }   , Поскольку 3 грани с 6 имеют нанесенные на них четные числа, и каждая грань имеет одинаковую вероятность выпадения , Поскольку 3 грани с 6 имеют нанесенные на них четные числа, и каждая грань имеет одинаковую вероятность выпадения.

Современное определение: современное определение начинается с конечной или счётное множество , Что называют пространством элементарных событий , Которая соответствует множеству всех возможных случаев в классическом понимании, и которую обозначают через Ω {\ displaystyle \ Omega} Современное определение: современное определение начинается с   конечной или счётное множество   , Что называют   пространством элементарных событий   , Которая соответствует множеству всех возможных случаев в классическом понимании, и которую обозначают через Ω {\ displaystyle \ Omega} . Тогда считают, что каждому элементу x ∈ Ω {\ displaystyle x \ in \ Omega} соответствует истинное значение «вероятности» f (x) {\ displaystyle f (x) \} , Которое удовлетворяет следующим свойствам:

  1. f (x) ∈ [0, 1] for all x ∈ Ω; {\ Displaystyle f (x) \ in [0,1] {\ mbox {for all}} x \ in \ Omega \ ,;}
  2. Σ x ∈ Ω f (x) = 1. {\ Displaystyle \ sum _ {x \ in \ Omega} f (x) = 1 \ ,.}

Таким образом, функция вероятности f (x) {\ displaystyle f (x)} Таким образом, функция вероятности f (x) {\ displaystyle f (x)}   принимает значения между нулем и единицей для каждого значения x {\ displaystyle x}   в пространстве событий Ω {\ displaystyle \ Omega}   , А сумма f (x) {\ displaystyle f (x)}   по всем значениям x {\ displaystyle x}   в пространстве событий Ω {\ displaystyle \ Omega}   равен 1 принимает значения между нулем и единицей для каждого значения x {\ displaystyle x} в пространстве событий Ω {\ displaystyle \ Omega} , А сумма f (x) {\ displaystyle f (x)} по всем значениям x {\ displaystyle x} в пространстве событий Ω {\ displaystyle \ Omega} равен 1. случайное событие определяется как любая подмножество E {\ displaystyle E \} пространства элементарных событий Ω {\ displaystyle \ Omega \} . Вероятность события E {\ displaystyle E \} определяют как

P (E) = Σ x ∈ E f (x). {\ Displaystyle P (E) = \ sum _ {x \ in E} f (x) \ ,.} P (E) = Σ x ∈ E f (x)

Таким образом, вероятность полного пространства событий равна 1, а вероятность нулевой события равна 0.

Функцию f (x) {\ displaystyle f (x)} Функцию f (x) {\ displaystyle f (x)}   , Отражающий точку в пространстве событий на значение «вероятности», называют   функцией массы вероятности   , Сокращенно ФМИ , Отражающий точку в пространстве событий на значение «вероятности», называют функцией массы вероятности , Сокращенно ФМИ. Современное определение не пытается дать ответ, как получать функции массы вероятности; зато оно выстраивает теорию, которая предусматривает их существования.

Непрерывные распределения вероятностей [ ред. | ред. код ]

Непрерывная теория вероятностей изучает случаи, возникающие в непрерывном пространстве событий.

Классическое определение При соприкосновении с непрерывным случаем классическое определение не выстраивается. См. парадокс Бертрана .

Современное определение: Если выходной пространство случайной величины X является множеством действительных чисел (R {\ displaystyle \ mathbb {R}} Современное определение: Если выходной пространство случайной величины X является множеством   действительных чисел   (R {\ displaystyle \ mathbb {R}}   ) Или ее опилками, то существует функция, называют   кумулятивной функцией распределения вероятностей   (Кфр) F {\ displaystyle F}   И определяют как F (x) = P (X ≤ x) {\ displaystyle F (x) = P (X \ leq x) \} ) Или ее опилками, то существует функция, называют кумулятивной функцией распределения вероятностей (Кфр) F {\ displaystyle F} И определяют как F (x) = P (X ≤ x) {\ displaystyle F (x) = P (X \ leq x) \} . Функция F (x) возвращает значение вероятности, что соответствует тому что величина X меньше или равной x.

Кфр обязательно удовлетворяет следующим свойствам:

  1. F {\ displaystyle F \} есть монотонной НЕ убывающей , равномерно непрерывной функцией;
  2. lim x → - ∞ F (x) = 0; {\ Displaystyle \ lim _ {x \ rightarrow - \ infty} F (x) = 0 \ ,;}
  3. lim x → ∞ F (x) = 1. {\ Displaystyle \ lim _ {x \ rightarrow \ infty} F (x) = 1 \ ,.}

Если F {\ displaystyle F \} Если F {\ displaystyle F \}   есть   абсолютно непрерывной   , То есть, существует ее производная, а интегрирование ее производной функции снова дает Кфр, говорится, что случайная величина X имеет   функцию плотности вероятности   Или ФГИ, или просто плотность f (x) = d F (x) d x есть абсолютно непрерывной , То есть, существует ее производная, а интегрирование ее производной функции снова дает Кфр, говорится, что случайная величина X имеет функцию плотности вероятности Или ФГИ, или просто плотность f (x) = d F (x) d x. {\ Displaystyle f (x) = {\ frac {dF (x)} {dx}} \ ,.}

Для множества E ⊆ R {\ displaystyle E \ subseteq \ mathbb {R}} Для множества E ⊆ R {\ displaystyle E \ subseteq \ mathbb {R}}   вероятность того, что значение случайной величины X находится в E {\ displaystyle E}   равна вероятность того, что значение случайной величины X находится в E {\ displaystyle E} равна

P (X ∈ E) = ∫ x ∈ E d F (x). {\ Displaystyle P (X \ in E) \ int _ {x \ in E} dF (x) \ ,.} P (X ∈ E) = ∫ x ∈ E d F (x)

В случае существования функции плотности это возможно записать как

P (X ∈ E) = ∫ x ∈ E f (x) d x. {\ Displaystyle P (X \ in E) \ int _ {x \ in E} f (x) \, dx \ ,.} P (X ∈ E) = ∫ x ∈ E f (x) d x

В то время как ФГИ существует только для непрерывных случайных величин, Кфр существует для всех случайных величин (в том числе и для дискретных), что принимают значения в R. {\ Displaystyle \ mathbb {R} \ ,.} В то время как ФГИ существует только для непрерывных случайных величин, Кфр существует для всех случайных величин (в том числе и для дискретных), что принимают значения в R

Эти понятия можно обобщить и для многомерных случаев в пространстве R n {\ displaystyle \ mathbb {R} ^ {n}} Эти понятия можно обобщить и для   многомерных   случаев в пространстве R n {\ displaystyle \ mathbb {R} ^ {n}}   и других непрерывных пространств событий и других непрерывных пространств событий.

Сходимость случайных величин [ ред. | ред. код ]

В теории вероятности существует несколько различных определений сходимости случайных величин . Они перечислены ниже в порядке своей строгости, то есть, любое последующее понятие сходимости означает выполнение сходимости предыдущих.

Слабая сходимость Последовательность случайных величин X 1, X 2, ..., {\ displaystyle X_ {1}, X_ {2}, \ dots, \} Слабая сходимость Последовательность случайных величин X 1, X 2, слабо сходится к случайной величины X {\ displaystyle X \} если их соответствующие кумулятивные функции распределения F 1, F 2, ... {\ displaystyle F_ {1}, F_ {2}, \ dots \} совпадают с кумулятивной функции распределения F {\ displaystyle F \} величины X {\ displaystyle X \} , Где F {\ displaystyle F \} есть непрерывной . Слабую сходимость также называют сходимостью по распределению. Наиболее распространенная сокращена нотация: X n → D X {\ displaystyle \ displaystyle X_ {n} \, {\ xrightarrow {\ mathcal {D}}} \, X} Сходимость по вероятности Говорят, что последовательность случайных величин X 1, X 2, ... {\ displaystyle X_ {1}, X_ {2}, \ dots \} сходится к случайной величины X {\ displaystyle X \} по вероятности если lim n → ∞ P (| X n - X | ≥ ε) = 0 {\ displaystyle \ lim _ {n \ rightarrow \ infty} P \ left (\ left | X_ {n} -X \ right | \ geq \ varepsilon \ right) = 0} для каждой ε> 0 Наиболее распространенная сокращена нотация: X n → P X {\ displaystyle \ displaystyle X_ {n} \, {\ xrightarrow {P}} \, X} Сильная сходимость Говорят, что последовательность случайных величин X 1, X 2, ... {\ displaystyle X_ {1}, X_ {2}, \ dots \} сходится к случайной величины X {\ displaystyle X \} сильно если P (lim n → ∞ X n = X) = 1 {\ displaystyle P (\ lim _ {n \ rightarrow \ infty} X_ {n} = X) = 1} . Сильную сходимость также называют сходимостью по норме или почти определенной сходимостью. Наиболее распространенная сокращена нотация: X n → a. s. X {\ displaystyle \ displaystyle X_ {n} \, {\ xrightarrow {\ mathrm {as}}} \, X}

Как ясно из названий слабая сходимость менее строгой, чем сильная сходимость. По сути, сильная сходимость предполагает сходимость по вероятности, а сходимость по вероятности предполагает слабую сходимость. Обратное утверждение не всегда будет иметь место.

Закон больших чисел [ ред. | ред. код ]

Интуитивно можно предположить, что если монету подбросить много раз, тогда примерно половину раз она будет падать чет вверх, а другую половину раз вверх выпадет избытка. Кроме того, чем больше раз подбрасывать монеты, тем вероятнее соотношение количества выпадения чет количеству излишков будет приближаться к единице. Современная теория вероятности предоставляет формальное определение этой интуитивной догадки, что известно как закон больших чисел. Этот закон является определяющим, поскольку он не является предположением которое лежит в основе теории вероятностей, а есть теоремой, что доказана с ее аксиом. Поскольку он связывает теоретически выведены вероятности на основе частоты их фактического возникновения при реальном наблюдении, закон больших чисел является одним из важнейшим в истории статистической теории и имеет широкое применение. [11]

Закон больших чисел утверждает, что выборочное среднее

X ¯ n = 1 n Σ k = 1 n X k {\ displaystyle {\ overline {X}} _ {n} = {\ frac {1} {n}} {\ sum _ {k = 1} ^ {n } X_ {k}}} X ¯ n = 1 n Σ k = 1 n X k {\ displaystyle {\ overline {X}} _ {n} = {\ frac {1} {n}} {\ sum _ {k = 1} ^ {n } X_ {k}}}

последовательности независимых и одинаково распределенных случайных величин X k {\ displaystyle X_ {k}} последовательности независимых и одинаково распределенных случайных величин X k {\ displaystyle X_ {k}}   совпадает с их общего надежды μ {\ displaystyle \ mu}   При условии что математическое ожидание |  X k |  {\ Displaystyle | X_ {k} |}   является конечным совпадает с их общего надежды μ {\ displaystyle \ mu} При условии что математическое ожидание | X k | {\ Displaystyle | X_ {k} |} является конечным.

различные формы сходимости случайных величин определяют как следствие две формы закона больших чисел: слабый и сильный

Слабый закон: X ¯ n → P μ {\ displaystyle \ displaystyle {\ overline {X}} _ {n} \, {\ xrightarrow {P}} \, \ mu} Слабый закон: X ¯ n → P μ {\ displaystyle \ displaystyle {\ overline {X}} _ {n} \, {\ xrightarrow {P}} \, \ mu}   для n → ∞ {\ displaystyle n \ to \ infty}   Сильный закон: X ¯ n → a для n → ∞ {\ displaystyle n \ to \ infty} Сильный закон: X ¯ n → a. s. μ {\ displaystyle \ displaystyle {\ overline {X}} _ {n} \, {\ xrightarrow {\ mathrm {a. \, s.}}} \, \ mu} для n → ∞. {\ Displaystyle n \ to \ infty.}

Из закона больших чисел следует, что даже если вероятность p является результатом наблюдений за повторяющимися независимыми экспериментами, соотношение частоты наблюдения за этим событием к общему количеству повторений эксперимента будет совпадать со значением p.

Например, если Y 1, Y 2,. . . {\ Displaystyle Y_ {1}, Y_ {2} ... \} Например, если Y 1, Y 2, независимы случайными величинами Бернулли , Которые могут принимать значение 1 с вероятностью p и значение 0 с вероятностью 1- p, тогда E (Y i) = p {\ displaystyle {\ textrm {E}} (Y_ {i}) = p} для всех i, так что Y ¯ n {\ displaystyle {\ bar {Y}} _ {n}} почти наверняка сходится к p.

Центральная предельная теорема [ ред. | ред. код ]

Центральная предельная теорема является одним из выдающихся результатов математики. [12] Она объясняет вездесущий существования нормального распределения в природе.

Теорема утверждает, что среднее многих независимых и одинаково распределенных случайных величин с конечным дисперсией направляется к нормальному распределению независимо от распределения, которому следует начальная случайная величина. Формально, пусть X 1, X 2, ... {\ displaystyle X_ {1}, X_ {2}, \ dots \} Теорема утверждает, что   среднее   многих независимых и одинаково распределенных случайных величин с конечным дисперсией направляется к нормальному распределению независимо от распределения, которому следует начальная случайная величина независимы случайными величинами с средним μ {\ displaystyle \ mu} и дисперсией σ 2> 0 {\ displaystyle \ sigma ^ {2}> 0 \} Тогда последовательность случайных величин

Z n = Σ i = 1 n (X i - μ) σ n {\ displaystyle Z_ {n} = {\ frac {\ sum _ {i = 1} ^ {n} (X_ {i} - \ mu)} {\ sigma {\ sqrt {n}}}} \} Z n = Σ i = 1 n (X i - μ) σ n {\ displaystyle Z_ {n} = {\ frac {\ sum _ {i = 1} ^ {n} (X_ {i} - \ mu)} {\ sigma {\ sqrt {n}}}} \}

совпадает по распределению случайной величины с стандартным нормальным распределением .

Темы теории вероятностей [ ред. | ред. код ]

Особенность теории вероятностей [ ред. | ред. код ]

  • В теории вероятностей случайную переменную считают известной. [13]

Эта особенность отличает предмет и методы теории вероятностей от предмета и методов математической статистики , Где случайную переменную исследуют после получения статистического материала.

  1. вероятностей теория // Энциклопедия современной Украины : В 30 т. / Ред. кол. И. М. Дзюба [И др.]; НАН Украины , НОШ , Координационное бюро энциклопедии современной Украины НАН Украины. - К., 2003-2016. - ISBN 944-02-3354-X .
  2. вероятностей теория // Украинская советская энциклопедия : В 12 т. / Гл. ред. М. П. Бажан ; редкол .: О. К. Антонов и др. - 2-е изд. - К. : Главная редакция Уре , 1979. - Т. 4: Электрод - кантаридина. - С. 360.
  3. вероятность // Словарь украинского языка : В 11 т. -: научная мысль , 1970-1980.
  4. Hald, Anders (2003). A History of Probability and Statistics and Their Applications before 1750 Hoboken, NJ: Wiley. ISBN 0-471-47129-1 . (Англ.)
  5. Hald, Anders (1998). A History of Mathematical Statistics from 1750 to 1930. New York: Wiley. ISBN 0-471-17912-4 . (Англ.)
  6. Гнеденко Б. В. Очерк по истории теории вероятностей // Курс теории вероятностей. - М .: Издательско-полиграфический центр "Киевский университет", 2010. - 464с. С. 351-428.
  7. Колмогоров, А. Н. «Основные понятия теории вероятностей», М .: Наука, 1974 (рус.)
  8. Стройк Д. Я. Краткий очерк истории математики. - Изд. 3-е. - М .: Наука, 1984. - 285 с.
  9. Колмогоров, А. Н. «Основные понятия теории вероятностей», М .: Наука, 1974 (рус.)
  10. Гнеденко Б.В. Курс теории вероятностей. - М .: ИПЦ Киевский университет, 2010. - 464 с.
  11. Leithner & Co Pty Ltd - Value Investing, Risk and Risk Management - Part I . Leithner.com.au. 2000-09-15. Архив оригинала за 2014-01-26.
  12. Chapter 18 in David Williams , "Probability with martingales", Cambridge 1991/2008
  13. Сеньо П.С. Теория вероятностей и математическая статистика: Учебник. - 2-е изд., Перераб. и доп. - М .: Знание, 2007. - С. 291.
  • Теория вероятностей, математическая статистика и вероятностные процессы: учеб. пособие. / Ю. М. Слюсарчук, И. Я. Хромяк, Л. Л. Джавала, В. М. Цимбал; М-во образования и науки Украины, Нац. ун-т "Львов. политехника". - Львов: Изд-во Львов. политехники, 2015. - 364 с. : Ил. - Библиогр .: с. 351 (10 названий). - ISBN 978-617-607-775-6
  • Сеньо П.С. Теория вероятностей и математическая статистика. - 2-е изд. - Киев: Знание, 2007. - 556 с.
  • Барковский В.В. Теория вероятностей и математическая статистика. 5-е издание. - Киев: Центр учебной литературы, 2010. - 424 с.
  • Жлуктенко В. И. Теория вероятностей и математичниа статистика. В 2 ч. - Ч. И. Теория вероятностей. - М .: Финансы, 2000. - 304 с.
  • Жлуктенко В. И. Теория вероятностей и математичниа статистика. В 2 ч. - Ч. II. Математическая статистика. - М .: Финансы, 2001. - 336 с.
  • Гнеденко Б.В. Курс теории вероятностей. - М .: ИПЦ Киевский университет, 2010. - 464 с.
  • Дороговцев А.Я Сборник задач по теории вероятностей. - М .: Высшая школа, 1976. - 384 с.
  • Каленюк П.И. и др. Теория вероятностей и математическая статистика. - Львов: Издательство Национального университета "Львовская политехника", 2005. - 240 с.
  • Кармелюк И. Теория вероятностей и математическая статистика. Руководство по разрешению задач. - М .: Центр учебной литературы, 2007. - 576 с.
  • Донченко В. С., Сидоров М. В.-С., Шарапов М. М. Теория вероятностей и математическая статистика . - Альма-матер. - Киев: «Академия», 2009. - 288 с. - ISBN 978-966-580-297-6 .
  • Скаскив О.Б. теория вероятностей . - Киев: «И. Е. Чижиков », 2012. - 142 с. - ISBN 978-966-2645-05-7 .
  • Вступление в нестандартной теории вероятностей: Тексты лекций / В. Лянке, Г. Чуйко; Львов. нац. ун-т им. И. Франко. - Л., 2002. - 45 c. - Библиогр .: 9 названий.

1. Сколько раз надо бросить два игровых кубика, чтобы случаев выпадения сразу двух шестерок было больше половины от общего количества бросков?
2. Как справедливо разделить поставленные двумя игроками деньги, если они по каким-то причинам прекратили декабря преждевременно?
Кому?