SlideShare une entreprise Scribd logo
1  sur  26
ДИСКРЕТНАЯ МАТЕМАТИКА
Курс лекций
Московский государственный университет
имени М.В.Ломоносова
Экономический факультет
1
Лекция 5
Вероятность и риск
2
Методы комбинаторики
3
В этой лекции мы узнаем об алгебраических свойствах
комбинаторных задач, научимся переводить
содержательные понятия комбинаторики на язык
математических соотношений и уравнений.
Формально преобразуя эти соотношения, можно
вытаскивать новые содержательные свойства, как
кроликов из шляпы.
Рассматриваемые в этой лекции методы классификации,
рекурсии и производящих функций являются одними из
самых мощных методов в математике, и позволяют
решать сложные практические задачи.
Разбиение на группы
4
В основе почти всех методов лежит разбиение на группы. Два
разбиения отличаются друг от друга составом элементов групп,
порядок элементов в группах безразличен, порядок групп существенен.
Количество способов )...,,,( 21 kn nnnP ,
которыми можно разбить множество из n
предметов на k различимых групп,
содержащих соответственно 1n , 2n , …, kn
предметов, равно
!!...!
!
21 knnn
n

ПРИМЕР: ребенок, составил из букв разрезной азбуки ММ ААА ТТ Е И К,
слово МАТЕМАТИКА. Может он математический гений?
У нас шесть групп букв. По стандартной формуле числа разбиений получаем
10!/(2!3!2!1!1!1!)=151200. Вероятность 1/151200 – что и говорить, случай
удивительный.
Выбор как частный случай разбиения
5
В предыдущей лекции мы вывели разбиения на группы из сочетаний. Но
можно пойти и обратно – вывести сочетания из разбиения на группы.
Если число групп равно двум, то формула
разбиения на группы дает
!!
!
),(
21
21
nn
n
nnPn  , или
)!(!
!
),(
11
21
nnn
n
nnnPn

 , что в точности равно
числу сочетаний (числу способов выбрать 1n
элементов из имеющихся n): 1n
nС или 2
n
nС .
Выбор – это просто разбиение элементов на «любимчиков» –
тех, кто выбран, и «прочих» - тех, кто не выбран. При этом все
равно, кого указать – выбранных или оставшихся.
Классификация элементов.
6
Метод классификации позволяет разлагать число способов
формирования некоторого подмножества на сумму более простых
способов, последовательно перебирая несколько возможностей.
Классификация лежит в основе любой науки. С ее помощью
упорядочиваются факты. С ее помощью изучают теоретические
конструкции, сложную проблему разлагают на сумму простых.
Для проведения классификации нужно выделить какое-то
свойство, и рассмотреть элементы, обладающие этим свойством.
Остальные элементы не будут обладать данным свойством.
Рассмотрим уже известное нам свойство сочетаний
kn
n
k
n CC 

Слева стоит число способов выбрать k элементов из n, а справа –
число способов выбрать оставшиеся n-k элементов из n. Но при
каждом способе выбора k любимчиков остаются n-k оставленных
элементов, так что эти числа должны совпадать
Искусственный алфавит.
7
Удобный метод классификации основан на интерпретации
элементов множества как «слов», составленных из букв некоторого
искусственного алфавита.
Докажем новое свойство биномиальных коэффициентов:
k
n
k
n
k
n CCC 1
1
1 

  .
Рассмотрим алфавит из n букв, выберем «слово», в которое
входит k различных букв. Всего таких «слов» будет k
nC . Часть
этих «слов» будет содержать конкретную букву, например «а»,
таких сочетаний будет 1
1


k
nC , поскольку теперь нужно выбирать
только из набора оставшихся n-1 букв на оставшиеся k-1 мест в
слове. Другая часть «слов» не содержит буквы «а», их будет
k
nC 1 ,
поскольку теперь нужно выбирать только из набора оставшихся
n-1 букв на оставшиеся k мест в слове. Свойство доказано.
Треугольник Паскаля.
8
Рассмотрим на первый взгляд другой математический объект:
известный со школы арифметический треугольник, у которого
сумма любых двух чисел дает число, расположенное под ними.
Будем рассматривать «косые» линии чисел как «улицы», а сами числа
как «перекрестки». При этом числа на перекресток показывают число
путей, ведущих «сверху» в данную точку. Для небольших чисел это
проверяется непосредственно.
1
1 1
1 2 1
1 3 3 1
1 4 6 4 1
1 5 10 10 5 1
1 6 15 20 15 6 1
……………………………….
(здесь, например, 3=2+1, 6=3+3).
Метод путей.
9
На перекресток k на уровне n (считая сверху и принимая верхний уровень за
нулевой) ведет
k
nC путей (число способов выбрать k движений направо вниз из
общего числа n движений), так что треугольник Паскаля состоит из сочетаний
0
0C
0
1C 1
1C
0
2C 1
2C 2
2C
0
3C 1
3C 2
3C 3
3C
0
4C 1
4C 2
4C 3
4C 4
4C
.……………………………….
В каждый «нижний» перекресток можно прийти либо из
«верхнего левого» или «верхнего правого», поэтому справедливо,
например 2
3
1
3
2
4 CCC  . Итак, снова k
n
k
n
k
n CCC 1
1
1 

  .
Выбирайте, какой из методов вам больше нравится.
Бином Ньютона.
10
Широко используемая формула бинома Ньютона имеет чисто
комбинаторную природу и является алгебраической версией
треугольника Паскаля.
1)( 0
 ba
10011
)( bababa 
2011022
2)( babababa 
302112033
33)( bababababa 
40312213044
464)( babababababa 
……………………………………………………………………………………………………………
nn
n
kknk
n
n
n
n
n
n
baCbaCbaCbaCba 011100
......)(  
Выбор пути (направо или налево) здесь заменяется выбором буквы ( “a” или “b”).
Следствие: полагая a=b=1, получим
nn
n
k
nnn CCCC 2......10

Биномиальные вероятности.
11
Слагаемые формулы бинома Ньютона могут быть использованы для
расчета биномиальных вероятностей. Такие вероятности
относятся к повторению независимых событий. Паскаля.
Предположим, что вероятность того, что некоторое событие
A произойдет, равно p, тогда вероятность того, что оно не
произойдет (то есть произойдет противоположное событие
AB  , равно pq 1 . Тогда вероятность цепочки событий

knk
BBBAAA

...... равна knk
qp 
. Но реально событие A может
произойти в любой момент. Чтобы учесть это, нужно
полученную вероятность умножить на число способов k
nC
выбрать k мест для события A из доступных n мест. В итоге,
вероятность того что при n повторениях событие A случится
k раз, равно knkk
nn qpCkP 
)( .
Пример: снова ЕГЭ - бросание монеты.
12
Предположим, что имеется изогнутая монета, для которой
вероятность выпадения герба составляет 2/3. Соответственно,
вероятность решки сотавляет 1/3. Найти вероятность того, что в
пяти бросаниях монеты герб выпадет три раза.
Согласно общей формуле, искомая вероятность равна
33,0
3
1
243
8
10
3
2
321
345
3
1
3
2
5
323
3
5 














C
Перед применением формулы биномиальной вероятности
всегда нужно проверить выполнение трех условий:
1. Каждое испытание имеет только два исхода (бином)
2. Испытания повторяются несколько раз (повторение)
3. Условия испытаний не меняются (независимость)
Повторные и бесповторные выборки
13
Пусть в совокупности из N элементов помечены K элементов, при этом
выбираются n элементов. Какова вероятность получить k меченых?
Если несколько предметов выбираются все сразу, то ясно, что
каждый предмет может быть представлен в выборке только
один раз – такая выборка называется бесповторной (или
выборкой без возвращения). Если после выбора (и
регистрации) предмет возвращается обратно, то он может
быть случайно выбран снова. Такая выборка называется
бесповторной выборкой, или выборкой с возвращением.
Для бесповторной выборки n
N
kn
KN
k
K
С
СС 
 .
Для повторной выборки
knk
k
n
N
K
N
K
С






 




 1
Пример: карты – бесповторная выборка.
14
Пять карт выбраны случайно выбраны одновременно
из хорошо перемешанной колоды в 52 карты. Какова
вероятность, что среди них содержится
а) только один туз;
б) ровно два туза;
в) по крайней мере один туз?
РЕШЕНИЕ. Это пример бесповторной выборки
а) 5
52
4
48
1
4
С
СС 
; б) 5
52
3
48
2
4
С
СС 
в) 5
50
5
481
С
С

Пример: карты – повторная выборка.
15
Пять карт случайно выбираются из колоды в 52 карты,
после выбора каждой карты она карта возвращается в
колоду и колода тщательно перемешивается. Какова
вероятность, что среди выбранных карт содержится
а) только один туз;
б) ровно два туза;
в) по крайней мере один туз?
РЕШЕНИЕ. Это пример повторной выборки
а)
41
1
5
52
48
52
4











С ; б)
32
2
5
52
48
52
4











С ; в)
50
0
5
52
48
52
4
1 










С
Итоговые задачки по комбинаторике…
16
В некоторых сельских местностях России
существовало когда-то следующее гадание.
Девушка зажимает в руке шесть травинок так,
чтобы концы травинок торчали сверху и снизу;
подруга связывает эти травинки попарно между
собой сверху и снизу в отдельности. Если при
этом все шесть травинок оказываются
связанными в одно кольцо, то это должно было
означать, что девушка скоро выйдет замуж.
Найдите вероятность этого исхода гадания.
Гадание.
Задачка на дом: выборка с повторением и без.
17
На кафедре мат. методов преподаватели решили для контроля
выполнения домашних работ вызывать к доске на каждом
семинаре двух студентов.
1) В одной из групп, которую ведет лектор, 10 мальчиков и 15
девочек. Какова вероятность, что будут вызваны два мальчика.
2) Как изменится эта вероятность, если рассеянный лектор не
помнит, кого он уже вызывал к доске, так что один и тот же
студент может быть вызван повторно?
3) Преподаватель другой группы сказал, что в его группе тоже 25
человек, но вероятность случайно получить двух мальчиков
составляет 3/25. Лектор, подумав пару секунд, сразу назвал
число девочек в его группе. Сможете ли вы, подумав, может
быть, чуть больше лектора, оценить число девочек в этой
группе?
Маска, я тебя знаю
Итоговые задачки по комбинаторике…
18
Экзаменационный тест множественного выбора
состоит из 10 вопросов, каждый имеет 5 возможных
ответов, из которых только один правильный.
(а) Какова вероятность правильно ответить ровно на 5
вопросов, не зная предмета и полагаясь только на
удачу?
(б) Чтобы сдать экзамен, нужно правильно ответить
как минимум на 5 вопросов. Какова вероятность
успешно сдать экзамен, полагаясь только на
угадывание?
Тест по экономике на халяву.
*Задачка посложнее
19
7 человек остановились в старинном
английском замке. В нем как раз 7 комнат.
Говорят, что в одной из них появляется
привидение. Наутро оказалось, что одна из
комнат пуста (кто-то ночевал в чужой
комнате). Постояльцы уверяют, что это не
имеет отношения к привидению и они
расселились случайным образом.
Насколько состоятельно такое объяснение.
Жуткая тайна пустой комнаты.
* * * Наверное, самая сложная задачка
20
Семь студентов поехали кататься на лыжах в
горы и остановились в маленьком отеле на семь
комнат. Наутро администратор отеля обнаружил,
что в двух комнатах оказалось по два студента, в
одной – сразу три, а остальные оказались пусты.
Студенты уверяют, что это произошло случайно,
так как каждый студент выбирал себе комнату
наугад. Какова вероятность, что это
действительно так?
Отель “У погибшего альпиниста”.
Случилось то, что должно было случиться…
21
Выборку обычно производят для того, чтобы оценить, как
устроена исходная большая совокупность. Выборка обычно
представляет только малую часть совокупности, тем не
менее она дает правдоподобные результаты. Хотелось
бы, чтобы это правдоподобие было максимальным.
Пусть число M (количество элементов совокупности m,
обладающих нужным свойством) неизвестно. Обозначим его
через X. Однако, легко подсчитать количество таких элементов
m в выборке объема n.
По правилу формирования сложной выборки
(бесповторная выборка) вероятность получения той
выборки, которая у нас уже есть, равна n
N
mn
XN
m
X
C
CC
Xp


)(
Прочтите, кто не читал: Курт Воннегут «Колыбель для кошки»
Принцип максимального правдоподобия.
22
Принцип максимального правдоподобия требует выбора таких
теоретических предпосылок, которые обеспечивают максимальную
вероятность появления реально наблюдаемых фактов.
Потребуем, чтобы вероятность получения той выборки, которая
у нас уже есть, n
N
mn
XN
m
X
C
CC
Xp


)( была наибольшей. Полученная
таким образом оценка величины X называется оценкой
максимального правдоподобия.
Он является одним из наиболее мощных и универсальных современных
методов в математической статистике и эконометрике.
Вычисление оценки макс. правдоподобия.
23
Практически, чтобы найти здесь точку максимума, не используют
производных, а вместо этого исследуют отношение вероятностей.
Аналогично можно оценивать величину N (общее число элементов
совокупности), предварительно обеспечив, чтобы часть элементов M
обладала некоторым свойством
Рассмотрим отношение
n
N
mn
XN
m
X
n
N
mn
XN
m
X
C
CC
C
CC
Xp
Xp





 11)1(
)(
. Очевидно, что
сначала это отношение больше 1, потом меньше 1, так что,
нужно найти момент, когда оно максимально близко к 1.
Расписав факториалы, которые практически полностью
сокращаются, решаем уравнение 1
)1(
)(

Xp
Xp
.
Маленькое научное исследование
24
Попробуйте сосчитать белых медведей! Эти помоечники
крутятся около экспедиции, приводя к повторному счету.
Предложена следующая процедура:
1) Сначала с самолета пометить всех встреченных мишек из
пэйнтбольного ружья.
2) Через некоторое время провести выборочный подсчет
медведей, регистрируя отдельно окрашенных. Всего было
окрашено 25 мишек, при этом через месяц из 40
встреченных мишек 8 оказались окрашенными.
Найдите наиболее правдоподобную оценку числа белых
медведей в рассматриваемом районе Севера.
Мишки на Севере
Маленькое научное исследование
25
Мишки на Севере – подсказки к решению
Обозначения N – общее число мишек, K – окрашенные, n –
выборка, k – число окрашенных в выборке
1) Используйте биномиальные вероятности (мишки могут
попасться в поле зрения повторно – повторная выборка)
2) Чтобы найти максимум этой вероятности по числу мишек на
Севере N воспользуйтесь простой идеей – около точки
максимума соседние вероятности должны быть почти равными.
3) Для упрощения выражений воспользуйтесь эквивалентными
бесконечно малыми
Конец лекции

Contenu connexe

En vedette

Полный цикл разработки на Python + Django
Полный цикл разработки на Python + DjangoПолный цикл разработки на Python + Django
Полный цикл разработки на Python + Django
Azamat Tokhtaev
 

En vedette (7)

Python. Введение
Python. ВведениеPython. Введение
Python. Введение
 
Python
PythonPython
Python
 
WebCamp 2016: Python.Павел Коломиец.Использование микросервисов при написании...
WebCamp 2016: Python.Павел Коломиец.Использование микросервисов при написании...WebCamp 2016: Python.Павел Коломиец.Использование микросервисов при написании...
WebCamp 2016: Python.Павел Коломиец.Использование микросервисов при написании...
 
WebCamp 2016: Python.Максим Климишин.Типизированный Python
WebCamp 2016: Python.Максим Климишин.Типизированный PythonWebCamp 2016: Python.Максим Климишин.Типизированный Python
WebCamp 2016: Python.Максим Климишин.Типизированный Python
 
Полный цикл разработки на Python + Django
Полный цикл разработки на Python + DjangoПолный цикл разработки на Python + Django
Полный цикл разработки на Python + Django
 
Сергей Марин - Большие данные - Muzis Hackathon
Сергей Марин - Большие данные - Muzis HackathonСергей Марин - Большие данные - Muzis Hackathon
Сергей Марин - Большие данные - Muzis Hackathon
 
Learn 90% of Python in 90 Minutes
Learn 90% of Python in 90 MinutesLearn 90% of Python in 90 Minutes
Learn 90% of Python in 90 Minutes
 

Similaire à Lecture 05 Вероятность и риск

Принцип Дирихле
Принцип ДирихлеПринцип Дирихле
Принцип Дирихле
rasparin
 
лекция 3 Комбинаторные задачи
лекция 3 Комбинаторные задачилекция 3 Комбинаторные задачи
лекция 3 Комбинаторные задачи
Ирина Гусева
 
Задворный б.в. (минск) от идеи к исследованию
Задворный б.в. (минск)   от идеи к исследованиюЗадворный б.в. (минск)   от идеи к исследованию
Задворный б.в. (минск) от идеи к исследованию
Лёха Гусев
 
Задворный б.в. (минск) от идеи к исследованию
Задворный б.в. (минск)   от идеи к исследованиюЗадворный б.в. (минск)   от идеи к исследованию
Задворный б.в. (минск) от идеи к исследованию
Лёха Гусев
 
летний математический лагерь 5 класс
летний математический лагерь 5 класслетний математический лагерь 5 класс
летний математический лагерь 5 класс
LZolotko
 

Similaire à Lecture 05 Вероятность и риск (20)

Algoritm resheniya zadach_na_proporcii
Algoritm resheniya zadach_na_proporciiAlgoritm resheniya zadach_na_proporcii
Algoritm resheniya zadach_na_proporcii
 
1 1 b kombinatorika 1-2 urok
1  1 b kombinatorika 1-2 urok1  1 b kombinatorika 1-2 urok
1 1 b kombinatorika 1-2 urok
 
Принцип Дирихле
Принцип ДирихлеПринцип Дирихле
Принцип Дирихле
 
лекция 3 Комбинаторные задачи
лекция 3 Комбинаторные задачилекция 3 Комбинаторные задачи
лекция 3 Комбинаторные задачи
 
Binom newtona
Binom newtonaBinom newtona
Binom newtona
 
Диаграммы Юнга, плоские разбиения и знакочередующиеся матрицы
Диаграммы Юнга, плоские разбиения и знакочередующиеся матрицыДиаграммы Юнга, плоские разбиения и знакочередующиеся матрицы
Диаграммы Юнга, плоские разбиения и знакочередующиеся матрицы
 
Lecture 1 Конечное и бесконечное в дискретной математике
Lecture 1 Конечное и бесконечное в дискретной математикеLecture 1 Конечное и бесконечное в дискретной математике
Lecture 1 Конечное и бесконечное в дискретной математике
 
Matematika 4kl 2
Matematika 4kl 2Matematika 4kl 2
Matematika 4kl 2
 
Непараметрические методы
Непараметрические методыНепараметрические методы
Непараметрические методы
 
8 a mak_2013
8 a mak_20138 a mak_2013
8 a mak_2013
 
8 a mak_2013
8 a mak_20138 a mak_2013
8 a mak_2013
 
1556 решение уравнений в целых числах власова, латанова, евсеева-2010 -68с
1556  решение уравнений в целых числах  власова, латанова, евсеева-2010 -68с1556  решение уравнений в целых числах  власова, латанова, евсеева-2010 -68с
1556 решение уравнений в целых числах власова, латанова, евсеева-2010 -68с
 
Математика .ppt
Математика .pptМатематика .ppt
Математика .ppt
 
0000d056 cf10fb99
0000d056 cf10fb990000d056 cf10fb99
0000d056 cf10fb99
 
Урок алгебры в 9 классе «Решение систем уравнений второй степени с двумя пере...
Урок алгебры в 9 классе «Решение систем уравнений второй степени с двумя пере...Урок алгебры в 9 классе «Решение систем уравнений второй степени с двумя пере...
Урок алгебры в 9 классе «Решение систем уравнений второй степени с двумя пере...
 
Задворный б.в. (минск) от идеи к исследованию
Задворный б.в. (минск)   от идеи к исследованиюЗадворный б.в. (минск)   от идеи к исследованию
Задворный б.в. (минск) от идеи к исследованию
 
Задворный б.в. (минск) от идеи к исследованию
Задворный б.в. (минск)   от идеи к исследованиюЗадворный б.в. (минск)   от идеи к исследованию
Задворный б.в. (минск) от идеи к исследованию
 
летний математический лагерь 5 класс
летний математический лагерь 5 класслетний математический лагерь 5 класс
летний математический лагерь 5 класс
 
20131022 зобнин
20131022 зобнин20131022 зобнин
20131022 зобнин
 
Математическая индукция
Математическая индукцияМатематическая индукция
Математическая индукция
 

Plus de Vladimir Tcherniak

Прикладная эконометрика. Лекция 12
Прикладная эконометрика. Лекция 12Прикладная эконометрика. Лекция 12
Прикладная эконометрика. Лекция 12
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 10
Прикладная эконометрика. Лекция 10Прикладная эконометрика. Лекция 10
Прикладная эконометрика. Лекция 10
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 8
Прикладная эконометрика. Лекция 8Прикладная эконометрика. Лекция 8
Прикладная эконометрика. Лекция 8
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 5
Прикладная эконометрика. Лекция 5Прикладная эконометрика. Лекция 5
Прикладная эконометрика. Лекция 5
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 2
Прикладная эконометрика. Лекция 2Прикладная эконометрика. Лекция 2
Прикладная эконометрика. Лекция 2
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 1
Прикладная эконометрика. Лекция 1Прикладная эконометрика. Лекция 1
Прикладная эконометрика. Лекция 1
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 11
Прикладная эконометрика. Лекция 11Прикладная эконометрика. Лекция 11
Прикладная эконометрика. Лекция 11
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 9
Прикладная эконометрика. Лекция 9Прикладная эконометрика. Лекция 9
Прикладная эконометрика. Лекция 9
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 7
Прикладная эконометрика. Лекция 7Прикладная эконометрика. Лекция 7
Прикладная эконометрика. Лекция 7
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6
Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 4
Прикладная эконометрика. Лекция 4Прикладная эконометрика. Лекция 4
Прикладная эконометрика. Лекция 4
Vladimir Tcherniak
 

Plus de Vladimir Tcherniak (20)

Прогноз технологического развития. Тубденов Виталий
Прогноз технологического развития. Тубденов ВиталийПрогноз технологического развития. Тубденов Виталий
Прогноз технологического развития. Тубденов Виталий
 
Прогноз школьного экономического образования. Василий Ушаков
Прогноз школьного экономического образования. Василий УшаковПрогноз школьного экономического образования. Василий Ушаков
Прогноз школьного экономического образования. Василий Ушаков
 
Экономика будущего. Ирина Бухтуева
Экономика будущего. Ирина БухтуеваЭкономика будущего. Ирина Бухтуева
Экономика будущего. Ирина Бухтуева
 
Lecture 10 Математика информации
Lecture 10 Математика информацииLecture 10 Математика информации
Lecture 10 Математика информации
 
Lecture 09. Математика бедности и богатства.
Lecture 09. Математика бедности и богатства.Lecture 09. Математика бедности и богатства.
Lecture 09. Математика бедности и богатства.
 
Lecture 03 Алгебра множеств. Конечные множества.
Lecture 03 Алгебра множеств. Конечные множества.Lecture 03 Алгебра множеств. Конечные множества.
Lecture 03 Алгебра множеств. Конечные множества.
 
Lecture 02 Игры с бесконечностью
Lecture 02 Игры с бесконечностьюLecture 02 Игры с бесконечностью
Lecture 02 Игры с бесконечностью
 
Dm2016
Dm2016Dm2016
Dm2016
 
Лекция 8. Алгоритмы (продолжение)
Лекция 8. Алгоритмы (продолжение)Лекция 8. Алгоритмы (продолжение)
Лекция 8. Алгоритмы (продолжение)
 
Прикладная эконометрика. Лекция 12
Прикладная эконометрика. Лекция 12Прикладная эконометрика. Лекция 12
Прикладная эконометрика. Лекция 12
 
Прикладная эконометрика. Лекция 10
Прикладная эконометрика. Лекция 10Прикладная эконометрика. Лекция 10
Прикладная эконометрика. Лекция 10
 
Прикладная эконометрика. Лекция 8
Прикладная эконометрика. Лекция 8Прикладная эконометрика. Лекция 8
Прикладная эконометрика. Лекция 8
 
Прикладная эконометрика. Лекция 5
Прикладная эконометрика. Лекция 5Прикладная эконометрика. Лекция 5
Прикладная эконометрика. Лекция 5
 
Прикладная эконометрика. Лекция 2
Прикладная эконометрика. Лекция 2Прикладная эконометрика. Лекция 2
Прикладная эконометрика. Лекция 2
 
Прикладная эконометрика. Лекция 1
Прикладная эконометрика. Лекция 1Прикладная эконометрика. Лекция 1
Прикладная эконометрика. Лекция 1
 
Прикладная эконометрика. Лекция 11
Прикладная эконометрика. Лекция 11Прикладная эконометрика. Лекция 11
Прикладная эконометрика. Лекция 11
 
Прикладная эконометрика. Лекция 9
Прикладная эконометрика. Лекция 9Прикладная эконометрика. Лекция 9
Прикладная эконометрика. Лекция 9
 
Прикладная эконометрика. Лекция 7
Прикладная эконометрика. Лекция 7Прикладная эконометрика. Лекция 7
Прикладная эконометрика. Лекция 7
 
Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6
 
Прикладная эконометрика. Лекция 4
Прикладная эконометрика. Лекция 4Прикладная эконометрика. Лекция 4
Прикладная эконометрика. Лекция 4
 

Lecture 05 Вероятность и риск

  • 1. ДИСКРЕТНАЯ МАТЕМАТИКА Курс лекций Московский государственный университет имени М.В.Ломоносова Экономический факультет 1
  • 3. Методы комбинаторики 3 В этой лекции мы узнаем об алгебраических свойствах комбинаторных задач, научимся переводить содержательные понятия комбинаторики на язык математических соотношений и уравнений. Формально преобразуя эти соотношения, можно вытаскивать новые содержательные свойства, как кроликов из шляпы. Рассматриваемые в этой лекции методы классификации, рекурсии и производящих функций являются одними из самых мощных методов в математике, и позволяют решать сложные практические задачи.
  • 4. Разбиение на группы 4 В основе почти всех методов лежит разбиение на группы. Два разбиения отличаются друг от друга составом элементов групп, порядок элементов в группах безразличен, порядок групп существенен. Количество способов )...,,,( 21 kn nnnP , которыми можно разбить множество из n предметов на k различимых групп, содержащих соответственно 1n , 2n , …, kn предметов, равно !!...! ! 21 knnn n  ПРИМЕР: ребенок, составил из букв разрезной азбуки ММ ААА ТТ Е И К, слово МАТЕМАТИКА. Может он математический гений? У нас шесть групп букв. По стандартной формуле числа разбиений получаем 10!/(2!3!2!1!1!1!)=151200. Вероятность 1/151200 – что и говорить, случай удивительный.
  • 5. Выбор как частный случай разбиения 5 В предыдущей лекции мы вывели разбиения на группы из сочетаний. Но можно пойти и обратно – вывести сочетания из разбиения на группы. Если число групп равно двум, то формула разбиения на группы дает !! ! ),( 21 21 nn n nnPn  , или )!(! ! ),( 11 21 nnn n nnnPn   , что в точности равно числу сочетаний (числу способов выбрать 1n элементов из имеющихся n): 1n nС или 2 n nС . Выбор – это просто разбиение элементов на «любимчиков» – тех, кто выбран, и «прочих» - тех, кто не выбран. При этом все равно, кого указать – выбранных или оставшихся.
  • 6. Классификация элементов. 6 Метод классификации позволяет разлагать число способов формирования некоторого подмножества на сумму более простых способов, последовательно перебирая несколько возможностей. Классификация лежит в основе любой науки. С ее помощью упорядочиваются факты. С ее помощью изучают теоретические конструкции, сложную проблему разлагают на сумму простых. Для проведения классификации нужно выделить какое-то свойство, и рассмотреть элементы, обладающие этим свойством. Остальные элементы не будут обладать данным свойством. Рассмотрим уже известное нам свойство сочетаний kn n k n CC   Слева стоит число способов выбрать k элементов из n, а справа – число способов выбрать оставшиеся n-k элементов из n. Но при каждом способе выбора k любимчиков остаются n-k оставленных элементов, так что эти числа должны совпадать
  • 7. Искусственный алфавит. 7 Удобный метод классификации основан на интерпретации элементов множества как «слов», составленных из букв некоторого искусственного алфавита. Докажем новое свойство биномиальных коэффициентов: k n k n k n CCC 1 1 1     . Рассмотрим алфавит из n букв, выберем «слово», в которое входит k различных букв. Всего таких «слов» будет k nC . Часть этих «слов» будет содержать конкретную букву, например «а», таких сочетаний будет 1 1   k nC , поскольку теперь нужно выбирать только из набора оставшихся n-1 букв на оставшиеся k-1 мест в слове. Другая часть «слов» не содержит буквы «а», их будет k nC 1 , поскольку теперь нужно выбирать только из набора оставшихся n-1 букв на оставшиеся k мест в слове. Свойство доказано.
  • 8. Треугольник Паскаля. 8 Рассмотрим на первый взгляд другой математический объект: известный со школы арифметический треугольник, у которого сумма любых двух чисел дает число, расположенное под ними. Будем рассматривать «косые» линии чисел как «улицы», а сами числа как «перекрестки». При этом числа на перекресток показывают число путей, ведущих «сверху» в данную точку. Для небольших чисел это проверяется непосредственно. 1 1 1 1 2 1 1 3 3 1 1 4 6 4 1 1 5 10 10 5 1 1 6 15 20 15 6 1 ………………………………. (здесь, например, 3=2+1, 6=3+3).
  • 9. Метод путей. 9 На перекресток k на уровне n (считая сверху и принимая верхний уровень за нулевой) ведет k nC путей (число способов выбрать k движений направо вниз из общего числа n движений), так что треугольник Паскаля состоит из сочетаний 0 0C 0 1C 1 1C 0 2C 1 2C 2 2C 0 3C 1 3C 2 3C 3 3C 0 4C 1 4C 2 4C 3 4C 4 4C .………………………………. В каждый «нижний» перекресток можно прийти либо из «верхнего левого» или «верхнего правого», поэтому справедливо, например 2 3 1 3 2 4 CCC  . Итак, снова k n k n k n CCC 1 1 1     . Выбирайте, какой из методов вам больше нравится.
  • 10. Бином Ньютона. 10 Широко используемая формула бинома Ньютона имеет чисто комбинаторную природу и является алгебраической версией треугольника Паскаля. 1)( 0  ba 10011 )( bababa  2011022 2)( babababa  302112033 33)( bababababa  40312213044 464)( babababababa  …………………………………………………………………………………………………………… nn n kknk n n n n n n baCbaCbaCbaCba 011100 ......)(   Выбор пути (направо или налево) здесь заменяется выбором буквы ( “a” или “b”). Следствие: полагая a=b=1, получим nn n k nnn CCCC 2......10 
  • 11. Биномиальные вероятности. 11 Слагаемые формулы бинома Ньютона могут быть использованы для расчета биномиальных вероятностей. Такие вероятности относятся к повторению независимых событий. Паскаля. Предположим, что вероятность того, что некоторое событие A произойдет, равно p, тогда вероятность того, что оно не произойдет (то есть произойдет противоположное событие AB  , равно pq 1 . Тогда вероятность цепочки событий  knk BBBAAA  ...... равна knk qp  . Но реально событие A может произойти в любой момент. Чтобы учесть это, нужно полученную вероятность умножить на число способов k nC выбрать k мест для события A из доступных n мест. В итоге, вероятность того что при n повторениях событие A случится k раз, равно knkk nn qpCkP  )( .
  • 12. Пример: снова ЕГЭ - бросание монеты. 12 Предположим, что имеется изогнутая монета, для которой вероятность выпадения герба составляет 2/3. Соответственно, вероятность решки сотавляет 1/3. Найти вероятность того, что в пяти бросаниях монеты герб выпадет три раза. Согласно общей формуле, искомая вероятность равна 33,0 3 1 243 8 10 3 2 321 345 3 1 3 2 5 323 3 5                C Перед применением формулы биномиальной вероятности всегда нужно проверить выполнение трех условий: 1. Каждое испытание имеет только два исхода (бином) 2. Испытания повторяются несколько раз (повторение) 3. Условия испытаний не меняются (независимость)
  • 13. Повторные и бесповторные выборки 13 Пусть в совокупности из N элементов помечены K элементов, при этом выбираются n элементов. Какова вероятность получить k меченых? Если несколько предметов выбираются все сразу, то ясно, что каждый предмет может быть представлен в выборке только один раз – такая выборка называется бесповторной (или выборкой без возвращения). Если после выбора (и регистрации) предмет возвращается обратно, то он может быть случайно выбран снова. Такая выборка называется бесповторной выборкой, или выборкой с возвращением. Для бесповторной выборки n N kn KN k K С СС   . Для повторной выборки knk k n N K N K С              1
  • 14. Пример: карты – бесповторная выборка. 14 Пять карт выбраны случайно выбраны одновременно из хорошо перемешанной колоды в 52 карты. Какова вероятность, что среди них содержится а) только один туз; б) ровно два туза; в) по крайней мере один туз? РЕШЕНИЕ. Это пример бесповторной выборки а) 5 52 4 48 1 4 С СС  ; б) 5 52 3 48 2 4 С СС  в) 5 50 5 481 С С 
  • 15. Пример: карты – повторная выборка. 15 Пять карт случайно выбираются из колоды в 52 карты, после выбора каждой карты она карта возвращается в колоду и колода тщательно перемешивается. Какова вероятность, что среди выбранных карт содержится а) только один туз; б) ровно два туза; в) по крайней мере один туз? РЕШЕНИЕ. Это пример повторной выборки а) 41 1 5 52 48 52 4            С ; б) 32 2 5 52 48 52 4            С ; в) 50 0 5 52 48 52 4 1            С
  • 16. Итоговые задачки по комбинаторике… 16 В некоторых сельских местностях России существовало когда-то следующее гадание. Девушка зажимает в руке шесть травинок так, чтобы концы травинок торчали сверху и снизу; подруга связывает эти травинки попарно между собой сверху и снизу в отдельности. Если при этом все шесть травинок оказываются связанными в одно кольцо, то это должно было означать, что девушка скоро выйдет замуж. Найдите вероятность этого исхода гадания. Гадание.
  • 17. Задачка на дом: выборка с повторением и без. 17 На кафедре мат. методов преподаватели решили для контроля выполнения домашних работ вызывать к доске на каждом семинаре двух студентов. 1) В одной из групп, которую ведет лектор, 10 мальчиков и 15 девочек. Какова вероятность, что будут вызваны два мальчика. 2) Как изменится эта вероятность, если рассеянный лектор не помнит, кого он уже вызывал к доске, так что один и тот же студент может быть вызван повторно? 3) Преподаватель другой группы сказал, что в его группе тоже 25 человек, но вероятность случайно получить двух мальчиков составляет 3/25. Лектор, подумав пару секунд, сразу назвал число девочек в его группе. Сможете ли вы, подумав, может быть, чуть больше лектора, оценить число девочек в этой группе? Маска, я тебя знаю
  • 18. Итоговые задачки по комбинаторике… 18 Экзаменационный тест множественного выбора состоит из 10 вопросов, каждый имеет 5 возможных ответов, из которых только один правильный. (а) Какова вероятность правильно ответить ровно на 5 вопросов, не зная предмета и полагаясь только на удачу? (б) Чтобы сдать экзамен, нужно правильно ответить как минимум на 5 вопросов. Какова вероятность успешно сдать экзамен, полагаясь только на угадывание? Тест по экономике на халяву.
  • 19. *Задачка посложнее 19 7 человек остановились в старинном английском замке. В нем как раз 7 комнат. Говорят, что в одной из них появляется привидение. Наутро оказалось, что одна из комнат пуста (кто-то ночевал в чужой комнате). Постояльцы уверяют, что это не имеет отношения к привидению и они расселились случайным образом. Насколько состоятельно такое объяснение. Жуткая тайна пустой комнаты.
  • 20. * * * Наверное, самая сложная задачка 20 Семь студентов поехали кататься на лыжах в горы и остановились в маленьком отеле на семь комнат. Наутро администратор отеля обнаружил, что в двух комнатах оказалось по два студента, в одной – сразу три, а остальные оказались пусты. Студенты уверяют, что это произошло случайно, так как каждый студент выбирал себе комнату наугад. Какова вероятность, что это действительно так? Отель “У погибшего альпиниста”.
  • 21. Случилось то, что должно было случиться… 21 Выборку обычно производят для того, чтобы оценить, как устроена исходная большая совокупность. Выборка обычно представляет только малую часть совокупности, тем не менее она дает правдоподобные результаты. Хотелось бы, чтобы это правдоподобие было максимальным. Пусть число M (количество элементов совокупности m, обладающих нужным свойством) неизвестно. Обозначим его через X. Однако, легко подсчитать количество таких элементов m в выборке объема n. По правилу формирования сложной выборки (бесповторная выборка) вероятность получения той выборки, которая у нас уже есть, равна n N mn XN m X C CC Xp   )( Прочтите, кто не читал: Курт Воннегут «Колыбель для кошки»
  • 22. Принцип максимального правдоподобия. 22 Принцип максимального правдоподобия требует выбора таких теоретических предпосылок, которые обеспечивают максимальную вероятность появления реально наблюдаемых фактов. Потребуем, чтобы вероятность получения той выборки, которая у нас уже есть, n N mn XN m X C CC Xp   )( была наибольшей. Полученная таким образом оценка величины X называется оценкой максимального правдоподобия. Он является одним из наиболее мощных и универсальных современных методов в математической статистике и эконометрике.
  • 23. Вычисление оценки макс. правдоподобия. 23 Практически, чтобы найти здесь точку максимума, не используют производных, а вместо этого исследуют отношение вероятностей. Аналогично можно оценивать величину N (общее число элементов совокупности), предварительно обеспечив, чтобы часть элементов M обладала некоторым свойством Рассмотрим отношение n N mn XN m X n N mn XN m X C CC C CC Xp Xp       11)1( )( . Очевидно, что сначала это отношение больше 1, потом меньше 1, так что, нужно найти момент, когда оно максимально близко к 1. Расписав факториалы, которые практически полностью сокращаются, решаем уравнение 1 )1( )(  Xp Xp .
  • 24. Маленькое научное исследование 24 Попробуйте сосчитать белых медведей! Эти помоечники крутятся около экспедиции, приводя к повторному счету. Предложена следующая процедура: 1) Сначала с самолета пометить всех встреченных мишек из пэйнтбольного ружья. 2) Через некоторое время провести выборочный подсчет медведей, регистрируя отдельно окрашенных. Всего было окрашено 25 мишек, при этом через месяц из 40 встреченных мишек 8 оказались окрашенными. Найдите наиболее правдоподобную оценку числа белых медведей в рассматриваемом районе Севера. Мишки на Севере
  • 25. Маленькое научное исследование 25 Мишки на Севере – подсказки к решению Обозначения N – общее число мишек, K – окрашенные, n – выборка, k – число окрашенных в выборке 1) Используйте биномиальные вероятности (мишки могут попасться в поле зрения повторно – повторная выборка) 2) Чтобы найти максимум этой вероятности по числу мишек на Севере N воспользуйтесь простой идеей – около точки максимума соседние вероятности должны быть почти равными. 3) Для упрощения выражений воспользуйтесь эквивалентными бесконечно малыми