- Lektsia - бесплатные рефераты, доклады, курсовые работы, контрольные и дипломы для студентов - https://lektsia.info -

Шпаргалка по Маркетингу 9





16.Мат.ожидание дискретной случайной величины. М(х) мат.ожидание дискретной случайной величины х, принимает значение х1, х2,…, хnс вероятностями соотв. p1, p2,…,pnназ.сумма произведений всех ее возможных n-значений на их вероятности.



Математическое ожидание дискретной случайной величины х явл. неслучайной постоянной величиной. Если число возможных значений дискретной случайной величины конечно, то предполагается, что ряд сходится абсолютно.Пример: случайная величина х задана следующим законом распределения: х   4  6  9

P0.5 0.3 0.2

Математическое ожидание числа появления событий в одном испытании равно вероятности этого события.

Теорема: математическое ожидание прим.равно среднему арифметическому наблюдаемых значений и случ.величины.



















17.Свойство мат.ожидания дискретной случайной величины. 1.Мат.ожидание постоянной величины k=самой постоянной: M(k)=k; 2.Постоянный множитель можно выносить за знак мат.ожидания:M(kx)=kM(k); 3.Мат.ожидание-произведение нескольких попарно независимых случ.величин=произведению их мат.ожиданий. M(kyz)=M[(xy)z]= M(xy)M(z)=M(x)M(y)M(z)

4.Мат.ожидание-сумма 2-х случайных величин-сумме их мат.ожидания. M(x+y)=M(x)+M(y).Следствие: мат.ожидание суммы нескольких случ.величин. M(x+y+z)=M[(x+y)+z]=M(x+y)+M(z)=M(x)+M(y)+M(z).Следствие: мат.ожидание суммы нескольких случайных величин: M(x+y+z)=M[(x+y)+z]=M(x+y)+M(z)=M(x)+M(y)+M(z).



18.Дисперсия дискретной случайной величины. Понятие дисперсии случ.величины вводится для характеристики отклонения данной величины от ее среднего значения.Для этого рассм.понятие отклонения.Пусть х-случ.величина и М(х)-ее мат.ожидание. Отклонением наз.разность между случ.величиной х и ее мат.ожиданием.Теорема: мат.ожидание отклонения=0; M[x-M(x)]=0. Дисперсией или рассеянием дискретной случ.величины х наз.мат.ожидание квадрата отклонения случ.величины от ее мат.ожидания. D(x)=M(x-M(x))2. Дисперсия случ.величины также имеет закон распределения.Пусть случ.величина х задана законом распределения       

x

x1

x2

x3



xn

P

p1

p2

p3



pn



В этом случае дисперсия распределена по след.закону:

(x-M(x))2

(x1-M(x))2

(x2-M(x))2



(xn-M(x))2

p

p1

p2



pn

По закону распределения квадрата отклонения можно непосредственно рассчитать значение дисперсии




Теорема:дисперсия равна разности между между мат.ожиданием квадрата случ.величины х и квадратом ее мат.ожидания, т.е. D(x)=M(x)2-(M(x))2 .

Пример: случ.величина х задана законом распределения. Х  3      2     9          Найти дисперсию. М(х)=3*0.4+2*0.4+9*0.2=3.8

                                Р 0.4 0.4 0.2           М(х)2  =9*0.4+4*0.4+81*0.2=21.4

D(x)=21,4-(3,8)2 =6.96







19. Свойство дисперсии дискретной случайной величины.

1) Дисперсия постоянной случ. Величины k=0; D(K)=0;

2) Постоянный множитель можно выносить за знак дисперсии возводя его в квадрат, т.е. D(Kx)=K2 D(x);

3) Дисперсия суммы двух независимых случайных величин = сумме дисперсий этих величин: D(x+y)=D(x)+D(y)

Следствие 1: дисперсия суммы нескольких попарно независимых с.в. = сумме дисперсии этих величин;

Следствие 2: дисперсия суммы постоянной и случайной величины = дисперсии с.в.: D(k+x)=D(x)

4) Дисперсия разности двух независимых с.в. = сумме их дисперсий: D(x-y)=D(x)+D(y)



20. Мат. ожидание и дисперсия числа появления событий в независимых испытаниях.

Пусть осуществляется n-незав. испытаний. В каждом из этих испытаний вероятность наступления события А постоянно и =p. Необходимо определить среднее число появления события А в этих испытаниях.

Теорема: мат.ожидание М(х) числа появления события А в n-незав. испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытание.

M(x)=np

Пусть осуществляется n-незав. испытаний. В каждом из этих испытаний вероятность наступления события А постоянно и =p. Необходимо определить дисперсию числа появления события А в этих испытаниях.

Теорема:дисперсия числа наступления события А в n-независимых испытаниях, в  каждом их которых появления события постоянно и равно произведению числа испытаний на вероятность наступления и не наступления события в одном испытании.

D(x)=npq.



21. Среднее квадратичное отклонение.

Кроме дисперсии для оценивания, рассеивания возможных значений случайной величины вокруг ее среднего значения используют показатель среднее квадратичное отклонение.

Средним квадратичным отклонение с.в. Xназывается квадратный корень из ее дисперсии: G(x)=кв.корень из D(x)

Размерность квадратного отклонения совпадает с размерностью с.в.X.

Свойства: 1) G(K)=0; 2) при умножении случайной величины Xна постоянное число k, ее среднее квадратичное отклонение умножается на туже постоянную k.

Теорема:Среднее квадратичное отклонение суммы конечного числа попарно независимых с.в. = кв. корень из суммы квадратов средних квадратичных отклонений этих величин.





22. Одинаково распределенные попарно независимые случайные величины.

Дано n-попарно независимых случайных величин x1,x2,…xn, кот. является одинаково распределенными. Следовательно, данные случайные величины имеют одинаковое мат. ожидание, дисперсию и другие числовые значения. Среднеарифметические с.в. X, рассм. с.в. по следующей формуле: X=x1+x2+…+xn/ n.

Свойства среднеарифметической случайной величины: 1) мат. ожидание среднеарифметической  одинаково распред. попарно независимой с.в.= мат. ожидании, а каждое их них: M(x)=a;

2) дисперсия среднеарифметической n-одинаково распределенной попарно независимой с.в. в n-раз меньше дисперсии каждой из величин: D(x)=D(x)/n;

3) среднее квадратичное отклонение среднего арифметического n-один. распред. попарно независимых с.в. в кв. корень их nраз меньше средне квадратичного отклонения каждого из этих величин: G(x)=G(x)/кв.корень из n.
23. Неравенства Чебышева.

Для рассмотрения теорем, носящих общее название закона больших чисел, необходимо знание неравенства Чебышева. Пусть случайная дискретная величина Xзадана след. законом распределения:

необходимо оценить  вероятность того, что отклонение с.в. от ее мат. ожидания не превышает по абсолютной величине положительного числа E, в том случае если Eдостаточно мало, то задачей будет оценивание вероятностей того, что с.в. Xпримет значение достаточно близкое к своему мат. ожиданию. Поставленная задача решается с помощью неравенства Чебышева.

Вероятность того, что отклонение случайной величины Xот ее M(x) по абсолютной величине меньше положительного числа E, не менее чем 1-D(x)/E2, т.е. вероятность P( [x-M(x)]меньше E)больше или равно 1- D(x)/E2.



24. Теорема Чебышева.

Если последовательность попарно независимых с.в. x1,x2,…xn, имеющих дисперсию, ограниченные одной и той же постоянной C, т.е. D(Xi)

будет приближаться к 1, если число с.в. достаточно мало, т.е. для любого положительного числа Eсуществует предел:





25. Теорема Бернулли

Осущ-ся nнезависимых испытаний, в каждом из этих испытаний вер-ти наступления соб. А-постоянна и равна p. Необходимо определить какова будет относительная частота появлении соб.А, для этого используют теорему Бернулли. Теорема. Если в каждом, из nнезависисых испытаний, соб.А имеет постоянную вероятность p, то как угодно близка к 1 вер-ть того, что отклонение относительной частоты m/nот вер-ти p, но абсолютная величина будет сколь угодно малой, если число наступлений достаточно велико, т.е. при соблюдении условий теоремы, справндливо равенство: limp(|m/n-p|Мат.ожидание каждой из величин xi— равно вер-ти pнаступления события, поэтому . Необходимо доказать, что дробь равна относительной частоте m/nпоявления соб.А, в nиспытаниях. Каждая из величин xi, где i-1,2,3…n, при наступлении соб.А в соответст. испытании принимает значение равное 1, следовательно, тогда в  испытаниях, с учётом последнего равенства можно записать: limp(|m/n-p|

При использовании теоремы Бернулли необходимо учитывать то, что из неё рав-во limm/n=p. Главным утверждением теоремы является то, что  при достаточно большом кол-ве испытаний относительная частота mбудет сколь угодно мало отличаться от постоянной вер-ти pнаступления события в каждом испытании, т.е. теорема Бернулли утверждает, что при       , что относительная частота              .




































26. Интегральный функции распределения. Вероятность случайной величины.

Рассмотрим случ.величину Х, возможные значения которой заполняют интервал (a;b). В данном случае нельзя указать все возможные значения х, поэтому для описания данного случ. величины используется интегральная функция распределения вероятностей. Обозначим через F(x)- вероятность соб., состоящего в том, что случ.велич. х меньшее х. х-действительное чилсо. Но вероятность соб. Х

Случайная величина Х- является непрерывной в том случае, если её интегральная функция распределения F(x) непрерывно дифференцируема. Свойства интегрируемой функции распределения вероятности.1). Значение интегрируемой функции заключается в интервале (0;1), 0≤F(x) ≤1. Док-во: данное свойство основывается на определении интегральной функции, как вер-ти, а вер-ть-неотрицательное число, которое не превышает 1. 2). F(x)-неубывающая функция, F(x2)≥ F(x1), если х2>х1. Следствие1: Вероятность того, что случайная величина примет значение в интервале (a;b) равно прирощённо данной функции в этом интервале. P(a≤ x≤b) = F(b)-F(a). Следствие2: Вероятность того, что нсв Х примет одно определённое значение =0. 3). Если возможные значения случайной величины принадлежат (a;b), то F(x)=0, при x
27. Дифференциальная функция распределений вероятностей нвс.

Определение:Дифер. функцией распределения f(x) называется первая производная от интегральной функции распределения. f(x)=F’(x)=> интегральная функция является первообразной для диф-ой функции.

Диф-ая функция непременима для задания распределения вероятностей дискретной случайной величины, если известна f(x) нсв, то на её основе можно вычислить вероятность того, что нсв примет значение, принадлежащее заранее заданному интервалу. Теорема:Вероятность того, что нсв Х примет значение, принадлежащее (a;b) = опред.интегр. диф.функции, взятому в пределах от а до b.

P(a


Теорема:Если известна диф.функция f(x), то интегральная функцию F(x) можно найти по формуле:

29. Закон равномерного распределения вероятностей.

При решении задач, которые выдвигает практика, сталкиваются с различными распределениями нсв. Диф.функция этих распределений называется также законами распределения. Определение: Распределение вер-тей нсв называют равномерным, если на интервале, котором все возможные значения случайной величины, дифферен.функция имеет постоянное значение.

Закон распределения нсв можно определить заданием, либо интегрир. F(x) нсв, либо диффер.функции f(x). Для равномерного распределения интегральной функции F(x) непрерывной случайной величины имеет вид и график:

            0, прих≤0

F(x)== x-a/b-a, а≤x≤b



Определим диф.функцию равномерного распределения при условии, что все возможные значения случайной величины находятся в интервале (a;b), на котором диф.функция сохраняет постоянное значение. f’(x)=c, т.е.

        f(x)=  C, при a

                   0, при x≤a, x≥b

По свойству (2) функция f(x) есть не собственные интеграл



Таким образом c=1/b-a. График диф.функции f(x) нсв равномерного распределения выглядит так:


    продолжение























28. Свойство дифферен.функции распределения вероят-тей

1. Дифферен.ф-ция неотрицательна f(x)0. Интегральная ф-ция есть неубывающая ф-ция => её производная.  есть ф-ция неотрицательная.  График дифферен.функции называется кривой распределения.

2. Несобственный интергал от дифферен.функции в пределах от  :

Доказательство: Несобственный интергал – это выражение вероят-ти события состоящего в том, что СВ х примет значение принадлежащее интервалу , достоверное событие р=1. В том случае если все значения СВ х находятся в пределах интервала (a;b)





 => предел отношения вероят-ти того. Что НСВ х примет значение а интервале к длине этого интервала.  равен значению интервал.ф-ции в точке Х. Значение  в точке Х определяется как плотность вероят-ти в данной точке, те.е дифферен.ф-ция  определяет плотность распределения вероят-ти для точки Х.
30. Условные характеристики НСВ

Пусть х – это НСВ, которая задана дифферен.ф-цией . Предположим, что все возможные значения величины х принадлежат отрезку [a;b]. Разобьем этот отрезок на n
частей, длины которых  и выделим в каждой из них произвольную точку , где i=1,2,3,…,n. Для того чтобы дать определение матем.ожиданию НСВ, составим сумму произведений возможных значений на вероят-ти их попадания в интервал



Так как произведение  приближенно равно вероят-ти попадания х в интервал . В результате перехода к пределу при условии, что длина наибольшего из полученных отрезков стремится к 0, получим открытый интеграл

Матем.ожидание НСВ Х, чьи возможные значения принадлежат отрезку [a;b] – это число равное определенному интегралу вида . В том случае если возможные значения НСВ Х принадлежат всей оси Х, то  будет равно интегралу . Последнее справедливо при условии, что несобственный интеграл сходится абсолютно, т.е. существует интеграл вида




Если данное условие не выполняется, то значение интеграла независимо от скорости снижения нижнего предела к , а верхнего – к  по отдельности.

Дисперсия НСВ Х– это матем.ожидание квадрата её отклонения в том случае, если возможное значение НСВ Х принадлежит [a;b], то дисперсия определяется как

Если возможное значение НСВ Х принадлежит всей оси ОХ, то дисперсия равна



Среднее квадратическое отклонение НСВ Х– это корень квадратный из дисперсии данной величины

Те свойства матем.ожидания и дисперсии, которые были определены для дискретных случайных велични, справедливы и для НСВ Х.
31. Нормальное распределение

Нормальное распределение вероят-ти НСВ описывается дифференциальной функцией вида

f(x)=

Данная ф-ция задается 2 параметрами a
и G, т.е. достаточно определить эти параметры, чтобы задать нормал. Распределение. Параметр а в этом случае понимается как матем. ожидание, а параметр G– как среднее квадратическое отклонение нормал. распределения.

Рассмотрим параметр а дифферен. Ф-ции нормал.распределения вероят-ти. Матем.ожидание нормал. распределения НСВ находится по формуле:

M(x) =

Введем новую переменную  ; zG+ a= x, тогда dx= Gdz. С учетом новой переменной zматем.ожидание можно записать в виде:

M(x) =

1-ое слагаемое  = 0; 2-ое слагаемое  = a. Таким образом матем.ожидание нормал.распределения равно параметру а.

Рассмотрим параметр Gдифферен.ф-ции нормал.распределния вероят-ти. Дисперсия нормал.распределния НСВ Х с учетом того что М(х)=а имеет вид:

D(x) =

Вновь используем переменную z, на основе к-рой получим след. равенство: zG+a=x; dx=Gdz. С учетом новой переменной zдисперсию можно записать в след.виде:

D(x) =  

В результате интегрирования данного выражения по частям получим D(x) =   , следовательно G(x) =  . Таким образом среднее квадратическое отклонение нормал.распределения равно параметру G. Если нормал.распределения определяется М(х) = 0 и G(x) = 1, то такое распределение называется нормальным, и дифферен.ф-ция нормал.распределения имеет вид:




Вероят-ть того, что Х примет значение принадлежащее интервалу ), находиться по формуле:  , где а – мат.ожидание, G– среднее квадратическое откл-е

    — функция Лапласа



















































































32. Нормальная кривая

Дифферен.ф-ция нормал.распределенной НСВ  имеет вид

График дифферен.ф-ция нормал.распределения вероят-ти наз-ся нормал.кривой или кривой Гаусса. Исследуем дифферен.ф-ция нормал.распределения с помощью метода дифферен. Исчисления:

Данная ф-ция определена на всей оси ОХ


Нормал.кривая расположена над осью ОХ, т.к. при всех значениях х ф-ция принимает положительные значения


Предел ф-ции при неограниченном возрастании х равен 0


   — это означает, что ось ОХ явл-ся горизонтальной асимптотой.

Найдем 1-ую производную ф-ции для исследования её на экстремум





При х=а, у’=0; при x0; при x> a, y’

Отсюда следует, что при х= а ф-ция принимает максимальное значение

График симметричен относительно прямой х=a. Находим 2-ую производную ф-ции для исследования её на точке перегиба







А при переходе через эти точки он меняет знак. В обеих этих точках значение ф-ции равно    следовательно (a-G;) и (a+G;) явл-ся точками перегиба

При а=0 и G=0
Изменение величины матем.ожидания, т.е величины параметра а дифферен.ф-ции нормал.распределения не меняет формы, а приводит её к сдвигу вдоль оси абцисс. При увеличении а сдвиг вправо, при уменьшении а сдвиг влево




При возрастании Gмаксимальная ордината нормал.кривой убывает, а сама кривая становиться более пологой, те.е сжимается к оси ОХ. При уменьшении нормал.кривая становиться более островершинной и растягивается.





Площадь фигуры ограниченной нормал.кривой и осью ОХ при любых значениях параметров а и Gбудет равно 1.
























































33. Правила 3х сигм

Пусть НСВ Х задана дифферен.ф-цией f(x), тогда по теореме вероят-ти того, что х примет значение принадлежащее интервалу ), будет равна



Пусть НСВ Х подчиняется нормал.закону распределения. В этом случае вероят-ть того, что Х примет значение принадлежащее интервалу ), равна




Можно воспользоваться готовыми таблицами, приведя данную формулу к виду



Определим вероят-ть что отклонение нормал.распреленной величины Х по абсолютной величине будет меньше заданного положительного числа а, т.е. найдем вероят-ть осуществления вероят-ти





На основании выше приведенной формулы получим




В этом случае если параметр а равен 0, мы имеем



Зададим параметру  значение равное Gt. получим . Если =3, то =3, тогда вероят-ть того, что отклонение нормал.распределенной СВ Х по абсолютной величине будет равно 2Ф(3). Данная вероят-ть выражается в существование 3хG
. Если НСВ подчиняется нормал.закону распределения, то абсолютная величина её отклонения от матем.ожидания не превосходит утроенного вреднего квадратического отклонения.
34. Теорема Ляпунова

При проведении какого-либо статистического исследования, сопровождающегося сбором данных об изучаемом количественном признаке, всегда сталкиваются с проблемой ошибки данных. Проблема может быть вызвана как несовершенства методов и инструментов, используемых при проведении стат. исследования, так и заранее непредусмотренных факторов. Ошибки делятся на систематические и случайные.

Систематические ошибки – ошибки, вызванные несовершенством методов и инструментов, применяемых при проведении исследования. Теоретически все эти ошибки могут быть исключены. Случайные ошибки – ошибки, которые вызваны под воздействием целой совокупности случайных факторов. Результатом совместного действия всех случайных факторов является суммарная случайная ошибка, которую необходимо оценить. Предположим, что осуществляется серия наблюдений, как CВ Х. Ошибки, которые возникают в ходе произведения наблюдений данной СВ, формируются по воздействием многих незавершенных факторов х1, х2, …, хn. В этом случае ошибка , возникающая при наблюдении СВ Х, может быть охарактеризована след.образом  , где f– законность образованных ошибок.

В случае если ф-ция fудовлетворяет условию дифферентности по совокупности всех переменных, тогда ф-ция fможет быть предназначена для формулы Пейлора




1-ое линейное приближенное значение ошибки  является суммарной независимой СВ:




Ошибка наблюдения является СВ, поэтому для наиболее точной характеристики данной величины необходимо знать закон распределения вероят-тей СВ . Решение поставленной проблемы было найдено русским математиком Ляпуновым, который открыл централ.предельную теорему теории вероят-тей.

Следствие из теоремы: если СВ Х – сумма очень большого числа попарно-независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то СВ Х подлежит закону распределения, которых близок к нормал.закону распределения вероят-тей СВ.






















35. Ассиметрия и эксцесс

Теоретическим распределением является распределение вероят-тей случайных величин. Подобное распределение изучается в теории вероят-ти. В том случае если изучаемое распределение вероят-тей отличается от нормал. распределения, то возникает необходимость количественной оценки этого различия. Данное оценивание осуществляется с помощью спец. Характеристик (в частности показатели ассиметрии и эксцесса).

Если СВ подчиняется нормал.закону распределения, то в данном случае показатели ассиметрии и эксцесса равны 0. Если ассиметрия и эксцесс имеют небольшие значения, можно предположить, что изучаемое распределение вероят-ти СВ близок к 0. Если же напротив ассиметрия и эксцесс имеют большие значения, то это является признаком значительного отклонения изучаемой величины от нормал.распределения.

Для оценки ассиметрии используется понятие симметрического распределения, график которого симметричен относительно прямой х=М(х). В данном случае каждый централ.момент нечетного порядка равен 0, т.е.

   , когда k=1,3,5…

Для несимметрических распределений централ.моменты нечетного порядка отличны от 0. Следовательно любой из централ.моментов может служить для оценки ассиметрии, кроме централ.момента первого порядка, который равен 0 для любого распределения

.    Оценка ассиметрии осуществляется с помощью централ.момента 3-го порядка. Однако величина данного показателя зависит от единиц, в которых изучается СВ.

Для устранения этого недостатка централ.момент  делят на показатель G
в кубе, сто позволяет получить безразмерную характеристику.

Ассиметриятеоретического распределения – отношение централ.момента 3-го порядка к кубу среднего квадратического отклонения  .   Показатель ассиметрии является положительным, если данная часть кривой распределния на графике расположена справа от М(х) и отрицательным – если слева от М(х).

Показатель эксцесса применяется для оценки большого или меньшего подъема кривой теоретического распределения по сравнению с нормал.кривой. Эксцесс теоретического распределения – это характеристика, которая рассчитывается по формуле  . Если СВ подчиняется нормал.закону распределения, то =0 следовательно  = 3. Если показатель  отличен от 0, то кривая этого распределения отличается от нормал.кривой.

 > 0  => кривая имеет более высокую и острую вершину, чем нормал.кривая.

  кривая распределения имеет более низкую и плоскую вершину, чем нормал.кривая. Это при условии, что нормальное и теоретическое распределения имеют одинаковые математ.ожидание и дисперсию.    продолжение