<<
>>

2.3.7. Асимптотический линейный регрессионный анализ для интервальных данных

Перейдем к многомерному статистическому анализу. Сначала с позиций асимптотической математической статистики интервальных данных рассмотрим оценки метода наименьших квадратов (МНК).

Статистическое исследование зависимостей - одна из наиболее важных задач, которые возникают в различных областях науки и техники. Под словами "исследование зависимостей" имеется в виду выявление и описание существующей связи между исследуемыми переменными на основании результатов статистических наблюдений. К методам исследования зависимостей относятся регрессионный анализ, многомерное шкалирование, идентификация параметров динамических объектов, факторный анализ, дисперсионный анализ, корреляционный анализ и др. Однако многие реальные ситуации характеризуются наличием данных интервального типа, причем известны допустимые границы погрешностей (например, из технических паспортов средств измерения).

Если какая-либо группа объектов характеризуется переменными Х1, Х2, ,...,Хт и проведен эксперимент, состоящий из » опытов, где в каждом опыте эти переменные измеряются один раз, то экспериментатор получает набор чисел: Х, Х, ,...,ХЩ (і = 1,-, п).

Однако процесс измерения, какой бы физической природы он ни был, обычно не дает однозначный результат. Реально результатом измерения какой-либо величины Х являются два числа: Хн— нижняя

граница и Хв — верхняя граница. Причем ХИСТ є [Хн, Хв], где ХИСТ - истинное значение измеряемой величины. Результат измерения можно записать как X: [Хн, Хв]. Интервальное число X может быть представлено другим способом, а именно, X: [Хт, Ах], где Хн = Хт - Дх , Хн = Хт + Дх . Здесь Хт - центр интервала (как правило, не совпадающий с ХИСТ), а Дх - максимально возможная погрешность измерения.

Метод наименьших квадратов для интервальных данных.

Пусть математическая модель задана следующим образом:

у = Q(х,b) + е,

где х = (х1 , х2,..., хда) - вектор влияющих переменных (факторов), поддающихся измерению; Ь = (Ь1 , Ь2 ,... , Ьг) - вектор оцениваемых параметров модели; у - отклик модели (скаляр); Q(х,b)- скалярная функция векторов х и Ь; наконец, е - случайная ошибка (невязка, погрешность).

Пусть проведено п опытов, причем в каждом опыте измерены (один раз) значения отклика (у) и вектора факторов (х). Результаты измерений могут быть представлены в следующем виде:

Х = у; і =1,п;і =} У = (Уі - У2- Уп)>Е = 12>- п)> где Х - матрица значений измеренного вектора (х) в п опытах; У - вектор значений измеренного отклика в п опытах; Е - вектор случайных ошибок. Тогда выполняется матричное соотношение:

У = QX,b) + Е,

где Q(X,b) = ,Ь), Q(х2 ,Ь), ..., Q(хn ,Ь))Т, причем х1 , х2, ..., хп - т- мерные вектора, которые составляют матрицу Х = (х1, х2, ..., хп)Т.

Введем меру близости d(Y,Q) между векторами Y и Q. В МНК в качестве d(Y,Q) берется квадратичная форма взвешенных квадратов е,2 невязок ег = у, - Q(xi ,Ь), т.е.

d(Y,Q) = [ Y - Q(X, Ь)]т W[Y - Q(X,Ь)], где W = ^ у, ,, у =1,..., »} - матрица весов, не зависящая от Ь. Тогда в качестве оценки Ь можно выбрать такое Ь*, при котором мера близости d(Y,Q) принимает минимальное значение, т.е.

Ь* = {Ь • d(У,0) ® тип}*

В общем случае решение этой экстремальной задачи может быть не единственным. Поэтому в дальнейшем будем иметь в виду одно из этих решений. Оно может быть выражено в виде Ь* = /(Х,У), где/(Х,У) = /(ХУ), /2(Х,У),..., /т(Х.У))т, причем /(Х,У) непрерывны и

дифференцируемы по (Х,У) е 2, где 2 -область определения функции /(Х,У).

Эти свойства функции /(Х,У) дают возможность использовать подходы статистики интервальных данных.

Преимущество метода наименьших квадратов заключается в сравнительной простоте и универсальности вычислительных процедур. Однако не всегда оценка МНК является состоятельной (при функции 0(Х,Ь), не являющейся линейной по векторному параметру Ь), что ограничивает его применение на практике.

Важным частным случаем является линейный МНК, когда 0(х,Ь) есть линейная функция от Ь:

у = Ь х + Ь, х, + ... + Ь х + е = Ь хт + е,

у о о 1 1 т т '

где, возможно, хо = 1, а Ьо - свободный член линейной комбинации. Как известно, в этом случае МНК-оценка имеет вид:

ь* = (xTwx) _1 хтт *

Если матрица ХТЖХ не вырождена, то эта оценка является единственной. Если матрица весов W единичная, то

Ь* = (хтх) _1ХТУ *

Пусть выполняются следующие предположения относительно распределения ошибок е, :

_ ошибки е1 имеют нулевые математические ожидания М{е} = 0,

_ результаты наблюдений имеют одинаковую дисперсию В { е} = а2,

_ ошибки наблюдений некоррелированы, т.е. cov{ е, е} = 0.

Тогда, как известно, оценки МНК являются наилучшими линейными оценками, т.е. состоятельными и несмещенными оценками, которые представляют собой линейные функции результатов наблюдений и обладают минимальными дисперсиями среди множества всех линейных несмещенных оценок. Далее именно этот наиболее практически важный частный случай рассмотрим более подробно.

Как и в других постановках асимптотической математической статистики интервальных данных, при использовании МНК измеренные величины отличаются от истинных значений из_за наличия погрешностей измерения. Запишем истинные данные в следующей форме:

^ = {х* ; , = 1П; у = х^}, У* = (у* , у2* ,---, x7 ),

где 7 _ индекс, указывающий на то, что значение истинное. Истинные и измеренные данные связаны следующим образом:

X = X* + А X, У = У* + А У,

АX = {Аху;, = 1,п; У = 1,т},А У = (А у,,А у2,...,А уп).

-,-г где 1 у ^ ' у -71 '2 7п> Предположим, что

погрешности измерения отвечают граничным условиям

| А Ху |< А * (/ = 1,2,..., п, У = 1,2,..., т), А у,. |< А у (, = 1,2,..., п), (48)

аналогичным ограничениям (1).

Пусть множество Ж возможных значений (X* ,УЯ) входит в Z _область определения функции/(ХУ). Рассмотрим Ь*к _ оценку МНК, рассчитанную по истинным значениям факторов и отклика, и Ь* _ оценку МНК, найденную по искаженным погрешностями данным. Тогда

A b* = b *R - b* = f(XR, Yr ) - f (X, Y).

Ввести понятие нотны придется несколько иначе, чем это было сделано выше, поскольку оценивается не одномерный параметр, а вектор. Положим:

n(1) = (supA b*,supA b2*,...,supA b*)T, n(2) = - (inf A b*,inf A b2*,...,inf A b*)T.

Будем называть n(1) нижней нотной, а n(2) верхней нотной. Предположим, что при безграничном возрастании числа измерений n, т.е. при n^-да, вектора n(1), n(2) стремятся к постоянным значениям N(1), N(2) соответственно. Тогда N(1) будем называть нижней асимптотической нотной, а N(2) - верхней асимптотической нотной.

Рассмотрим доверительное множество Ba=Ba(n,b*R) для вектора параметров b, т.е. замкнутое связное множество точек в r-мерном

евклидовом пространстве такое, что P(b е ß) = a' где а — доверительная вероятность, соответствующая Ba (а ~ 1). Другими словами, Ba (n, b*R) есть область рассеивания (аналог эллипсоида рассеивания) случайного вектора b*R с доверительной вероятностью а и числом опытов n.

Из определения верхней и нижней нотн следует, что всегда

b * е [b *- n(1),b * +n(2)]. в соответствии с определением нижней асимптотической нотны и верхней асимптотической нотны можно

считать, что b * е [b *- N(1)'b * +N(2)] при достаточно большом числе наблюдений n.

Этот многомерный интервал описывает r-мерный гиперпараллелепипед P.

Каким-либо образом разобьем P на L гиперпараллелепипедов. Пусть bk - внутренняя точка k-го гиперпараллелепипеда. Учитывая свойства доверительного множества и устремляя L к бесконечности,

можно утверждать, что P(b е C) ~ a ' где

С = lim ? ßa (n, bk ).

L® »

1£ k £ L

Таким образом, множество С характеризует неопределенность при оценивании вектора параметров Ь. Его можно назвать доверительным множеством в статистике интервальных данных.

Введем некоторую меру М(Х), характеризующую «величину» множества Х£ Rr По определению меры она удовлетворяет условию:

если Х = 7 ^ 7 и 7 п¥ = 0, то М(Х) =М(2) +М(У). Примерами такой меры являются площадь для г = 2 и объем для г = 3. Тогда:

М( С) = М( Р ) + М( F), (49) где F = С \ Р. Здесь М^) характеризует меру статистической неопределенности, в большинстве случаев она убывает при увеличении числа опытов п. В то же время М(Р) характеризует меру интервальной (метрологической) неопределенности, и, как правило, М(Р) стремится к некоторой постоянной величине при увеличении числа опытов п. Пусть теперь требуется найти то число опытов, при котором статистическая неопределенность составляет 3-ю часть общей неопределенности, т.е.

М( F) = 3 М( С), (50) где 3 < 1. Тогда, подставив соотношение (50) в равенство (49) и решив уравнение относительно п, получим искомое число опытов. В асимптотической математической статистике интервальных данных оно называется "рациональным объемом выборки". При этом 3 есть "степень малости" статистической неопределенности М(Р) относительно всей неопределенности. Она выбирается из практических соображений. При использовании "принципа уравнивания погрешностей" согласно [3] имеем 3 = 1/2.

Метод наименьших квадратов для линейной модели. Рассмотрим наиболее важный для практики частный случай МНК, когда модель описывается линейным уравнением (см. выше).

Для простоты описания преобразований пронормируем переменные х1]1. следующим образом:

х° = (ху - ху )/ 5(х; ), = (у, - у)/ 5(у)

где

х] = 11 х], 5 '] ) = - 1 (ху _ х]^ у = 11 у,, 5 2(у) = 1 X (у, _ у)2

»1< ,< » » 1< ,< » »1< ,< » » 1< ,< »

Тогда

хо = о 52(хо) = 11 (х° - х])2 = 1, у0 = о 520) = ± 1 (уо - у0)2 = 1, ] = 1,2,***,/

' 1< ,< » " 1< ,< »

В дальнейшем изложении будем считать, что рассматриваемые переменные пронормированы описанным образом, и верхние индексы о опустим. Для облегчения демонстрации основных идей примем достаточно естественные предположения.

1. Для рассматриваемых переменных существуют следующие пределы:

Ит - 1 хух,к = ° ■ к = 1,2,***, т*

2. Количество опытов » таково, что можно пользоваться асимптотическими результатами, полученными при » ® м *

3. Погрешности измерения удовлетворяют одному из следующих типов ограничений:

Тип 1 * Абсолютные погрешности измерения ограничены согласно (48):

Тип 2. Относительные погрешности измерения ограничены:

|Д х„ М *1х1]1 (- = 1,2,***,» ] = 1,2,***, т), А у, М у I у,1 (- = 1,2,***, »)*

Тип 3. Ограничения наложены на сумму погрешностей:

т

1 | А хг] |< а х (, = 1,2,...,», ] = 1,2,..., т), | А у, |< а у (, = 1,2,...,»)).

■ = 1

(поскольку все переменные отнормированы, т.е. представляют собой относительные величины, то различие в размерности исходных переменных не влияет на возможность сложения погрешностей).

Перейдем к вычислению нотны оценки МНК. Справедливо

(Е - Л)-1 = I Лр , если /к к / < 1; k = 1,...,п.

р= о

равенство:

А Ь* = Ь*к - Ь* = )-1 XX - (ХТХ )-1 Хт7 = (XTRXR)-1 XX -

- ((X, + А X)т (X, + АX))-1(X, + А X)(7, + А 7).

Воспользуемся следующей теоремой из теории матриц [14]. Теорема. Если функция разлагается в степенной ряд в круге сходимости |А, - Х0| < г, т.е.

/(1) = I а k(1-1 о)к,

к = 0

то это разложение сохраняет силу, если скалярный аргумент заменить

любой матрицей А, характеристические числа которой Хк, к = 1,.,«,

лежат внутри круга сходимости.

Из этой теоремы вытекает, что: Легко убедиться, что:

((ХК + А X )тК + А X)) -1 = - Z ( Е -А 2) -1,

где Z = - (XIXК )-1, А = XIАX + АXTXR + АXтАX.

Это вытекает из последовательности равенств:

((XR + АX)т(XR + АX))-1 = (XTRXR + XIАX + АXTXR + АXтАX )-1 = (XTRXR + А)-1 = = ((Е + А (XIXR)"1XIXR)-1 = (XIXR)-\Е + А (XIX,)-')-1 = - г(Е-А. 2)"\

Применим приведенную выше теорему из теории матриц, полагая А = А 2 и принимая, что собственные числа этой матрицы

удовлетворяют неравенству |\|А у п ъ I т - 1 т - 1 ,■

т

2 | А х*. | =в х (. = 1,2,..., т), | А у* |= в у. .

Для простоты записей выкладок сделаем следующие замены:

| Ах. |= в. > 0, Съ = п2 | Хъ | • | Ау* | > 0,

т 2 1

КЪ =2 |-------------- 7 хгкЬк * + х.Ь. *----------------------- - у, | > 0,

-Гк т - 1 т - 1

| хЬ. * |= > 0.

Теперь для достижения поставленной цели можно сформулировать следующую задачу, которая разделяется на т типовых задач оптимизации:

fk(Iа и}) ® max (i = 1,2,...,n; j = 1,2,...,m;k = 1,2,...,m),

a j

где

1 n m n

h(а и}) = -(! + і1 } + ck,

n

'1 i j * mi

при ограничениях

і = а X (V = m).

Перепишем минимизируемые функции в следующем виде:

і n m 1 n

fk = - і (K*aik + і Rka j) + Ck = - і flk + Ck

n J J n

/li j * m /li

Очевидно, что fk > 0.

Легко видеть, что

n

n' max(fk) = max(f-) + max(/2k) + ... + maxf) + = і max(fk) + Ck,

a j a i- a ,2 a « a й

где i = 1,2,..., n; j = 1,2..., m.

Следовательно, необходимо решить nm задач

{fik}® max (i = 1.2.,,,.«; j = 1.2,...,.m; k = 1,2,...,m)

при ограничениях "типа равенства":

rri

причем Sk

і aj = ax (i = 1,2,ї n),

j

где fik = Kkak + і Rjaj = і Sja

iV iV

j * m j

Kk, если j = k,

Rk, если j * k.

Сформулирована типовая задача поиска экстремума функции. Она легко решается. Поскольку

тах(Г-к ) = тах(^ ) -а.,

аУ У

то максимальное отклонение МНК-оценки к-ого параметра равно

Л 1 п 1

тах(| А Ьк |) = тах(/к) = — а хУ тах^) + — Ск, (-' = 1,2,..., п; у = 1,2,...,т).

АХ,А Y ау П 1 у П

Кроме рассмотренных выше трех видов ограничений на погрешности могут представлять интерес и другие, но для демонстрации типовых результатов ограничимся только этими тремя видами.

Оценивание линейной корреляционной связи. В качестве примера рассмотрим оценивание линейной корреляционной связи случайных величин у и х1 , х2..., хт с нулевыми математическими ожиданиями. Пусть эта связь описывается соотношением:

т

У = У,ЬуХ/ +

У =1

где Ь1 , Ь2 ,..., Ьт - постоянные, а случайная величина е некоррелирована с х1 , х2..., хт Допустим, необходимо оценить неизвестные параметры Ь1 , Ь2 ,... , Ьт по серии независимых испытаний:

т

У, = У ЬУХУ + , 0' = 1,2,...,п).

у = 1

Здесь при каждом ' = 1,2,...,п имеем новую независимую реализацию рассматриваемых случайных величин. В этой частной схеме оценки наименьших квадратов Ь1*К , Ь2*К ,..., Ьт*К параметров Ь1, Ь2 ,..., Ьт являются, как известно, состоятельными [45].

Пусть величины х1 , х2... , хт в дополнение к попарной независимости имеют единичные дисперсии. Тогда из закона больших

чисел [45] следует существование следующих пределов (ср. предположение 1 выше):

1 n ___

lim{- X xR } = M{х^} = 0 (j = 1, m),

n®¥ n j

1 n

lim{—X (xR -M{Xj})2} = £>{Xj} = 1 (j = 1,m),

1-7—i 00 M J J J

n® ¥ ^

1n

lim{-X (xR -M{Xj})(xR - MК})} = 0 (j, k = 1, m),

n® ¥ n ^^

1n

lim{-X yR} = M{y} = bxM{Xj} + ... + bmM{Xm} + M{e} = 0,

n® ¥ Hj

1n

lim{- X (yR - M{y})2} = D{y} = % + .. + b2m + s 2,

где о - среднее квадратическое отклонение случайной величины е.

Пусть измерения производятся с погрешностями, удовлетворяющими ограничениям типа 1, тогда максимальное приращение величины |АЬ*к|, как показано выше, равно:

1 т п 2 1 п

тк(|А Ь *к |) = - (У I [|—- х1Ь *к + х*Ь - — у|-Д хк +\х?кЬ ^Д* ] + £ |хг^Д у}.

4 х,Д у п к г т - 1 т - 1 г

Перейдем к предельному случаю и выпишем выражение для нотны: N = 11т(шах(|Д Ь *к |)} =

n® » А х,А y

2 1

= X [M{|------ - xkbk + Xjbj - -— y |} АXk + M{| Xkbj |} АXj + M{| Xk |}-Аy.

j k m - 1 m - 1

В качестве примера рассмотрим случай m = 2. Тогда

N1 = M{| 2X1b1 + X2b2 - y |}АX + M{b2X^X2 + M{| X1 |}Аy, N2 = M{| 2X2b2 + X1b1 - y |}АX2 + M{b1 x2}АX + M{| X2 |}Аy.

Приведенное выше выражение для максимального приращения метрологической погрешности не может быть использована в случае т = 1. Для т = 1 выведем выражение для нотны, исходя из

соотношения:

Л Ь *к = 1 (£ £ (Лхи + ЛХЛ ), Ь *. -£ (АхУ, + х*Лу )}.

п . .

т п

Подставив т = 1, получим:

1 п п 1

Л Ъ* = - (X (2 х Л х, )Ъ *-X (Л ху + х.Л у)} = - £ ((2хгЪ * - у )Д хг + х.Л у)}. п / / п

Следовательно, нотна выглядит так:

щ=ы(\2хъ* -у\}Ах+И(\х\}Ау.

Для нахождения рационального объема выборки необходимо сделать следующее.

Этап 1. Выразить зависимость размеров и меры области рассеивания Ва(п,Ъ) от числа опытов п (см. выше).

Этап 2. Ввести меру неопределенности и записать соотношение между статистической и интервальной неопределенностями.

Этап 3. По результатам этапов 1 и 2 получить выражение для рационального объема выборки.

Для выполнения этапа 1 определим область рассеивания следующим образом. Пусть доверительным множеством Ва(п,Ъ) является т-мерный куб со сторонами длиною 2К, для которого

Р(Ъ е Ва (п, Ъ *К)) = а ..

Исследуем случайный вектор Ъ * и

Ъ ** = (Х^ )-1 ХТК¥К = (Х^ )-1 хТ (ХКЪ + е) = = (ХТКХК )-1ХТКХКЪ + (ХТКХК )-1 ХтКе = Ъ + (ХТКХК )-1 ХтКе.

Как известно, если элементы матрицы А = (а.} -случайные, т.е. А - случайная матрица, то ее математическим ожиданием является матрица, составленная из математических ожиданий ее элементов, т.е. М(А} = (М.

Утверждение 1. Пусть А = ( а. } и В = ( Ъ . } - случайные матрицы порядка (т х п) и (п х г) соответственно, причем любая пара их элементов (ау, Ък) состоит из независимых случайных величин. Тогда математическое ожидание произведения матриц равно произведению математических ожиданий сомножителей, т.е. М{АВ} = М{А} М{В}.

Доказательство. На основании определения математического ожидания матрицы заключаем, что

А-В = {£ ак]} ® М{А-В} = {М{£ аЛ-Ъ„}} = {£ М{аЪк]}}

к к

но так как случайные величины а, Ь^ независимы, то

М{ А - В} = {^ М{а } - М{Ъку }} = М{ А} - М{В}

к

что и требовалось доказать.

Утверждение 2. Пусть А = {а} и В = {Ъ]} - случайные матрицы порядка (т х п) и (их г) соответственно. Тогда математическое ожидание суммы матриц равно сумме математических ожиданий слагаемых:, т.е. М{А+В} = М{А} + М{В}.

Доказательство. На основании определения математического ожидания матрицы заключаем, что

М{А+В} = {М{а1]+Ъ1у}} = {М{ау} + М{Ъ}} =М{А} + М{В},

что и требовалось доказать.

Найдем математическое ожидание и ковариационную матрицу вектора Ъ* с помощью утверждений 1, 2 и выражения для Ъ*Л , приведенного выше. Имеем

М{Ъ*Л} = Ъ + М{(ХТЛХЛ)-1 Хтле} = Ъ + М{(ХТЛХЛ)-1 Хтл }- М{е}.

Но так как М{ е } = 0, то М {Ъ*л} = Ъ . Это означает что оценка МНК является несмещенной.

Найдем ковариационную матрицу:

D{Ь*R} = М{(Ь^ - Ь)^ - Ь)т} = М{(.ХТКХК)-1 Хтк . е. ет • (ХТКХК)-1}.

Можно доказать, что

D{b*R} = М{(XRTXR)-1Х1-М{е еТ}. XR(XRXR)-1},

но

М {е ет } = D{e} = а 2Е, поэтому

D{bR} = М{(ХТЛХЛ)-1Х1. (а 2Е). XR)-1} = а 2 М{(ХТЛХЛ)-1}. Как выяснено ранее, для достаточно большого количества опытов п выполняется приближенное равенство

0100090000037800000002001с0000000000040000000301080005000000

0Ь0200000000050000000с0245031509040000002е0118001с000000£Ъ021

000070000000000bc02000000cc0102022253797374656d000315090000e8

c7110072edc63090bd4e0a0c02000015090000040000002d0100000400000

0020101001с000000Ш029сГЮ000000000009001000000сс0440001254696

d6573204e657720526f6d616e000000000000000000000000000000000004

0000002d010100050000000902000000020d000000320a5a000000010004

00000000000f09460320e02d00040000002d010000030000000000

Осталось определить вид распределения вектора Ьт . Из выражения

для Ь^, приведенного выше, и асимптотического соотношения (51)

следует, что

Ь*я = Ь + 1 ХТке . п

Можно утверждать, что вектор Ьт имеет асимптотически нормальное распределение, т.е.

а 2

Ь ^ е N(Ь,— Е). п

Тогда совместная функция плотности распределения вероятностей случайных величин , Ьт2,..., Ьтт будет иметь вид:

/(Ь-) = --------- -1-------- — ехр[- 1(Ь*R - Ь)т . С"1 ■ (Ь^ - Ь)], (52)

(2л )т . (det С)1/2 2

где

С = П(Ь*К ) = — Е.

п

Тогда справедливы соотношения

2

п П —

Подставим в формулу (52), получим

\т/2 2 і\т/2 ' еХр[" о 2

С -1 = Ат Е , ёег С = ёе^-^ Е) = (—)т. -2 - п

/(Ь*Л) = /2 1 2 , /2 ехр[- -Пг (Ь** - Ь)т • С -1 ■ (Ь** - Ь)]

(2р ) • " / п)ж" 2( 1 ехр[- Л" (Ь** - Ь)т • С - 1(Ь** - Ь)]

" л/ТГТП)т 2- 2

1

ехр[^-пТ (р і2+ Р 22+... + Р т],

" л/ 2р / п)т 2- 2

где

Р і = Ь** - Ьі, і = 1,2,...т .

Вычислим асимптотическую вероятность попадания описывающего реальность вектора параметров Ь в т-мерный куб с длиной стороны, равной 2£, и с центром Ь**.

р(- k < р 1 < k,- k < р 2 < k,...,- k < р т < k) =

£ £

Сделаем замену

Тогда

tl = V п /2 •— Р і , і = 1,2,..., т.

п ' " 2 . 0 2, , й 2-

£ £

, { [.. [ехрс^-^у (РТ + Ь 22 + ... + Р т)]. т }

■4Тл7п)т 4 2(21 2 т 1 т

1

£ £ » п с п

( ь . )т {I ехр[- --2 Р12]^ 1... 1 ехр[- -"-2 Р і}.

"V 2р / п )т - £ 2( - £ 2(

Р = Р(-к < Ь1 < к,-к < Ь2 < к,...,-к < Ьт < к,) =

,„ Т Т п ) „ г - , 2 , _ _ , /------ ^ С -, 2

= 2/п) -[ [е"t2dt]т = [(1/л/Р) [е"t2dt]]т = [Ф 0(Т)]т, (а л/ 2р / п )т ЧТ Л

где Т = (п/2)1/2(к/а), а Ф0(Т )- интеграл Лапласа,

ф 0(Т) = ф (42т) - ф (- л/2т),

где Ф (t) - функция стандартного нормального распределения с математическим ожиданием 0 и дисперсией 1. Из последнего соотношения получаем

Т = Ф-1 (Р1/т),

где Ф-1(Р) - обратная функция Лапласа. Отсюда следует, что

к = а (2/п)1/2 Ф-11/т). (53)

Напомним, что доверительная область Ва (п,Ъ) - это т-мерный куб, длина стороны которого равна К, т.е.

Р(Ъ еВа (п,Ъ))= Р (-К

<< | >>
Источник: Орлов А.И.. Теория принятия решений. Учебное пособие / А.И.Орлов.- М.: Издательство «Экзамен», - 656 с.. 2005

Еще по теме 2.3.7. Асимптотический линейный регрессионный анализ для интервальных данных:

  1. 3. ПРИМЕНЕНИЕ НОВЫХ МЕТОДОВ ЭКОНОМИЧЕСКОГО АНАЛИЗА ДЛЯ СОВЕРШЕНСТВОВАНИЯ УПРАВЛЕНИЯ ТЕХНОЛОГИЧЕСКИМИ ПРОЦЕССАМИ
  2. 3.3. Ошибки прогнозирования (определение качества регрессионного анализа)
  3. 4. Анализ «хи-квадрат»: поиск закономерностей для качественных данных
  4. Глава 4 ОСНОВЫ РЕГРЕССИОННОГО АНАЛИЗА И ПРОГНОЗИРОВАНИЯ
  5. 4.3. Исходные предпосылки регрессионного анализа и свойства оценок
  6. 1.5. Информационная база экономического анализа для оценки бизнеса
  7. 1.7. Общая схема анализа для оценки бизнеса и его инвестиционной привлекательности
  8. ТЕМА 2. ФОРМИРОВАНИЕ ИНФОРМАЦИОННОЙ БАЗЫ АНАЛИЗА ДЛЯ ОЦЕНКИ БИЗНЕСА
  9. Метод корреляционно-регрессионного анализа
  10. § 16.8. ДОВЕРИТЕЛЬНЫЕ ИНТЕРВАЛЫ В ЛИНЕЙНОМ РЕГРЕССИОННОМ АНАЛИЗЕ
  11. 12.4. Парный регрессионный анализ
  12. 4.4.2. Регрессионный анализ
  13. § 36.8. ДОВЕРИТЕЛЬНЫЕ ИНТЕРВАЛЫ В ЛИНЕЙНОМ РЕГРЕССИОННОМ АНАЛИЗЕ
  14. СТАТИСТИКИ, СВЯЗАННЫЕ С ПАРНЫМ РЕГРЕССИОННЫМ АНАЛИЗОМ
  15. ВЫПОЛНЕНИЕ ПАРНОГО РЕГРЕССИОННОГО АНАЛИЗА
  16. ВЫПОЛНЕНИЕ МНОЖЕСТВЕННОГО РЕГРЕССИОННОГО АНАЛИЗА