рефераты бесплатно

МЕНЮ


Общая теория статистики

Статистические карты - графики количественного распределения по

поверхности. По своей основной цели они близко примыкают к диаграммам и

специфичны лишь в том отношении, что представляют собой условные

изображения статистических данных на контурной географической карте, т.е.

показывают пространственное размещение или пространственную

распространенность статистических данных. Геометрические знаки - либо

точки, либо линии или плоскости, либо геометрические тела.

36. Средняя величина как категория статистики.

Средние величины являются одними из наиболее распространенных

обобщающих статистических показателей. Они имеют своей целью одним числом

охарактеризовать статистическую совокупность состоящую из меньшинства

единиц. Средние величины тесно связаны с законом больших чисел. Сущность

этой зависимости заключается в том, что при большом числе наблюдений

случайные отклонения от общей статистики взаимопогашаются и в среднем более

отчетливо проявляется статистическая закономерность.

С помощью метода средних решаются следующие основные задачи:

1. Характеристика уровня развития явлений.

2. Сравнение двух или нескольких уровней.

3. Изучение взаимосвязей социально-экономических явлений.

4. Анализ размещения социально-экономических явлений в пространстве.

Для решения этих задач статистическая методология разработала

различные виды средних.

37. Виды средних величин.

Средняя гармоническая является первообразной формой средней

арифметической. Она рассчитывается в тех случаях, когда веса fi не заданы

непосредственно, а входят как сомножитель в один из имеющихся показателей.

Также как и арифметическая, средняя гармоническая может быть простой и

взвешанной.

Средняя гармоническая простая:

[pic]

Средняя гармоническая смешанная:

[pic]

Wi - произведение вариантов на частоты

При расчете средних величин необходимо помнить о том, что всякие

промежуточные вычисления должны приводить как в числителе, так и в

знаменателе и имеющим экономический смысл показателям.

38. Средняя арифметическая и ее свойства.

Для выяснения методики расчета средней арифметической используем

следующие обозначения:

X - арифметический признак

X (X1, X2, ... X3) - варианты определенного признака

n - число единиц совокупности

[pic] - средняя величина признака

В зависимости от исходных данных средняя арифметическая может быть

рассчитана двумя способами:

1. Если данные статистического наблюдения на сгруппированы, или

сгруппированные варианты имеют одинаковые частоты, то рассчитывается

средняя арифметическая простая:

[pic]

2. Если частоты сгруппированы в данных разные, то рассчитывается среднее

арифметическое взвешанное:

[pic]

[pic] - численность (частоты) вариантов

[pic] - сумма частот

Среднее арифметическое рассчитывается по разному в дискретных и

интервальных вариационных рядах.

В дискретных рядах варианты признака умножаются на частоты, эти

произведения суммируются и полученная сумма произведений делится на сумму

частот.

В интервальных рядах значение признака задано, как известно, в виде

интервалов, поэтому, прежде чем рассчитывать среднюю арифметическую, нужно

перейти от интервального ряда к дискретному.

В качестве вариантов Xi используется середина соответствующих

интервалов. Они определяются как полусумма нижней и верхней границ.

Если у интервала отсутствует нижняя граница, то его середина

определяется как разность между верхней границей и половиной величины

следующих интервалов. При отсутствии верхних границ, середина интервала

определяется как сумма нижней границы и половины величины предыдущего

интервала. После перехода к дискретному ряду дальнейшие вычисления

происходят по методике рассмотренной выше.

Если веса fi заданы не в абсолютных показателях, а в относительных,

то формула расчета средней арифметической будет следующей:

[pic]

pi - относительные величины структуры, показывающие, какой процент

составляют частоты вариантов в сумме всех частот.

Если относительные величины структуры заданы не в процентах, а в

долях, то среднее арифметическое будет рассчитываться по формуле:

[pic]

39. Структурное среднее.

40. Мода и медиана, их определение в вариационных рядах.

Структурное среднее характеризует состав статистической совокупности

по одному из варьирующих признаков. К этим средним относятся мода и

медиана.

Мода - такое значение варьирующего признака, которое в данном ряду

распределения имеет наибольшую частоту.

В дискретных рядах распределений мода определяется визуально.

Сначала определяется наибольшая частота, а по ней модальное значение

признака. В интервальных рядах для вычисления моды используется следующая

формула:

[pic]

Xmo - нижняя граница модальности (интервал ряда с наибольшей частотой)

Mo - величина интервала

fMo - частота модального интервала

fMo-1 - частота интервала предшествующего модальному

fMo+1 - частота интервала следующего за модальным

Медианой называется такое значение варьирующего признака, которое

делит ряд распределения на две равные части по объему частот. Медиана

рассчитывается по разному в дискретных и интервальных рядах.

1. Если ряд распределения дискретный и состоит из четного числа членов, то

медиана определяется как средняя величина из двух серединных значений

рангированного ряда признаков.

2. Если в дискретном ряду распределения нечетное число уровней, то медианой

будет серединное значение рангированного ряда признаков.

В интервальных рядах медиана определяется по формуле:

[pic]

[pic] - нижняя граница медианного интервала (интервала для которого

накопленная частота впервые превысит полусумму частот)

Me - величина интервала

[pic] - сумма частот ряда

[pic] - сумма накопленных частот предшествующих медианному интервалу

[pic] - частота медианного интервала

41. Общее понятие о вариации.

Вариацией называется различие значений признака у отдельных единиц

совокупности.

Вариация возникает в силу того, что отдельные значения признака

формируются по влияние большого числа взаимосвязанных факторов. Эти факторы

часто действуют в противоположных направлениях и их совместное действие

формирует значение признаков у конкретной единицы совокупности.

Необходимость изучения вариаций связана с тем, что средняя величина,

обобщающая данные статистического наблюдения, на показывает как колеблется

вокруг нее индивидуальное значение признака. Вариации присущи явлениям

природы и общества. При этом революция в обществе происходит быстрее, чем

аналогичные изменения в природе. Объективно существуют также вариации в

пространстве и во времени.

Вариации в пространстве показывают различие статистических показателей

относящихся к различным административно-территориальным единицам.

Вариации во времени показывают различие показателей в зависимости от

периода или момента времени к которым они относятся.

42. Сущность и значение показателей вариации.

43. Абсолютные показатели вариации (=42, без коэффициента).

К примерам вариаций относятся следующие показатели:

1. размах вариаций

2. среднее линейное отклонение

3. среднее квадратическое отклонение

4. дисперсия

5. коэффициент

1. Размах вариаций является ее простейшим показателем. Он определяется как

разность между максимальным и минимальным значение признака. Недостаток

этого показателя заключается в том, что он зависит только от двух крайних

значений признака (min, max) и не характеризует колеблимость внутри

совокупности. R=Xmax-Xmin.

2. Среднее линейное отклонение является средней величиной абсолютных

значений отклонений от средней арифметической. Отклонения берутся по

модулю, т.к. в противном случае, из-за математических свойств средней

величины, они всегда были бы равны нулю.

3. Среднее квадратическое отклонение определяется как корень из дисперсии.

4. Дисперсия (средний квадрат отклонений) имеет наибольшее применение в

статистике как показатель меры колеблимости.

Дисперсия является именованным показателем. Она измеряется в

единицах соответствующих квадрату единиц измерения изучаемого признака.

5. Коэффициент вариаций определяется как отношение среднего квадратического

отклонения к средней величине признака, выраженное в процентах:

[pic]

Он характеризует количественную однородность статистической

совокупности. Если данный коэффициент < 50%, то это говорит об однородности

статистической совокупности. Если же совокупность не однородна, то любые

статистические исследования можно проводить только внутри выделенных

однородных групп.

44. Дисперсия и ее свойства.

Дисперсия - средний квадрат отклонений индивидуальных значений

признака от их средней величины.

Свойства дисперсии:

1. Дисперсия постоянной величины равна нулю.

2. Уменьшение всех значений признака на одну и ту же величину А не меняет

величины дисперсии. Значит средний квадрат отклонений можно вычислить не по

заданным значениям признака, а по отклонениям их от какого-то постоянного

числа.

3. Уменьшение всех значений признака в k раз уменьшает дисперсию в k2 раз,

а среднее квадратическое отклонение - к раз. Значит, все значения признака

можно разделить на какое-то постоянное число (скажем, на величину интервала

ряда), исчислить среднее квадратическое отклонение, а затем умножить его на

постоянное число.

4. Если исчислить средний квадрат отклонений от любой величины А, то в той

или иной степени отличающейся от средней арифметической (X~), то он всегда

будет больше среднего квадрата отклонений, исчисленного от средней

арифметической. Средний квадрат отклонений при этом будет больше на вполне

определенную величину - на квадрат разности средней и этой условно взятой

величины.

45. Внутригрупповая и межгрупповая дисперсия.

Выделяют дисперсию общую, межгрупповую и внутригрупповую. Общая дисперсия

(2 измеряет вариацию признака во всей совокупности под влиянием всех

факторов, обусловивших эту вариацию.

Межгрупповая дисперсия ((2x) характеризует систематическую вариацию,

т.е. различия в величине изучаемого признака, возникающие под влиянием

признака-фактора, положенного в основание группировки.

Внутригрупповая дисперсия ((2i) отражает случайную вариацию, т.е.

часть вариации, происходящую под влиянием неучтенных факторов и не

зависящую от признака-фактора, положенного в основание группировки.

46. Правило сложения дисперсий.

Существует закон, связывающий три вида дисперсии. Общая дисперсия

равна сумме средней из внутригрупповых и межгрупповых дисперсий:

[pic]

Данное соотношение называют правилом сложения дисперсий. Согласно

этому правилу, общая дисперсия, возникающая под действием всех факторов,

равна сумме дисперсии, возникающей за счет группировочного признака.

Зная любые два вида дисперсий, можно определить или проверить

правильность расчета третьего вида.

Правило сложения дисперсий широко применяется при исчислении

показателей тесноты связей, в дисперсионном анализе, при оценке точности

типической выборки и в ряде других случаев.

47. Взаимосвязи общественных явлений, их виды, формы.

Многообразие взаимосвязей в которых находятся социально-

экономические явления, рождают необходимость в их классификации.

По видам различают функциональную и корреляционную зависимость.

Функциональной называют такую зависимость, при которой одному

значению факторного признака X соответствует одно строго определенное

значение результативного признака Y.

В отличие от функциональной зависимости, корреляционная выражает

такую связь между социально-экономическими явлениями, при которой одному

значению факторного признака X могут соответствовать несколько значений

результативного признака Y.

По направлению различают прямую и обратную зависимость.

Прямой называют такую зависимость, при которой значение факторного

признака X и результативного признака Y изменяются в одном направлении.

Т.о. при увеличении значения X, значения Y в среднем увеличиваются, а при

уменьшении X - Y уменьшается.

Обратная зависимость между факторным и результативным признаками,

если они изменяются в противоположных направлениях.

50. Анализ взаимосвязи качественных признаков.

Для исследования взаимосвязи качественных альтернативных признаков,

принимающих только 2 взаимоисключающих значения, используется коэффициент

ассоциации и контингенции. При расчете этих коэффициентов составляется т.н.

таблица 4-х камней, а сами коэффициенты рассчитываются по формуле:

[pic]

[pic]

|Группы |Группы |+ |- |Итого: |

|по |по | | | |

|признак|признак| | | |

|у Y |у X | | | |

|+ |a |b |a+b |

|- |c |d |c+d |

|Итого: |a+c |c+d |a+b+c+d |

Если коэффициент ассоциации ( 0,5, а коэффициент контингенции ( 0,3,

то можно сделать вывод о наличии существенной зависимости между изучаемыми

признаками.

Если признаки имеют 3 или более градаций, то для изучения

взаимосвязей используются коэффициенты Пирсена и Чупрова. Они

рассчитываются по формулам:

С - коэффициент Пирсена

К - коэффициент Чупрова

[pic]

[pic]

( - показатель взаимной сопряженности

K - число значений (групп) первого признака

K1 - число значений (групп) второго признака

[pic]

fij - частоты соответствующих клеток таблицы

mi - столбцы таблицы

nj - строки

Для расчета коэффициентов Пирсена и Чупрова составляется

вспомогательная таблица:

|Груп|Груп|1 |2 |... |i |Итого: |

|па |па | | | | | |

|приз|приз| | | | | |

|нака|нака| | | | | |

|Y |X | | | | | |

|1 |f11 |f12 |... |f1i |n1 |

|2 |f21 |f22 |... |f2i |n2 |

|... |... |... |... |... |... |

|j |fji |fj2 |... |fji |nj |

|Итого: |m1 |m2 |... |mi |((minj |

При ранжировании качественных признаков с целью изучения их

взаимосвязи используется коэффициент корреляции Кэндалла.

[pic]

n - число наблюдений

S - сумма разностей между числом последовательностей и числом инвервий по

второму признаку.

S=P+Q

P - сумма значений рангов, следующих за данными и превышающих его величину

Q - сумма значений рангов, следующих за данными и меньших его величины

(учитывается со знаком «-»).

При наличии связанных рангов формула коэффициента Кендалла будет

следующей:

[pic]

Vx и Vy определяются отдельно для рангов X и Y по формуле:

[pic]

51. Статистические методы изучения взаимосвязей.

Важное место в статистическом изучении взаимосвязей занимают

следующие методы:

1. Метод приведения параллельных данных.

2. Метод аналитических группировок.

3. Графический метод.

4. Балансовый метод.

5. Индексный метод.

6. Корреляционно-регрессионный.

1. Сущность метода приведения параллельных данных заключается в следующем:

Исходные данные по признаку X располагаются в порядке возрастания

или убывания, а по признаку Y записываются соответствующие им показатели.

Путем сопоставления значений X и Y, делается вывод о наличии и направлении

зависимости.

3. Сущность графического метода составляет наглядное представление наличия

и направления взаимосвязей между признаками. Для этого значение факторного

признака X располагается по оси абсцисс, а значение результативного

признака по оси ординат. По совместному расположению точек на графике

делают вывод о направлении и наличии зависимости. При этом возможны

следующие варианты:

а (, б/ (вверх) , в\ (вниз).

Если точки на графике расположены беспорядочно (а), то зависимость

между изучаемыми признаками отсутствует.

Если точки на графике концентрируются вокруг прямой (б)/,

зависимость между признаками прямая.

Если точки концентрируются вокруг прямой (в)\, то это

свидетельствует о наличии обратной зависимости.

На основе метода параллельных данных и графического метода, могут

быть рассчитаны показатели, характеризующие степень тесноты корреляционной

зависимости.

Наиболее кратным из них является коэффициент знаков Фехнера. Он

рассчитывается по формуле:

[pic]

C - сумма совпадающих знаков отклонений индивидуальных значений признака от

средней.

H - сумма несовпадений

Данный коэффициент изменяется в пределах (-1;1).

Значение KF=0 свидетельствует об отсутствии зависимости между

изучаемыми признаками.

Если KF=(1, то это говорит о наличии функциональной прямой (+) и

обратной (-) зависимости. При значении KF>(0,6( делается вывод о наличии

сильной прямой (обратной) зависимости между признаками.

[pic] - квадраты разности рангов

(R2-R1), n - число пар рангов

Данный коэффициент, как и предыдущий, изменяется в тех же пределах и

имеет одинаковую с KF экономическую интерпретацию.

Страницы: 1, 2, 3, 4, 5


Copyright © 2012 г.
При использовании материалов - ссылка на сайт обязательна.