Уважаемые посетители Портала Знаний, если Вы найдете ошибку в тексте, выделите, пожалуйста, ее мышью и нажмите Сtrl+Enter. Мы обязательно исправим текст!


Случайная цитата


Чтобы правильно задать вопрос, нужно знать большую часть ответа. (Шекли)

Методы множественного сравнения

Множественные сравнения возникают, когда необходимо на одной и той же выборке параллельно проверить ряд статистических гипотез.

Например, критерий Стьюдента может быть использован для проверки гипотезы о различии средних только для двух групп. Если план исследования большего числа групп, совершенно недопустимо просто сравнивать их попарно. Для корректного решения этой задачи можно воспользоваться, например, дисперсионным анализом.

Однако дисперсионный анализ позволяет проверить лишь гипотезу о равенстве всех сравниваемых средних. Но, если гипотеза не подтверждается, нельзя узнать, какая именно группа отличалась от других. Это позволяют сделать методы множественного сравнения, которые в свою очередь также бывают параметрические и непараметрические.

Эти методы дают возможность провести множественные сравнения так, чтобы вероятность хотя бы одного неверного заключения оставалась на первоначальном выбранном уровне значимости, например, 5%.

Среди параметрических критериев:

  • критерий Стьюдента для множественных сравнений
  • критерий Ньюмана-Кейлса
  • критерий Тьюки
  • критерий Шеффе
  • критерий Даннета

Среди непараметрических:

  • критерий Краскела-Уоллиса
  • медианный критерий

Надо сказать, что основные параметрические критерии для множественного сравнения независимых групп могут после некоторых модификаций применяться для установления различий и в повторных измерениях, если дисперсионный анализ установил наличие таких различий.

Рассмотрим некоторые критерии

Еще раз обращаем внимание, что к применению этих критериев надо прибегать в случае, если дисперсионный анализ показал наличие значимых различий между средними значениями выборок.

Буквой m обозначим число сравниваемых групп.

Критерий Стьюдента для множественного сравнений основан на использовании неравенства Бонферрони: если k-раз применить критерий с уровнем значимости альфа, то вероятность хотя бы в одном случае найти различие там, где его нет, не превышает произведения k на альфа.

Из неравенства Бонферонни следует, что если мы хотим обеспечить вероятность ошибки альфа', то в каждом из сравнений мы должны принять уровень значимости альфа'/k - это и есть поправка Бонферрони (k - число сравнений).

Понятно, что такое уменьшение в несколько раз значимости делает тест достаточно "жестким" с ростом числа сравнений, установить различия становится достаточно трудно.

Чтобы несколько смягчить данный тест, пользуются обобщенной оценкой внутригрупповой дисперсии, число степеней свободы при этом возрастает, что в свою очередь приводит к уменьшению критического значения для проверки теста.

Число степеней свободы для критерия Стьюдента при таком подходе:

f = m*(n - 1)

где n - объем групп, а для групп разного объема число степеней свободы будет равно суммарной численности всех групп N минус количество групп m: N-m (что в случае m>2 превышает обычное число степеней свободы для критерия Стьюдента, равное суммарной численности двух непосредственно сравниваемых групп минус 2).

Этот метод работает, если число сравнений невелико, обычно не больше 8.

При большем числе сравнений критерий Ньюмана-Кеулса и Тьюки дают более точную оценку вероятности альфа'.


Связанные определения:
Бонферрони поправка
Метод множественных сравнений
Проблема множественных сравнений

В начало

Содержание портала