Математическая энциклопедия

ИНФОРМАЦИОННЫЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ

- мера зависимости между двумя случайными величинами Xи У, определяемая как функция от величины количества информации в одной случайной величине относительно другой:

где I(X, Y)-информации количество.

Свойства И. к. к. R(X, Y)как меры зависимости полностью определяются свойствами величины I(X, Y), к-рая сама служит характеристикой зависимости случайных величин XиY.Однако использование И. к. к. Rв качестве самостоятельной меры зависимости как информационного аналога обычного коэффициента корреляции r оправдано тем, что для произвольных случайных величин И.к. к. имеет преимущество перед r, так как в силу свойств информации R = 0 тогда и только тогда, когда X и Y независимы. Если X и Y имеют совместное нормальное распределение, то эти два коэффициента совпадают, так как в этом случае

Практическое исследование зависимости с помощью И. к. к. равносильно анализу количества информации в таблицах типа таблиц сопряженности признаков. Выборочным аналогом Rслужит коэффициент

вычисляемый через информационную статистику I:

где п- число наблюдений,sи t- числа классов группировки по двум признакам,nij- число наблюдений в классе (i, j),Таким образом, вопрос о распределении выборочного И. к. к. сводится к вопросу о распределении выборочной информации. Анализ выборочной информации как меры зависимости затрудняется тем, что сильно зависит от группировки наблюдений.

Лит.:[1] Linfооt E., "Information and Control", 1957, v. 1, № 1, 85-89; [2] Кульбак С, Теория информации и статистика, пер. с англ., М., 1967.

А. В. Прохоров.