Значение слова "АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ" найдено в 1 источнике

АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ

найдено в "Математической энциклопедии"

раздел математич. логики, уточняющий и изучающий на базе понятий алгоритма и вычислимой функции основные понятия теории информации. А. т. и. стремится обосновать эти понятия без помощи обращения к теории вероятностей и так, чтобы понятия энтропии и количества информации были применимы к индивидуальным объектам. Наряду с этим она порождает и свои собственные проблемы, связанные с изучением энтропии конкретных индивидуальных объектов.

Центральным понятием А. т. и. является понятие энтропии индивидуального объекта, называемое сложностью объекта (по Колмогорову). Интуитивно под этим понимается минимальное количество информации, необходимое для восстановления данного объекта. Точное определение понятия сложности индивидуального объекта и на основе этого понятия количества информации в индивидуальном объекте уотносительно индивидуального объекта хбыло дано А. Н. Колмогоровым в 1962-65, что и послужило началом развития А. т. и.

Без существенных ограничений общности можно рассматривать только двоичные слова (что в дальнейшем и будет делаться). Под сложностью еловая понимается длина l(р).самого короткого (двоичного) слова р, содержащего всю информацию, необходимую для восстановления хпри помощи к.-л. фиксированного способа декодирования. Точное определение этого понятия следующее.

Пусть F(s) - произвольная словарная частично рекурсивная функция. Тогда под сложностью слова хпо Fпонимается:

АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №1

Слово ртакое, что F(р)=х, наз. кодом, или программой, по к-рой Fвосстанавливает слово х. Имеет место теорема: существует частично рекурсивная функция F0 (называемая оптимальной) такая, что для любой частично рекурсивной функции Fвыполняется неравенство:АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №2 где CF - константа, не зависящая от х. Эта теорема позволяет дать инвариантное (с точностью до аддитивной константы) определение сложности: сложностью К(х).слова хназ.сложность АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №3 по нек-рой раз и навсегда фиксированной оптимальной частично рекурсивной функции F0. Очевидно, АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №4, где С - константа, не зависящая от х.

Используя К(х), можно определить также сложность K( х, у).пар слов ( х, у):для этого пары ( х, у).эффективно кодируются в виде одного слова с( х, у), и под сложностью К( х, у).понимается К(с( х, у)).

П. Мартином-Лёфом АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №5 был исследован вопрос о том, как ведет себя сложность начальных кусков бесконечных двоичных последовательностей. Пусть АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №6 означает начальный кусок последовательностп АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №7, составленной из первых пзнаков. Тогда почти все (относительно меры Лебега) бесконечные двоичные последовательности АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №8 обладают свойствами: а) для бесконечно многих натуральных псправедливо неравенство АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №9 где с - нек-рая константа; б) для всех натуральных и, больших нек-рого АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №10,АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №11АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №12 где АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №13 - произвольное положительное число (теорема Мартина-Лёфа). С другой стороны, для любой последовательности АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №14 существует бесконечно много натуральных птаких, что АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №15 <АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №16

Понятие сложности используется также при изучении алгоритмич. проблем. Здесь более естественной является так наз. сложность разрешения слова х. Интуитивно под этим понимается минимальное количество информации, к-рую надо иметь, чтобы по каждому числу АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №17 найти г-й знак слова АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №18 (длину снова хпри этом можно и не знать). Точнее, под сложностью разрешения слова АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №19 по частично рекурсивной функции АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №20 понимается

АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №21

Имеет место теорема: существует частично рекурсивная функция АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №22 (называемая оптимальной) такая, что для любой другой частично рекурсивной функции Gвыполняется неравенство АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №23 где АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №24 - константа, не зависящая от х. Сложностью разрешения АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №25 слова АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №26 наз. сложность АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №27 по нек-рой раз и навсегда фиксированной оптимальной частично рекурсивной функции С 0. Очевидно,АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №28 <: src="https://dic.academic.ru/pictures/enc_mathematics/010121-75.jpg" align="absmiddle"> и АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №29 Используя АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №30 , можно для любого множества натуральных чисел Мопределить сложность АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №31 для п-куска множества М:АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №32, где АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №33АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №34 - характеристическая последовательность множества АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №35 (АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №36=1, если АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №37 , и ,АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №38, если АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №39 ).

Алгоритмич. проблемы обычно могут быть представлены в виде проблемы вхождения в нек-рое рекурсивно перечислимое множество М. Если мы фиксируем некрое пи ограничиваемся рассмотрением проблемы вхождения в Мтолько для первых пнатуральных чисел, то мы получаем ограниченную алгоритмическую проблему. Величина АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №40 интуитивно выражает количество информации, к-рую надо иметь, чтобы можно было решить данную ограниченную проблему. В частности, множество Мрекурсивно тогда и только тогда, когда АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №41 ограничено сверху нек-рой константой.

Из теоремы Мартина-Лёфа следует существование множеств, для к-рых АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №42 При этом оказывается, что максимально сложные множества уже существуют среди множеств, задаваемых арифметич. предикатами с двумя кванторами. Однако в случае рекурсивно перечислимых множеств имеет место теорема: а) для любого рекурсивно перечислимого множества Ми любого псправедливо неравенство АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №43АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №44 где АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №45 не зависит от АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №46; б) существует рекурсивно перечислимое множество Мтакое, что для любого АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №47 имеет место неравенство АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №48 В то же время существуют такие рекурсивно перечислимые множества М, что при ограничении времени вычислений произвольной общерекурсивной функцией tимеет место оценка АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №49 не зависит от АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №50.

В указанных терминах можно дать также характеристику универсальных по нек-рому типу сводимости множеств (см. Универсальное множество):множество Мявляется слабо таблично универсальным тогда и только тогда, когда существует неограниченная общерекурсивная функция АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №51 такая, что для любого АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №52 имеет место неравенство АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №53

При изучении сложности ограниченных алгоритмич. проблем иногда используются и другие меры сложности, как, напр., минимальная длина изображения нормального алгорифма, решающего данную ограниченную проблему. Но оказывается, что между введенными выше сложностями и аналогами этих сложностей, выраженными через минимальную длину изображения нормального алгорифма (или через минимальное число внутренних состояний машины Тьюринга), существуют асимптотически точные соотношения (см. Алгоритма сложность).

При построении А. т. и. вводится еще понятие у с-ловной сложности слова хпри известном упо частично рекурсивной функции АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №54 :

АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №55

Для этого понятия также имеет место теорема о существовании оптимальной функции АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №56, и условная сложность АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №57 слова хпри известном уопределяется как сложность АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №58 по век-рой раз и навсегда фиксированной оптимальной функции АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №59 интуитивно обозначает минимальное количество информации, к-рое необходимо добавить к информации, содержащейся в слове у, чтобы можно было восстановить слово х. Очевидно,АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №60.

Следующим центральным понятием А. т. и. является понятие количества информации в индивидуальном объекте y относительно индивидуального объекта х:

АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №61

Величину АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №62 наз. алгоритмическим количеством информации в АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №63 об АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №64 Соответственно величины АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №65 наз. иногда а л-горит ми ческой энтропией хи алгоритмической условной энтропией хпри заданном АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №66. Формулы разложения энтропии АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №67АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №68 и коммутативности информации АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №69 верны в алгоритмич. концепции лишь с точностью до членов порядка O(logH(X,Y):

АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №70

Между алгоритмич. и классич. определениями количества информации (точнее, между сложностью слова по Колмогорову и энтропией распределения частот по Шеннону) существует определенная связь (А. Н. Колмогоров): пусть задано число rи пусть слово хдлины АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №71 состоит из АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №72 слов длины г, причем k-e слово длины rвходит в хс частотой АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №73, тогда

где АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №74АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №75

и АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №76 при АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №77. В общем случае более тесную связь между энтропией и сложностью установить нельзя. Это объясняется тем, что энтропия приспособлена для изучения текстов, не имеющих других закономерностей, кроме частотных. Следовательно, для случайных последовательностей АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №78 по мере, соответствующей независимым испытаниям, между рассматриваемыми величинами можно установить полную связь;

АЛГОРИТМИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ фото №79

Аналогичный факт имеет место и для произвольного эргодического стационарного случайного процесса. Лит.:[1] Колмогоров А. Н., "Проблемы передачи информации", 1965, т. 1, вып. 1, с. 3-11; [2] его же, "Проблемы передачи информации", 1969, т. 5, вып. 3, с. 3-7; [3] Звонкий А. К., Левин Л. А., "Успехи матем. наук", 1970, т. 25, вып. 6, с. 85-127; [4] Барздинь Я. М., "Докл. АН СССР", 1968, т. 182, № 6, с. 1249-1252; [5] Канович М. И., "Докл. АН СССР", 1970, т. 194, № 3, с. 500-503.

Я. М. Барздинь.



Найдено 79 изображений:

Изображения из описаний на этой странице
T: 35