Информация мира
С помощью таких бестселлеров, как «Хаос» и «Гений», Джеймс Глейк показал, что он знает, как обработать огромный материал из научной области в всеобъемлющую книгу, которая, тем не менее, привлекательна для непрофессионала. Своей новой работой он претендует не меньше, чем на то, чтобы представить «историю информации».
Это не столько смысл информации, например, ее интерпретация людьми, сколько технические вопросы передачи и обработки информации, а также абстрактное и точное понятие. Центральным пунктом его выступления является теория информации Клода Шеннона (1916 - 2001). Точно так же, как Ньютон использовал такие понятия, как движение, масса и сила, для создания точно определенных, численно определяемых и вычисляемых величин, Шеннон прояснил ранее довольно расплывчатое понятие информации. Единицей измерения стал бит.
Но до того, как читатель доберется туда, ему еще предстоит пройти несколько глав. Глейк рассказывает о ранних формах передачи сообщений - о маяках во время Троянской войны или о барабанах, звук которых эхом разносился по Нигеру с огромной скоростью, - и о появлении письма, которое он представляет как предпосылку для науки и философии, не бесспорный тезис..
Еще в конце XVIII века говорили, что сигнал из Парижа в Тулон, находящийся в 700 километрах, можно послать за десять-двенадцать минут: на каждой из 120 станций оптического телеграфа по одному телеграфисту наблюдал сигналы с соседней станции в подзорную трубу, а затем повторял их для преемника по цепочке в виде положения деревянных рук на высоких подмостках.
Иллюстрация следует - исторически верно - электрическому телеграфу и телефону. Последние требовали сложных релейных цепей, что дает Глейку возможность ввести их формальное описание посредством символической логики или, что то же самое, булевой алгебры. В этом случае он также имеет дело с фундаментальным кризисом математики около 1900 года, когда план свести всю математику к логике провалился.
Глейк посвящает много страниц изобретателю и математику Чарльзу Бэббиджу (1791 - 1871), который пытался осуществить свои дальновидные планы относительно механической вычислительной машины (Spektrum der Wissenschaft 4/1993, стр. 78), и, таким образом, как можно увидеть пионера компьютера. Глейк постепенно подходит к основной теме через выдающегося математика и логика Алана Тьюринга (см. стр. 80) и его работы.
Как и Тьюринг, впервые расшифровавший немецкие секретные сообщения во время Второй мировой войны, Клод Шеннон интересовался кодами. Поток данных, доступный взломщику кода, изначально неотличим от мусора бесструктурных данных. Но у него должна быть какая-то скрытая структура, иначе он будет бесполезен для получателя.
В немецком языке за c, скорее всего, следует h, в английском языке за t следует h. Некоторые части текста настолько четко определяются контекстом, что становятся «лишними» (избыточными). Любой англоязычный читатель может восстановить полную версию «Если вы можете прочитать это…» из фрагмента «Если вы не знаете…». Избыточность текста на естественном языке также скрыта в его зашифрованном виде; это не так просто обнаружить, но он дает взломщику дескриптор для расшифровки.
Такие соображения привели Шеннона к его концепции информации. Это не просто количество данных, которое можно измерить как количество используемых символов. Вернее, символ содержит меньше информации, чем другие, когда его вероятность высока, а в крайнем случае вообще никакой, когда она равна 1, т.е. когда получатель уже уверен, что этот символ должен быть там. Поэтому, по мнению Шеннона, оба вышеуказанных текста содержат одинаковую информацию, хотя набор данных первого меньше. Вероятности символов в тексте включены в определение информации.
Теория Шеннона расцвела во многих областях науки. Норберт Винер (1894-1964), основатель кибернетики, провел аналогии между техническими и органическими системами, особенно между компьютером и человеческим мозгом, и предсказал, что они будут становиться все более и более похожими. Теория информации помогает расшифровать геном; аналогия, введенная биологом-эволюционистом Ричардом Докинзом между (биологическим) геном и (культурным) «мемом», процветает, когда оба интерпретируются как фрагменты информации.
Математик и философ Грегори Чайтин основывает свою теорию вычислимости непосредственно на концепции информации Шеннона и даже признает «случайность» как общий элемент квантовой физики (принцип неопределенности Гейзенберга), логики (теорема Гёделя о неполноте) и теории информации (Спектр науки 2/ 2004, с.86 и 9/2006, стр. 54).
Глейк - автор-провидец. Его книга является плодом обширных исследований, содержит современные научно-исторические открытия и побуждает читателя задуматься над некоторыми неожиданными связями. Однако в некоторых моментах Глейк спотыкается о свой энтузиазм, уделяя слишком много места не относящимся к делу деталям. Иногда очень неструктурированная структура и повторы также способствуют раздражению читателя. Для каждого найдется что-то захватывающее и что-то скучное.
Перевод с английского сделан хорошо. Некоторые отрывки, в которых Глейк предполагает знание американского происхождения, были прояснены в комментариях к немецкому изданию. Несмотря на все богатство материала, Глейк занимает технократическую точку зрения - настолько последовательно, что опускает идеи о понимании информации человеком или о философии там, где они возникают. Его страстному видению сведения современной физики к своего рода квантовой теории информации не хватает тщательного осмысления, как и его описание теории мемов. И все же: проект Глейка по общей презентации концепции информации смел, уникален и по существу успешен.