В библиотеке

Книги2 383
Статьи2 537
Новые поступления0
Весь каталог4 920

Рекомендуем прочитать

Соловьев В.Философские начала цельного знания
Владимир Сергеевич СОЛОВЬЕВ (1853 - 1900) - выдающийся русский религиозный философ, поэт, публицист и критик. Свое философское мировоззрение Соловьев изложил в трактате "Философские начала цельного знания", который может считаться по нынешним определениям наилучшим образцом философской классики, как учение о сущем, бытии и идее.

Полезный совет

На странице "Библиография" Вы можете сформировать библиографический список. Очень удобная вещь!

Алфавитный каталог
по названию произведения
по фамилии автора
 

АвторМазур М.
НазваниеКачественная теория информации
Год издания1974
РазделКниги
Рейтинг0.21 из 10.00
Zip архивскачать (869 Кб)
  Поиск по произведению

Предисловие к русскому изданию

Уже четверть века теория информации находится в поле зрения ученых самых различных направлений. Идеи и методы этой теории показали возможность общего количественного подхода к описанию сложных и многообразных явлений в обширных областях науки.

Сейчас трудно установить, кому принадлежит сам термин «теория информации». Ряд авторов, закладывая своими работами фундамент новой теории, использовали понятия передачи информации, канала информации, количества информации. С другой стороны, известная работа К. Шеннона, которую принято считать основополагающей в развитии теории информации, называлась «Математическая теория связи». Надо заметить, что это наименование наиболее точно отражало содержание работы, и в этом отношении развитые в ней положения не являлись чем-то совершенно.новым.

Однако огромная заслуга Шеннона состояла в том, что он с весьма общей точки зрения рассмотрел основные проблемы техники связи, сведя их в единую строгую систему математических построений и выводов.

Может быть, именно в силу отмеченных выше обстоятельств упомянутая работа Шеннона значительное время не вызывала той заинтересованности, которая проявилась впоследствии. Однако термин «теория информации» получил распространение, поток публикаций в этой новой области нарастал, и прошло сравнительно немного времени, как; отчасти благодаря исключительной привлекательности самого наименования, теория информации стала применяться чуть ли не во всех областях научной деятельности человека. В биологии, психологии, педагогике, истории, эстетике, экономике и ряде других областей, казалось бы, весьма далеких от проблем связи, возникли понятия из арсенала терминов и положений теории информации.

Столь большой интерес к возможностям информационного подхода при исследовании процессов и явлений в этих областях науки хотя и привел к неизбежным издержкам, стал давать и положительные результаты. Появились новые подходы к введению информационной меры, учитывающие смысловое содержание информации, ее ценность, важность, эстетическое содержание и ряд других факторов.

Однако сам термин «информация» и понятия, связанные с процессами информирования, по существу не были определены.

Предлагаемая читателю книга польского ученого Мариана Мазура в определенной степени восполняет этот пробел. В книге последовательно и логически обоснованно вводятся такие понятия, как код, сообщение, информация, информирование, и на их основе строятся все остальные определения.

Специалисту в области связи и управления материал книги покажется необычным в первую очередь из-за отсутствия математического аппарата доказательств вводимых определений. Однако последовательное изучение ее содержания обнаруживает стройную систему идей и принципов, определяющих фундаментальные понятия информации и информирования. В основу этой системы положена структурно-логическая модель обобщенной системы управления, анализ которой позволил выявить все возможные случаи взаимодействия управляющей и управляемой систем по каналам управления. Автор не ставит себе целью указать области применения введенных им определений, он лишь обращает внимание на необходимость наличия этих определений для правильной постановки и решения задач в русле информационных концепций. Иными словами, введенные понятия и определения призваны служить той строго определенной терминологической основой, на которой должна строиться количественная теория.

Рассмотренный им круг вопросов автор назвал качественной теорией информации. Можно было бы высказать некоторые замечания по поводу такого наименования, но главное состоит в том, что по существу впервые в систематизированной форме и достаточно обоснованно изложено то, что должно предшествовать любым теоретическим построениям — точное определение предмета исследования.

Оригинальность изложения, наличие многочисленных примеров, иллюстрирующих вводимые автором определения и формулировки, новизна материала делают книгу интересной и доступной для широкого круга научно-технических работников, особенно в тех областях науки, где идеи и методы теории информации завоевывают все более прочные позиции.

Доктор техн. наук, проф. Л. В. Со.лодов

Предисловие редактора польского издания

Предлагая читателям книгу, посвященную, как это видно из ее названия, проблемам теории информации, редакция считает целесообразным предварить ее комментарием, который поможет избежать некоторых недоразумений.

Автор правильно указывает на тот известный факт, что во всех имеющихся трудах по теории информации, за исключением, быть может, книг сугубо практического характера, обсуждается либо количественная концепция информации, либо понятие «значимости» (или «ценности») информации в связи с проблемами принятия решений. Авторы этих книг обычно уклоняются от попыток определить само понятие информации, часто ограничиваясь лишь утверждением, что речь идет о таком понятии, по отношению к которому имеет смысл говорить об источнике и об условиях передачи и приема различных сигналов. При этом они, к сожалению, не учитывают того, что используют термин «информация» в несколько отличном от обыденного смысле, а это часто вызывает трудности у менее искушенных читателей.

Автор настоящей книги применяет оригинальный метод рассуждений. Даже не пытаясь дать определение информации и тем более не обращаясь к математической теории информации, он начинает с анализа обобщенной системы управления, ее составных элементов и их преобразований. В связи с этим выдвигаемые автором в ходе анализа утверждения опираются на формальные преобразования и не требуют верификации с точки зрения положений традиционной теории информации. Лишь с понятиями,'выявленными в ходе этих рассуждений, автор в дальнейшем связывает такие термины, как сообщение (коммуникат), код, информация и т. п., причем он указывает, как следует применять разработанный им метод анализа информационных процессов и формулирует связанные с этими процессами определения. Таким образом,' все рассуждения в этой книге не основываются на теории информации, а приводят к ней.

Такой метод изложения связан с известным риском, ибо произвольно вводимые термины могут вступить в противоречие с уже имеющимися терминами, которым другие авторы придают иное значение, что приведет к терминологической путанице. Однако автор со своей стороны как раз стремится упорядочить терминологию, исходя из соображений полноты анализа; он иллюстрирует вводимые им понятия подробными примерами, анализируя при этом и такие понятия, как «содержание», «значение» и «понимание» информации, которые до сих пор в рамках теории информации не рассматривались. В конечном итоге количественное определение того, что автором называется «информацией», приводит к математическому понятию, совпадающему с основным для теории Шеннона понятием «количества информации».

Правильно ли называть приведенные в книге рассуждения об информации «качественной» теорией? Автор избрал такое определение именно для того, чтобы подчеркнуть отличие этих не рассмотренных до сих пор в литературе проблем информации от проблем, связанных с количеством информации. Такое определение может быть обосновано ссылкой на аналогичную терминологию, применяемую, например, в химии, где различают качественный и количественный анализ. Как отмечает автор в своем предисловии, в книге речь идет не о «качестве» информации в смысле ее ценности или важности.

Предисловие автора

Значение концепций, которые привели к созданию и широчайшему развитию кибернетики и обычно называются «теорией информации», состояло в том, что они открыли возможность количественного подхода к информации. Это нашло свое выражение во введении понятия «количество информации». Такой подход оказался полезным и чрезвычайно плодотворным в применении ко всем информационным процессам, где бы они ни протекали, о чем свидетельствует множество публикаций по этой проблематике. Однако такой количественный подход придал теории информации существенно односторонний характер, превратив ее в «количественную теорию информации».

В последние годы стали появляться публикации, пока еще малочисленные, в области, которую можно было бы назвать «ценностной теорией информации», т. е. теорией, касающейся вопросов оценки пригодности информации для принятия решений.

Однако до сих пор не разработана теория, отвечающая на вопросы, что, собственно, такое информация, каковы ее разновидности, на чем основаны процессы информирования и т. п. Для всей этой области мы предлагаем название «качественная теория информации». Именно эта проблематика и является содержанием настоящей книги.

Концепция теоретического рассмотрения самого понятия информации (а не ее количества) была мною впервые изложена в статье «Математическое определение информации» [13], а в книге «Кибернетическая теория автоматических устройств» [14] я посвятил ей целый раздел.

Логическим продолжением этих работ явилось введение понятия информирования и выделение различных его видов, о чем говорится в докладе «Информация и информирование», представленном мною международному симпозиуму, организованному Централь -ным институтом научно-технической и экономической информации в Варшаве в 1968 г. Эти вопросы обсуждались также на заседаниях Польского кибернетического общества и Отделения праксеологии Польской Академии наук.

Эти концепции легли в основу представленной в книге теории. Существенную роль в этой теории играет понятие преобразования (трансформации) сигналов как элементов процесса управления, с различением кодов, как преобразований вдоль контура управления, и информации как преобразований поперек контура управления. Такой подход позволяет выразить процесс информирования в виде некой общей логико-математической модели, анализ которой вскрывает все возможные виды информирования. На возникающие при этом вопросы даются ответы в серии теорем. Для понимания доказательств этих теорем от читателя не требуется знания математической логики, так как используемое мною понятие преобразования является частным случаем отношения, а основные правила оперирования с преобразованиями приведены в отдельной главе книги. В последней главе рассмотрена возможность количественного подхода к информации с помощью понятия о числе преобразований, а результаты рассуждений сопоставляются с известным понятием «количества информации».

Разбираемые в книге вопросы иллюстрируются многочисленными практическими примерами. При выборе примеров учитывалась прежде всего их простота, причем цель состояла не в том, чтобы обогатить читателей знаниями по их специальности, а скорее лишь в том, чтобы продемонстрировать применимость обсуждаемых понятий в различных областях. Для большей наглядности в конце книги все виды информирования сведены в единую таблицу.

В заключение хотелось бы обратиться к читателям с просьбой при чтении этой книги вкладывать в обсуждаемые в ней термины только тот смысл, который содержится в их определениях, отвлекаясь от приобретенных ранее привычек при подходе к понятию информации. Это особенно важно по отношению к новым терминам, которые мне пришлось ввести для многих существенных понятий, не нашедших до сих пор рассмотрения в литературе.

Глава 1
Введение

Что такое информация?

Там, где задаются вопросы, должны иметься спраши вающий и спрашиваемый, даже если это один и тот же че ловек. Чтобы ответить на вопрос «что такое информация?», спрашиваемый должен сначала понять вопрос, а необходи мым (но не достаточным) условием для этого является пони мание всех содержащихся в вопросе слов.

Употребляя выражение «информация», спрашивающий должен его определить, чтобы спрашиваемый знал, о чем идет речь. Но определение «информации» одновременно было бы и ответом на вопрос «что такое информация?» и, таким образом, сам вопрос оказался бы излишним. Другими словами, на вопрос «что такое информация?» следует во прос «а что такое информация?», что заводит нас в тупик. Возникают методологические сомнения, можно ли вообще ставить вопросы «что такое...?»

Этот вопрос заслуживает более внимательного рас смотрения. Если наименование (точнее, «определяемое», definiendum ) некоторого понятия х обозначить через t xi а определяющее его выражение ( definiens ) через d x , то вопрос «что такое информация?» — это вопрос типа «что такое t x b >, а ожидаемый ответ является предложением типа «^ есть d x y >.

Чтобы связать некоторый термин с определением, имеются два пути: либо термину приписать определяющее выражение, либо определяющему выражению приписать термин.

С формальной точки зрения безразлично, какой из пу тей избрать. С того момента, когда ответ «г ж есть d x » стано вится известным спрашивающему или спрашиваемому, может быть поставлен вопрос «что такое t x ? y >, и вопрос этот действительно часто ставится в учебной практике. Когда ответ известен спрашиваемому, мы имеем дело с «консультацией», а когда он известен спрашивающему — с «экзаменом».

Однако выбор пути не безразличен с эпистемологической точки зрения. Нахождение определения для данного тер мина — это процесс выбора среди различных определений, тогда как нахождение термина для данного определения равнозначно выбору среди различных терминов.

Понятно, что ученый выбирает себе такой предмет ис следований, в котором он видит проблему, требующую раз решения. Анализируя проблему, он определяет соответ ствующие понятия, а затем, чтобы облегчить запись хода решения проблемы и взаимопонимание с читателями, под бирает для каждого определения подходящий термин. По лучаемое таким образом предложение « t x есть d x » является терминологическим соглашением, обязательным с этой минуты как для самого автора, так и для его читателей, если они хотят понять, о чем идет речь в его публикации.

Точнее говоря, формулировка терминологического со глашения должна иметь вид: «выражение, определяемое через d x , мы будем обозначать термином t x i >. Но для упро щения говорят просто « if д. есть d x ». Например, в физике говорят ^отношение энергии ко времени мы будем называть мощностью», или проще: «мощность — это отношение энер гии ко времени».

Когда речь идет о терминологическом соглашении, нельзя утверждать, что тот или иной термин определен «неправильно», можно лишь утверждать, что термин по добран неудачно, так как он, например, приводит к неодно значности, ибо ранее уже употреблялся в другом значе нии. В таком случае ученый не будет пытаться изменить определение так, чтобы оно больше подходило к термину, т. е. не заменит ради сохранения термина рассматрива емую проблему другой, а подберет более удобный термин, сохраняя необходимое для проблемы определение понятия.

Очевидно, что каждое определение тоже состоит из тер минов, которые в свою очередь могут требовать определе ния, но это не меняет правил поведения.

В то же время выбор определений для терминов является по существу угадыванием значений выражений, как если бы предмет исследований должен был зависеть от ре зультата угадывания. В этом отношении дело иногда до ходило до долгих и бесплодных споров на темы «что таксе жизнь», «что такое мышление», «что такое сознание» и т. д., в ходе которых оппоненты взаимно обвиняли друг друга в неправильности даваемых ими определений. А между тем это были всего лишь споры о языковых согла шениях.

Эти вводные замечания позволят читателям лучше сориентироваться в ситуации, с которой им придется столк нуться при ознакомлении с литературой, посвященной проблеме «информации».

Как известно, основой количественной теории инфор мации явилась формула Шеннона [1]

" = -2* l 0 gp " (1л)

выражающая энтропию множества п вероятностей p it р 2 >---> р п и в численном виде описывающая «количество информа ции», (возможность выбора, неопределенность).

Из приведенной формулы следует, что Я = О тогда и только тогда, когда одна из вероятностей равна единице {т. е. все остальные вероятности равны нулю). Это есть со стояние определенности, или уверенности.

Таким образом, утверждение, что из множества событий, каждое из которых может наступить с определенной вероятностью, одно действительно наступило, сводит неопределенность к нулю, что, по словам Шеннона, позволяет рассматривать величину Я как «разумную количественную меру возможности выбора, или меру количества информа ции».

Когда все вероятности равны между собой (р г — 1/п), величина Я принимает максимальное значение

Я = log п. (1.2)

На основании этой формулы с учетом того, что при п = 2 двоичный логарифм log 2 «- = 1 и, следовательно, Я= 1, за единицу количества информации, которой дали название «бит», было принято количество информации, соответствующее утверждению, что произошло одно из двух равновероятных событий.

В соответствии с этим количество информации в битах, получаемое при сообщении, что произошло одно из я равно вероятных событий, выражается формулой, выведенной еще раньше Хартли [21

tf = log a n . (1.3)

Мы видим, что понятие «количество информации» опре делено способом, не оставляющим места для размышлений над тем, «что такое количество информации», так как оно получено путем разумного терминологического соглаше ния, основанного на математической формуле. С научной точки зрения подход является безупречным. Однако с самим термином «количество информации» связана некоторая неясность, ибо в неявном виде предполагается, что, если известно, что такое количество информации, известно также, что такое информация.

Эта формулировка показалась особенно сенсационной гуманитариям, у которых появилась надежда, что па этой основе они смогут решать «вой проблемы методами, анало гичными применяемым в точных науках. Утвердило их в этом мнении то обстоятельство, что за теорией, основанной на приведенных выше формулах, закрепилось название «теория информации»; это наводит на мысль, что предмет данной теории — сама информация, а не только количество информации. Более того, «теорией информации» начали со временем называть целую область науки, исследующей теоретические основы' информационных процессов (мне кажется, что эта область должна была бы носить название «теоретическая информатика» и охватывать различные из указанных во введении теорий).

В то же время по отношению к современному состоянию дел такое наименование является как бы «названием на вырост», ибо теория информации до сих пор еще не пол ностью обоснована по меньшей мере по двум причинам.

Во-первых, она требует теоретического обоснования са мого понятия информации.

Во-вторых, даже понятие количества информации не охватывает всех случаев, в которых требуется количественное описание информации. Дело в том, что для использо вания этого понятия нужно определить множество событий, которые могут произойти, и вероятности наступления каждого события. В то же в^ремя часто возникает необхо димость количественного описания информации в условиях, когда множество событий точно не определено, а вероят ности их наступления указать невозможно. Например, программы обучения истории в школе охватывают большее или меньшее число исторических фактов, при этом для учителя очевидно, что чем более обширна программа, тем больше ученик получает информации. Однако для количественного описания этой разницы учитель не сможет воспользоваться принятой в теории информации мерой «количества информации», ибо едва ли кто-либо сможет указать полное число всех исторических фактов. Да и как приписать каж дому из них вероятность, если каждое из них уже произошло? По этим причинам невозможно выразить «количество ин формации», заключенное, например, в утверждении, что сейчас 1970 год, К какому множеству лет принадлежит этот год? Как можно говорить о вероятности наступления этих лет, особенно минувших, т. е. тех лет, которые уже не мо гут произойти ни с какой вероятностью? А как применить понятие «количество информации», например, к географи ческой карте? Ведь карта содержит самую различную информацию: по ней, например, можно узнать, что Стокгольм расположен севернее Будапешта, что от Мадрида до Бел града 2000 км, а расстояние от Лондона до Рима вдвое боль ше, чем до Женевы. Сколько же бит содержит каждая такая информация? О каких вероятностях может здесь идти речь? Ведь каждый элемент карты, как и каждый элемент тер ритории, существует, а не «происходит» с какой-то веро ятностью.

А как описать количество информации в геометрии, например в утверждении, что один угол составляет поло вину другого? Ведь элементы геометрии вообще не «про исходят», это понятия абстрактные.

В связи с такого рода неясностями возникает недоумение, почему, несмотря на существование теории информации, в обычных, чаще всего встречающихся на практике случаях из нее нельзя узнать, что такое информация, и дажето, каково втомили ином случае количество информации (что, в конце концов, является главным понятием в этой теории).

На заданные вопросы можно ответить, что теория ин формации создана не для этих потребностей. Однако такой аргумент означает признание того факта, что созданная теория до сих пор дает меньше, чем обещает ее название.

Указанную проблему четко распознал Абрамсон [3], который начинает свою книгу с вопроса, что не является теорией информации. «Теория информации как название для обозначения научной дисциплины очень привлекательно. Однако, если это название применить к предмету данной книги, оно окажется в какой-то степени ошибочным». И далее: «Шеннон отдавал себе, наверное, отчет в том, что слово «информация» может ввести в заблуждение, и поэтому назвал свою работу «Математическая теория связи». Упо требляя слово «информация» в обычном смысле, можно ска зать, что работа Шеннона касается больше передачи сиг налов, несущих информацию, чем информации как таковой. Работа Шеннона больше имеет дело со связью, чем с трудно уловимым конечным результатом связи, которым собственно и является информация».

С точки зрения способа определения понятия «инфор мация» в литературе по теории информации можно выделить три группы публикаций.

Одну из них составляют работы, в которых количество информации называется попросту информацией, например в таких выражениях, как «максимальная информация», «сред няя информация» и т. д. Это вызывает противоречия, так как, хотя термин «информация» как сокращенное обозна чение «количества информации» и может удовлетворить автсров, не интересующихся самим понятием информации, приходится все же считаться и с теми, для которых дело не заканчивается вопросами, связанными с одним лишь коли чеством информации. На эту тему отвечает Черри [4]. «В определенном смысле вызывает сожаление то обстоятель ство, что математическое понятие, введенное Хартли, стало вообще называться информацией».

Другую группу публикаций составляют работы, авторы которых употребляют выражение «информация» без всяких объяснений в таких, например, выражениях, как «перенос информации», «передача информации с помощью языка», «информация, заключенная в множестве символов» и т.д., как бы подразумевая, что дело идет о понятии, не вызыва ющем сомнений. '

Наконец, есть публикации, авторы которых стараются как-то разъяснить читателям, что, по их мнению, надо по нимать под «информацией». В крайних случаях одни из них ограничиваются несколькими фразами, объясняющими информацию при помощи других, имеющих столь же неопределенное значение понятий, таких, как «сведения», «содер жание» и т. д.; другие ведут обширные дискуссии по поводу различных аспектов информации, анализируют трудности зсрмулироваиия точного определения, сопоставляют взгля- -^.'ды разных авторов, чтобы в конце концов оставить вопрос *еюткрытым и предоставить самим читателям в хаосе неясностей ф и сомнений выработать собственные взгляды на этот предмет.

Приходится лишь недоумевать, почему, подобно поня-»'тию «количества информации», не было принято аналогич-^* ного терминологического соглашения и относительно са-(М мого понятия «информация».

*" Скорее всего, это произошло потому, что слово «информация)) повсеместно употреблялось уже задолго до появления теории информации, причем его смысл казался вполне по нятным. Это заблуждение, по-видимому, связано с тем, что данным словом пользовались лишь в некоторых, четко очер ченных ситуациях — например, когдаделались заявления, давались указания или предостережения, касающиеся от ношений между людьми; ввиду этого не было нужды долго размышлять, что такое «информация», чтобы знать, когда это слово можно употреблять, а когда нет.

Поэтому, когда идеи, распространившиеся с развитием кибернетики, стали способствовать применению слова «ин формация» и к ситуациям, до этого не рассматривавшимся, например к установлению связи между человеком и живот ными, между человеком и машиной, между животными, меж ду машинами, к передаче наследственных признаков и т. п., возникло убеждение, что понятие информации требует лишь простого обобщения, причем не было принято во вни мание, какие трудности могут возникнуть при его опреде лении.

Например, Винер в своей основополагающей работе [5] не высказывается на тему о том, что такое информация, ограничиваясь лишь перечислением того, что не является информацией (!). Он пишет; «Механический мозг не выде ляет мысль, «как печень выделяет желчь», что утверждали прежние материалисты, и не выделяет ее в виде энергии, подобно мышцам. Информация есть информация, а не ма терия и не энергия».

Лишь позже Винер предложил определение: «Информа ция— это обозначение содержания, черпаемого нами из внешнего мира в процессе нашего приспособления к нему и приведения в соответствии с ним нашего мышления» [6].

К сожалению, это — определение информации через еще более неопределенное и лишенное общности понятие «содержание».

По Куфиньялю [7] «в кибернетике информацией назы вается всякое физическое действие, сопровождающееся * действием психическим». Это определение, очевидно, слиш ком широко, так как из него вытекает, что информацией должно считаться и потребление наркотиков. Преувели чением является также утверждение, что такое определение информации принято в кибернетике, особенно если учесть, что в кибернетическом смысле каждое психическое действие является столь же физическим, как и всякое другое.

В своей последующей работе [8] Куфиньяль, как и в ци тированном труде, дает следующие определения:

  • информация: сочетание носителя с семантикой;
  • семантика: психический эффект информации;
  • носитель: физическое явление, связанное с семанти кой для образования информации.

Нетрудно заметить, что первые два предложения со ставляют замкнутый круг — информация определяется через семантику (смысл), а семантика через информацию. Кроме того, ссылка на психику лишает такое определение общности. Да и сам Куфиньяль употре бляет термин «информация» непоследовательно, когда в другом месте пишет, что при переводе текста с одного языка на другой «информация, содержащаяся в первоначаль ном тексте; осталась той же самой, хотя форма ее измени лась».

Флехтнер [9] выводит понятие информации следующим способом.

«Сигнал может, хотя и не должен, содержать или пере носить сообщение ( Nachricht ). При этом возможны следу ющие варианты.

  • Приемник воспринимает сигнал «как сигнал», а не как связанное с ним сообщение.
  • Приемник действительно принимает сообщение, но не понимает его даже после обдумывания, например при передаче ( Mitteilung ) высказывания ( Aussage ) из специальной области знаний, для понимания которого ему не хватает образования.
  • Приемник понимает сообщение, но оно его не инте ресует, оно ему безразлично.
  • Сообщение «важно» для приемника, например инфор мирует его о чем-то, тогда оно содержит для него информа цию (Information).

Такой ход рассуждений вызывает ряд возражений. Во- первых, не известно, что здесь понимается под «сообщением», тем более что в другом месте Флехтиер пишет: «Понятие сообщения до сих пор еще не определено». Во-вторых, если приемник не понимает сообщения, то чем это сообщение от личается от приема сигнала «как сигнала»? В-третьих, не известно, каким образом условие, чтобы информация была понятна и интересна для приемника, следует применить к передаче и приему информации машиной. В-четвертых, объяснение «информации» через «информирование» являет ся тавтологией.

Поэтому не удивительно, что Шспион, а вслед за ним и многие другие авторы отказываются от рассмотрения таких понятий, как значение, содержание, смысл, понимание и т. п. Вот высказывание Шеннона из уже цитированной работы: «Основная задача связи состоит в точном или приближенном воспроизведении в некотором месте сообще ния, выбранного для передачи в другом месте. Часто со общения имеют значения, т. е. относятся к некоторой систе ме, имеющей определенный физический или умозрительный смысл, или находятся в соответствии с некоторой систе мой (эти семантические аспекты связи не имеют отношения к технической стороне вопроса). Существенно лишь, что по сылаемое сообщение является сообщением, выбранным из некоторого множества возможных сообщений. Система связи должна быть спроектирована так, чтобы ее можно было использовать для передачи любого возможного сообщения, а не только того, которое будет в действительности выбра но, так как результат этого выбора еще не известен в момент проектирования».

Тенденция Шеннона отгородиться от проблемы содержа ния информации очевидна. Но возможно ли это?

Естественно, что работники почты не должны быть оза бочены тем, поймет ли адресат содержащиеся в телеграмме слова и предложения именно так, как их понимал отпра витель. Однако, если посланная телеграмма была написана строчными рукописными буквами, а вручаемая адресату телеграмма уже содержит печатный текст, состоящий из прописных букв, то учреждение связи учитывает, что, невзирая на эту разницу, адресат поймет телеграмму, так как будет воспринимать буквы не как геометрические фигуры, а как условные знаки, распознаваемые в соответствии с определенными правилами их классификации, так что, например, «а» и «А» относятся к одному и тому же классу. В противном случае связь могла бы осуществляться только при помощи рукописных посланий. Таким образом, психи ческие аспекты адресата принимаются во внимание системой связи только в отношении букв, а не слов и предложений.

Учреждение связи может не интересоваться, понял ли адресат содержащиеся в телеграмме слова и предложения, но оно отвечает за то, чтобы адресату были понятны отдель ные буквы. Столь слабый учет свойств «приемника» не при емлем, однако, для перевода с одного языка на другой. хотя бы потому, что при переводе необходимо различать, когда слово нужно переводить отдельно, а когда как неотъ емлемую часть идиоматического выражения. А ведь в на стоящее время для перевода с одного языка на другой уже начали применять вычислительные машины, в связи с чем перевод превращается в техническую проблему переда чи информации. Отсюда следует, что, волрехи утверждению Шеннона, на практике удается лишь частично абстрагиро ваться от психических свойств приемника.

Встречающуюся еще и по сей день неопределенность в понимании информации хорошо показал Фей во «Вступительных замечаниях» к своей книге о роли теории информации в электрической связи [10]:

«Ответ на качественный вопрос — что такое информа ция,— так же как и на количественный вопрос-—как измеряется информация — требует анализа известных ныне систем создания и передачи сообщений. При этом оказывается, что выработанные источником сообщения и пере данные им сигналы можно разделить на два класса: 1) сигналы, которые могут принимать только конечное число дискретных значений, и 2) непрерывные сигналы. К перво му классу относятся, например, телеграфные сигналы или сигналы, передаваемые во флоте с помощью флажков, соответствующие буквам нашего письма; ко второму — вре менные изменения силы тока в микрофонной цепи телефона при разговоре или изменения высоты ртутного столба в термометре, вызываемые изменением температуры окру жающей среды.

Общим для обоих классов сигналов является то, что их полностью нельзя предсказать, когда они используются как носители информации. Однако в действительности подоб ная классификация и характеристика сигналов как носи телей информации, не давая ответа на вопрос о сущности ин формации, позволяет создать абстрактную ['математи ческую модель, отражающую существенные свойства, при сущие всем сигналам в качестве носителей информации. Такой математической моделью структуры сигналов, учиты вающей свойства их неполной определенности, в статистиче ской теории информации является представление сигналов в виде дискретных и непрерывных случайных процессов, пове дение которых подчинено вероятностным законам. Однако основанная на этой модели математическая теория вынуж дена оставить без ответа вопрос о ценности информации в смысле важности ее содержания.

Информация типа «орел» или «решка», полученная в результате бросания монеты, и информация о результате любого другого испытания с равновероятными альтерна тивами с точки зрения статистической теории информации эквивалентны. Такое сужение понятия информации, исхо дя из задач определенной технической теории передачи сообщений, вполне допустимо и даже уместно, поскольку каждое техническое устройство как неживой механизм лишено сознания и не способно вырабатывать какие-либо оценочные суждения.

Однако в теории информации, изучающей системы, в которых в цепь передачи сообщений включены живые организмы, особенно человек как источник и потребитель ин формации, следовало бы принять за основу более ши рокое, не рассмотренное здесь еще понятие информации. Только на такой основе можно будет дать ответ на второй вопрос, касающийся количественной меры информации. При этом следует иметь в виду, что в отношении своего при ближения к действительности всякая математическая модель обладает большими или меньшими недостатками. Поэтому вопрос «что такое информация?» превращается в вопрос «каково разумное определение информации в рамках введенной идеализации?». Ответ на этот вопрос дается путем проверки полученных результатов на практике. Теория информации еще сравнительно молода, поэтому как для совершенствования самой теории, так и для развития ее практических приложений требуется усиленное вза имодействие между теорией и практикой».

Предпринимались также попытки ввести понятие инфор мации на основе следующих ее разновидностей. Уивер [11] указывает три «уровня» ( level ) информации и соответ ствующие им три вида проблем:

  • техническая проблема: насколько точно ( accura tely ) могут быть переданы знаки?
  • семантическая проблема: насколько точно ( preci sely ) передают знаки желаемый смысл ( meaning )?
  • прагматическая проблема: насколько эффективны ( effectively ) полученные значения?

Как и ранее, заметим, что семантический аспект нельзя применить к информационным процессам в машинах.

Касаясь указанного разделения, Флехтнер вводит три «измерения» ( Dimension ) информации, связанные с передачей информации ( Information ) сообщениями ( Nachricht ) и передачей сообщений ( Nachricht ) сигналами ( Signal ). Переносят ли сообщения информацию и в какой степени — зависит прежде всего от сигнала (синтаксическое изме рение), затем от сообщений (семантическое измерение) и, наконец, от получателя, егоосведомленностиили неосведом ленности о предмете сообщения, т. е. от общего воздействия сообщений на получателя (прагматическое измерение). С тремя «измерениями» информации Флехтнер связывает три различных уровня «смысла» ( Sinn ), иллюстрируя их следующими примерами:

  • Утверждение грамматически правильное, но (семан тически) бессмысленное, например: «Зеленая свобода пре следует думающий дом» ( Die gr . jne Freiheit verfolgt das denkende Haus ).
  • Утверждение логически правильное, но не соответствующее истине, например: «Гамбург лежит на Везере» ( Hamburg liegt an der Weser ).
  • Утверждение верное, например: «Гамбург лежит па Эльбе» ( Hamburg liegt an der Elbe ).

На первый взгляд указанные примеры весьма убедитель но свидетельствуют в пользу введенной классификации, однако присмотревшись к ним поближе, можно убедиться, что это не совсем так. Хотя Флехтнер, несомненно, старал ся подобрать в качестве первого примера абсолютно абсурдное предложение, оно вполне может означать следующее: «Восставшие крестьяне одерживают верх над властями». Ведь можно увидеть в приведенных словах следующий переносный смысл:

  • «зеленый» — крестьянство (по ассоциации с зеленеющими полями зеленый цвет часто считается символом сельского хозяйства, что иногда находит даже выражение в зеленых флагах крестьянских организаций);
  • «свобода» — восстание;
  • «преследовать» — настигать, одерживать верх;
  • «дом» — власти (подобно тому как замок или дворец как местонахождение властей нередко считался символом вла сти);
  • «думающий» — занимающийся возвышенной, интел лектуальной деятельностью в противоположность к черной работе в поле.

Конечно, надо суметь увидеть приведенный выше или какой-либо иной переносный смысл в указанных словах, но после этого первое, полностью абсурдное, утверждение уже не отличается ничем от двух других, так как выражение «город лежит на реке» тоже имеет переносный смысл, только оно более часто встречается и поэтому не вызывает недо разумений.

Нет также существенной разницы между вторым и тре тьим предложениями, в которых тоже заключен переносный смысл. Ведь Гамбург «лежит» не на всей Эльбе, а только на небольшом ее участке, и если кто-либо имел бы в виду Эльбу у ее истоков, то утверждение, что Гамбург лежит на Везере, было бы ближе к истине.

Одни и те же предложения могут у разных людей вызы вать различные ассоциации, но это скорее свидетельствует о разнице между получателями, чем между самими предло жениями.

Это относится даже к тем предложениям, в которых преж де никто не усматривал возможность различной интер претации, например к утверждению, что прямая — кратчай шая линия между двумя точками. Сейчас известно, что это вопрос соглашения, относящегося к евклидовой гео метрии. Соглашение такого рода есть, однако, только сред ство для устранения различий у получателей информации.

Главным пунктом в рассуждениях на тему о понятии «информация» все еще остается вопрос о роли психики. Когда от него уходят, вся проблема становится фрагмен тарной. Когда же мы его пытаемся учитывать,» возникает затруднение, как интерпретировать информационные про цессы в машинах с точки зрения таких понятий, как «смысл», «содержание», «значение» и т. п. Впрочем, следует указать, что эти понятия не совсем ясны также и в применении к человеку.

Здесь нет возможности привести все существующие точки зрения на эту проблему. Да это и не нужно, коль скоро речь идет об общей характеристике ситуации. Предоставим лишь в заключение слово еще раз Флехтнеру:

«Понятие информации — не только центральное поня тие теории информации, но также и одно из фундаменталь ных понятий кибернетики. Одновременно это самое труд ное понятие для всякого, кто хочет вникнуть в проблемы кибернетики. Уже беглый обзор литературы свидетель ствует-о том, что не только существуют совершенно различ ные определения, но и что сжатая формулировка этого понятия, даваемая теорией информации, вкладывает в него значение, совершенно отличное от того, которое мы при выкли связывать с этим понятием».

Такая ситуация наводит на размышления. Кибернетика- наука высокой степени общности, наука теоретическая, формализованная. И тем не менее одно из главных ее поня тий до сих пор не имеет точного определения.

Побудительным мотивом к написанию настоящей работы как раз и было стремление попытаться заполнить этот про бел.

СодержаниеДальше

наверх страницынаверх страницы на верх страницы









Заказать работу



© Библиотека учебной и научной литературы, 2012-2016 Рейтинг@Mail.ru Яндекс цитирования