Помощь в написании студенческих работ
Антистрессовый сервис

Родительское лоно кибернетики

РефератПомощь в написанииУзнать стоимостьмоей работы

Кибернетика быстро обрела в Советском Союзе статус лидера и символа научно-технической революции второй половины XX века, а информация почиталась как рабочее тело, плоть и кровь «разумных машин» — кибернетических агрегатов. Научно-практическая значимость кибернетики обусловливалась тем, что она переросла рамки математизированной теории, представленной в основополагающей книге Норберта Винера… Читать ещё >

Родительское лоно кибернетики (реферат, курсовая, диплом, контрольная)

Родила царица в ночь Не то сына, не то дочь;

Не мышонка, не лягушку,

А неведому зверюшку.

Александр Пушкин

Первое энциклопедическое определение кибернетики как науки, данное академиком А. Н. Колмогоровым, звучало так: «наука о связи, управлении и контроле в машинах, живых организмах и их объединениях с точки зрения их способности воспринимать информацию, сохранять эту информацию в памяти, передавать по каналам связи и использовать в процессах управления»1. Более развернутое толкование, выработанное в 1962 году авторитетным коллективом авторов во главе с академиком А. И. Бергом, выглядело следующим образом: «Кибернетика — наука о процессах управления и информационных процессах в сложных динамических системах, основывающаяся на теоретическом фундаменте математики и логики, а также на применении средств автоматики, особенно электронных вычислительных, управляющих и информационно-логических машин, систем и комплексов»[1][2].

Кибернетика быстро обрела в Советском Союзе статус лидера и символа научно-технической революции второй половины XX века, а информация почиталась как рабочее тело, плоть и кровь «разумных машин» — кибернетических агрегатов. Научно-практическая значимость кибернетики обусловливалась тем, что она переросла рамки математизированной теории, представленной в основополагающей книге Норберта Винера «Кибернетика» (1948), и сделалась интегральным межнаучным направлением, концентрирующим разнообразные и относительно самостоятельные теории, научные дисциплины, инженерные разработки — от статистической теории, предлагающей количественную меру информации, до документалистики, ставящей задачей оптимизацию документальной коммуникации. Круг энтузиастов кибернетики стремительно расширялся, особенно в среде научной молодежи, и характерной профессионально-мировоззренческой чертой кибернетического сообщества стал особый информационно-кибернетический стиль мышления1. Памятниками этого стиля могут служить: впервые изданная в 1977 году книга Б. В. Бирюкова и В. Н. Тростникова, многозначительно озаглавленная «Жар холодных чисел и пафос бесстрастной логики»[3][4], а также научные, публицистические и художественные сочинения Станислава Лема[5]. Информационно-кибернетический стиль воплотился в информационном подходе, ставшем популярным методологическим инструментом в современной науке (см. параграфы 1.4 и 2.1). Информационно-кибернетический стиль мышления и методология информационного подхода послужили предпосылками для перерастания понятия информации в общенаучную категорию.

Генетическими корнями кибернетического мышления послужили в основном инженерно-технические дисциплины, неплохо развитые в нашей стране, — теория автоматического регулирования, программирование вычислительных машин, теория дистанционной связи, инженерная психология и организация труда, физиология высшей нервной деятельности, математическая логика и др.[6] Однако кибернетическая методология очень скоро вышла за пределы прикладных разработок и распространилась на биологические, общественные (прежде всего — экономику) и гуманитарные науки. Решающую роль в научной экспансии кибернетики сыграли прогрессивные академики-математики С. Л. Соболев (1908—1989), А. А. Ляпунов (1911—1973), Л. В. Канторович (1912—1986), В. М. Глушков (1923—1982) и особенно А. И. Берг. О личности последнего хочется сказать более подробно, потому что именно Акселя Ивановича Берга (1893—1979) можно назвать «отцом кибернетики в СССР».

Творческий путь А. И. Берга от частных инженерно-технических задач к общенаучным и философским обобщениям соответствует динамике кибернетического движения в Советском Союзе. Начав в 20—30-е годы с разработки теории и методов расчета ламповых радиоприемных и радиопередающих устройств, он стал одним из создателей советской системы радиолокации. В 40—50-е годы он занимался проблемой надежности радиоэлектронных систем, где центральное место заняла технология переработки информации человеком. Аксель Иванович принимал участие в разработке и определении областей применения универсальных цифровых вычислительных машин, что логично вывело его на проблематику кибернетики. В течение 20 лет (1959—1979) он возглавлял академический Научный совет по комплексной проблеме «Кибернетика».

А. И. Берг понимал кибернетику как интегральную науку весьма широкого профиля. Считая приоритетными, стержневыми разработки в области электроники, теории информации, вычислительной техники, прикладной математики, робототехники, он включал в кибернетический комплекс программированное обучение, прогностику, развитие интеллектуальных способностей человека, структурную лингвистику и другие гуманитарные вопросы. Сподвижник Берга академик И. М. Макаров вспоминал, что именно Аксель Иванович «внедрил в мышление специалистов самых различных областей знания ту концепцию общенаучного статуса узловых кибернетических понятий: информации, управления, обратной связи, оптимизации, модели, адаптации, самоорганизации, сложности и др., которая служила методологическим основанием развития приложений кибернетики, математики и вычислительной техники в соответствующих сферах знания, инженерной практики, народного хозяйства и культуры»1. Перечисленные «узловые кибернетические понятия» (информация стоит в их ряду на первом месте) образовали фундамент того информационно-кибернетического стиля мышления, о котором уже упоминалось.

Популярность и фундаментальная значимость информации в кибернетических концепциях не гарантировали однозначность понимания этого феномена. Напротив, к моему удивлению, логически строгий информационно-кибернетический стиль мышления оказался толерантным к несовместимым определениям информации. Академик А. И. Берг прагматически заметил: «Термин „информация“ не имеет точного определения. Это не должно нас смущать, так как для дальнейшего развития теории управления мы не так уж нуждаемся в точных определениях некоторых понятий. Ведь мы не знаем, что такое время, никто не может определить этого слова, но мы отлично измеряем время с высокой точностью»[7][8]. Разумеется, в научной литературе 50—60-х годов XX века легко обнаружить большое число определений информации, предложенных разными авторами. Получили признание две основные трактовки: «шенноновская» и «сигнальная». Рассмотрим их.

Шенноновская концепция информации базируется на фундаментальных понятиях математической статистики и физики (точнее, — термодинамики). Норберт Винер, характеризуя информационные процессы в кибернетических системах, писал: «Понятие количества информации совершенно естественно связывается с классическим понятием статистической механики — понятием энтропии. Как количество информации в системе есть мера организованности системы, точно так же энтропия системы есть мера дезорганизованности системы; одно равно другому, взятому с обратным знаком»1. В информационно-кибернетическом сообществе понятия информации как отрицательной энтропии и энтропии как отрицательной информации приобрели профессионально-мировоззренческое звучание[9][10], поэтому остановимся подробнее на этом повороте научной мысли.

В XIX веке понятие энтропии использовалось в термодинамике в качестве одного из параметров тепловых процессов, поддающемуся столь же точному и недвусмысленному измерению, как, например, температура тела, точка плавления кристалла или удельная теплоемкость любого вещества. Была предложена формула для подсчета изменения энтропии при переходе термодинамической системы из одного состояния в другое. Поскольку теплота всегда переходит от более нагретого тела к менее нагретому, формула показывала постоянное возрастание энтропии вплоть до прекращения теплообмена во Вселенной из-за того, что все тела станут одинаково холодными. Максимум энтропии ассоциировался с «тепловой смертью» Вселенной (второе начало термодинамики). Австрийский физик Людвиг Больцман (1844—1906) дал математическую интерпретацию второго начала термодинамики, которая оказалась пригодной для всех систем, состоящих из большого числа хаотически движущихся частиц (идеальный газ). Наконец, в 1948 году американский математик Клод Шеннон (1916—2004), разрабатывая свою теорию информации, вспомнил о формуле энтропии Больцмана и назвал информационной энтропией количественную меру неопределенности ситуации. С легкой руки Шеннона термин «информация» приобрел статус математического термина в шенноновской концепции, которую математики включили в состав теории вероятностей.

В теории Шеннона информация трактуется как снятая неопределенность, а количество информации оценивается долей уменьшения энтропии. Благодаря получению сообщения, энтропия может быть снята полностью (в этом случае информация равна энтропии ситуации) или частично, и тогда количество информации, принесенной сообщением, оценивается как разность между неопределенностью, существовавшей до получения сообщения, и неопределенностью, оставшейся после получения сообщения. Математический аппарат, разработанный К. Шенноном и его последователями, нашел широкое применение для решения проблем оптимизации кодирования, расчета пропускной способности и помехоустойчивости различных дискретных и непрерывных каналов связи. Здесь информация представляет собой случайную величину, значение которой тем больше, чем меньше вероятность появления соответствующего сообщения из данного ансамбля1.

Необходимо заметить, что Клод Шеннон был очень осторожен в употреблении термина «информация». Не случайно свою основополагающую статью он назвал не «теория информации», а «теория коммуникации»[11][12]. Дело в том, что теория Шеннона, получившая впоследствии псевдоним «шенноновская теория информации», на самом деле касается больше передачи сигналов, несущих информацию, чем информации в обыденном понимании (сведения, смыслы). Она заботится об обеспечении надежной техники связи, а не о понимании адресатом смысла сообщения. Правы взыскательные ученые, упрекавшие математиков за «узурпацию» названия науки о подлинной информации[13]. Учитывая ограниченность своей концепции, сам Шеннон писал в одной из своих статей: «Сознавая, что теория информации является сильным средством решения проблем теории связи (и в этом отношении ее значение будет возрастать), нельзя забывать, что она не является панацеей для инженера-связиста и тем более для представителей всех других специальностей. Очень редко удается открыть одновременно несколько тайн природы одним и тем же ключом. Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи нескольких магических слов, таких как информация, энтропия, избыточность, нельзя решить все нерешенные проблемы»[14].

Инициатива введения в научный оборот термина негэнтропия (отрицательная энтропия) принадлежит французскому физику Леону Бриллюэну (1889—1969), работы которого относятся к 50-м годам. В своих трудах он утверждал «негэнтропийный принцип информации», состоящий в том, что получение замкнутой термодинамической системой информации приводит к убыванию энтропии и возрастанию негэнтропии. Информацию Бриллюэн определял как «отрицательный вклад в энтропию»[15] (отсюда «негэнтропия»). Отмечу, что современные синергетики оспаривают «крылатое выражение „информация есть негэнтропия“». Д. С. Чернявский утверждает ошибочность термодинамической трактовки информации, поскольку, по его мнению, «реально ни физического, ни информационного содержания термин „негэнтропия“ не имеет, а информацию, которой занимался Бриллюэн, нужно называть „микроинформацией“ (информацией, не способной сохраняться во времени)»1.

Не знаю, согласился бы французский ученый с доводами нашего синергетика, но свою теорию совершенно в шенноновском духе Леон Бриллюэн характеризовал как чисто физическую, подчеркивая, что в ее пределах «совокупность 100 букв, выбранных случайным образом, фраза в 100 букв из газеты, из пьесы Шекспира или теоремы Эйнштейна имеют в точности одинаковое количество информации»[16][17]. Формальные интерпретации информации нашли широкое применение в технике связи и в вычислительной технике, но создать формализованную семантическую теорию информации и выработать общую дефиницию феномена информации не удалось. В математических теориях понятие информации не связано ни с языком, ни с содержанием сообщений (сигналов), передаваемых по коммуникационному каналу. Информация полностью дематериализована и представляет собой умственный конструкт, подобный логарифмам, мнимым числам или другим абстракциям, отсутствующим в физической реальности. Важно подчеркнуть, что шенноновская концепция трактует информацию как математическую абстракцию, как элемент научно-практического знания, вычисляемый познающим субъектом.

Сигнальная концепция информации практична и технологична. Ее суть в отождествлении сигнала и информации. Основания для такого отождествления очевидны: сигнал — это материальное явление (вещественный предмет), несущий определенный смысл (содержание), а информация также обладает материальным носителем и идеальным содержанием. Поэтому телевизионные сигналы, образующие изображение, представляют собой телеинформацию, устная или письменная речь о чем-то сигнализирует или информирует, музыка — это звуковые сигналы и аудиальная информация и т. д. Не случайно первая популярная отечественная книга о кибернетике была названа «Сигнал»[18]. Автор употребляет термины «сигнал» и «информация» фактически как синонимы, во всяком случае, проблема разграничения их значения не обсуждается, а выражения «входные сигналы» и «входная информация» используются как взаимозаменяемые. Определение понятия «сигнал» звучит так: «Сигнал есть физический процесс, существующий в кибернетической системе, имеющий множество состояний, которые он принимает в соответствии с внешними событиями, воздействующими на систему. Основным свойством сигнала является то, что он несет информацию о событии, т. е. находится в соответствии с ним» (с. 37—38) Е Суть сигнальной концепции информации четко выражена Н. Т. Абрамовой: «Весьма существенно то обстоятельство, что физический характер сигналов может быть самым различным: это могут быть нервные импульсы, радиоволны, слово человека и т. д. Однако независимо от того, какова природа сигналов, при кибернетическом подходе сумели выделить общий существенный признак — то, что сигнал является носителем информации, закодированной в той или иной форме»[19][20]. Если согласно шенноновской концепции информация является научной фикцией, существующей в сознании людей, а не в материальной реальности, то сигнальная концепция акцентирует физическую природу информации, ее существование в физическом пространстве и времени. Сигнальная концепция информации близка разработчикам информационных машин и систем, оправдывающим репутацию кибернетики как лидера научно-технического прогресса.

Если пренебречь терминологическими флуктуациями, можно в пределах информационно-кибернетического мышления выделить два различных понимания информации: абстрактно-математическое, свойственное теории К. Шеннона, и инженерно-техническое, распространенное в прикладных областях вычислительной техники, электроники, автоматики. Ученые кибернетики обращались к понятию информации при построении информационных (математических) моделей различных ситуаций, например, управление промышленным предприятием, а инженеры оперировали информацией как сигналами, воспринимаемыми и обрабатываемыми информационными устройствами различного назначения. Центральным понятием абстрактно-математической теории стало понятие «информационная модель», в лексиконе разработчиков и пользователей информационной техники — «информационная машина». Таким образом, выявились две научные трактовки термина «информация» и, соответственно, две области преимущественного его использования:

  • 1. Математическая абстракция, элемент информационных (математических) моделей, создаваемых в области кибернетической теории;
  • 2. Материальный сигнал, циркулирующий в реальных информационных устройствах прикладного назначения;

Кроме того, понятие информации было воспринято массовым сознанием и вошло в словарный фонд обыденного языка, где получило значения «сведения», «известие», «новость». Хотя перечисленные трактовки не совместимы друг с другом, но на практике они до сих пор редко разграничиваются, используются как взаимозаменяемые, увеличивая неопределенность термина «информация».

Что же такое информация? «Неведомая зверюшка», если воспользоваться эпитетом А. С. Пушкина? «Неведомая зверюшка», рожденная царицей Кибернетикой, оказалась строптивой и непокорной, росла «не по дням, а по часам» и привлекла внимание общества к явлению, которое научная общественность, журналисты и законодатели окрестили «информационным взрывом». Этот «взрыв» характеризовался ужасающими цифрами, например: каждые 9,5 секунды появляется в мире источник новой научно-технической информации; специалисту нужно 20 лет непрерывного чтения по 8 часов в сутки, чтобы ознакомиться с информацией, адресованной ему в течение года; каждые 10—15 лет количество носителей научно-технической информации удваивается (экспоненциальный рост). В итоге, делали вывод любители статистики, наука находится в состоянии перманентного информационного кризиса.

Сущность информационного кризиса выразила антиномия: информации слишком много и информации слишком мало. «Информации слишком много», потому что текущие информационные потоки, адресованные инженерам и ученым, постоянно увеличиваются (растут по экспоненте) и значительно превосходят психофизиологические возможности их восприятия отдельным человеком. В результате усугубляется невежество специалистов. «Информации слишком мало» из-за ненадежности справочных аппаратов библиотек и архивов, которые не обеспечивают разыскание релевантных запросам документов в библиотечно-архивных фондах. В результате «мы не знаем, что мы знаем», и вынуждены дублировать научно-технические разработки, открывать уже известные истины. Единственный путь покорения взбунтовавшейся информации и преодоления информационного кризиса виделся в механизации и автоматизации информационных процессов. Этот путь указывала кибернетическая наука, и человечество устремилось по этому пути.

  • [1] Колмогоров А. Н. Кибернетика // Большая Советская Энциклопедия. 2-е изд.Т. 51. М., 1958. С. 149.
  • [2] Берг А., Бирюков Б., Китов А., Напалков А., СпиркинА., Тюхтин В. Кибернетика //Философская энциклопедия. Т. 2. М., 1962. С. 495.
  • [3] Бирюков Б. В. Кибернетика, информатика, вычислительная техника, автоматика: проблемы становления и развития. Вклад отечественной науки // Кибернетика: прошлое для будущего. М., 1989. С. 8.
  • [4] Бирюков Б. В., Тростников В. Н. Жар холодных чисел и пафос бесстрастной логики. Формализация мышления от античных времен до эпохи кибернетики. 4-е изд. М. :Книжный дом «Либроком», 2009. 232 с.
  • [5] Лем С. Диалоги. М.: ACT: Транзиткнига, 2005. 522 с.; Он же. Сумма технологии.М.: Мир, 1968. 608 с.
  • [6] Подробный обзор см.: Гаазе-Рапопорт М. Г. О становлении кибернетики в СССР //Кибернетика: прошлое для будущего. М., 1989. С. 46—85.
  • [7] Макаров И. М. От радиотехники и электроники — к кибернетике и робототехнике: в мире мыслей А. И. Берга // Кибернетика: прошлое для будущего. М., 1989. С. 172.
  • [8] Берг А. И. Кибернетику — на службу коммунизму // Кибернетику — на службукоммунизму. Т. 1. М., 1961. С. 12.
  • [9] Винер Н. Кибернетика, или управление и связь в животном и машине. М.: Сов. радио, 1968. С. 55.
  • [10] Шамбадаль П. Развитие и приложения понятия энтропии. М.: Наука, 1967. 278 с.;Волъкенштейн М. В. Энтропия и информация. М.: Наука, 1986. 192 с.
  • [11] Колесник В. Д., Полтырев Г. Ш. Курс теории информации. М., 1982. С. 2А—27.
  • [12] Shannon С. Е. A mathematical theory of communication // Bell System Techn. Journal.1948. V. 27. № 3—4; Shannon С. E., Weaver W. The mathematical theory of communication. Urbana: Univ. of Illinois Press, 1949. 117 p.
  • [13] Успенский В. А., Шрейдер Ю. А. К проблематике теории научной информации //Научно-техническая информация. 1963. № 3. С. 3.
  • [14] Шеннон К. Работы по теории информации и кибернетике. М., 1963. С. 668.
  • [15] Бриллюэн Л. Научная неопределенность и информация. М., 2010. С. 34.
  • [16] Чернавский Д. С. Синергетика и информация: Динамическая теория информации.М., 2009. С. 29—34.
  • [17] Бриллюэн Л. Наука и теория информации. М., 1960. С. 29.
  • [18] Полетаев И. А. Сигнал: о некоторых понятиях кибернетики. М.: Сов. радио, 1958.404 с.
  • [19] Интересно сравнить это определение сигнала с традиционной трактовкой, принятой в психологии: «Сигналом называют любое воздействие внешнего мира, которое, не вызывая само изменений в обмене веществ, предупреждает организм о будущих воздействиях, расширяя его возможности ориентировки» (Тихомиров О. К. Информатикаи новые проблемы психологической науки // Вопросы философии. 1986. № 7. С. 50).
  • [20] Абрамова Н. Т. Идеи организации и управления в исследовании сложных систем //Кибернетика и современное научное познание. М., 1976. С. 86.
Показать весь текст
Заполнить форму текущей работой