Введение в системный анализ и моделирование. Казиев В.М.
содержание о пособии ссылки
 

Информация и система 

  3.1. Понятие информации, виды информации

Понятие информации является одним из основных, ключевых понятий не только в информатике, но и в системном анализе, математике, в физике (открытых систем) и др. В то же время, это понятие является плохо формализуемым понятием из-за его всеобщности, объёмности, расплывчатости и трактуется по разному:

  • как любая сущность, которая вызывает изменения в некоторой информационно-логической (инфологической - состоящей из сообщений, данных, знаний. абстракций и т.д.) модели, представляющей систему (математика, системный анализ);
  • как сообщения, полученные системой от внешнего мира в процессе адаптивного управления, приспособления (теория управления, кибернетика);
  • как отрицание энтропии, отражение меры хаоса в системе (термодинамика);
  • как связи и отношения, устраняющие неопределённость в системе (теория информации);
  • как вероятность выбора в системе (теория вероятностей);
  • как отражение и передача разнообразия в системе (физиология, биокибернетика);
  • как отражение материи, атрибут сознания, “интеллектуальности” системы (философия).

Мы будем рассматривать системное понимание этой категории, ничуть не отрицая приведенные выше понятия и, более того, используя их по мере надобности.

Информация - это некоторая последовательность сведений, знаний, которые актуализируемы (получаемы, передаваемы, преобразуемы, сжимаемы и/или регистрируемы) с помощью некоторых знаков (символьного, образного, жестового, звукового, сенсомоторного типа).

Информация с мировоззренческой точки зрения - отражение реального мира. Информация - приращение знания, развитие знаний, актуализация знаний, возникающее в процессе целеполагающей интеллектуальной деятельности человека. Никакая информация, никакое знание не появляется сразу: появлению их предшествует этап накопления, осмысления, систематизации опытных данных, мнений, взглядов, их осмысление и переосмысление. Знание - продукт этого этапа и такого процесса.

Информация по отношению к окружающей среде (или к использующей ее среде) бывает трех типов: входная, выходная и внутренняя.

Входная информация - информация, которую система воспринимает от окружающей среды. Такого рода информация называется входной информацией (по отношению к системе).

Выходная информация (по отношению к окружающей среде) - информация, которую система выдает в окружающую среду.

Внутренняя, внутрисистемная информация (по отношению к данной системе) - информация, которая хранится, перерабатывается, используется только внутри системы т.е. актуализируемая лишь только подсистемами системы.

Пример. Человек воспринимает, обрабатывает входную информацию, например, данные о погоде на улице, формирует выходную реакцию - ту или иную форму одежды. При этом используется внутренняя информация, например, это генетически заложенная или приобретённая физиологическая информация о реакции, например, о "морозостойкости" человека.

Внутренние состояния системы и структура системы влияют определяющим образом на взаимоотношения системы с окружающей средой - внутрисистемная информация влияет на входную и выходную, а также на изменение самой внутрисистемной информации.

Пример. Информация о финансовой устойчивости банка может влиять на её деятельность на рынке. Накапливаемая (внутрисистемно) социально- экономически негативная (позитивная) информация (проявляемая, например, социальной активностью в среде) может влиять на развитие системы.

Пример. Генетически заложенная в молекулах ДНК информация и приобретённая информация (в памяти) влияют на поведение, на адаптацию человека в окружающей среде. В машинах первого поколения внутренняя структура определялась тысячами ламп, причем каждая из них отдельно была невысокой надежности, т.е. вся система была ненадежной в работе. Это влияло на входную информацию, например, такие ЭВМ не были способны на работу в многозадачном режиме, в режиме реального времени (обработки сообщений по мере получения входных данных).

В живой и неживой природе информация может также передаваться структурой этой информации. Такую информацию называют структурной информацией.

Пример. Структурные кольца среза дерева несут информацию о возрасте дерева. Структура питания хищника (или трофическая структура) несет информацию о хищнике, о среде его обитания. Структура плавников рыбы часто несет информацию о глубине среды её обитания.

Информация по отношению к конечному результату проблемы бывает:

  • исходная (на стадии начала использования, актуализации этой информации);
  • промежуточная (на стадии от начала до завершения актуализации информации);
  • результирующая (после использования этой информации, завершения её актуализации).

Пример. При решении системы линейных алгебраических уравнений информация от методах решения, среде реализации, входных данных (источники, точность и т.д.), размерности системы и т.д. является исходной информацией; информация о совместности системы уравнений, численных значениях корня и т.д. - результирующая; информация о текущих состояниях коэффициентов уравнений, например, при реализации схемы Гаусса - промежуточная.

Информация по изменчивости при её актуализации бывает:

  • постоянная (не изменяемая никогда при её актуализации);
  • переменная (изменяемая при актуализации);
  • смешанная - условно - постоянная (или условно-переменная).

Пример. В известной физической задаче определения дальности полёта снаряда артиллерийского орудия, информация об угле наклона орудия может быть переменной, информация о начальной скорости вылета снаряда - постоянной, а информация о координатах цели (точности прицеливания) - условно-постоянной.

Возможна также классификация информации и по другим признакам:

  • по стадии использования (первичная, вторичная);
  • по полноте (избыточная, достаточная, недостаточная);
  • по отношению к цели системы (синтаксическая, семантическая, прагматическая);
  • по отношению к элементам системы (статическая, динамическая);
  • по отношению к структуре системы (структурная, относительная);
  • по отношению к управлению системой (управляющая, советующая, преобразующая, смешанная);
  • по отношению к территории, территориально (федеральная, региональная, местная, относящая к юридическому лицу, относящаяся к физическому лицу, смешанная);
  • по доступу (открытая или общедоступная, закрытая или конфиденциальная, смешанная);
  • по предметной области, по характеру использования (статистическая, коммерческая, нормативная, справочная, научная, учебная, методическая и т.д., смешанная) и другие.

Информация в философском аспекте бывает:

  • мировоззренческая;
  • эстетическая;
  • религиозная;
  • научная;
  • бытовая;
  • техническая;
  • экономическая;
  • технологическая.

Все это (вместе с человеком) составляет ноосферу общества - более высокое состояние биосферы, возникшее в результате эволюции, структурирования, упорядочивания (как статического, так и динамического) и гармонизации связей в природе и обществе под воздействием целеполагающей деятельности человечества.

Это понятие было введено впервые В.И.Вернадским в качестве отображения концепции этапа эволюции общества и природы т.е. системы, в рамках которой потенциально может быть реализовано гармоническое, устойчивое развитие (эволюция) систем “Общество” и “Природа”, а также постепенное слияние, гармонизация наук о природе и об обществе.

Основные свойства информации (и сообщений):

  • полнота (содержит всё необходимое для понимания информации);
  • актуальность (необходимость) и значимость (сведений);
  • ясность (выразительность сообщений на языке интерпретатора);
  • адекватность, точность, корректность интерпретации, приема и передачи;
  • интерпретируемость и понятность интерпретатору информации;
  • достоверность отображаемых сообщениями;
  • избирательность;
  • конфиденциальность и адресованность;
  • информативность и значимость отображаемых сообщениями;
  • массовость (применимость ко всем проявлениям);
  • кодируемость и экономичность (кодирования, актуализации сообщений);
  • сжимаемость и компактность;
  • защищённость и помехоустойчивость;
  • доступность (интерпретатору);
  • ценность (предполагает достаточный уровень потребителя).

Пример. Рекламный щит - простой красочный кусок дерева (железа), но информация заложенная в сообщениях на этом щите должна обладать всеми вышеперечисленными свойствами и только тогда этот щит будет ассоциироваться у интерпретатора (человека) с рекламируемым товаром (услугами) и актуализировать информацию. При этом вся форма представления рекламы (сообщения на щите) должна строиться с учетом понятности интерпретатору, быть информативной. Пока символы не организованы определенным образом, не используются для определённой цели, они не отражают информацию.

Информация может оказаться и вредной, влияющей негативно на сознание, например, воспитывающей восприятие мира от безразличного или же некритического - до негативного, "обозлённого", неадекватного. Информационный поток - достаточно сильный раздражитель.

Пример. Негативной информацией может быть информация о крахе коммерческого банка, о резком росте (спаде) валютного курса, об изменении налоговой политики и др.

Информация в системах может актуализироваться в следующих режимах:

  • последовательном - каждое сообщение этой информации может обрабатываться только после обработки предыдущего сообщения для этой информации;
  • параллельном - все сообщения обрабатываются одновременно;
  • последовательно - параллельном (смешанном) - какие-то сообщения могут обрабатываться в другом режиме (последовательном или же параллельном).

Информация не существует без других типов ресурсов - энергии, вещества, организации, как и они не могут существовать без информации. Любые взаимодействия систем (подсистем) - взаимодействия всегда материально-энергетически-информационные. Выявление (систематизация, структурирование), описание (формализация), изучение, применение инвариантов этих взаимодействий и составляет основную задачу науки, как человеческой деятельности.



3.2. Методы получения, использования информации
и системного анализа

Методы получения и использования информации можно разделить на три группы, иногда условно разграничиваемые.

  1. Эмпирические методы или методы получения эмпирической информации (эмпирических данных).
  2. Теоретические методы или методы получения теоретической информации (построения теорий).
  3. Эмпирико - теоретические методы (смешанные, полуэмпирические) или методы получения эмпирико-теоретической информации.

Охарактеризуем кратко эмпирические методы.

  1. Наблюдение - сбор первичной информации или эмпирических утверждений о системе (в системе).
  2. Сравнение - установление общего и различного в исследуемой системе или системах.
  3. Измерение - нахождение, формулирование эмпирических законов, фактов.
  4. Эксперимент - целенаправленное преобразование исследуемой системы (систем) для выявления ее (их) свойств.

Кроме классических форм их реализации в последнее время используются и такие формы как опрос, интервью, тестирование и другие формы.

Охарактеризуем кратко эмпирико - теоретические методы.

  1. Абстрагирование - установление общих свойств и сторон объекта (или объектов), замещение объекта или системы ее моделью. Абстракция в информатике и в математике играет важнейшую роль, понимается в двух следующих смыслах:

    а) абстракция, абстрагирование - метод исследования (изучения) некоторых явлений, объектов, в результате которого можно выделить основные, наиболее важные для исследования свойства, стороны исследуемого объекта или явления и игнорировать несущественные и второстепенные;
    б) абстракция - как описание или представление объекта (явления), полученного с помощью метода абстрагирования; особо важно и используемо в информатике такое понятие, как абстракция потенциальной осуществимости, которое позволяет нам исследовать конструктивно объекты, системы с потенциальной осуществимостью т.е. они могли бы быть осуществимы, если бы не было ограничений по ресурсам (время, пространство, вещество, энергия, информация, организация, человек); используются и абстракция актуальной бесконечности - существования бесконечных, неконструктивных множеств и систем, процессов, а также абстракция отождествления - возможности отождествления любых двух одинаковых букв, символов любого алфавита, объектов - независимо от места их появления в словах, конструкциях, хотя их информационная ценность при этом может быть различна.
  2. Анализ - разъединение системы на подсистемы с целью выявления их взаимосвязей.
  3. Синтез - соединение подсистем в систему с целью выявления их взаимосвязей.
  4. Индукция - получение знания о системе по знаниям о подсистемах; индуктивное мышление - распознавание эффективных решений, ситуаций и затем проблем, которые оно может разрешать.
  5. Дедукция - получение знания о подсистемах по знаниям о системе; дедуктивное мышление - определение проблемы и поиск затем ситуации его разрешающей.
  6. Эвристики, использование эвристических процедур - получение знания о системе по знаниям о подсистемах и наблюдениям, опыту.
  7. Моделирование и/или использование приборов - получение знания об объекте с помощью модели и/или приборов; моделирование основано на возможности выделять, описывать и изучать наиболее важные факторы и игнорировать при формальном рассмотрении второстепенные.
  8. Исторический метод - нахождение знаний о системе путем использования его предыстории - реально существовавшей или же мыслимой, возможной (виртуальной).
  9. Логический метод - метод нахождения знаний о системе путём воспроизведения его некоторых подсистем, связей или элементов в мышлении, в сознании.
  10. Макетирование - получение информации по макету объекта или системы, т.е. с помощью представления структурных, функциональных, организационных и технологических подсистем в упрощенном виде, сохраняющем информацию, необходимую для понимания взаимодействия и связей этих подсистем.
  11. Актуализация - получение информации с помощью активизации, инициализации ее, т.е. переводом из статического (неактуального) состояния в динамическое (актуальное) состояние; при этом все необходимые связи и отношения (открытой) системы с внешней средой должны быть учтены (именно они актуализируют систему).
  12. Визуализация - получение информации с помощью наглядного или визуального представления состояний актуализированной системы; визуализация предполагает возможность выполнения в системе операции типа “передвинуть”, “повернуть”, “укрупнить”, “уменьшить”, “удалить”, “добавить” и т.д. (как по отношению к отдельным элементам, так и к подсистемам системы), т.е. - это метод визуального восприятия информации.

Кроме указанных классических форм реализации теоретико- эмпирических методов в последнее время часто используются и такие формы как мониторинг (система наблюдений и анализа состояний системы), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание) и другие формы.

Охарактеризуем кратко теоретические методы.

  1. Восхождение от абстрактного к конкретному - получение знаний о системе на основе знаний о его абстрактных проявлениях в сознании, в мышлении.
  2. Идеализация - получение знаний о системе или о ее подсистемах путём мысленного конструирования, представления в мышлении систем и/или подсистем, не существующих в действительности.
  3. Формализация - получение знаний о системе с помощью знаков или же формул, т.е. зыков искусственного происхождения, например, языка математики (или математическое, формальное описание, представление).
  4. Аксиоматизация - получение знаний о системе или процессе с помощью некоторых, специально для этого сформулированных аксиом и правил вывода из этой системы аксиом, т.е. правил получения выводов, знаний из аксиом.
  5. Виртуализация - получение знаний о системе созданием особой среды, обстановки, ситуации (в которую помещается исследуемая система и/или ее исследующий субъект), которую реально, без этой среды невозможно реализовать и получить соответствующие знания.

Эти методы получения информации применяются системно.

Пример. Для построения модели планирования и управления производством в рамках страны, региона, отрасли необходимо решить следующие проблемы:

  1. определить структурные связи системы (как вертикальные, так и горизонтальные), уровни управления и принятия решений, ресурсы; при этом чаще используются методы наблюдения, сравнения, измерения, эксперимента, анализа и синтеза, дедукции и индукции, эвристический, исторический и логический, макетирование и др.;
  2. определить гипотезы, цели, возможные проблемы планирования; наиболее используемые при этом методы: наблюдение, сравнение, эксперимент, абстрагирование, анализ, синтез, дедукция, индукция, эвристический, исторический, логический и др.;
  3. конструирование эмпирических моделей системы; наиболее при этом используемые методы: абстрагирование, анализ, синтез, индукция, дедукция, формализация, идеализация и др.;
  4. поиск решения проблемы планирования и просчет различных вариантов, директив планирования, поиск оптимального решения; используемые чаще методы: измерение, сравнение, эксперимент, анализ, синтез, индукция, дедукция, актуализация, макетирование, визуализация, виртуализация и др.


Рис. Структура познания системы

Информация, таким образом, может быть рассмотрена как кортеж А=<Х, Y, f>, где носитель X - сведения, знания о предметной области, множество Y - сообщения, отражающие эти сведения, отношение f - отношение кодирования между элементами X, Y т.е. их актуализации.

Пример. Пусть X={супруги, дети супругов}, Y={“Иванов Петр Сидорович”, “Иванова Ольга Николаевна”, “Иванов Олег Петрович”, “Иванова Наталья Петровна”, “мать”, “отец”, “сын”, “дочь”, “родители”, “дети”}, отношение f может быть задано (словесно) перечислением связей вида: “Иванов Олег Петрович - супруг Ивановой Ольги Николаевны”, “Иванова Наталья Петровна - дочь Ивановой Ольги Николаевны” и т.д.

Пример. Пусть X={арифметические операции}, Y={“-(взятие противоположного числа)”, “+ (сложение)”, “— (вычитание)”, “x (умножение)”, “/ (деление)”, “Ц (извлечение квадратного корня)”}, f определим как установление соответствия “унарная операция”.

Таким образом, основная задача науки состоит в построении, исследовании, актуализации или хранении множеств с заданным классом X однотипных задач, Y - классом структур и ресурсов связываемых с этими задачами и f - процессами их сопоставления и актуализации с помощью некоторых ресурсов.

Такие задачи мы решаем в ежедневной жизни, но в то же время часто правило f нельзя явно отыскать или построить явно или конструктивно. В этом случае приходится заменять искомый закон f с помощью подходящих явных или конструктивных представлений f, X, Y и/или Z (см. рис.) и применять эти представления всякий раз.


Рис. Инвариант всех решаемых проблем информатики.

Правило j задает правило кодирования или интерпретации входного алфавита, правило y - правило декодирования или интерпретации выходного алфавита, т.е. входной и выходной коды (правила, функции). При этом справедливы законы:


Правило f* подбирают так, чтобы в отличие от f, его можно было бы найти и/или исследовать, применить. Для каждого сообщения хÎХ определена триада:


Информация - содержание сообщения, сообщение - форма проявления или актуализации информации. Информация всегда имеет носитель, передача (актуализация) информации связана с изменением носителя, ресурсов.

Пример. Сведения о сути товара могут быть изложены в рекламе, передаваемой различными сообщениями (по телевидению, по радио, в газете и т.д.). При этом соответствие этой рекламы действительности может быть независима от типа сообщений, т.е. имеется третья сторона информации (кроме её абстрактной сущности, её представления сообщениями) - соответствие сведений заложенных в информации с проявлениями реальной системы.



3.3. Количество информации в системе

Выше было отмечено, что информация может пониматься и интерпретироваться по разному. Вследствие этого имеются различные подходы к определению измерения информации, меры количества информации. Раздел информатики (теории информации) изучающий методы измерения информации называется информметрией.

Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определённости, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки такого выбора, исхода. Такой оценкой может стать мера информации (или события). Мера - это некоторая непрерывная действительная неотрицательная функция, определённая на множестве событий и являющаяся аддитивной т.е. мера конечного объединения событий (множеств) равна сумме мер каждого события.

Меры могут быть статические и динамические - в зависимости от того, какую информация они позволяют оценивать - статическую (не актуализированную т.е. на самом деле оцениваются представляющие информацию сообщения без учёта ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

Отметим, что ниже мы не всегда будем (в основном, для большей убедительности и большего содержательного понимания) проводить четкие математические границы между понятиями ''количество информации'' и “мера количества информации'', но строгому читателю необходимо всё время задавать достаточно важные вопросы типа: о количестве информации или о мере информации в конкретной последовательности событий идёт речь? о детерминированной или стохастической информации идёт речь?

Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определённой длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно или мера разнообразия множества состояний системы задаётся формулой Р. Хартли:

где k - коэффициент пропорциональности (масштабирования, в зависимости от выбранной, рассматриваемой единицы измерения меры), а - основание рассматриваемой системы.

Пример. Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос ("Левая или правая клетка?"). Узнав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log22). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=log24). Если система имеет n различных состояний, то максимальное количество информации равно I=log2n.

Если измерение ведётся в экспоненциальной (натуральной) системе, то

если измерение ведётся в двоичной системе, то

если измерение ведётся в десятичной системе, то

Справедливо утверждение Хартли: если во множестве X={x1, x2, ..., xn} выделить произвольный элемент xiÎX, то для того, чтобы найти его, необходимо получить не менее logan (единиц) информации.

По Хартли, чтобы мера информации имела практическую ценность - она должна быть такова, чтобы информация была пропорциональна числу выборов.

Пример. Имеются 192 монеты из которых одна фальшивая. Определим сколько взвешиваний нужно произвести, чтобы определить ее. Если положить на весы равное количество монет, то получим 2 возможности: а) левая чашка ниже; б) правая чашка ниже. Таким образом, каждое взвешивание дает количество информации I=log22=1 и, следовательно, для определения этой фальшивой монеты нужно сделать не менее k взвешиваний, где k удовлетворяет условию log22k³log2192. Отсюда, k³7. Следовательно, необходимо (достаточно) сделать не менее 7 взвешиваний.

Эта формула отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации, содержащейся в системе, в проявлениях системы с помощью рассматриваемых состояний системы). Это положительная сторона этой формулы. Но имеется и отрицательная сторона: формула не учитывает различимость и различность рассматриваемых N состояний системы.

Уменьшение (увеличение) Н может свидетельствовать об уменьшении (увеличении) разнообразия состояний N системы. Обратное, как это следует из формулы Хартли (основание логарифма берётся больше 1!), - также верно.

Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла:

где n - число состояний системы; рi - вероятность (или относительная частота) перехода системы в i-ое состояние, причем

Если все состояния равновероятны (т.е. рi=1/n), то I=log2n (как и ожидалось).

К. Шенноном доказана теорема о единственности меры количества информации). Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли.

Формулы Хартли и Шеннона подтверждается и данными нейропсихологии.

Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. (См. также сказанное выше о числе Страуда).

Пример. Один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, которую он должен указать. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I определяемой по формуле Шеннона, где pi - вероятность зажечь лампочку номер i.

Легко видеть, что в общем случае:

Если выбор i-го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0.

Сообщение о наступлении события с меньшей вероятностью несёт в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несёт в себе нулевую информацию (и это вполне ясно, - событие всё равно произойдёт когда-либо).

Пример. Если положение точки в системе известно, в частности, она - в k-ой клетке, т.е. все рi=0, кроме рk=1, то тогда I=log21=0 и мы здесь новой информации не получаем.

Пример. Выясним, сколько бит информации несет каждое двузначное число xx со всеми значащими цифрами (отвлекаясь при этом от его конкретного числового значения). Так как таких чисел может быть всего 90 (10 - 99), то информации будет количество I=log290 или приблизительно I=6.5. Так как в таких числах значащая первая цифра имеет 9 значений (1 - 9), а вторая - 10 значений (0 - 9), то I=log290 = log29 + log210. Приблизительное значение log210 равно 3.32. Отсюда можно сделать вывод о том, что сообщение в одну десятичную единицу несет в себе в 3.32 больше информации, чем в одну двоичную единицу (чем log22=1). Вторая цифра в любом двузначном числе несёт в себе больше информации, чем первая, например, в числе 22 вторая цифра 2 несёт в себе больше информации, чем первая, если заранее эти цифры не были известны (если же цифры, т.е. конкретное число 22 было задано, то количество информации равно 0 (почему?).

Если в формуле Шеннона обозначить fi = - n log2pi, то получим

т.е. I можно понимать как среднеарифметическое величин fi.

Отсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом I и величиной pi вероятности появления этого символа в сообщении, передающем информацию. Если k - коэффициент Больцмана, известный в физике как k=1.38x10-16 эрг/град, то выражение

в термодинамике известно как энтропия или мера хаоса, беспорядка в системе. Сравнивая выражения для I и S видим, что I можно понимать как информационную энтропию или энтропию из-за нехватки информации в системе (или о системе).

Нулевой энтропии соответствует максимальная информация.

Основное соотношение между энтропией и информацией:

или в дифференциальной форме -

Итак, если имеется система S и каждое I-ое состояние S из N возможных состояний определяется некоторым информационным вектором или же сообщением xi, i=1,2,...,N над некоторым заданным алфавитом A, система может перейти в каждое i-ое состояние с вероятностью pi, i=1,2,...,N, то pi можно понимать как вероятность i-го сообщения (сообщения, характеризующего усреднённое i-ое состояние системы).

Основными положительными сторонами этой формулы является её отвлечённость от семантических и качественных, индивидуальных свойств системы, а также то, что в отличие от формулы Хартли она учитывает различность состояний, их разновероятность или же формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной для практических вычислений. Основные отрицательные стороны формулы Шеннона: она не различает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замкнутых систем, отвлекаясь от смысла информации.

Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности, порядка) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=Smax) и полной информационной неопределённости (I=Imin) до полного порядка (S=Smin) и полной информационной определённости (I=Imax) в системе.

Пример. Чем ближе движущийся объект к нам, тем полнее информация обрабатываемая нашими органами чувств, тем чётче и структурирован (упорядочен) объект. Чем больше информации мы имеем о компьютерной технике, тем меньше психологический барьер перед ним (согласно основному соотношению между энтропией и информацией).

Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о её внутренней структуре (не восполняемым принципиально, а не нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.

Пусть дана термодинамическая система (процесс) S, а Н0, Н1 - термодинамические энтропии системы S в начальном (равновесном) и конечном состояниях термодинамического процесса, соответственно. Тогда термодинамическая мера информации (негэнтропия) определяется формулой:

Эта формула универсальна для любых термодинамических систем.

Уменьшение Н(Н01) свидетельствует о приближении термодинамической системы S к состоянии статического равновесия (при данных доступных ей ресурсах), а увеличение - об удалении.

Поставим некоторый вопрос о состоянии некоторой термодинамической системы. Пусть до начала процесса можно дать p1 равновероятных ответов на этот вопрос (ни один из которых не является предпочтительным другому), а после окончания процесса - p2 ответов. Изменение информации при этом:

Если p1p2 (DI> 0) - прирост информации, т.е. сведения о системе стали более определёнными, а при p1p2 (DI>0) - менее определёнными. При этом важно то, что мы не использовали явно структуру системы (механизм протекания процесса), т.е. это универсальный вывод.

Пример. Предположим, что имеется термодинамическая система - газ в объёме V, который расширяется до объёма 2V (рис.).

Рис. Газ объема V (a) расширяемый до 2V (б)

Нас интересует вопрос о координате молекулы m газа. В начале (а) мы знали ответ на вопрос и поэтому p1=1 (ln p1=0). Число ответов было пропорционально ln V. После поднятия заслонки мы уже знаем эту координату (микросостояния), т.е. изменение (убыль) информации о состоянии системы будет равно

Это известное в термодинамике выражение для прироста энтропии в расчёте на одну молекулу и оно подтверждает второе начало термодинамики. Энтропия - мера недостатка информации о микросостоянии статической системы.

Величина DI может быть интерпретирована как количество информации, необходимой для перехода от одного уровня организации системы к другой (при DI>0 - более высокой, а при DI>0 - более низкой организации).

Термодинамическая мера (энтропия) применимо к системам, находящимся в тепловом равновесии. Для систем, далёких от теплового равновесия, например, живых биологических систем, мера-энтропия - менее подходящая.

В биологических науках широко используются так называемые индексные меры, меры видового разнообразия. Индекс - мера состояния основных биологических, физико-химических и др. компонент системы, позволяющая оценить силу их воздействия на систему, состояние и эволюцию системы. Индексы должны быть уместными, общими, интерпретируемыми, чувствительными, минимально достаточными, качественными, широко применяемыми, рациональными.

Пример. Показателем видового разнообразия в лесу может служить

где p1, p2,...,pn - частоты видов сообщества обитающих в лесу, n - число видов.

Энергоинформационная (квантово-механическая) мера. Энергия (ресурс) и информация (структура) - две фундаментальные характеристики систем реального мира, связывающие их вещественные, пространственные, временные характеристики. Если А - именованное множество, где носитель - "энергетического происхождения", а В - именованное множество, где носитель "информационного происхождения", то можно определить энергоинформационную меру f:A®B, например, можно принять отношение именования для именованного множества с носителем (множеством имён) А или В. Отношение именования должно отражать механизм взаимосвязей физико-информационных и вещественно-энергетических структур и процессов в системе.

Отметим, что сейчас актуальнее говорить о биоэнергоинформационных мерах, отражающих механизм взаимосвязей биофизикоинформационных и вещественно-энергетических структур и процессов в системе.

Пример. Процесс деления клеток сопровождается излучением квантов энергии с частотами приблизительно до N=1.5x1015 Гц. Этот спектр можно воспринимать как спектр функционирования словарного запаса клетки как биоинформационной системы. С помощью этого спектра можно закодировать до 1015 различных биохимических реакций, что примерно в 107 раз меньше количества реакций реально протекающих в клетке (их количество - примерно 108), т.е. словарный запас клетки избыточен для эффективного распознавания, классификации, регулировании этих реакций в клетке. Количество информации на 1 квант энергии: I=log21015»50 бит. При делении клеток, количество энергии, расходуемой на передачу 50 бит информации равна энергии кванта (h - постоянная Планка, n - частота излучения):

При этом, на 1 Вт мощности "передатчика" или на m=107 эрг/сек. может быть передано количество квантов:

Общая скорость передачи информации на 1 Вт затрачиваемой клеткой мощности определяется по числу различных состояний клетки N и числу квантов (излучений) m:



3.4. Информация и управление.
Информационные системы

Информация - это знание, но не все знание, которым располагает человечество, а только та часть, которая используется для развития, совершенствования системы, для взаимосвязей, взаимодействий подсистем системы, а также системы в целом с окружающими условиями, средой.

Информация развивается вслед за развитием системы. Новые формы, принципы, подсистемы, взаимосвязи и отношения вызывают изменения в информации, ее содержании, формах получения, переработки, передачи и использования. Благодаря потокам информации (от системы к окружающей среде и наоборот) система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или управляема. Информация стала средством не только производства, но и управления.

Своевременная и оперативная информация может позволить стабилизировать систему, приспосабливаться и/или адаптироваться, восстанавливаться при нарушениях структуры и/или подсистем. От степени информированности системы, от богатства опыта взаимодействия системы и окружающей среды зависит развитие и устойчивость системы.

Информация обладает также определенной избыточностью: чем больше сообщений о системе, тем полнее и точнее управляется система.

Пример. При передаче сообщений часто применяют способ двукратной (избыточной) последовательной передачи каждого символа (что позволяет избавляться от помех, “шумов” при передаче и осуществлять контроль чётности). Пусть в результате сбоя при передаче приемником принято было слово вида “прраосснтоо”. Определим, какое осмысленное (имеющее семантический смысл) слово русского языка передавалось передатчиком. Легко заметить, что “претендентами на слово” являются слова “праспо”, “проспо”, “рроспо”, “ррасто”, “прасто”, “рросто”, “просто” и “рраспо”. Из всех этих слов осмысленным является только слово “просто”.

Суть задачи управления системой - отделение ценной информации от “шумов” (бесполезного, иногда даже вредного для системы, возмущения информации) и выделение информации, которая позволяет этой системе существовать и развиваться.

Управление любой системой (в любой системе) должно подкрепляться необходимыми для этого ресурсами - материальными, энергетическими, информационными, людскими и организационными (административного, экономического, правового, гуманитарного, социально - психологического типа). При этом характер и степень активизации этих ресурсов может повлиять (иногда - лишь косвенно) и на систему, в которой информация используется. Более того, сама информация может быть зависима от системы.

Пример. В средствах массовой информации правительство чаще ругают, актеров чаще хвалят, спортсменов упоминают чаще в связи с теми или иными спортивными результатами, прогноз погоды бывает чаще кратким, новости политики - официальными.

Управление - непрерывный процесс, который не может быть прекращён, ибо движение, поток информации не прекращается.

Цикл (инвариант) управления любой системой (в любой системе):

Основные правила организации информации для управления системой:

  • выяснение формы и структуры исходной (входной) информации;
  • выяснение средств, форм передачи и источников информации;
  • выяснение формы и структуры выходной информации;
  • выяснение надежности информации и контроль достоверности;
  • выяснение форм использования информации для принятия решений.

Пример. При управлении полётом ракеты наземная станция управления генерирует и в определённой форме, определёнными структурами посылает входную информацию в бортовую ЭВМ ракеты; при этом сигналы отсеиваются от возможных “шумов”, осуществляется контроль входной информации на достоверность и только затем бортовая ЭВМ принимает решение об уточнении траектории и ее корректировке.

Ценность информации для управления определяется мерой раскрываемой им неопределенности в системе, содержанием передающих её сообщений.

Информация используется для управления, но и сама подвержена управляющим воздействиям. Основная цель этих воздействий - поддержка информационных потоков, магистралей, способствующих достижению поставленных целей при ограниченных ресурсах (материальных, энергетических, информационных, организационных, пространственных, временных).

Информационная система - система поддержки и автоматизации интеллектуальных работ - поиска, администрирования, экспертиз и экспертных оценок или суждений, принятия решений, управления, распознавания, накопления знаний, обучения.

Информационная среда - система взаимодействующих информационных систем, включая и информацию, актуализируемую в этих системах.

Пример. Можно выделить три основных подхода к использованию информационного менеджмента в социально-экономических системах.

  1. “Отношений с общественностью” (public relations) при котором разрабатывается и используется системы управления социально- экономической информации с целью создания более адекватной и благоприятной среды (включая и все виды ресурсов), общественного сознания для реализации интересов государства, монополии и человека, согласования их, подчас противоречивых, интересов. Широко используется при этом методы опроса населения, изучения общественного мнения, рекламирования, прогнозирования и моделирования (особенно, для повышения устойчивости и регулируемости систем).
  2. “Объединения достижений НТР и человека” при котором разрабатываются и реализуются системы массового обучения достижениям НТР, новым информационным технологиям, делопроизводству и т.д. с целью адаптации человека к системам с возросшими техническими и технологическими возможностями, требованиями к качеству продукции и соотношению “качество - цена”.
  3. “Организационного гуманизма”, при котором разрабатываются и реализуются системы помещения трудящихся в стимулирующие его работу культурно-образовательные, социально-психологические, гуманистические и материальные среды с целью раскрытия его потенциальных возможностей и способностей.

Пример. Технологический и социально-экономический отрыв стран Запада и СНГ определяется, в первую очередь, не отсутствием у нас квалифицированных рабочих, хорошей образовательной системы, ресурсов, а отсутствием адекватной им системы информационного и экономического управления, его регулирования, а не саморегулирования (самоорганизации), недостаточным вниманием к третьему подходу к информационному менеджменту. Реформы должны происходить не для обогащения небольшой группы населения, а для благосостояния трудящейся массы, обеспечения его творческого и плодотворного труда. Это особенно важно и в то же время трудно обеспечиваемо в условиях экономических реформ.

Информационная система управления - система предназначенная для управления как системой, так и в системе.

По характеру управления, охвата подсистем и подцелей (цели системы) управление может быть:

  • стратегическое, направленное на разработку, корректировку стратегии поведения системы;
  • тактическое, направленное на разработку, корректировку тактики поведения системы. По времени управляющего воздействия системы могут быть:
  • долгосрочно управляемые;
  • краткосрочно управляемые.

Иногда отождествляют стратегическое и долгосрочное, тактическое и краткосрочное управление, но это не всегда верно.

Пример. Любая серьёзная экономическая система стратегического управления должна включать в себя управляющую (информационную) подсистему, обрабатывающую и актуализирующую стратегическую информацию об инновационных мероприятиях, о состоянии рынков товаров, услуг и ценных бумаг, о ресурсном обеспечении, о финансовых условиях и критериях, о принципах и методах управления и др.

Различают также основные 6 типов информационных систем управления (тип определяется целью, ресурсами, характером использования и предметной областью):

  1. Диалоговая система обработки запросов (Transaction Processing System) - для реализации текущих, краткосрочных, тактического характера, часто рутинных и жестко структурируемых и формализуемых процедур, например, обработка накладных, ведомостей, бухгалтерских счётов, складских документов и т.д.
  2. Система информационного обеспечения (Information Provision System) - для подготовки информационных сообщений краткосрочного (обычно) использования тактического или стратегического характера, например, с использованием данных из базы данных и структурированных, формализованных процедур.
  3. Система поддержки принятия решений (Decision Support System) - для анализа (моделирования) реальной формализуемой ситуации, в которой менеджер должен принять некоторое решение, возможно, просчитав различные варианты потенциального поведения системы (варьируя параметры системы); такие системы используются как в краткосрочном, так и в долгосрочном управлении тактического или стратегического характера в автоматизированном режиме.
  4. Интегрированная, программируемая система принятия решения (Programmed Decision System), предназначена для автоматического, в соответствии с программно реализованными в системе структурированными и формализованными критериями оценки и отбора (выбора) решений; используются как в краткосрочном, так и в долгосрочном управлении тактического (стратегического) характера.
  5. Экспертные системы (Expert System) - информационные консультирующие и\или принимающие решения системы, основанные на структурированных, часто плохо формализуемых процедурах, использующих опыт, интуицию т.е. поддерживающие или моделирующие работу экспертов, интеллектуальные особенности; системы используются как в долгосрочном, так и в краткосрочном оперативном прогнозировании, управлении;
  6. Интеллектуальные системы или системы, основанные на знаниях (Knowleadge Based System) - системы поддержки задач принятия решения в сложных системах, где необходимо использование знаний в достаточно широком диапазоне, особенно, в плохо формализуемых и плохо структурируемых системах, нечетких системах и при нечетких критериях принятия решения; эти системы наиболее эффективны и используемы для сведения проблем долгосрочного, стратегического управления к проблемам тактического и краткосрочного характера, повышения управляемости, особенно, в условиях многокритериальности. В отличие от экспертных систем, в системах основанных на знаниях следует чаще избегать экспертных и эвристических процедур и прибегать к когнитивным процедурам для минимизации риска. Здесь более существенно влияние профессионализма персонала, ибо при разработке таких систем необходимо сотрудничество и взаимопонимание не только разработчиков, но и пользователей, менеджеров, а сам процесс разработки, как правило, происходит итерационно, итерационными улучшениями, постепенным преобразованием (переходом) процедурных знаний (как делать) в непроцедурные, декларативные (что делать).

Фундаментальная ошибка с неустранимыми последствиями в информационных системах - принятие неправильных стратегических решений и критериев оценки решений.

При построении (выборе, адаптации) информационной системы можно использовать две основные концепции, два основных подхода (третья концепция - их комбинации):

  • ориентация на проблемы, которые необходимо решать с помощью этой информационной системы, т.е. проблемно-ориентированный подход (или индуктивный подход);
  • ориентация на технологию, которая доступна (актуализируема) в данной системе, среде, т.е. технология-ориентированный подход, (или дедуктивный подход).

Выбор концепции зависит от стратегических (тактических) и\или долгосрочных (краткосрочных) критериев, проблем, ресурсов.

Если вначале изучаются возможности имеющейся технологии, а после их выяснения определяются актуальные проблемы, которые можно решить с их помощью, то необходимо опираться на технология-ориентированный подход.

Если же вначале определяются актуальные проблемы, а затем внедряется технология(ии) достаточная(ые) для решения этих проблем, то необходимо опираться на проблемно-ориентированный подход.

Ошибки в выборе подхода (проблем, технологии) могут привести не только к ошибочным стратегиям и/или тактике, но и к полному краху.

При этом обе концепции построения информационной системы зависят друг от друга: внедрение новых технологии изменяют решаемые проблемы, а изменение решаемых проблем - приводит к необходимости внедрения новых технологий; и то и другое влияют на принимаемые решения.

Дороговизна, важность, актуальность информации определяют цели и важность (приоритеты) в управлении информационными системами (в информационных системах).

Системное проектирование (разработка) информационной системы должно пройти следующий жизненный цикл:

  1. предпроектный анализ (опыта создания других аналогичных систем, прототипов, отличия и особенности разрабатываемой системы и др.); это анализ внешних проявлений системы;
  2. внутрисистемный анализ, внутренний анализ (анализ подсистем системы);
  3. системное (морфологическое) описание (представление) системы (описание системной цели, системных отношений и связей с окружающей средой, другими системами и системных ресурсов - материальных, энергетических, информационных, организационных, людских, пространственных и временных);
  4. определение критериев адекватности, эффективности и устойчивости (надёжности);
  5. функциональное описание подсистем системы (описание моделей, алгоритмов функционирования подсистем);
  6. макетирование системы, оценка взаимодействия подсистем системы (разработка макетов - реализации подсистем с упрощёнными функциональными описаниями, процедурами и апробация взаимодействия этих макетов с целью удовлетворения системной цели), при этом возможно использование “макетов” критериев адекватности, устойчивости, эффективности;
  7. “сборка” и тестирование системы - реализация полноценных функциональных подсистем и критериев, оценка модели по сформулированным критериям;
  8. определение целей, дальнейшего развития системы, приложений системы.

Эти этапы - основы информационного реинжиниринга систем.

При разработке целей, определении ресурсов необходимо тесное взаимодействие управляющего, проектирующего, разрабатывающего и пользовательского звена системы. Здесь недопустимы ложные критерии конфиденциальности и защиты информации, всегда влияющие негативно на стратегическое и долгосрочное планирование и прогнозирование, а также непрофессионализм принятия решений в каждом звене.

Главным лозунгом разработки информационных систем должен быть лозунг: “Разработка информационной системы не для внедрения (или использования) информационной системы, а для обеспечения эффективного управления, функционирования, планирования и прогнозирования, эволюции системы”.

Сформулируем основные аксиомы управления информационными системами.

Аксиома 1
Количество информации в любой подсистеме иерархической системы определяется произведением количеством сигналов исходящих от подсистемы нулевого уровня (исходной вершины) и достигающих данную подсистему (или входящих в данную подсистему) и энтропии этих сигналов.

Аксиома 2
Энтропия любого элемента управляющей подсистемы при переходе в новое целевое состояние (при смене цели) определяется исходным (от нулевого уровня) информационным потоком и энтропией этого элемента.

Аксиома 3
Энтропия всей управляющей подсистемы при переходе в новое целевое состояние определяется суммой (точнее интегральной оценкой) энтропии всех её элементов.

Аксиома 4
Полный информационный поток направленный на объект управления за период его перехода в новое целевое состояние равен разности энтропии всей управляющей подсистемы при переходе в новое целевое состояние и энергии объекта управления, затрачиваемой объектом управления на переход в новое состояние.

Аксиома 5
Информационная работа управляющей подсистемы по преобразованию ресурсов состоит из двух частей - работы управляющей подсистемы, затраченной на компенсацию её исходной энтропии и работы, направленной на управляемый объект, т.е. на удерживание системы в устойчивом состоянии.

Аксиома 6
Полезная работа управляющей подсистемы в течении некоторого промежутка времени должна соответствовать полному информационному потоку воздействующему на управляемую систему (в соответствии с аксиомой 4) за рассматриваемый период времени.



3.5. Информация и самоорганизация

Любая открытая информационная система эволюционирует так, что начиная с состояния наибольшей энтропии (неопределённости) стремится спиралеобразно к актуализации новых связей и отношений, к организованности и порядку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшения энтропии.

Пример. На телевизионной игре “Что? Где? Когда?” обсуждение вопроса часто начинается хаотично, спонтанно, независимо и в конце обсуждения может организоваться в единодушное принятие правильного решения.

Самоорганизация может наблюдаться и в неживых системах.

Пример. История развития ЭВМ - пример самоорганизации: от 1-го поколения ЭВМ (40-50-ые годы 19 века) с электронными лампами и быстродействием порядка 104 операций в сек. до 1-го поколения оптических ВМ (конец 90-ых годов) с голографической памятью, с логикой на потоках фотонов, нейроподобных архитектурах и быстродействием порядка 1012 операций в сек.

Пример. Человеческое общество развивается спиралевидно, циклически: циклически повторяются катастрофы, законы, неурожаи и т.п.

Любая деятельность вопреки эволюционным процессам в системе, вопреки принципам самоорганизации - вредна и противосистемна.

Пример. Любые экономические решения противоречащие основному регулятору рынка, основному механизму её организации - соотношению “спрос-предложение” приводят к вредным последствиям для системы, её самоорганизации, например, выпуск товаров в объёме, превышающем спрос на рынке может привести к снижению спроса.

Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики).

Аксиома 1
Развитие (эволюция) системы определяется некоторой целью и информационными ресурсами системы, её информационной открытостью.

Аксиома 2
При стремлении к цели система воспринимает входную информацию, которая используется и для изменения внутренней структуры самой системы, внутрисистемной информации.

Аксиома 3
Изменение внутрисистемной информации происходит таким образом, чтобы увеличивалась негэнтропия системы, уменьшалась энтропия (мера беспорядка) в системе.

Аксиома 4
Любое изменение внутренней структуры системы или внутрисистемной информации оказывает воздействие на выходную информацию системы (т.е. на окружающую среду системы); внутренняя энтропия изменяет внешнюю энтропию системы.

Пример. Сформулируем, опираясь на эти аксиомы основные законы информационных динамических процессов в социально-экономических системах. Социально-экономические процессы при этом труднее поддаются математизации, информатизации из-за сложности, плохой формализуемости и плохой структурируемости этих систем (процессов).

Закон 1
Развитие любой социально - экономической системы определяется лишь целью и социально - экономико - информационными ресурсами системы.

Закон 2
При стремлении к цели любая социально-экономическая система воспринимает входную информацию, используемую и для изменения внутренней структуры системы, изменения внутрисистемной информации.

Закон 3
Изменение внутрисистемной информации происходит таким образом, чтобы уменьшалась энтропия (мера беспорядка) в социально- экономической системе.

Закон 4
Любое изменение внутренней структуры социально- экономической системы или внутрисистемной информации оказывает воздействие на выходную информацию, на окружающую среду, а система при этом ведёт себя так, чтобы уменьшить негативное влияние этих воздействий.

Важное значение при исследовании управляемости системы, её управляющих параметров, развития системы во времени, в пространстве, по структуре имеют синергетические принципы сформулированные И. Пригожиным и его последователями, в частности следующие:

  • принцип эволюции системы, необратимости процессов её развития;
  • принцип возможного решающего воздействия (при определенном стечении обстоятельств) малых изменений поведения системы на её эволюцию;
  • принцип множественности (или многовариантности) путей развития системы и возможности выбора оптимальных из них;
  • принцип невмешательства в процессы самоуправляемого развития и непредсказуемости эволюционного поведения системы и, в то же время, - учёт возможности организовать управляющие воздействий на ресурсы и процессы в системе;
  • принцип учёта стохастичности и неопределённости процессов (поведения систем);
  • принцип взаимовоздействия усложнения организации, устойчивости и темпов развития систем;
  • принцип учёта факторов стабильности и нестабильности системы (возникновения устойчивости из неустойчивого поведения), порядка и хаоса в системе (возникновения порядка из хаоса), определенности и неопределенности;
  • принцип взаимовлияния устойчивости среды отдельной подсистемы или элемента (микросреды) и процессов во всей системе (макросреды).

Наблюдаемая математизация и информатизация современной науки убедительно показывает, что их эффективность зависит как от данной науки, сложности и возможности описания её законов и принципов адекватными математическими и информационными моделями, так и от используемого математического аппарата.



3.6. Базовые (основные) новые информационные
технологии исследования и актуализации систем

Новые информационные технологии, наиболее часто используемые системах различного типа и назначения:

  • математическое и компьютерное моделирование;
  • базы данных и знаний;
  • экспертные и интеллектуальные системы;
  • средства, технологии планирования и управления с помощью электронных таблиц;
  • электронная почта и телекоммуникационные средства;
  • автоматизированные системы (обучения, контроля, управления и т.д.), АРМы и интеллектуальные системы управления;
  • компьютерные офисы и виртуальные корпорации;
  • интегрированные пакеты прикладных программ и среды;
  • средства, методы и технологии машинной графики и анимации;
  • средства, методы и технологии мультимедиа;
  • гипертекстовые технологии и WWW-технологии;
  • технологии информационного реинжиниринга, в частности технологии «клиент-сервер»;
  • технологии, системы и среды виртуальной реальности;
  • когнитивные технологии, в частности, средства и методы визуального и когнитивного программирования;
  • объектно-ориентированные технологии, в частности, объектно- ориентированные среды программирования и организации интерфейса;
  • средо-ориентированные технологии, в частности, средо-ориентированные системы программирования;
  • CASE - технологии и др.

Новые информационные технологии - основа многих других технологий, а также основа нового операционного стиля мышления.

Отношение общего объёма активных информационных ресурсов к общему объёму всех национальных ресурсов является одним из наиболее существенных показателей экономического вектора развития общества по пути построения информационного общества.

Компьютеризация общества и её различных институтов должна быть направлена не только (не столько) на пассивную (статическую) актуализацию информационных ресурсов общества, но и на создание и актуализацию новых информационных технологий, ресурсов, динамическое их переупорядочивание, а также их взаимопроникновение и взаимообогащение в системах вида “человек-технология-знания-система”.



Историческая справка

Информация (informatio) - разъяснение, осведомленность, изложение.

Исторически первым носителем человеческих информации, знаний была речь, представлявшая изначально кодированные звуки для координации действий в человеческом сообществе. Затем появилось наскальное письмо каменного века, далее пиктограммы (“иконы”) бронзового века, иероглифическое письмо (сохраненное до сих пор, например, в Китае) и письмо “обычное” - конкатенацией букв алфавита в слоги (“слоговое письмо”) и т.д.

Объединение систем, процессов, связанных с понятиями “информация”, “управление” привело к появлению нового предмета “кибернетика (или науки об управлении в живых организмах и автоматах)” (40-ые годы 20-го века), изучающей информационные процессы в живых организмах и машинах (автоматах). Кибернетика явилась одной из важных предпосылок появления и развития информатики. В последнее время, предмет кибернетики понемногу, видимо, “поглощается” предметом информатики. Но при этом информатика не зачеркивает кибернетику, которая теперь может развиваться сильнее, используя результаты, методы и технологии информатики.

Понятие энтропии было введено Р.Клаузиусом в 1852 году в качестве удобного средства описания и анализа работы тепловых двигателей. Затем это понятие Л.Больцманом и другими учеными использовано в качестве универсального средства для описания поведения макроскопических систем. Л.Больцманом также установлена связь между энтропией H и термодинамической вероятностью состояния системы W: W=k lnW.

Связь информации и энтропии замечена Л. Сциллардом в 1929 году. К. Шеннон в 1948 году дал определение информации, основываясь на энтропии сообщений, используя ее как меру вероятности информационных процессов.

Э. Шредингер расширил понятие энтропии - рассмотрел её как меру дезорганизации системы любой природы.

Понятие ноосферы (в эколого-социальной трактовке) впервые ввел В.И. Вернадский.

Основные результаты по теории информации были получены Л. Бриллюэном, Н. Винером, Д. Пирсом, Р. Фано, К. Шенноном, У. Эшби, А. Колмогоровым и др.

Важные результаты в области синергетики получили Г. Хакен, К. Николис, И. Пригожин, И. Стенгерс, С.П. Курдюмов, Г.Г. Малиновский, Ю.М. Романовский и др.



Вопросы для самоконтроля

  1. Что такое информация? Приведите пример некоторой информации.
  2. Чем отличается информация от сообщения? Приведите пример информации и сообщения соответствующего этой информации.
  3. Что такое информация с мировоззренческой точки зрения? Приведите примеры получения, хранения, передачи, использования информации в быту, науке, производстве, обучении, управлении, планировании.
  4. Что означает термин “актуализация информации”? Приведите пример актуализированной и не актуализированной информации.
  5. Как и какими единицами измеряют сообщения и информацию?
  6. Как зависит управление системой и информация в системе? В чем суть задачи управления системой? Приведите примеры.
  7. Изобразите и поясните на примере один виток цикла управления системой.
  8. Пояснить смысл информации по Шеннону, энтропии, их связь.
 
   

содержание | о пособии | ссылки 

Copyright © 2001, В.М. Казиев 
Веб-мастер: Артур Балкаров 
Дизайн: Феликс Джегутанов 

Разрешается использование в некоммерческом образовании.
Учреждениям коммерческого использования - разрешается только с письменного разрешения автора.