Информация и система |
||
3.1. Понятие информации, виды информации
Понятие информации является одним из основных, ключевых понятий не только в информатике, но и в системном анализе, математике, в физике (открытых систем) и др. В то же время, это понятие является плохо формализуемым понятием из-за его всеобщности, объёмности, расплывчатости и трактуется по разному:
Мы будем рассматривать системное понимание этой категории, ничуть не отрицая приведенные выше понятия и, более того, используя их по мере надобности. Информация - это некоторая последовательность сведений, знаний, которые актуализируемы (получаемы, передаваемы, преобразуемы, сжимаемы и/или регистрируемы) с помощью некоторых знаков (символьного, образного, жестового, звукового, сенсомоторного типа). Информация с мировоззренческой точки зрения - отражение реального мира. Информация - приращение знания, развитие знаний, актуализация знаний, возникающее в процессе целеполагающей интеллектуальной деятельности человека. Никакая информация, никакое знание не появляется сразу: появлению их предшествует этап накопления, осмысления, систематизации опытных данных, мнений, взглядов, их осмысление и переосмысление. Знание - продукт этого этапа и такого процесса. Информация по отношению к окружающей среде (или к использующей ее среде) бывает трех типов: входная, выходная и внутренняя. Входная информация - информация, которую система воспринимает от окружающей среды. Такого рода информация называется входной информацией (по отношению к системе). Выходная информация (по отношению к окружающей среде) - информация, которую система выдает в окружающую среду. Внутренняя, внутрисистемная информация (по отношению к данной системе) - информация, которая хранится, перерабатывается, используется только внутри системы т.е. актуализируемая лишь только подсистемами системы. Пример. Человек воспринимает, обрабатывает входную информацию, например, данные о погоде на улице, формирует выходную реакцию - ту или иную форму одежды. При этом используется внутренняя информация, например, это генетически заложенная или приобретённая физиологическая информация о реакции, например, о "морозостойкости" человека. Внутренние состояния системы и структура системы влияют определяющим образом на взаимоотношения системы с окружающей средой - внутрисистемная информация влияет на входную и выходную, а также на изменение самой внутрисистемной информации. Пример. Информация о финансовой устойчивости банка может влиять на её деятельность на рынке. Накапливаемая (внутрисистемно) социально- экономически негативная (позитивная) информация (проявляемая, например, социальной активностью в среде) может влиять на развитие системы. Пример. Генетически заложенная в молекулах ДНК информация и приобретённая информация (в памяти) влияют на поведение, на адаптацию человека в окружающей среде. В машинах первого поколения внутренняя структура определялась тысячами ламп, причем каждая из них отдельно была невысокой надежности, т.е. вся система была ненадежной в работе. Это влияло на входную информацию, например, такие ЭВМ не были способны на работу в многозадачном режиме, в режиме реального времени (обработки сообщений по мере получения входных данных). В живой и неживой природе информация может также передаваться структурой этой информации. Такую информацию называют структурной информацией. Пример. Структурные кольца среза дерева несут информацию о возрасте дерева. Структура питания хищника (или трофическая структура) несет информацию о хищнике, о среде его обитания. Структура плавников рыбы часто несет информацию о глубине среды её обитания. Информация по отношению к конечному результату проблемы бывает:
Пример. При решении системы линейных алгебраических уравнений информация от методах решения, среде реализации, входных данных (источники, точность и т.д.), размерности системы и т.д. является исходной информацией; информация о совместности системы уравнений, численных значениях корня и т.д. - результирующая; информация о текущих состояниях коэффициентов уравнений, например, при реализации схемы Гаусса - промежуточная. Информация по изменчивости при её актуализации бывает:
Пример. В известной физической задаче определения дальности полёта снаряда артиллерийского орудия, информация об угле наклона орудия может быть переменной, информация о начальной скорости вылета снаряда - постоянной, а информация о координатах цели (точности прицеливания) - условно-постоянной. Возможна также классификация информации и по другим признакам:
Информация в философском аспекте бывает:
Все это (вместе с человеком) составляет ноосферу общества - более высокое состояние биосферы, возникшее в результате эволюции, структурирования, упорядочивания (как статического, так и динамического) и гармонизации связей в природе и обществе под воздействием целеполагающей деятельности человечества. Это понятие было введено впервые В.И.Вернадским в качестве отображения концепции этапа эволюции общества и природы т.е. системы, в рамках которой потенциально может быть реализовано гармоническое, устойчивое развитие (эволюция) систем “Общество” и “Природа”, а также постепенное слияние, гармонизация наук о природе и об обществе. Основные свойства информации (и сообщений):
Пример. Рекламный щит - простой красочный кусок дерева (железа), но информация заложенная в сообщениях на этом щите должна обладать всеми вышеперечисленными свойствами и только тогда этот щит будет ассоциироваться у интерпретатора (человека) с рекламируемым товаром (услугами) и актуализировать информацию. При этом вся форма представления рекламы (сообщения на щите) должна строиться с учетом понятности интерпретатору, быть информативной. Пока символы не организованы определенным образом, не используются для определённой цели, они не отражают информацию. Информация может оказаться и вредной, влияющей негативно на сознание, например, воспитывающей восприятие мира от безразличного или же некритического - до негативного, "обозлённого", неадекватного. Информационный поток - достаточно сильный раздражитель. Пример. Негативной информацией может быть информация о крахе коммерческого банка, о резком росте (спаде) валютного курса, об изменении налоговой политики и др. Информация в системах может актуализироваться в следующих режимах:
Информация не существует без других типов ресурсов - энергии,
вещества, организации, как и они не могут существовать без информации.
Любые взаимодействия систем (подсистем) - взаимодействия всегда
материально-энергетически-информационные. Выявление (систематизация,
структурирование), описание (формализация), изучение, применение
инвариантов этих взаимодействий и составляет основную задачу науки, как
человеческой деятельности.
Методы получения и использования информации можно разделить на три группы, иногда условно разграничиваемые.
Охарактеризуем кратко эмпирические методы.
Кроме классических форм их реализации в последнее время используются и такие формы как опрос, интервью, тестирование и другие формы. Охарактеризуем кратко эмпирико - теоретические методы.
Кроме указанных классических форм реализации теоретико- эмпирических методов в последнее время часто используются и такие формы как мониторинг (система наблюдений и анализа состояний системы), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание) и другие формы. Охарактеризуем кратко теоретические методы.
Эти методы получения информации применяются системно. Пример. Для построения модели планирования и управления производством в рамках страны, региона, отрасли необходимо решить следующие проблемы:
Рис. Структура познания системы Информация, таким образом, может быть рассмотрена как кортеж А=<Х, Y, f>, где носитель X - сведения, знания о предметной области, множество Y - сообщения, отражающие эти сведения, отношение f - отношение кодирования между элементами X, Y т.е. их актуализации. Пример. Пусть X={супруги, дети супругов}, Y={“Иванов Петр Сидорович”, “Иванова Ольга Николаевна”, “Иванов Олег Петрович”, “Иванова Наталья Петровна”, “мать”, “отец”, “сын”, “дочь”, “родители”, “дети”}, отношение f может быть задано (словесно) перечислением связей вида: “Иванов Олег Петрович - супруг Ивановой Ольги Николаевны”, “Иванова Наталья Петровна - дочь Ивановой Ольги Николаевны” и т.д. Пример. Пусть X={арифметические операции}, Y={“-(взятие противоположного числа)”, “+ (сложение)”, “— (вычитание)”, “x (умножение)”, “/ (деление)”, “Ц (извлечение квадратного корня)”}, f определим как установление соответствия “унарная операция”. Таким образом, основная задача науки состоит в построении, исследовании, актуализации или хранении множеств с заданным классом X однотипных задач, Y - классом структур и ресурсов связываемых с этими задачами и f - процессами их сопоставления и актуализации с помощью некоторых ресурсов. Такие задачи мы решаем в ежедневной жизни, но в то же время часто правило f нельзя явно отыскать или построить явно или конструктивно. В этом случае приходится заменять искомый закон f с помощью подходящих явных или конструктивных представлений f, X, Y и/или Z (см. рис.) и применять эти представления всякий раз. Рис. Инвариант всех решаемых проблем информатики. Правило j задает правило кодирования или интерпретации входного алфавита, правило y - правило декодирования или интерпретации выходного алфавита, т.е. входной и выходной коды (правила, функции). При этом справедливы законы: Правило f* подбирают так, чтобы в отличие от f, его можно было бы найти и/или исследовать, применить. Для каждого сообщения хÎХ определена триада: Информация - содержание сообщения, сообщение - форма проявления или актуализации информации. Информация всегда имеет носитель, передача (актуализация) информации связана с изменением носителя, ресурсов. Пример. Сведения о сути товара могут быть изложены в рекламе,
передаваемой различными сообщениями (по телевидению, по радио, в газете и
т.д.). При этом соответствие этой рекламы действительности может быть
независима от типа сообщений, т.е. имеется третья сторона информации
(кроме её абстрактной сущности, её представления сообщениями) -
соответствие сведений заложенных в информации с проявлениями реальной
системы.
Выше было отмечено, что информация может пониматься и интерпретироваться по разному. Вследствие этого имеются различные подходы к определению измерения информации, меры количества информации. Раздел информатики (теории информации) изучающий методы измерения информации называется информметрией. Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определённости, выбору состояний отображаемой системы. Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки такого выбора, исхода. Такой оценкой может стать мера информации (или события). Мера - это некоторая непрерывная действительная неотрицательная функция, определённая на множестве событий и являющаяся аддитивной т.е. мера конечного объединения событий (множеств) равна сумме мер каждого события. Меры могут быть статические и динамические - в зависимости от того, какую информация они позволяют оценивать - статическую (не актуализированную т.е. на самом деле оцениваются представляющие информацию сообщения без учёта ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации). Отметим, что ниже мы не всегда будем (в основном, для большей убедительности и большего содержательного понимания) проводить четкие математические границы между понятиями ''количество информации'' и “мера количества информации'', но строгому читателю необходимо всё время задавать достаточно важные вопросы типа: о количестве информации или о мере информации в конкретной последовательности событий идёт речь? о детерминированной или стохастической информации идёт речь? Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определённой длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно или мера разнообразия множества состояний системы задаётся формулой Р. Хартли: где k - коэффициент пропорциональности (масштабирования, в зависимости от выбранной, рассматриваемой единицы измерения меры), а - основание рассматриваемой системы. Пример. Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос ("Левая или правая клетка?"). Узнав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log22). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=log24). Если система имеет n различных состояний, то максимальное количество информации равно I=log2n. Если измерение ведётся в экспоненциальной (натуральной) системе, то если измерение ведётся в двоичной системе, то если измерение ведётся в десятичной системе, то Справедливо утверждение Хартли: если во множестве X={x1, x2, ..., xn} выделить произвольный элемент xiÎX, то для того, чтобы найти его, необходимо получить не менее logan (единиц) информации. По Хартли, чтобы мера информации имела практическую ценность - она должна быть такова, чтобы информация была пропорциональна числу выборов. Пример. Имеются 192 монеты из которых одна фальшивая. Определим сколько взвешиваний нужно произвести, чтобы определить ее. Если положить на весы равное количество монет, то получим 2 возможности: а) левая чашка ниже; б) правая чашка ниже. Таким образом, каждое взвешивание дает количество информации I=log22=1 и, следовательно, для определения этой фальшивой монеты нужно сделать не менее k взвешиваний, где k удовлетворяет условию log22k³log2192. Отсюда, k³7. Следовательно, необходимо (достаточно) сделать не менее 7 взвешиваний. Эта формула отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации, содержащейся в системе, в проявлениях системы с помощью рассматриваемых состояний системы). Это положительная сторона этой формулы. Но имеется и отрицательная сторона: формула не учитывает различимость и различность рассматриваемых N состояний системы. Уменьшение (увеличение) Н может свидетельствовать об уменьшении (увеличении) разнообразия состояний N системы. Обратное, как это следует из формулы Хартли (основание логарифма берётся больше 1!), - также верно. Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла: где n - число состояний системы; рi - вероятность (или относительная частота) перехода системы в i-ое состояние, причем Если все состояния равновероятны (т.е. рi=1/n), то I=log2n (как и ожидалось). К. Шенноном доказана теорема о единственности меры количества информации). Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Формулы Хартли и Шеннона подтверждается и данными нейропсихологии. Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. (См. также сказанное выше о числе Страуда). Пример. Один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, которую он должен указать. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I определяемой по формуле Шеннона, где pi - вероятность зажечь лампочку номер i. Легко видеть, что в общем случае: Если выбор i-го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0. Сообщение о наступлении события с меньшей вероятностью несёт в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несёт в себе нулевую информацию (и это вполне ясно, - событие всё равно произойдёт когда-либо). Пример. Если положение точки в системе известно, в частности, она - в k-ой клетке, т.е. все рi=0, кроме рk=1, то тогда I=log21=0 и мы здесь новой информации не получаем. Пример. Выясним, сколько бит информации несет каждое двузначное число xx со всеми значащими цифрами (отвлекаясь при этом от его конкретного числового значения). Так как таких чисел может быть всего 90 (10 - 99), то информации будет количество I=log290 или приблизительно I=6.5. Так как в таких числах значащая первая цифра имеет 9 значений (1 - 9), а вторая - 10 значений (0 - 9), то I=log290 = log29 + log210. Приблизительное значение log210 равно 3.32. Отсюда можно сделать вывод о том, что сообщение в одну десятичную единицу несет в себе в 3.32 больше информации, чем в одну двоичную единицу (чем log22=1). Вторая цифра в любом двузначном числе несёт в себе больше информации, чем первая, например, в числе 22 вторая цифра 2 несёт в себе больше информации, чем первая, если заранее эти цифры не были известны (если же цифры, т.е. конкретное число 22 было задано, то количество информации равно 0 (почему?). Если в формуле Шеннона обозначить fi = - n log2pi, то получим т.е. I можно понимать как среднеарифметическое величин fi. Отсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом I и величиной pi вероятности появления этого символа в сообщении, передающем информацию. Если k - коэффициент Больцмана, известный в физике как k=1.38x10-16 эрг/град, то выражение в термодинамике известно как энтропия или мера хаоса, беспорядка в системе. Сравнивая выражения для I и S видим, что I можно понимать как информационную энтропию или энтропию из-за нехватки информации в системе (или о системе). Нулевой энтропии соответствует максимальная информация. Основное соотношение между энтропией и информацией: или в дифференциальной форме - Итак, если имеется система S и каждое I-ое состояние S из N возможных состояний определяется некоторым информационным вектором или же сообщением xi, i=1,2,...,N над некоторым заданным алфавитом A, система может перейти в каждое i-ое состояние с вероятностью pi, i=1,2,...,N, то pi можно понимать как вероятность i-го сообщения (сообщения, характеризующего усреднённое i-ое состояние системы). Основными положительными сторонами этой формулы является её отвлечённость от семантических и качественных, индивидуальных свойств системы, а также то, что в отличие от формулы Хартли она учитывает различность состояний, их разновероятность или же формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной для практических вычислений. Основные отрицательные стороны формулы Шеннона: она не различает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замкнутых систем, отвлекаясь от смысла информации. Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности, порядка) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=Smax) и полной информационной неопределённости (I=Imin) до полного порядка (S=Smin) и полной информационной определённости (I=Imax) в системе. Пример. Чем ближе движущийся объект к нам, тем полнее информация обрабатываемая нашими органами чувств, тем чётче и структурирован (упорядочен) объект. Чем больше информации мы имеем о компьютерной технике, тем меньше психологический барьер перед ним (согласно основному соотношению между энтропией и информацией). Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о её внутренней структуре (не восполняемым принципиально, а не нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе. Пусть дана термодинамическая система (процесс) S, а Н0, Н1 - термодинамические энтропии системы S в начальном (равновесном) и конечном состояниях термодинамического процесса, соответственно. Тогда термодинамическая мера информации (негэнтропия) определяется формулой: Эта формула универсальна для любых термодинамических систем. Уменьшение Н(Н0,Н1) свидетельствует о приближении термодинамической системы S к состоянии статического равновесия (при данных доступных ей ресурсах), а увеличение - об удалении. Поставим некоторый вопрос о состоянии некоторой термодинамической системы. Пусть до начала процесса можно дать p1 равновероятных ответов на этот вопрос (ни один из которых не является предпочтительным другому), а после окончания процесса - p2 ответов. Изменение информации при этом: Если p1p2 (DI> 0) - прирост информации, т.е. сведения о системе стали более определёнными, а при p1p2 (DI>0) - менее определёнными. При этом важно то, что мы не использовали явно структуру системы (механизм протекания процесса), т.е. это универсальный вывод. Пример. Предположим, что имеется термодинамическая система - газ в объёме V, который расширяется до объёма 2V (рис.).
Рис. Газ объема V (a) расширяемый до 2V (б)
Нас интересует вопрос о координате молекулы m газа. В начале (а) мы знали ответ на вопрос и поэтому p1=1 (ln p1=0). Число ответов было пропорционально ln V. После поднятия заслонки мы уже знаем эту координату (микросостояния), т.е. изменение (убыль) информации о состоянии системы будет равно Это известное в термодинамике выражение для прироста энтропии в расчёте на одну молекулу и оно подтверждает второе начало термодинамики. Энтропия - мера недостатка информации о микросостоянии статической системы. Величина DI может быть интерпретирована как количество информации, необходимой для перехода от одного уровня организации системы к другой (при DI>0 - более высокой, а при DI>0 - более низкой организации). Термодинамическая мера (энтропия) применимо к системам, находящимся в тепловом равновесии. Для систем, далёких от теплового равновесия, например, живых биологических систем, мера-энтропия - менее подходящая. В биологических науках широко используются так называемые индексные меры, меры видового разнообразия. Индекс - мера состояния основных биологических, физико-химических и др. компонент системы, позволяющая оценить силу их воздействия на систему, состояние и эволюцию системы. Индексы должны быть уместными, общими, интерпретируемыми, чувствительными, минимально достаточными, качественными, широко применяемыми, рациональными. Пример. Показателем видового разнообразия в лесу может служить где p1, p2,...,pn - частоты видов сообщества обитающих в лесу, n - число видов. Энергоинформационная (квантово-механическая) мера. Энергия (ресурс) и информация (структура) - две фундаментальные характеристики систем реального мира, связывающие их вещественные, пространственные, временные характеристики. Если А - именованное множество, где носитель - "энергетического происхождения", а В - именованное множество, где носитель "информационного происхождения", то можно определить энергоинформационную меру f:A®B, например, можно принять отношение именования для именованного множества с носителем (множеством имён) А или В. Отношение именования должно отражать механизм взаимосвязей физико-информационных и вещественно-энергетических структур и процессов в системе. Отметим, что сейчас актуальнее говорить о биоэнергоинформационных мерах, отражающих механизм взаимосвязей биофизикоинформационных и вещественно-энергетических структур и процессов в системе. Пример. Процесс деления клеток сопровождается излучением квантов энергии с частотами приблизительно до N=1.5x1015 Гц. Этот спектр можно воспринимать как спектр функционирования словарного запаса клетки как биоинформационной системы. С помощью этого спектра можно закодировать до 1015 различных биохимических реакций, что примерно в 107 раз меньше количества реакций реально протекающих в клетке (их количество - примерно 108), т.е. словарный запас клетки избыточен для эффективного распознавания, классификации, регулировании этих реакций в клетке. Количество информации на 1 квант энергии: I=log21015»50 бит. При делении клеток, количество энергии, расходуемой на передачу 50 бит информации равна энергии кванта (h - постоянная Планка, n - частота излучения): При этом, на 1 Вт мощности "передатчика" или на m=107 эрг/сек. может быть передано количество квантов: Общая скорость передачи информации на 1 Вт затрачиваемой клеткой мощности определяется по числу различных состояний клетки N и числу квантов (излучений) m: 3.4. Информация и управление. Информационные системы Информация - это знание, но не все знание, которым располагает человечество, а только та часть, которая используется для развития, совершенствования системы, для взаимосвязей, взаимодействий подсистем системы, а также системы в целом с окружающими условиями, средой. Информация развивается вслед за развитием системы. Новые формы, принципы, подсистемы, взаимосвязи и отношения вызывают изменения в информации, ее содержании, формах получения, переработки, передачи и использования. Благодаря потокам информации (от системы к окружающей среде и наоборот) система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или управляема. Информация стала средством не только производства, но и управления. Своевременная и оперативная информация может позволить стабилизировать систему, приспосабливаться и/или адаптироваться, восстанавливаться при нарушениях структуры и/или подсистем. От степени информированности системы, от богатства опыта взаимодействия системы и окружающей среды зависит развитие и устойчивость системы. Информация обладает также определенной избыточностью: чем больше сообщений о системе, тем полнее и точнее управляется система. Пример. При передаче сообщений часто применяют способ двукратной (избыточной) последовательной передачи каждого символа (что позволяет избавляться от помех, “шумов” при передаче и осуществлять контроль чётности). Пусть в результате сбоя при передаче приемником принято было слово вида “прраосснтоо”. Определим, какое осмысленное (имеющее семантический смысл) слово русского языка передавалось передатчиком. Легко заметить, что “претендентами на слово” являются слова “праспо”, “проспо”, “рроспо”, “ррасто”, “прасто”, “рросто”, “просто” и “рраспо”. Из всех этих слов осмысленным является только слово “просто”. Суть задачи управления системой - отделение ценной информации от “шумов” (бесполезного, иногда даже вредного для системы, возмущения информации) и выделение информации, которая позволяет этой системе существовать и развиваться. Управление любой системой (в любой системе) должно подкрепляться необходимыми для этого ресурсами - материальными, энергетическими, информационными, людскими и организационными (административного, экономического, правового, гуманитарного, социально - психологического типа). При этом характер и степень активизации этих ресурсов может повлиять (иногда - лишь косвенно) и на систему, в которой информация используется. Более того, сама информация может быть зависима от системы. Пример. В средствах массовой информации правительство чаще ругают, актеров чаще хвалят, спортсменов упоминают чаще в связи с теми или иными спортивными результатами, прогноз погоды бывает чаще кратким, новости политики - официальными. Управление - непрерывный процесс, который не может быть прекращён, ибо движение, поток информации не прекращается. Цикл (инвариант) управления любой системой (в любой системе): Основные правила организации информации для управления системой:
Пример. При управлении полётом ракеты наземная станция управления генерирует и в определённой форме, определёнными структурами посылает входную информацию в бортовую ЭВМ ракеты; при этом сигналы отсеиваются от возможных “шумов”, осуществляется контроль входной информации на достоверность и только затем бортовая ЭВМ принимает решение об уточнении траектории и ее корректировке. Ценность информации для управления определяется мерой раскрываемой им неопределенности в системе, содержанием передающих её сообщений. Информация используется для управления, но и сама подвержена управляющим воздействиям. Основная цель этих воздействий - поддержка информационных потоков, магистралей, способствующих достижению поставленных целей при ограниченных ресурсах (материальных, энергетических, информационных, организационных, пространственных, временных). Информационная система - система поддержки и автоматизации интеллектуальных работ - поиска, администрирования, экспертиз и экспертных оценок или суждений, принятия решений, управления, распознавания, накопления знаний, обучения. Информационная среда - система взаимодействующих информационных систем, включая и информацию, актуализируемую в этих системах. Пример. Можно выделить три основных подхода к использованию информационного менеджмента в социально-экономических системах.
Пример. Технологический и социально-экономический отрыв стран Запада и СНГ определяется, в первую очередь, не отсутствием у нас квалифицированных рабочих, хорошей образовательной системы, ресурсов, а отсутствием адекватной им системы информационного и экономического управления, его регулирования, а не саморегулирования (самоорганизации), недостаточным вниманием к третьему подходу к информационному менеджменту. Реформы должны происходить не для обогащения небольшой группы населения, а для благосостояния трудящейся массы, обеспечения его творческого и плодотворного труда. Это особенно важно и в то же время трудно обеспечиваемо в условиях экономических реформ. Информационная система управления - система предназначенная для управления как системой, так и в системе. По характеру управления, охвата подсистем и подцелей (цели системы) управление может быть:
Иногда отождествляют стратегическое и долгосрочное, тактическое и краткосрочное управление, но это не всегда верно. Пример. Любая серьёзная экономическая система стратегического управления должна включать в себя управляющую (информационную) подсистему, обрабатывающую и актуализирующую стратегическую информацию об инновационных мероприятиях, о состоянии рынков товаров, услуг и ценных бумаг, о ресурсном обеспечении, о финансовых условиях и критериях, о принципах и методах управления и др. Различают также основные 6 типов информационных систем управления (тип определяется целью, ресурсами, характером использования и предметной областью):
Фундаментальная ошибка с неустранимыми последствиями в информационных системах - принятие неправильных стратегических решений и критериев оценки решений. При построении (выборе, адаптации) информационной системы можно использовать две основные концепции, два основных подхода (третья концепция - их комбинации):
Выбор концепции зависит от стратегических (тактических) и\или долгосрочных (краткосрочных) критериев, проблем, ресурсов. Если вначале изучаются возможности имеющейся технологии, а после их выяснения определяются актуальные проблемы, которые можно решить с их помощью, то необходимо опираться на технология-ориентированный подход. Если же вначале определяются актуальные проблемы, а затем внедряется технология(ии) достаточная(ые) для решения этих проблем, то необходимо опираться на проблемно-ориентированный подход. Ошибки в выборе подхода (проблем, технологии) могут привести не только к ошибочным стратегиям и/или тактике, но и к полному краху. При этом обе концепции построения информационной системы зависят друг от друга: внедрение новых технологии изменяют решаемые проблемы, а изменение решаемых проблем - приводит к необходимости внедрения новых технологий; и то и другое влияют на принимаемые решения. Дороговизна, важность, актуальность информации определяют цели и важность (приоритеты) в управлении информационными системами (в информационных системах). Системное проектирование (разработка) информационной системы должно пройти следующий жизненный цикл:
Эти этапы - основы информационного реинжиниринга систем. При разработке целей, определении ресурсов необходимо тесное взаимодействие управляющего, проектирующего, разрабатывающего и пользовательского звена системы. Здесь недопустимы ложные критерии конфиденциальности и защиты информации, всегда влияющие негативно на стратегическое и долгосрочное планирование и прогнозирование, а также непрофессионализм принятия решений в каждом звене. Главным лозунгом разработки информационных систем должен быть лозунг: “Разработка информационной системы не для внедрения (или использования) информационной системы, а для обеспечения эффективного управления, функционирования, планирования и прогнозирования, эволюции системы”. Сформулируем основные аксиомы управления информационными системами.
Аксиома 1
Аксиома 2
Аксиома 3
Аксиома 4
Аксиома 5
Аксиома 6
Любая открытая информационная система эволюционирует так, что начиная с состояния наибольшей энтропии (неопределённости) стремится спиралеобразно к актуализации новых связей и отношений, к организованности и порядку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшения энтропии. Пример. На телевизионной игре “Что? Где? Когда?” обсуждение вопроса часто начинается хаотично, спонтанно, независимо и в конце обсуждения может организоваться в единодушное принятие правильного решения. Самоорганизация может наблюдаться и в неживых системах. Пример. История развития ЭВМ - пример самоорганизации: от 1-го поколения ЭВМ (40-50-ые годы 19 века) с электронными лампами и быстродействием порядка 104 операций в сек. до 1-го поколения оптических ВМ (конец 90-ых годов) с голографической памятью, с логикой на потоках фотонов, нейроподобных архитектурах и быстродействием порядка 1012 операций в сек. Пример. Человеческое общество развивается спиралевидно, циклически: циклически повторяются катастрофы, законы, неурожаи и т.п. Любая деятельность вопреки эволюционным процессам в системе, вопреки принципам самоорганизации - вредна и противосистемна. Пример. Любые экономические решения противоречащие основному регулятору рынка, основному механизму её организации - соотношению “спрос-предложение” приводят к вредным последствиям для системы, её самоорганизации, например, выпуск товаров в объёме, превышающем спрос на рынке может привести к снижению спроса. Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики).
Аксиома 1
Аксиома 2
Аксиома 3
Аксиома 4
Пример. Сформулируем, опираясь на эти аксиомы основные законы
информационных динамических процессов в социально-экономических
системах. Социально-экономические процессы при этом труднее поддаются
математизации, информатизации из-за сложности, плохой формализуемости и
плохой структурируемости этих систем (процессов).
Закон 1
Закон 2
Закон 3
Закон 4
Важное значение при исследовании управляемости системы, её управляющих параметров, развития системы во времени, в пространстве, по структуре имеют синергетические принципы сформулированные И. Пригожиным и его последователями, в частности следующие:
Наблюдаемая математизация и информатизация современной науки
убедительно показывает, что их эффективность зависит как от данной науки,
сложности и возможности описания её законов и принципов адекватными
математическими и информационными моделями, так и от используемого
математического аппарата.
Новые информационные технологии, наиболее часто используемые системах различного типа и назначения:
Новые информационные технологии - основа многих других технологий, а также основа нового операционного стиля мышления. Отношение общего объёма активных информационных ресурсов к общему объёму всех национальных ресурсов является одним из наиболее существенных показателей экономического вектора развития общества по пути построения информационного общества.
Компьютеризация общества и её различных институтов должна быть
направлена не только (не столько) на пассивную (статическую) актуализацию
информационных ресурсов общества, но и на создание и актуализацию новых
информационных технологий, ресурсов, динамическое их
переупорядочивание, а также их взаимопроникновение и взаимообогащение в
системах вида “человек-технология-знания-система”.
Информация (informatio) - разъяснение, осведомленность, изложение. Исторически первым носителем человеческих информации, знаний была речь, представлявшая изначально кодированные звуки для координации действий в человеческом сообществе. Затем появилось наскальное письмо каменного века, далее пиктограммы (“иконы”) бронзового века, иероглифическое письмо (сохраненное до сих пор, например, в Китае) и письмо “обычное” - конкатенацией букв алфавита в слоги (“слоговое письмо”) и т.д. Объединение систем, процессов, связанных с понятиями “информация”, “управление” привело к появлению нового предмета “кибернетика (или науки об управлении в живых организмах и автоматах)” (40-ые годы 20-го века), изучающей информационные процессы в живых организмах и машинах (автоматах). Кибернетика явилась одной из важных предпосылок появления и развития информатики. В последнее время, предмет кибернетики понемногу, видимо, “поглощается” предметом информатики. Но при этом информатика не зачеркивает кибернетику, которая теперь может развиваться сильнее, используя результаты, методы и технологии информатики. Понятие энтропии было введено Р.Клаузиусом в 1852 году в качестве удобного средства описания и анализа работы тепловых двигателей. Затем это понятие Л.Больцманом и другими учеными использовано в качестве универсального средства для описания поведения макроскопических систем. Л.Больцманом также установлена связь между энтропией H и термодинамической вероятностью состояния системы W: W=k lnW. Связь информации и энтропии замечена Л. Сциллардом в 1929 году. К. Шеннон в 1948 году дал определение информации, основываясь на энтропии сообщений, используя ее как меру вероятности информационных процессов. Э. Шредингер расширил понятие энтропии - рассмотрел её как меру дезорганизации системы любой природы. Понятие ноосферы (в эколого-социальной трактовке) впервые ввел В.И. Вернадский. Основные результаты по теории информации были получены Л. Бриллюэном, Н. Винером, Д. Пирсом, Р. Фано, К. Шенноном, У. Эшби, А. Колмогоровым и др.
Важные результаты в области синергетики получили Г. Хакен, К.
Николис, И. Пригожин, И. Стенгерс, С.П. Курдюмов, Г.Г. Малиновский, Ю.М.
Романовский и др.
| ||
Copyright © 2001, В.М. Казиев Веб-мастер: Артур Балкаров Дизайн: Феликс Джегутанов Разрешается использование в некоммерческом образовании. Учреждениям коммерческого использования - разрешается только с письменного разрешения автора. |