1. Поняття інформації. Роль інформації в системі

Головною ознакою системного аналізу є всебічний розгляд сис­теми. Виконуючи системний аналіз системи, не можна обмежитись тільки описом її матеріальної та функціональної сторін, а треба викона­ти дослідження інформаційної сторони. У будь-якій системі інформа­ційні процеси відіграють дуже важливу роль. Розуміння, що таке інфо­рмація і яку роль у системах вона відіграє, прийшло не одразу. Тепер ми тільки входимо в новий інформаційний світ, усвідомлюємо, що інфор­мація у світі є чи не найголовнішою. Розвиток людства можна умовно розділити на три етапи, а саме:

- набуття навиків володіння матерією, матеріальними об'єктами;

- оволодіння енергією, здобуття енергетичної могутності;

- розвиток інформатики, вміння керувати інформаційними про­цесами.

Період оволодіння матерією - це довгий період становлення люд­ства від дикої природи до розумної людини, коли людина взяла в руки перші знаряддя праці і в своєму розвитку стала людиною розумною (gomo sapiens). За цей період сформувався людський розум, сформува­лась людина як біологічний вид.

Розвиток людства значно прискорився після оволодіння енергією, енергетичними ресурсами. Від використання тільки своєї фізичної сили, сили приручених тварин людство поступово перейшло до використання енергії вітру, води, теплової енергії, енергії атомного ядра. Могутність людини зросла, почався період технічного прогресу, особливо бурхли­вим після створення першого парового двигуна. Сьогодні він визнача­ється володінням енергетичними ресурсами, умінням передавати енер­гію, перетворювати її з одного виду в інший: теплову в електричну, еле­ктричну в механічну, ядерну в теплову й електричну.

Розвиток людства на сучасному етапі зумовлений не стільки во­лодінням енергією, потужними силами природи, а умінням ними керу­вати, розвитком інформаційної сторони. Інформація стає чи не найваж­ливішим показником розвитку людства. Недаремно існує вислів "Хто володіє інформацією - той володіє світом". Всі сучасні технології за­сновані на використанні інформації. Інформація є основою життя на Землі. Всі живі організми створені завдяки інформації, що зберігається в молекулах дезоксирибонуклеїнової кислоти (ДНК). Ці молекули не­суть інформацію про будову всіх живих організмів від мікробів та віру­сів до людини, від простої водяної амеби до величезних вікових дерев. На основі цієї інформації природа створює всі організми за допомогою певних молекулярних механізмів. Використовуючи інформацію моле­кул ДНК клонують овець, намагаються відродити мамонтів та інших тварин, які вимерли тисячоліття назад.

Питання ролі інформації у системах частково розглянуті в розділі 8 цього посібника. Інформаційні процеси в системах не менш важливі ніж матеріальні. Практично жодна система не може існувати, якщо в ній не відбуваються процеси передачі й обміну інформацією. Це видно при розгляді будь-якого живого організму, будь-якої системи, як, напри­клад, виробничий колектив, державна установа тощо. Розуміння ролі інформації приходить не одразу. Звичайно, можна промовляти "Спочат­ку було слово" і вести полеміку, що є первинним: дух, інформація чи матерія. Але це тільки підкреслює важливість інформації в світі, але, на жаль, не приводить нас до вирішення складних практичних завдань що повсякденно виникають.

Коло питань, які потрібно розглянути для аналізу інформаційних процесів у системі, надзвичайно широке. До них входить: формування інформаційних сигналів, передача і прийом інформації, кодування ін­формації, інформаційні потоки в системі, роль сигналів у керування си­стемою, збереження інформації, її впорядкування та структурування, використання інформації для прийняття рішень т. п.

Для системи розрізняють таку інформацію:

- вхідну;

- вихідну;

- внутрішню.

Вхідна інформація - це інформація, що поступає в систему, яка обробляється нею, служить для забезпечення функцій системи. Вихідна інформація - це інформація, що є результатом діяльності системи, та інформація, що показує, в якому стані знаходиться система. Внутрішня інформація - це інформація, що передається між елементами системи, якою обмінюються складові частини при функціонуванні системи. Роз­різняють також внутрішню системну інформацію. Це така інформація, що визначає систему як одне ціле, інформація, властива даній системі, без якої система не існує.

Інформаційні процеси в системах розглядаються з різних точок зору рядом наукових дисциплін. Це - діалектика, кібернетика та теорія керування, теорія прийняття рішень, теорія інформації, теорія інформа­ційних систем, системотехніка, теорія систем та ін. Кожна з цих дисци­плін розглядає свої аспекти інформації. Діалектика розглядає інформа­цію як одну з фундаментальних властивостей матерії. Ця властивість проявляється як відображення. Властивість відображення притаманна всім об' єктам органічної та неорганічної природи. Відображення вияв­ляється в тому, що стан одного об'єкта залежить від стану іншого об' єкта. Найпростіший випадок відображення - це відбиток об' єкта в іншому при їх контакті. Найвищий ступінь відображення - це свідо­мість людини.

Кібернетика та теорія керування вивчають інформацію з точки зору керування системами. Кібернетика, у визначенні А.М.Колмогорова, - це наука, що вивчає системи будь-якої природи, здатні приймати, зберігати і переробляти інформацію, використовувати її для керування та регулювання.

Розділом технічної кібернетики є теорія автоматичного керуван­ня. Математичним апаратом теорії автоматичного керування є апарат диференційних рівнянь. Ці рівняння описують процеси керування у сис­темах. Результатом вивчення систем в теорії автоматичного керування є питання поведінки системи під час керуючих дій, встановлення стійкос­ті керування та його точності. За допомогою математики встановлено умови стійкості систем при керуванні, умови, при яких можлива втрата керованості системою і перехід системи до некерованої поведінки. Ре­зультаті цієї наукової дисципліни мають велике значення при забезпе­ченні надійності керування технічними системами, розумінні складних процесів керування у природних системах.

Теорія прийняття рішення розглядає питання вибору рішення при наявності або відсутності достатньої інформації про систему. Питання прийняття рішення відноситься до матеріалу цього курсу і деякі її аспе­кти будуть розглянуті далі.

Теорія інформації вивчає такі поняття, як визначення інформації, вимірювання інформації, закономірності її передачі та прийому, коду­вання інформації. Математичним апаратом теорії інформації є апарат теорії ймовірностей та випадкових процесів.

Системотехніка вивчає питання проектування, створення, екс­плуатації та випробування складних систем. Вона безпосередньо при­микає до теорії систем і системного аналізу, хоча розглядає питання інформації і інформаційних систем більше в практичному значенні.

Інформація (від лат. Information - пояснення, переказ) - це пере­дача людьми певних відомостей за допомогою слів, знаків, жестів і т.п.

Більш розширене поняття інформації, що використовується в на­укових дисциплінах, таке. Інформація - це відображення одних об'єктів у інших, це сукупність відомостей, знань, що отримується, передається,перетворюється живою чи неживою системою, реєструється, фіксується і може використовуватись для цілей керування системою.

Відображення одного об'єкта в іншому - це загальна властивість матерії. Відображення не завжди викликається прямою взаємодією об'єктів. Як правило, воно встановлюється в результаті взаємодії з про­міжними об' єктами, як, наприклад, відображення на фотографії відбу­вається за допомогою світла, відтиск печатки на папері - за допомогою чорнил, відтворення звуків - за допомогою звукових хвиль. Ці проміжні об'єкти виступають як носії інформації, їх називають сигналами. Сигнал - це матеріальний носій інформації стан якого містить певні відомості, це засіб передачі інформації у просторі й часі.

Отже, сигналом є певний матеріальний об'єкт і інформація поля­гає якраз у стані цього об'єкта. Зміна стану об'єкта, який є сигналом, може відбуватись в часі і просторі. Перш за все необхідною властивістю сигналів є їх стійкість, тобто збереження певного стану протягом часу і при переміщенні в просторі. Залежно від стійкості сигнали бувають двох типів:

- статичні,

- динамічні.

Статичний сигнал - це такі матеріальні об'єкти-носії інформації, стан яких можна задати, і після цього він залишається незмінним протя­гом довгого проміжку часу. Статичні сигнали використовують для збе­реження інформації як носії незмінної інформації. За допомогою їх від­буваються запис і збереження інформації. Це, наприклад, магнітофонна стрічка, книжка, фотографія, кінострічка, голографічна платівка, грамо­фонний диск, вінчестер комп' ютера, демаркаційні й геодезичні знаки, тріангуляційні пункти і т. п.

Динамічні сигнали - це матеріальні об'єкти - носії інформації, які змінюються у часі і можуть поширюватись у просторі. Як динамічні сигнали використовують динамічні властивості силових полів, як-от звукового, електромагнітного. Інформація, що передається сигналом, не залежить від його природи. Одна і та ж інформація може передаватись сигналами різної природи. Важливою характеристикою динамічних си­гналів є зміна стану протягом часу. За допомогою цієї зміни стану пере­дають повідомлення.

Повідомлення - це передача певної інформації за допомогою си­гналу.

Повідомлення завжди складається з послідовності символів. Мо­жливі символи повідомлення складають його алфавіт. Кожен символ алфавіту визначається кодом сигналу. В теорії інформації вводять таке поняття, як обсяг алфавіту, тобто кількість символів, за допомогою якихможе передаватись інформація і які розрізняються як різні символи. Об­сяг алфавіту, окремі символи встановлюють за домовленістю, що нази­вається кодуванням. Коди сигналів залежать від того, для передачі якої інформації призначений алфавіт, і кількості можливих станів об' єкта, який є сигналом. Число можливих станів визначається об'єктом, що служить сигналом. У багатьох випадках використовують два стани, на­приклад, іде чи відсутній електричний струм, є модуляція несучої час­тоти чи відсутня, світиться чи не світиться фотодіод, намагнічена чи ні певна ділянка магнітної стрічки. Як правило, алфавіт містить символів більше ніж є станів сигналу. В такому випадку для передачі повідом­лення використовують послідовний код, послідовну зміну станів сигна­лу. Обсяг алфавіту в такому випадку складає М= ШП символів, де Ш -

кількість станів носія сигналу, а П - кількість змін, які відповідають од­ному символу. Наприклад, телеграфний код являє собою послідовність п'яти станів, його алфавіт містить М= 2 = 32 символи, а кодування сигналів в комп' ютері здійснюється за допомогою восьми чарунок

пам'яті, тобто алфавіт складається з М= 2 = 256 символів.

Повідомлення завжди містить певну інформацію. Важливим ре­зультатом теорії інформації є відкриття, що інформацію можна вимірю­вати, вона має свою міру. В теорії інформації міра інформації може ви­значатись двояко, з однієї сторони, незалежно від її змісту в "бітах", а з іншої, як міра зміни ентропії системи. Одиницею інформації, що знайш­ла широке використання, є "біт" Біт - це найменша кількість інформації, що міститься в повідомленні про те, в якому з двох можливих станів знаходиться об' єкт, це відповідь на запитання типу "так" чи "ні", на­приклад, положення контактів реле ввімкнуте чи розімкнуте Цим ста­нам умовно присвоюють позначення "0" чи "1". Символ телеграфного коду містить 5 біт інформації, а символ клавіатури комп'ютера - 8 біт. Інформація об'ємом 8 біт має назву байт, а об'єм інформації 210 байт -кілобайт . 1 кілобайт дорівнює 1024 байта.

Важливим результатом теорії інформації є встановлення та пог­либлення поняття ентропії системи. Це поняття, як ми це вже розгляда­ли, було введено С. Больцманом при вивченні термодинаміки. Поняття ентропії - це загальне поняття, що відноситься до усіх об' єктів природи. Ентропія це функція стану системи, що є мірою ймовірності даного ста­ну. В біологічних системах ентропія пропорційна зв'язаній енергії сис­теми. У теорії інформації ентропія визначає невизначеність, брак інфо­рмації, а зміна ентропії в результаті одержання певного повідомлення є мірою інформації в цьому повідомленні. Не вдаючись у всі тонкості визначення ентропії як міри інформації, зауважимо, що другий законтермодинаміки твердить: "У замкнутій системі всі процеси проходять так, що ентропія може тільки зростати", тобто всі ізольовані системи в результаті внутрішніх процесів прагнуть до найбільш врівноваженого стану, в якому ентропія має найбільше значення, такого стану, в якому всі процеси в системі зрівноважуються і припиняються будь-які проце­си направленого обміну матерією, речовиною чи інформацією. Теорія інформації поглибила це поняття, показала, що дія другого начала тер­модинаміки має загальний характер і властива усім об'єктам і процесам. Ентропія в теорії інформації - це міра невизначеності інформації. Її ве­личину обраховують за формулою

H (A) = І p, log p,

i =1

Тут рі - ймовірність знаходження об'єкта А в і-му стані (Аг), П - кількість можливих станів.