Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки icon

Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки


Скачать 140.74 Kb.
НазваниеМетодичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки
страница1/4
Размер140.74 Kb.
ТипМетодичні вказівки
  1   2   3   4


МІНІСТЕРСТВО ОСВІТИ І НАУКИ, МОЛОДІ ТА СПОРТУ УКРАЇНИ


НАЦІОНАЛЬНІЙ УНІВЕРСИТЕТ

ХАРЧОВИХ ТЕХНОЛОГІЙ


ІНТЕЛЕКТУАЛЬНІ СИСТЕМИ


МЕТОДИЧНІ ВКАЗІВКИ

до виконання лабораторних робіт

для студентів за напрямом підготовки

6.050202 “Автоматизація та комп’ютерно-інтегровані технології”

денної та заочної форм навчання


Всі цитати, цифровий СХВАЛЕНО

та фактичний матеріал, на засіданні кафедри

бібліографічні відомості автоматизації і комп’ютерно-

перевірені. Написання інтегрованих технологій

одиниць відповідає Протокол № 6

стандартам. від 21.12.2010 р.


Підпис(и) автор(ів)___________________

«12» 04 2011 р.


КИЇВ НУХТ 2011

Інтелектуальні системи. Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки 6.050202 “Автоматизація та комп’ютерно-інтегровані технології” денної та заочної форм навчання / Уклад.: В.Д. Кишенько, Я.В. Смітюх, М.Д. Місюра, С.С. Шаруда, Є.С. Проскурка. – К.: НУХТ, 2011. – 48 с.


Рецензент: ^ Б.М. Гончаренко, д-р. техн. наук, професор


Укладачі: В.Д. Кишенько, канд. техн. наук

Я.В. Смітюх, канд. техн. наук

М.Д. Місюра, канд. техн. наук

С.С. Шаруда, канд. техн. наук

Є.С. Проскурка


Відповідальний за випуск ^ В.Д. Кишенько, канд. техн. наук, доц.

Лабораторна робота №1

Нейронні мережі. Розробка прогнозуючої нейронної мережі.


Мета: Дослідити роботу прямоточної нейронної мережі. Вивчення алгоритмів навчання.


^ Теоретичні відомості.


Нейронна мережа – це сукупність нейронів, що зв’язані великою кількістю зв’язків.

Під штучною нейронною мережею розуміють математичну модель, а також пристрій паралельних обчислень, що представляє собою систему штучних нейронів, що з’єднані та ті, що взаємодіють між собою.

^ Штучні нейронні мережі являють собою розподілені і паралельні системи, здатні до адаптивного навчання шляхом аналізу позитивних і від’ємних впливів. Елементарним перетворювачем в даних мережах є штучний нейрон або просто нейрон, названий так за аналогією з біологічним прототипом. До теперішнього часу запропоновано і вивчено велику кількість моделей нейроноподобних елементів і нейронних мереж.

^ Штучний нейрон це вузол штучної нейронної мережі, що являє собою спрощену модель природного нейрона. Математично штучний нейрон представляють як деяку нелінійну функцію від одного аргументу – лінійної комбінації всіх вхідних сигналів. Дану функцію називають функцією активації.

На рис.1 схематично зображений приклад одного нейрону:



Рис. 1. Штучний нейрон.

Він складається з елементів трьох типів: помножувачі (синапсів), суматора і нелінійного перетворювача. Синапси здійснюють зв'язок між нейронами, помножують вхідний сигнал на число, що характеризує силу зв'язку (вага синапсу). Суматор виконує додавання сигналів, що надходять по синаптичним зв'язкам від інших нейронів, і зовнішніх вхідних сигналів. Нелінійний перетворювач реалізує нелінійну функцію одного аргументу – виходу суматора. Ця функція називається функцією активації чи передаточною функцією нейрона. Нейрон в цілому реалізує скалярну функцію векторного аргументу.

Математична модель штучного нейрону:



де S - результат підсумовування (sum); Wi – вага (weight) синапсу, i = 1 ... n; Xі – компонент вхідного вектора (вхідний сигнал), i = 1 ... n; b – значення зміщення (bias); n – число входів нейрона; Y – вихідний сигнал нейрона; f(S) – нелінійне перетворення (функція активації).

У загальному випадку вхідний сигнал, вагові коефіцієнти та зміщення можуть приймати дійсні значення, а в багатьох практичних задачах – лише деякі фіксовані значення. Вихід Y визначається видом функції активації і може бути як дійсним, так і цілим.

Синаптичні зв’язки з позитивними вагами називають збуджуючими, з негативними – гальмівними. Описаний обчислювальний елемент можна вважати спрощеною математичною моделлю біологічних нейронів. Щоб підкреслити відмінність нейронів біологічних і штучних, останні іноді називають нейроподібні елементи або формальними нейронами.

На вхідний сигнал ^ S нелінійний перетворювач відповідає вихідним сигналом f(S), який представляє собою вихід Y нейрона.

На рис. 2 зображені приклади функцій активації.



Рис. 2. Функції активації: а) функція одиничного стрибка, б) лінійний поріг (гістерезис), в) сигмоїд (логістична функція), г) сигмоїд (гіперболічний тангенс).

  • Порогова: ;

  • Логістична (сигмоїдна) ;

  • Гіперболічний тангенс: .

Однією з найбільш поширених є нелінійна функція активації, так звана логістична функція, або сигмоїда (функція S-подібного виду).

Серед всіх видів нейронних мереж виділяють прямоточні і рекурсивні, одношарові і багатошарові.

Очевидно, що процес функціонування нейронної мережі, тобто сутність дій, які вона здатна виконувати, залежить від величин синаптичних зв’язків, тому, маючи певну структуру нейронної мережі, що відповідає якої-небудь задачі, розробник мережі повинен знайти оптимальні значення всіх змінних вагових коефіцієнтів (деякі синаптичні зв’язки можуть бути постійними).

Цей етап називається навчанням нейронної мережі, і від того, наскільки якісно він буде виконаний, залежить здатність мережі вирішувати поставлені перед нею проблеми під час експлуатації. На етапі навчання окрім параметра якості підбору вагів важливу роль відіграє час навчання. Як правило, ці два параметри пов’язані зворотною залежністю і їх доводиться вибирати на основі компромісу.

Навчання нейронної мережі може вестися з вчителем або без вчителя. У першому випадку мережі подаються значення як вхідних, так і бажаних вихідних сигналів, і вона, по деякому внутрішньому алгоритму, підлаштовує ваги своїх синаптичних зв’язків. У другому випадку виходи нейронної мережі формуються самостійно, а ваги змінюються за алгоритмом, що враховує тільки вхідні і похідні від них сигнали.

Існує велика кількість різних алгоритмів навчання, які поділяються на два великі класи: детерміновані та стохастичні. У першому з них підстроювання вагів являє собою жорстку послідовність дій, у другому – здійснюється на основі дій, що підкоряється деякому випадковому процесу.

Розглянемо алгоритм навчання з учителем (рис. 3).



Рис. 3. Структурна схема системи навчання нейтронної мережі.

Хі – вхідні значення, Yі – вихідні значення, Yе – еталонний сигнал, Wij – ваги нейронної мережі, – похибка навчання.

Розглянемо більш детально алгоритм навчання нейронної мережі з вчителем для одношарової нейронної мережі, прикладом якої є одношаровий персептрон.

1) Проініціалізувати елементи вагової матриці (зазвичай невеликими випадковими значеннями).

2) Подати на входи один із вхідних векторів, які мережа повинна навчитися розрізняти і обчислити її вихід.

3) Якщо вихід правильний, перейти на крок 4.

Інакше обчислити різницю між еталонним Yе і отриманим Yі – значеннями виходу:



Модифікувати ваги у відповідності до формули:

,

де t і t+1 – номери відповідно поточної та наступної ітерацій; η – коефіцієнт швидкості навчання, 0 <η <1; i – номер входу; j – номер нейрону в шарі.

Очевидно, що, якщо Yе > Yі, вагові коефіцієнти будуть збільшені і тим самим зменшать помилку. В іншому випадку вони будуть зменшені, і Yі теж зменшиться, наближаючись до Yе.

4) Цикл із кроку 2, поки мережа не перестане помилятися.

На другому кроці на різних ітераціях по черзі у випадковому порядку пред’являються всі можливі вхідні вектори. На жаль, не можна заздалегідь визначити число ітерацій, які потрібно виконати, а в деяких випадках і гарантувати повний успіх.

У багатошарових же мережах оптимальні вихідні значення нейронів всіх шарів, крім останнього, як правило, не відомі, і дво- або більш шаровий персептрон вже неможливо навчити, керуючись тільки величинами помилок на виходах нейронної мережі. Один з варіантів вирішення цієї проблеми – розробка наборів вихідних сигналів, що відповідають вхідним, для кожного шару нейронної мережі, що, звичайно, є дуже громіздкою операцією і не завжди є здійсненною. Другий варіант – динамічне підстроювання вагових коефіцієнтів синапсів, в ході якого вибираються, як правило, найбільш слабкі зв’язки і змінюються на малу величину в ту чи іншу сторону, а зберігаються тільки ті зміни, які спричинили зменшення помилки на виході всієї мережі. Очевидно, що даний метод "тику", незважаючи на свою простоту, вимагає громіздких рутинних обчислень. І, нарешті, третій, більш прийнятний варіант – поширення сигналів помилки від виходів нейронної мережі до її входів, у напрямку, зворотному прямому поширенню сигналів у звичайному режимі роботи. Цей алгоритм навчання нейронної мережі отримав назву процедури зворотного поширення.


^ Завдання на лабораторну роботу.


  1. В середовищі Matlab побудувати та навчити нейронну мережу для апроксимації значень функцій.

  2. Дослідити вплив коефіцієнта навчання та кількість ітерацій навчання (епох) на якість роботи нейронної мережі.

^ Методика виконання лабораторної роботи.


В лабораторній роботі виконуються дві задачи дослідження. В обох варіантах команди виконуються або через командну строку середовища Matlab, або створюється М-файл сценарію.

^ Перша задача. Програма для реалізації мережі представлена наступними командами:

time1 = 0: 0.05: 4;

time2 = 4: 0.05: 6;

time = [time1 time2]; % вхідні дані (аргумент)

T = [sin(4 * рi * time1) sin(рi * time2 + 45)]; % вхідні дані (функція)

P = delaysig(T,1,5); % формування нейронної мережі

[W b] = initlin(P,T); % ініціалізація нейронної мережі

lp = 0.1; % значення коефіцієнта навчання

[Y e W b] = adaptwh(W, b, P, T, lp); % навчання нейронної мережі

plot(time, T, ‘g’, time, Y, ‘r’)

figure

plot(time, Y, ‘b’, time, e, ‘r’)

Де W – вагові коефіцієнти нейронної мережі, b – зміщення, e – помилка навчання.

Змінюючи значення коефіцієнта навчання в межах [0...1] з кроком 0.2, зафіксувати залежності зміни похибки від часу та виходу мережі, що накладається на еталонний сигнал навчання, зробити відповідні висновки.

^ Друга задача. Необхідно побудувати і навчити нейронну мережу для апроксимації функції, що задана у вигляді таблиці, яка задається викладачем.

Для вирішення цієї задачі скористуємось функцією newff() з The Neural Network Toolbox, що дозволяє створити „класичну” багатошарову нейронну мережу з можливістю навчання її за процедурою зворотного поширення помилки.

P = zeros(1,20);

for i = 1:20 % створення масиву

P(i) = i*0.1; % вхідних даних (аргумент)

end

T=[2.09 2.05 2.19 2.18 2.17 2.27 2.58 2.73 2.82 3.04 3.03 3.45 3.62 3.85 4.19 4.45 4.89 5.06 5.63 5.91]; % вхідні дані (значення функції)

net = newff([-1 2.09],[5 1],{'tansig' 'purelin'}); % створення нейронної мережі

net.trainParam.epochs = 1000; % число циклів навчання

net=train(net,P,T); % процес навчання мережі

y = sim(net,P); % опитування мережі, що навчилась

figure (1);

hold on;

xlabel ('P');

ylabel ('T');

plot(P,T,P,y,'o'),grid; % виведення результату роботи

Змінюючи значення числа циклів навчання, зафіксувати залежності зміни похибки від часу та виходу мережі, що накладається на еталонний сигнал навчання, зробити відповідні висновки.


Контрольні питання.


  1. Що таке нейронна мережа?

  2. Які бувають функції активації?

  3. В чому полягає навчання нейронних мереж?

  4. Що змінюється в процесі навчання нейронних мереж?



Лабораторна робота №2

Розробка міні-експертної системи для оцінки якості продукції основі нечіткої логіки.


Мета: Засвоїти механізми створення нечітких моделей логічного висновку з використанням алгоритму Мамдані.


Теоретичні відомості.


Під нечіткою множиною А розуміється сукупність

,

де Х – універсальна множина, – функція належності (характеристична функція), що характеризує ступінь належності елементів х до нечіткої множини А.

Функція приймає значення в деякій достатньо впорядкованій множині М. Множину М називають множиною належності, частіше всього в якості М обирають відрізок [0...1]. Якщо М = {0,1}, то нечітка множина може розглядатися як звичайна, чітка множина.

^ Функція належності являє собою імовірнісну оцінку, що показує наближене відтворення числового діапазону до лінгвістичного поняття: „мале”, „нижче норми”, „норма”, „вище норми”, „висока” тощо.

Типові види функцій, що використовується для завдання функцій належності наведені на рис. 4 та рис. 5.



а) трикутна б) гаусовська

Р
c
ис. 4. Приклад функцій належності.




а) трапеційна б) куполоподібна

Рис. 5. Приклад функцій належності.

Основні етапи побудови систем інтелектуального управління на основі нечіткої логіки:

  1. Визначення входів і виходів системи, що створюється.

  2. Визначення для кожного входу і виходу функції належності.

  3. Розробка бази правил для нечіткої системи.

  4. Вибір і реалізація алгоритму нечіткого висновку.

  5. Аналіз результатів роботи системи, що створена.

Загальний логічний висновок виконується за наступною схемою (рис. 6).



Рис. 6. Загальна схема логічного висновку.

Розглянемо цю схему більш докладно.

Нечіткість (введення нечіткості, фаззіфікація).

Функції належності, що визначені для вхідних змінних, застосовуються до їх фактичних значень для визначення ступеня істинності кожної передумови кожного правила.

^ Логічний висновок.

Обчислене значення істинності для передумов кожного правила застосовується до висновків кожного правила. Це призводить до однієї нечіткої підмножині, яка буде призначена кожній змінній виводу для кожного правила. В якості правил логічного висновку зазвичай використовуються тільки операції min (мінімум) або prod (множення). У логічному висновку prod функція належності відсікається по висоті, що відповідає обчисленому ступеню істинності передумови правила (нечітка логіка "І"). У логічному висновку prod функція належності виведення масштабується за допомогою обчислень ступеня істинності передумови правила.

Композиція.

Нечіткі підмножини, що призначені для кожної змінної виводу (у всіх правилах) об’єднуються разом, щоб сформувати одну нечітку підмножину для кожної змінної виводу. При подібному об’єднанні зазвичай використовується max (максимум) або sum (сума). При композиції max комбінований висновок нечіткої підмножини будується як поточковий максимум по всім нечіткім підмножинам (нечітка логіка "АБО"). При композиції sum комбінований висновок нечіткої підмножини будується як поточкова сума за всіма нечіткими підмножинами, призначеними змінними виводу правилами логічного висновку.

^ Приведення до чіткості (дефаззіфікація).

Це додатковий етап, який корисно використовувати, коли необхідно перетворити нечіткий набір висновків у чітке число.

Розглянемо алгоритми реалізації схеми логічного висновку, що наведена на рис. 6.

^ Алгоритм Мамдані (Mamdani).


Даний алгоритм математично може бути описаний наступним чином:

  1. Нечіткість: знаходяться ступені істинності для передумов кожного правила: A1(x0), A2(x0), B1(y0), B2(y0).

  2. Нечіткий висновок: знаходяться рівні «відсікання» для передумов кожного з правил (з використанням операції min):



  1. де через «Λ», як і раніше, позначена операція логічного мінімуму (min), потім знаходяться відсічені функції належності:



  1. Композиція: з використанням операції max (що позначається як «v») виконується об'єднання знайдених усічених функцій, що приводить до одержання підсумкової нечіткої підмножини для змінної виходу з функцією приналежності:



  1. Нарешті, приведення до чіткості (для знаходження z0) проводиться, наприклад, центроїдним методом (як центр ваги для кривої μΣ(z)):




^ Алгоритм Сугено (Sugeno).


Сугено (Sugeno) і Такагі (Takagi) використали набір правил в наступній формі (як і раніше, приводимо приклад двох правил):

П1: якщо x є A1 та y є B1 , тоді z1=a1x+b1y,

П2: якщо x є A2 та y є B2 , тоді z2=a2x+b2y.

Представлення алгоритму:

  1. Перший етап – як в алгоритмі Мамдані.

  2. На другому етапі знаходяться та індивідуальні виходи правил:



  1. На третьому етапі визначається чітке значення змінної виводу:



Наведене представлення відноситься до алгоритму Сугено 1-го порядку.

Якщо правила записані в формі:

П1: якщо x є A1 та y є B1 , тоді z1=с1,

П2: якщо x є A2 та y є B2 , тоді z2=с2,

то говорять, що заданий алгоритм Сугено 0-го порядку.


Методи приведення до чіткості.


Вище вже був розглянутий один з даних методів – центроїдний (centroid of area). Наведемо відповідні формули ще раз:

для неперервного варіанту:



для дискретного варіанту:



Інші можливі методи приведення до чіткості ілюструє рис.7: найменший максимум (smallest of max, som), найбільший максимум (largest of max, lom), середній максимум (mean of max, mom), бісекторний (bisector of area).



Рис. 7. Методи приведення до чіткості.

^ Завдання на лабораторну роботу.


Задача – створити підсистему оцінки якості, що має 3 входи і формує на основі оцінки відповідне логічне рішення. На рис. 8 зображена структура системи логічного висновку.



Рис. 8. Структура експертної системи.


За основу взято три вхідні змінні:

T: [(0-100)˚C] – температура;

P: [(0-150)кПа] – тиск;

ρ: [(0-800)кг/м3] – густина.

Вихідна змінна:

Y: [0-100] – якість;

В роботі використовуються трикутні або трапецевидні функції належності.

Нечіткі змінні: „Низька”, „Нижче норми”, „Норма”, „Вище норми”, „Висока”.

В протоколі роботи зафіксувати правила нечіткого висновку, поверхні відгуку бази знань та зробити відповідні висновки.

  1   2   3   4

Похожие:

Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки 050202 “Автоматизація та комп’ютерно-інтегровані...
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки щодо виконання курсових робіт з Господарського права для студентів за напрямом підготовки (спеціальністю) Правознавство на 46с

Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до виконання лабораторних робіт з дисципліни Глобальні супутникові системи навігації та зв'язку
Методичні вказівки до виконання лабораторних робіт з дисципліни "Глобальні супутникові системи навігації І зв'язку на транспорті"...
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до виконання лабораторних робіт з курсу "Математичні основи захисту інформації" для студентів базового напряму
Затверджено на засіданні кафедри "Інформаційних систем і технологій " Протокол № від
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до виконання лабораторних робіт з курсу "Математичні основи захисту інформації" для студентів базового напряму
Затверджено на засіданні кафедри "Інформаційних систем і технологій " Протокол № від
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до виконання лабораторних робіт з курсу "Математичні основи захисту інформації" для студентів базового напряму
Затверджено на засіданні кафедри "Інформаційних систем і технологій " Протокол № від
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до виконання практичних робіт з дисципліни «англійська мова»
Для студентів 2-го курсу напряму підготовки 040106 екологія, охорона навколишнього середовища та
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до курсової роботи з дисципліни «Фінанси підприємств» для студентів всіх форм навчання за напрямом підготовки
Методичні вказівки розглянуто та рекомендовано до друку на засіданні кафедри «Фінанси» №
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до виконання лабораторних робіт з курсу "Математичні основи захисту інформації" для студентів базового напряму 050101 "Комп’ютерні науки "
Затверджено на засіданні кафедри "Інформаційних систем і техноло-гій " Протокол №4 від 10 лютого
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки до виконання лабораторних робіт для студентів спеціальності 091702
Технологія хліба, кондитерських макаронних виробів І харчоконцентратів” напряму 0917 “Харчова технологія та інженерія” ден форми...
Методичні вказівки до виконання лабораторних робіт для студентів за напрямом підготовки iconМетодичні вказівки для виконання графічних робіт з предмету Інженерна та комп’ютерна графіка’ для студентів та курсантів груп
Дані методичні вказівки написані для того, щоби допомогти студентам та курсантам у виконанні графічних рогбіт ( гр), які виконуються...
Вы можете разместить ссылку на наш сайт:
Документы


При копировании материала укажите ссылку ©ignorik.ru 2015

контакты
Документы