Подання знань в інформаційних системах

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Зміст

1. Аналіз вихідних даних і розробка ТЗ

1.1 Заснування та призначення розробки

1.2 Класифікація розв'язуваної задачі

1.3 Попередній вибір класу НС

1.4 Попередній вибір структури НС

1.5 Вибір пакета НС

1.6 Мінімальні вимоги до інформаційної та програмної сумісності

1.7 Мінімальні вимоги до складу і параметрів технічних засобів

2. Навчання НС

2.1 Формування вихідних даних

2.2. Остаточний вибір моделі, структури і параметрів навчання НС

2.3 Блок-схема алгоритму навчання

3. Аналіз якості навчання

4. Тестовий приклад

5. Висновки

1. Аналіз вихідних даних і розробка технічного завдання

    1. Заснування і призначення розробки

Підставою даної роботи є необхідність виконання курсової роботи з дисципліни "Подання знань в інформаційних системах".

Призначенням роботи є освоєння нейронної мережі.

1.2 Класифікація розв'язуваної задачі

У таблиці 1 представлені деякі проблеми, які вирішуються нейронними мережами [5].

Таблиця 1.

Проблема

Вихідні дані

Вихідні дані

Завдання

Застосування

Класифікація

вектор ознак

вектор, значення всіх координат якого повинні бути рівними 0, за винятком координати, відповідної вихідного елементу, який представляє шуканий клас (значення цієї координати повинно бути рівним 1)

вказівку приналежності вхідного образу одному або декільком попередньо визначеним класам

розпізнавання букв, розпізнавання мови, класифікація сигналу електрокардіограми, класифікація клітин крові

Кластеризація

(Класифікація образу без вчителя)

вектор ознак, в якому відсутні мітки класів

-

Алгоритм заснований на подобі образів і розміщує близькі образи в один кластер

вилучення знань, стиснення даних і дослідження властивостей даних

Апроксимация функцій

(Мається навчальна вибірка ((xl yi), (х 2, у 2), ..., (xn, yw)), яка генерується невідомою функцією, спотвореної шумом)

набір навчальних векторів

розраховане мережею значення функції

знаходження оцінки функції


Прогнозування (задані N дискретних відліків {(y (f 1), y (f 2), ..., y (f N)} у послідовні моменти часу t 1, t 2, ..., t N)

вектора даних з M ознаками за T періодів часу

вектора даних з M ознаками за періоди часу T + L

передбачення значення y (t N +1) в момент t N +1

прийняття рішень у бізнесі, науці і техніці

Управління

(Розглядається динамічна система, задана сукупністю {u (t), y (t)})

u (t) - вхідний керуючий вплив

(T) - вихід системи в момент часу t

розрахунок такого вхідного впливу u (t), при якому система слід по бажаної траєкторії, що диктується еталонною моделлю


Вихідними даними для даної задачі є вектора (з нулів і одиниць) розмірності 60, які описують кожну з 10 арабських цифр, обраних для навчання. Вихідні дані пропонуються у доданому файлі "cifri. Xls"

У цьому ж файлі містяться і вихідні вектора розмірності 10, де одиниця в одному з 10 положень означає приналежність классифицируемого зразка до тієї чи іншої цифри.

Мережа, приймаючи вхідний вектор, повинна відповідно до них видати відповідний даній послідовності вихідний вектор.

Виходячи з вихідних, вихідних даних, завданням, які необхідно вирішити, це завдання є завданням класифікації.

1.3 Попередній вибір класу нейронної мережі

Список класів НС, в яких існує можливість вирішення завдання, відображений у таблиці 2 [5].

Таблиця 2.

Клас НС

мережі прямого поширення (персептрон, одношаровий і багатошаровий)

реккурентние (одношарові і багатошарові, в тому числі мережі Хопфілда та двунаправленная асоціативна пам'ять)

З класів, які не підходять для вирішення задач класифікації можна вказати багатошарові динамічні мережі з порушенням і гальмуванням і динамікою другого порядку.

Строго і однозначно визначити клас НС для цього завдання не представляється можливим, тому що більшість з них в тій чи іншій мірі підходять для її вирішення.

Виходячи з вище сказаного зупинимо свій вибір на наступних класах: Персептрон, одношаровий і багатошаровий; Мережі Хопфілда; Мережі Ворда; Мережі Кохонена; Двонаправлена ​​асоціативна пам'ять (ДАП);

Проведемо порівняльний аналіз даних класів [5]:

Клас

Модель

Область застосування

Переваги

Недоліки

Одношаровий персептрон

окремий персептрони нейрон обчислює зважену суму елементів вхідного сигналу, віднімає значення зсуву і пропускає результат через жорстку порогову функцію, вихід якої дорівнює +1 або -1 у залежності від приналежності вхідного сигналу до одного з двох класів

розпізнавання образів, класифікація

програмні або апаратні реалізації моделі дуже прості. Простий і швидкий алгоритм навчання

прості розділяють поверхні (гіперплощини) дають можливість вирішувати лише нескладні задачі розпізнавання

Багатошаровий персептрон з навчанням за методом зворотного поширення помилки

використовується алгоритм зворотного поширення помилки. Тип вхідних сигналів - цілі та дійсні, тип вихідних сигналів - дійсні з інтервалу, заданого передавальної функцією нейронів. Тип передатної функції - сигмоїдальна

розпізнавання образів, класифікація, прогнозування, розпізнавання мови. Контроль, адаптивне управління, побудова експертних систем

перший ефективний алгоритм навчання багатошарових нейронних мереж

цей метод належить до алгоритмів з мінімальною швидкістю збіжності. Для збільшення швидкості збіжності необхідно використовувати матриці других похідних функції помилки

Мережа Хопфілда

використовується як автоасоціативна пам'ять. Вихідні дані - вектори-зразки класів. Вихід кожного з нейронів подається на вхід всіх інших нейронів.

Тип вхідних та вихідних сигналів - біполярні. Тип передатної функції - жорстка порогова.

асоціативна пам'ять, що адресується за змістом, розпізнавання образів, задачі оптимізації (в тому числі, комбінаторної оптимізації).

дозволяє відновити спотворені сигнали

розмірність і тип вхідних сигналів збігаються з розмірністю і типом вихідних сигналів. Це суттєво обмежує застосування мережі в задачах розпізнавання образів. При використанні сильно корельованих векторів-зразків можливо зациклення мережі в процесі функціонування. Невелика ємність, квадратичний зростання числа синапсів при збільшенні розмірності вхідного сигналу

Мережі Ворда

звичайна тришарова мережа зі зворотним поширенням помилки з різними передавальними функціями в блоках прихованого шару

Класифікації ція

навчання, гарне узагальнення на зашумлених даних


Мережі Кохонена

мережа складається з М нейронів, що утворюють прямокутну грати на площині. Елементи вхідних сигналів подаються на входи всіх нейронів мережі. У процесі роботи алгоритму настроюються синаптичні ваги нейронів. Вхідні сигнали (вектора дійсних чисел) послідовно пред'являються мережі, при цьому необхідні вихідні сигнали не визначаються. Після пред'явлення достатнього числа вхідних векторів, синаптичні ваги мережі визначають кластери. Крім того, ваги організовуються так, що топологічно близькі нейрони чутливі до схожих вхідних сигналів

кластерний аналіз, розпізнавання образів, класифікація

мережа може бути використана для кластерного аналізу тільки в разі, якщо заздалегідь відомо число кластерів

здатна функціонувати в умовах перешкод, тому що число класів фіксоване, ваги модифікуються повільно, та налаштування ваг закінчується після навчання

Двонаправлена ​​асоціативна пам'ять

є гетероасоціативної. Вхідний вектор надходить на один набір нейронів, а відповідний вихідний вектор виробляється на іншому наборі нейронів. Вхідні образи асоціюються з вихідними

асоціативна пам'ять, розпізнавання образів

мережа може будувати асоціацію між вхідними і вихідними векторами, що мають різні розмірності

Ємність жорстко обмежена, можливі хибні відповіді

Виходячи з вище сказаного звужуємо вибір класу до багатошарового персептрона та мережі Ворда.

1.4 Попередній вибір структури НС

Рекомендації щодо вибору структури:

На вхід мережі подається вектор розмірності 60, тому що в нашій математичної моделі растрове зображення ділиться сіткою 6х10 і представляється вектором.

На виході мережі вектор з нулів і одиниць розмірності 10, так як число класів дорівнює 10.

  1. кількість шарів: 1, як правило, починають з одного прихованого шару, а потім експериментально при необхідності збільшують це число

  2. кількість нейронів:

  1. у вхідному шарі: 60, так як розмір зображення 6 x 10;

  2. в прихованому шарі: 30-50% від 60, також визначається експериментально в процесі моделювання;

  3. у вихідному шарі: 10;

3. Вид функцій активації: визначимо далі експериментально

Швидкість навчання виберемо виходячи з того, що при дуже великій швидкості мережа може навчитися невірно, а при дуже маленькою процес навчання може бути довгим.

1.5 Вибір пакета НС

Вимоги для вибору пакета НС:

  1. наявність в пакеті обраної моделі НС

  2. можливість створення обраної структури

  3. можливість завдання вихідних даних для навчання і розрахунку

  4. доступність пакету

  5. трудомісткість з його освоєння

  6. наявність русифікації

  7. інтерфейс

  8. інші достоїнства

  9. інші недоліки

У таблиці 2 наведені характеристики деяких пакетів [http: / / alife. Narod. Ru /].

Таблиця 2:

Назва пакету

1

2

3

4

5

7

6

Neural10

немає

немає

та

freeware

легко

незручний

є

NeuroPro

немає

немає

та

freeware

легко

незручний

є

Neural Planner

та

та

та

-

легко

занадто спрощений

є

BrainMaker 3.10

та

та

та

-

легко

дуже зручний

є

NeuroShell 2

та

та

та

freeware

дуже легко

дуже зручний

є

Назва пакету

8

Neural10

допускаються будь-які розширення файлів з ​​навчальними парами

NeuroPro

можливості спрощення мережі

Neural Planner

вбудований графічний редактор, аналог табличного редактора

BrainMaker 3.10

набір утиліт широкого призначення

NeuroShell 2

дуже хороша довідка, власні алгоритми навчання

Назва пакету

9

Neural10

обмеженість налаштування параметрів мережі

NeuroPro

неможливість збереження результатів опитування навченої мережі

Neural Planner

обмеженість за кількістю алгоритмів навчання

BrainMaker 3.10

обмежені функціональні можливості

NeuroShell 2

можливість імпорту лише 5 типів вхідних файлів

Виходячи з даних таблиці 2, найбільш підходящим пакетом є пакет NeuroShell 2.

1.6 Мінімальні вимоги до інформаційної та програмної сумісності

Microsoft Office 97 і вище

Пакет NeuroShell 2

1.7 Мінімальні вимоги до складу і параметрів технічних засобів

MS Windows 9 х / 2000 / Ме / NT / XP

32 Mb RAM

IBM - сумісний персональний комп'ютер класу 486/66 або вище (бажано Pentium II або вище)

Відеоадаптер SVGA

Монітор VGA і вище

Клавіатура, миша

2. Навчання нейронної мережі

Під навчанням штучної нейронної мережі розуміється процес налаштування вагових коефіцієнтів її базових процесорних елементів, результатом чого є виконання мережею конкретних завдань - розпізнавання, оптимізації, апроксимації, управління. Досягнення подібних цілей формалізується критерієм якості Q, мінімальне значення min W Q = Q * якого відповідає найкращому вирішення поставленого завдання [5].

2.1 Формування вихідних даних

Розглядається класифікація цифр арабського алфавіту, написаних шрифтом Arial десятий розміром. Для формування вихідних даних (вектор ознак) використовувалося растрове уявлення цифр (у вигляді масиву з 0 і 1). Розмір зображення, виходячи з шрифту написання, склав 6х10 квадратів. Звідси розмірність вхідного вектора - 60.

Вихідний вектор (- вектор, значення всіх координат якого повинні бути рівними 0, за винятком координати, відповідної вихідного елементу, який представляє шуканий клас (значення цієї координати повинно бути рівним 1)) має розмірність 10, у ньому номер позиції одиниці відповідає номеру цифри. Таким чином, навчальна пара містить 60 + 10 = 70 значень.

Для кожного бажаного образу формується відповідний масив, записаний в один рядок (зверху вниз зліва направо), і також в процесі навчання використовуються реальні вихідні значення, які записані в кінці рядка сформованого масиву.

2.2 Остаточний вибір моделі, структури і параметрів навчання НС

У NeuroShell 2 пропонується декілька моделей НС.

За рекомендаціями розробників пакету критерієм зупинки навчання буде: події після мінімуму> 20000, так як з використанням вбудованої калібрування цей критерій дозволяє уникнути перенавчання мережі та запам'ятовування тестових прикладів.

Про кончательний вибір нейронної мережі заснований на аналізі отриманих експериментально результатів для середньої помилки <0,000001.

Таблиця 1 Остаточний вибір нейронної мережі

Нейронна мережа

Час навчання

Кількість епох

Багатошаровий персептрон

0: 09

4047

Реккурентная мережу

2: 13

29274

Мережа Ворда

0:00

224

Мережа Ворда з обхідним з'єднанням

0:00

87

Тришарова мережу з обхідним з'єднанням

0:01

149

З аналізу таблиці 1 випливає, що найкращою моделлю є мережа Ворда з двома блоками прихованого шару, що мають різні передавальні функції, з обхідним з'єднанням.

Остаточний вибір структури нейронної мережі заснований на аналізі отриманих експериментально результатів для середньої помилки <0,000001.

Змінюємо кількість прихованих нейронів та передавальні функції прихованих блоків для вибору оптимальної структури мережі.

Передавальна функція блоку 1 - Б1.

Передавальна функція блоку 2 - Б2.

Таблиця 2 Остаточний вибір структури нейронної мережі

Параметр мережі

Час навчання

Кількість епох

Кількість нейронів - 30

0:00

99

Кількість нейронів - 40

0:00

87

Кількість нейронів - 50

0:00

86

Б1 - Гаусса, Б2 - Гаусса

0:00

87

Б1 - Гаусса, Б2 - комп. Гауса

0:00

87

Б1 - Гаусса, Б2 - sin

0:00

87

Б1 - комп. Гаусса, Б2 - комп. Гауса

0:00

86

Б1 - sin, Б2 - sin

0:00

87

Б1 - комп. Гаусса, Б2 - логістична

0:00

112

З аналізу таблиці 2 випливає, що оптимальною структурою мережі є:

компле. Гауссова функція для блоку 1;

компле. Гауссова функція для блоку 2;

кількість прихованих нейронів - 50 (25 в кожному із блоків);

Вибір параметрів навчання заснований на аналізі результатів експерименту для мережі Ворда з двома прихованими блоками, що мають різні передавальні функції, з обхідним з'єднанням, з кількістю прихованих нейронів дорівнює 50.

Таблиця 3 Вибір швидкості навчання

Швидкість навчання

Час навчання

Кількість епох

0,1

0:00

86

0,2

0:00

62

0,3

0:00

49

0,4

0:00

37

0,5

0:00

37

0,6

0:00

37

0,7

0:00

36

З аналізу таблиці 3 слід, що оптимальна швидкість навчання дорівнює 0,7.

Проаналізуємо тепер залежність навченості мережі від моменту при вибраній швидкості навчання.

Таблиця 4 Вибір моменту

Момент

Час навчання

Кількість епох

0,1

0:00

36

0,2

0:00

37

0,3

0:00

37

0,4

0:00

37

З аналізу таблиці 4 випливає, що оптимальне значення моменту дорівнює 0,1.

Таким чином оптимальними параметрами навчання для даної мережі є:

  • Швидкість навчання - 0,7

  • Момент - 0,1

2.3 Блок-схема алгоритму навчання

Блок-схема алгоритму навчання зі зворотним поширенням помилки [6]:

3 Аналіз якості навчання

Для перевірки здібностей до узагальнення на вхід мережі подаються зашумлені послідовності вхідних сигналів. Відсоток зашумлення показує, яку кількість бітів вхідного вектора було інвертовані стосовно розмірності вхідного вектора.

Вихідні і вихідні файли для аналізу якості навчання [6,7]:

Листи Шум 7, Шум 13 і Шум 20 в файлі cifri. Xls для 7%, 13% і 20% відповідно.

У силу великої розмірності таблиць, що містять вхідні і вихідні вектора, дані файли додаються до пояснювальної записки в електронному вигляді.

При зашумлення до 13% мережа добре вирішує запропоновану задачу. При введенні сигналів з ​​рівнем шуму 20% навчена мережа видає неправильні значення на 40% екзаменаційних наборах (тобто мережа не може віддати перевагу одній з декількох цифр).

Наприклад, при подачі зашумленного вектора, відповідного цифри 8, вихід мережі, відповідний 8 дорівнює 0,61, вихід 1 - 0,73.

При подачі цифри 3 відповідний вихід дорівнює 0,34, вихід 8 - 0,51.

Знизити помилку можна збільшивши розмірність сітки, якою розбиваються цифри, наприклад 16х16, тоді розмірність вхідного вектора 256.

Крім того можна знизити середню помилку при навчанні мережі.

Але, незважаючи на все вище сказане, можна сказати, що мережа добре навчилася і володіє хорошими здібностями до узагальнення.

4. Тестовий приклад

Для тестування мережі використовуємо екзаменаційні дані з файлу "test. Xls" з рівнем шуму 7%.

Результати відображені у файлі "test. Out", що додається до пояснювальної записки в електронному вигляді.

З аналізу вмісту файлу можна зробити висновок, що навчена мережа справляється з поставленим завданням і володіє високою здатністю до узагальнення.

5. Висновки

У цій роботі було вирішено окремий випадок задачі класифікації цифр арабського алфавіту на основі нейронних мереж. Задача була вирішена тільки для цифр, написаних шрифтом Arial, 10 розміру.

Для вирішення завдання на інших даних (інших алфавітів, шрифтів, розмірів шрифтів) буде потрібно ввести деякі зміни:

Збільшити кількість записів у файлі навчання;

Збільшити кількість осередків, на які розбивається символ (звичайно застосовується растр розміром 16х16 пікселів);

Зменшити середню помилку при навчанні нейронної мережі;

Для застосування цієї схеми до інших розмірами літер треба нормалізувати надходять на вхід мережі символи до єдиного розміру, наприклад 16х16.

Список використаних джерел

1. Стандарт підприємства СТП 1-У-НГТУ-98

2. Круглов В.В., Борисов В.В. Штучні нейронні мережі. Теорія і практика. - М.: Гаряча лінія - Телеком, 2001. - 382 с.: Іл.

3. Уоссермен Ф. Нейрокомп'ютерні техніка - М.: Світ 1992

4. Електронний підручник з NeuroShell 2

5. Терехов В.А. Управління на основі нейронних мереж. - М.: Вища школа, 2002. - 153 с.: Іл.

  1. Каллан Р. Основні концепції нейронних мереж

  2. Ресурси мережі Інтернет (http: / / alife. Narod. Ru /)

Додати в блог або на сайт

Цей текст може містити помилки.

Програмування, комп'ютери, інформатика і кібернетика | Реферат
78.6кб. | скачати


Схожі роботи:
Подання знань в агентних системах на прикладі системи Internet Knowledge Manager та динамічних
Способи подання знань
Фреймові моделі подання знань
Захист інформації в інформаційних системах
Захист інформації в інформаційних системах
Економічна теорія в інформаційних системах
Використання інформаційних технологій в системах управління
Графічні засоби Corel Draw в інформаційних системах
Технологічні операції та організація їх виконання в економічних інформаційних системах
© Усі права захищені
написати до нас