Психологічна інтуїція штучних нейронних мереж

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

міністерство загального та спеціального освіти Російської Федерації
сибірський державний технологічний університет
На правах рукопису
Доррер Михайло Георгійович
психологічна інтуїція ШТУЧНИХ нейронних мереж
05.13.16-Застосування обчислювальної техніки, математичного моделювання та математичних методів у наукових дослідженнях (у біофізиці).
дисертація
на здобуття наукового ступеня кандидата технічних наук
Науковий керівник:
доктор фіз.-мат. наук, професор А.Н. Горбань
Красноярськ - 1998

Зміст
"1-3"
Введення ................................................. .................................................. ........ 4
Глава 1. Психодіагностика та нейронні мережі ............................................. 13
1.1 Завдання та методи сучасної психодіагностики ................................. 13
1.2 Сутність інтуїтивного методу .............................................. ............... 16
1.3 Математичні моделі та алгоритми психодіагностики ..................... 17
1.4 перспективні алгоритми побудови психодіагностичних методик 23
1.5 методи відновлення залежностей .............................................. ...... 25
1.6 алгоритми і методи безумовної оптимізації ................................... 29
1.7 нейронні мережі ............................................... ......................................... 36
1.7.1 Основні елементи ............................................. ................................. 36
1.7.2 Структура мережі ............................................. ........................................ 37
1.7.3 Пряме функціонування мережі ............................................ .............. 37
1.7.4 Навчання мережі ............................................. .......................................... 38
1.7.5 Зворотне функціонування ............................................. ................. 39
Висновки глави 1 ............................................... ............................................. 40
Глава 2. Рішення нейромереж класичних завдань психодіагностики ..... 41
2.1 Класичний експеримент ............................................... ....................... 41
2.2 Оцінка значущості питань тесту ............................................. ........... 44
2.3 Контрастування мережі за значимістю питань тесту ......................... 46
2.4 Результати експериментів з контрастували мережами ................... 47
Висновки глави 2 ............................................... ............................................. 48
Глава 3. Інтуїтивне передбачення нейромереж взаємин ........ 50
3.1 Проблема оцінки взаємин .............................................. ........ 50
3.2 Загальна завдання експериментів .............................................. ................... 50
3.3 Застосовувані в експериментах психологічні методики .................. 51
3.4 Експерименти по прогнозу групового статусу ........................... 53
3.5 Нейромережеве дослідження структури опитувальника ............................... 60
3.6 Оцінка оптимізації задачника нейромережею з позицій теорії інформації ......................................... .................................................. ............................. 67
3.7 Експерименти по прогнозу парних взаємин ................ 68
Висновки глави 3 ............................................... ............................................. 69
Глава 4. Полутораслойний предиктор з довільними перетворювачами ............................................. .................................................. ......................... 71
4.1 Постановка проблеми ............................................... .............................. 71
4.2 Аналітичне рішення ............................................... ........................... 72
4.3 Запис рішення в ідеології нейромереж ............................................ ... 74
4.4 Алгоритмічна частина ............................................... ............................ 76
4.5 Оцінка інформаційної ємності нейронної мережі за допомогою вибіркової константи Ліпшиця ....................................... .................................................. ............... 82
4.6 Угода про термінологію .............................................. .................... 84
4.7 Компоненти мережі ............................................... ...................................... 85
4.8 Загальний елемент мережі .............................................. .................................. 85
4.9 Вхід мережі ............................................... .................................................. 87
4.10 Вихід мережі ............................................... .............................................. 87
4.11 Синапс мережі ............................................... ............................................. 88
4.12 Тривіальний суматор ............................................... ......................... 89
4.13 Нейрон ................................................ .................................................. . 89
4.14 Потік мережі ............................................... ............................................... 91
4.15 скомпонована полутораслойная потокова мережа .............................. 92
Висновки до розділу 4 .............................................. .......................................... 94
ВИСНОВКИ ................................................. .................................................. ... 95
ЛІТЕРАТУРА ................................................. .............................................. 98
Програма-імітатор полутораслойной мережі ............................................ 107
Програма розрахунку соціометричних показників ................................. 115
Психологічний опитувальник А.Г. Копитова ............................................... 119


Введення

З самого початку інформаційної ери ідеї відтворення у роботі обчислювальних машин принципів функціонування мозку займають розуми учених. Відомо, наприклад, що Вінер і Розенблатт спільно працювали над вивченням біологічних нейронів, і що з цих робіт народилася ідея навчання автоматів Вінера і теорія навчання мереж перцептронів Розенблатта.
Ідея застосування штучних нейронних мереж в сучасній обчислювальній техніці зайняла міцне місце в думках її розробників. Нейронні мережі застосовуються для вирішення задач штучного інтелекту, в системах технічних органів почуттів і управління виробничими процесами. Адаптивні сітківки Хопфілда застосовуються для створення стійких до перешкод систем зв'язку. У стадії дослідно-конструкторських розробок (наприклад, в лабораторіях фірми Siemens) знаходяться зразки апаратних нейрокомп'ютерів масового застосування - нейросопроцессоров до персональних комп'ютерів.
Нейрокомп'ютери знаходять застосування в багатьох галузях сучасної науки - ядерної фізики, геології, метеорології. Дослідження штучних нейронних мереж складають значні розділи в таких науках, як біофізика, обчислювальна математика, електроніка.
Привабливим було б і застосування штучних нейронних мереж до наук про людину. Однак тут виникає наступна проблема: їх теорія не сформувалася поки в достатній мірі для того, щоб описати процеси, що відбуваються в системах, у вигляді явних і придатних для моделювання на сучасній обчислювальній техніці алгоритмів. Виражається це, зокрема, в тому, що діагностичний апарат психології та медицини в істотній частині заснований на підходах, пов'язаних з вивченням та систематизацією прецедентів. Моделювання ж біофізичних процесів утруднено величезною складністю систем - так, при роботі з психологічними завданнями функціонування системи, що складається з кількості елементів порядку 109 (людського мозку) недоступне для моделювання на обчислювальній машині будь мислимої сьогодні потужності.
Спроби застосування нейромережевих підходів у медицині були розпочаті з чималим успіхом групою НейроКомп. За допомогою нейромережевих експертних систем були вирішені завдання прогнозування ускладнень інфаркту міокарда, ранньої діагностики та диференційної діагностики злоякісних пухлин судинної оболонки ока, моделювання лікування і прогнозування його безпосередніх результатів у хворих на облітеруючий тромбангіїт, диференціальної діагностики «гострого живота», вивчення імунореактивності.
Взагалі, на шляху застосування штучних нейронних мереж до завдань з області біології, медицини та психології можна очікувати кілька важливих результатів. По-перше, нейронні мережі, працюючи по неявним алгоритмам і вирішуючи завдання, що не мають явного рішення, за механізмом вирішення завдань наближаються до людського мозку, що може дати важливий матеріал для вивчення процесів вищої нервової діяльності. По-друге, нейромережі можуть служити в якості математичного інструменту для наукових досліджень при пошуку взаємозв'язків і закономірностей у великих інформаційних структурах, вивчення взаємного впливу різних факторів і моделювання складних динамічних процесів.
У силу цього розробка методів нейромережевого моделювання та аналізу інформації є актуальною задачею.
Розділ інформаційної науки, званий нейроінформатіке і розпочатий у свій час ще роботами Розенблатта над теорією навчання мереж перцептронів пережив кілька бумів і спадів. На даний момент самі загальні уявлення про нейроінформатіке такі:
Принципи роботи нейрокомп'ютерів нагадують взаємодію клітин нервової системи - нейронів через спеціальні зв'язку - синапси. Основою роботи самообучающихся нейропрограмм є нейронна мережа, що представляє собою сукупність нейронів - елементів, пов'язаних між собою певним чином.
Навчання нейронної мережі досягається шляхом підстроювання параметрів - ваг синапсів і характеристик перетворювачів з метою мінімізації помилки визначення прикладів навчальної вибірки - пар виду «потрібний вихід - отриманий вихід».
У навчанні використовується алгоритм надшвидкого обчислення градієнта функції помилки за учнем параметрами за допомогою апарату двоїстих функцій. Наявність методів, що дозволяють одержувати в високопараллельном (за наявності відповідного апаратного забезпечення) режимі градієнт функції помилки дозволяє використовувати для навчання нейронних мереж великий апарат методів безумовної оптимізації багатовимірних функцій.
Досвід, накопичений дослідниками в області нейроінформатікі, показує, що за допомогою апарату нейронних мереж можливо задоволення вкрай гострої потреби практикуючих психологів і дослідників у створенні психодіагностичних методик на базі їх досвіду, минаючи стадію формалізації та побудови діагностичної моделі. Таким чином, дана робота присвячена дослідженню питання про можливість розвитку психологічної інтуїції у нейромережевих експертних систем.
Метою даної роботи було дослідження наступних аспектів застосування нейронних мереж до психологічних завдань:
вивчення функціонування нейронних мереж при вирішенні класичних завдань психодіагностики;
вивчення можливостей та механізму інтуїтивного передбачення нейромережею відносин між людьми на основі їх психологічних характеристик;
Для більш детального з'ясування механізму інтуїції штучних нейронних мереж при вирішенні психологічних завдань, що характеризуються надзвичайно високою розмірністю простору вхідних сигналів, вимагалося також створення програмної моделі нейроімітатора з оптимізацією обсягу нейронної мережі для вирішення конкретного завдання.
Для досягнення зазначених цілей були поставлені наступні завдання:
- Оцінити принципову придатність нейромереж для вирішення психологічних завдань;
- Оцінити придатність інтуїтивного підходу, коли нейронна мережа видає рекомендації минаючи створення дескриптивної реальності;
- Розробити логічну структуру програмного забезпечення, що представляє собою програмну модель нейроімітатора і найкращим чином відповідного вирішення завдань даного класу;
- Реалізувати в даній програмі алгоритм оцінки необхідної для даного задачника обсягу нейронної мережі за допомогою вибіркової константи Ліпшиця.
Для вирішення цих завдань в дисертаційній роботі зроблено наступне:
У першому розділі показаний коло завдань, пов'язаних з комп'ютерною психодіагностикою та діагностичної інтуїцією. Виконано огляд методів створення психодіагностичних методик, освітлений коло застосовуваних при цьому математичних методів і алгоритмів. У зв'язку з цим проведено розгорнуте оглядове дослідження алгоритмів відновлення залежностей і методів безумовної оптимізації, а також наведені основні відомості, що стосуються апарату нейронних мереж.
У другому розділі описується серія експериментів, спрямованих на перевірку гіпотези про можливість застосування нейронних мереж до завдань психодіагностики. На матеріалі ковзаючого контролю за навчальною вибіркою з 273 прикладів досліджується якість (похибка) постановки психологічного діагнозу нейронної мережею на базі стандартного тесту лобі.
Проводиться дослідження можливості застосування нейронних мереж як апарату психодиагноста - дослідника при визначенні та оптимізації структури психологічних тестів.
Досліджується вплив структури психологічних тестів на діагностичну інтуїцію штучної нейронної мережі.
У третьому розділі аналізується серія експериментів, спрямованих на перевірку гіпотези про можливість інтуїтивного передбачення нейромережею відносин між людьми на основі їх психологічних якостей, об'єктивно описуваних психологічним тестом. Дослідження проведено на матеріалі 48 досліджуваних і 474 пар взаємних виборів.
Проведена робота з визначення оптимальної структури нейронної мережі для передбачення соціального статусу досліджуваних на основі опитувальника.
Проведена оцінка похибки прогнозу статусу досліджуваних у групі, виконано порівняння її з відстанню між випадковими прикладами.
Виконано перехресне міжгрупове, а також спільне для всіх груп дослідження з метою з'ясування внутрішньогрупової локальності психологічної інтуїції нейронної мережі.
На базі оцінок значущості вхідних параметрів нейронної мережі проведена оцінка надмірності базового опитувальника, досліджено вплив мінімізації опитувальника на якість передбачення статусу досліджуваних у групі.
Проведена оцінка похибки прогнозу відносин між двома досліджуваними, виконано порівняння її з відстанню між випадковими прикладами.
У четвертому розділі описана ідеологія, структура об'єктів та алгоритми функціонування нейроімітатора з автоматично нарощуємо обсяги мережі.
Виконано опрацювання математичної постановки завдання навчання нейронної мережі з поетапним вичерпанням помилки.
Досліджено необхідність застосування математичного апарату нейронних мереж для вирішення даної задачі.
Сформульовано підхід до вирішення задачі оцінки необхідного обсягу нейронної мережі за допомогою мережевої і вибіркової констант Ліпшиця.
Виконано опрацювання об'єктно-орієнтованої структури програмного нейроімітатора, досліджено можливість застосування такої ж (або подібної) структури для побудови класичних нейонних мереж.
Доопрацьовані згідно з вимогами об'єктно-орієнтованого програмування класичні алгоритми навчання нейронних мереж.
Новизна
- Вперше досліджено поведінку штучних нейронних мереж при розв'язанні завдань психодіагностики, показана принципова можливість такого застосування.
- Вперше проведена робота з інтуїтивного передбачення модель нейронної мережі взаємовідносин між людьми на основі їх об'єктивних характеристик (психологічних тестів), минаючи побудова описаної реальності і вивчення соціальної історії досліджуваних.
76.Оузер Д. Освой самостійно Delphi 2. - М.: Біном, 1997 - 624с.
77.Поляк Б.Т. Введення в оптимізацію. М.: Наука, 1983, с. 15-94.
78.Поспелов Д.А. Дані і знання. Представлення знань / / Штучний інтелект. Кн.2: Моделі та методи: Довідник - М.: Радіо і зв'язок. - С.7-13.
79.Практіческая психологія для викладачів. / Під ред. М. К. Тутушкиной / / М.: Філін, 1997 - с. 167.
80.Псіхологіческій словник / під редакцією В.В. Давидова, А.В. Запорожця, Б.Ф. Ломова и др. - М.: Педагогіка, 1983 - с.140-141
81.Псіхологія. Словник. / За загальною редакцією А.В. Петровського, М.Г. Ярошевського. - М.: Політвидав, 1990 - с.149.
82.Пфанцагль І. Теорія вимірів. - М.: Світ, 1976 - с. 248.
83.Розенблатт Ф. Принципи нейродинаміки. Перцептрон і теорія механізмів мозку. - М.: Світ, 1965. - С.480.
84.Россіев Д.А., Винник Н.Г. Передбачення «вдалості» майбутнього шлюбу нейромережевими експертами. / / Нейроінформатика та її застосування: Тези доповідей II всеросійського робочого семінару, 7-10 жовтня 1994 р. - Красноярськ, 1994. - С.45.
85.Россіев Д.А., Гильов С.Є., Коченов Д.А. MultiNeuron, версії 2.0 та 3.0 / / Тези доповідей III всеросійського семінару «Нейроінформатика та її застосування». - Красноярськ: вид. КДТУ, 1995 - с.14.
86.Россіев Д.А., Головенкін С.Є., Назаров Б.В. та ін Визначення інформативності медичних параметрів за допомогою нейронної мережі / / Діагностика, інформатика та метрологія - 94: Тези науково-технічної конференції, Санкт-Петербург, 28-30 червня 1994 р. - С-Пб., 1994. - С.348.
87.Россіев Д.А., Коченов Д.А. Пакет програм «MultiNeuron» - «Configurator» - «Tester» для конструювання нейромережевих додатків. / / Нейроінформатика та її застосування: Тези доповідей II всеросійського робочого семінару, 7-10 жовтня 1994 р. - Красноярськ, 1994. - С.30.
88.Савушкін С.А. Нейромережеві експертні системи / / Нейрокомп'ютер - 1992, № 2 - с.29-36
89.Суппес П., Зінес Дж. Основи теорії вимірів / / Психологічні вимірювання. - М.: Світ, 1976 - с.9 - 119.
90.Тарасов К.Є., Веліков В.К., Фролова О.І. Логіка і семіотика діагнозу: Методологічні проблеми. - М.: Медицина, 1989. -272с.
91.Таунсенд К., Фохт Д. Проектування і програмна реалізація експертних систем на персональних ЕОМ. - М.: Фінанси і статистика, 1990 - 320с.
92.Тіхоміров О.К., Собчик Л.М., Гур'єва Л.П., Гарбер І.Є., Тарновська Н.В., Ремізова А.Л. Аналіз етапів комп'ютеризованої психодіагностики (на прикладі MMPI). / / Питання психології, № 2, 1990 - с.136-142.
93.Фу. К. Структурні методи в розпізнаванні образів. -М. Світ, 1977 - С.320.
94.Ципкін Я.З. Адаптація та навчання в автоматичних системах. - М.: Наука, 1968 - с.400.
95.Шеннон К. Роботи по теорії інформації в кібернетиці, пров. з англ., М., 1963, с. 243-332.
96.Шмелев А.Г. Психодіагностика і нові інформаційні технології. / / Комп'ютери і пізнання. - М.: Наука, 1990 - с.87-105.
97.Шмелев А.Г., Похилько В.І. Аналіз пунктів при конструюванні та застосуванні тест - опитувальників: ручні та комп'ютерні алгоритми / / Питання психології - 1985 - № 4 - с.126-134.
98.Шнейдерман Б. Психологія програмування. М.: Радіо і зв'язок, 1984 - С.139.
99.Ямпольскій Л.Т. Типологічний підхід до прогнозу клінічних особливостей хронічного алкоголізму / / Питання психології - 1986 - № 2 - с.91 - 99.

Додаток 1

Програма-імітатор полутораслойной мережі


Рис.1 Сторінка «редагування даних»
Нейроімітатор, структура і функціонування якого описані в розділі 4 цієї роботи виконано в середовищі розробки програм Delphi developer v.2.0 і може функціонувати в операційних системах Windows-95 і Windows-NT.
У цьому додатку проілюстрована робота з інтерфейсом нейроімітатора. Вся структура інтерфейсу програми організована у вигляді блокнота, що складається з чотирьох сторінок:
· Структура задачника
· Редагування даних
· Навчання помічених
· Тестування
Крім того в правій частині вікна програми розташована панель, на якій знаходиться кнопка «Вихід» після натискання якої відбувається від'єднання від активної бази даних і закриття програми.
На рис.1 зображена сторінка «редагування даних», в якій відбувається зчитування та редагування даних задачника. Редагування ведеться безпосередньо у вікні, в якому відображаються дані.
Зв'язок з файлом даних встановлюється при натисканні кнопки «відкрити задачник». Відбувається виклик інтерфейсного діалогу «відкриття файлу»
Система може використовувати як задачника всі файли локальних баз даних, підтримуваних ODBC, а саме:
· Paradox (3.5, 4, 5 for Windows, 7);
· DBASE (III +, IV, for Windows);
· MSACCESS.
Тип файлу може бути обраний зі списку з відповідною назвою.
На сторінці «Конфігурація задачника» розміщені інтерфейсні елементи, призначені для виконання наступних функцій:
· Позначка завдань (навчальні / тестовані).
Для позначки завдання на включення або виключення її зі списку активних досить подвійного клацання по відповідному рядку скролліруемого вікна «Набір завдань». Потім на діалозі, що з'явився «Позначка завдань" треба встановити перемикач у відповідне положення, і якщо рішення про позначці прийнято правильно, то натиснути кнопку «Ok», а інакше - «Відмова».
Для позначки сигналу як вхідного, вихідного або порожнього, досить подвійного клацання по відповідному рядку скролліруемого вікна «Набір сигналів». Потім на діалозі, що з'явився «Сигнал» потрібно встановити перемикач в требуемоее положення, і якщо рішення про позначці прийнято правильно, то натиснути кнопку «Ok», а інакше - «Відмова».
На сторінці «Навчання помічених» розташовані інтерфейсні елементи, що дозволяють управляти процесом навчання нейронної мережі.
Кнопки «Зберегти мережу» і «Вважати мережа» дозволяють відповідно записати нейронну мережу і вважати її з файлу у власному форматі програми (таких файлів присвоєно традиційне розширення «*. nn»). Вибір файлу під час запису і зчитуванні відбувається за допомогою стандартних діалогів Windows «Відкрити файл» і «Зберегти файл», які вже налаштовані на роботу з файлами нейронних мереж.
У процесі навчання відображаються:
* Оцінка (сумарна помилка) мережі на даній стадії навчання;
* Номер учня потоку;
* Функція перетворювача, для якої йде підбір параметрів;
* Поточне значення кроку оптимізації;
* Виконувана зараз оптимізаційна процедура.
У текстовому вікні міститься список потоків в порядку навчання зверху вниз. Для кожного з них повідомляється обрана функція перетворювача і досягнуте значення оцінки мережі.
Кнопка «Почати навчання» викликає очищення нейромережі та початок навчання з першого потоку.
Кнопка «Продовжити навчання» сигналізує програмі про те, що потрібно продовжити доучивание мережі, вважаючи останній з наявних потоків вже навченим.
На сторінці "Тестування" поміщається вікно, в якому при натисканні кнопки «Тестування» виводяться такі дані про завдання:
* Номер;
* Справжнє значення результату;
* Значення результату, обчислена нейромережею.
Перехід між сторінками блокнота здійснюється клацанням миші по ярличку необхідного листа.

додаток 2

Програма розрахунку соціометричних показників

Дана програма призначена для введення і обробки соціометричної інформації.
Програма реалізована в середовищі розробки програм Borland Delphi developer v.2.0. і може функціонувати в операційних системах Windows-95 і Windows-NT.
Для кожного досліджуваного зберігається його ідентифікаційний код (наприклад, його ім'я або прізвище) і соціометричні оцінки, поставлені ним іншим членам своєї групи. По введених оцінками для статусу і експансивності досліджуваних розраховуються (відповідно, по стовпцях і рядках) такі характеристики:
* Коефіцієнт популярності (експансивності) досліджуваних, обчислюваний як відношення ненульових оцінок цього випробуваного (від цього випробуваного) до загальної кількості числа членів групи.
* - Середнє арифметичне ненульових оцінок стовпця (рядки).
* - Середньоквадратичне відхилення ненульових оцінок стовпця (рядки).
* Стен - стінова оцінка статусу (експансивності) цього випробуваного. Обчислення Стена ведеться наступним чином:
Обчислюється мат. очікування оцінок по всій соціометричної матриці .
Для кожного стовпця (рядки) проводиться розбиття інтервалу в з центром у на десять рівновеликих інтервалів.
Далі кожній оцінці присвоюється значення номера того інтервалу, в який вона потрапила з цього розбиття.
Введення та відображення інформації ведеться в матрицю рядків. Після занесення прізвищ їх редагування може бути блокований. Це зроблено з тим, щоб виключити помилковий введення при занесенні соціометричних оцінок.
Для економії ресурсів комп'ютера на час занесення інформації функція перерахунку підсумкових соціометричних показників може бути відключена.
Дані про групи досліджуваних можуть бути збережені і лічені з файлів у власному форматі програми (розширення *. scm).
При зчитуванні й запису інформації вибір файлу здійснюється за допомогою стандартних діалогів Windows «Відкриття файлу» і «Зберегти файл», які спеціально налаштовані для роботи з файлами програми.
Виклик операцій роботи з файлами, а також команди виходу з програми здійснюється з меню програми.

Додаток 3

Психологічний опитувальник А.Г. Копитова

Субтест 1
Опитувальник містить твердження або питання, що стосуються Вашого характеру. З кожним з ні Ви можете погодитися або не погодитися. Давайте відповіді ("так" або "ні"), в залежності від того, чи підходить воно Вам.
1. Чи легко Ви генеруєте ідеї, пов'язані з роботою?
2. Чи легко Вам виконувати роботу, що вимагає тривалої уваги і великої зосередженості?
3. Чи відчуваєте Ви почуття занепокоєння, що Вас неправильно зрозуміли в розмові?
4. Чи любите Ви гри в швидкому темпі?
5. Швидкі чи у Вас руху рук?
6. Ви зазвичай говорите без запинок?
7. Чи легко Ви можете знайти інші варіанти вирішення відомої задачі?
8. Ви коли-небудь запізнюєтеся на побачення або на роботу?
9. Чи часто Вам не спиться через те, що ви посперечалися з друзями?
10. Чи подобається Вам швидко бігати?
11. Чи відчуваєте Ви постійну спрагу діяльності?
12. Чи швидко Ви читаєте вголос?
13. Якщо Ви обіцяли щось зробити, чи завжди Ви виконуєте свою обіцянку незалежно від того, зручно це Вам чи ні?
14. Чи всі ваші звички хороші і бажані?
15. Чи завжди Ви платили б за провезення багажу на транспорті, якби не побоювалися перевірки?
16. Зазвичай Вам важко переключати увагу з однієї справи на інше?
17. Чи важко Вам говорити дуже швидко?
18. Чи тремтять у Вас іноді руки під час сварки?
19. Зазвичай Ви віддаєте перевагу легку роботу?
20. Повільні Ваші руху, коли Ви щось майструєте?
21. Ви зазвичай бажаєте виконувати тільки одну операцію?
22. Чи буває так, що Ви говорите про речі, в яких не розбираєтеся?
23. Ви зазвичай віддаєте перевагу робити нескладні справи, не вимагають від Вас великої енергії?
24. Смокче Чи є у Вас під ложечкою перед відповідальним розмовою?
25. Чи вважаєте Ви свої рухи повільними і неквапливими?
26. Ваша мова звичайно повільна і некваплива?
27. Чи схильні Ви іноді перебільшувати у своїй уяві негативний
ставлення близьких до Вас людей?
28. Чи відчуваєте Ви тягу до напруженої відповідальної діяльності?
29. Чи подобається Вам швидко говорити?
Субтест 2
Опитувальник містить твердження або питання, що стосуються Вашого характеру. З кожним із них Ви можете погодитися або не погодитися - в залежності від того, чи підходить воно Вам. Вибирайте найбільш типове для Вас і вказуйте відповідну літеру. Варіанти відповідей - "А", "Б", "В".
1. Я віддаю перевагу нескладну класичну музику сучасним популярним мелодіям?
а) вірно
б) не впевнений
в) невірно
2. У мене бувають такі хвилюючі сни, що я прокидаюся
а) часто
б) зрідка
в) практично ніколи
3. Навколишнім відомо, що в мене багато різних ідей, і я майже завжди можу запропонувати якесь рішення проблеми.
а) так
б) щось середнє
в) немає
4. Якщо б я зробив корисний винахід, я вважав за краще б:
а) працювати з ним в лабораторії і далі
б) важко вибрати
в) подбати про його практичному використанні
5. До дна народження, до свят
а) я люблю робити подарунки
б) важко відповісти
в) вважаю, що купівля подарунків кілька неприємний обов'язок
6. Іноді в мене бували засмучення через те, що люди говорили про мене погано за очі без усяких на те підстав
а) часто
б) важко відповісти
в) немає
7. Мені подобається робота різноманітна, пов'язана з частими змінами та поїздками, навіть якщо вона трохи небезпечна
а) так
б) вірно щось середнє
в) немає
8. Я волів би мати дачу
а) у пожвавленому дачному селищі
б) вважав за краще б щось середнє
в) відокремлене, в лісі
9. Я проводжу багато вільного часу, розмовляючи з друзями про тих колишніх події, які ми разом пережили колись
а) так
б) вірно щось середнє
в) немає
10. Думаю, що про мене правильніше сказати, що я
а) ввічливий і спокійний
б) вірно щось середнє
в) енергійний і напористий
11. Застарілий закон повинен бути змінений
а) тільки після грунтовного обговорення
б) вірно щось середнє
в) негайно
12. Якщо хтось розлютився на мене
а) Я постарався б його заспокоїти
б) я не знаю, що б я зробив
в) це викликало б у мене роздратування
13. Іноді якась нав'язлива думка не дає мені заснути
а) так, це вірно
б) не впевнений
в) ні, це невірно
14. Мені приносить задоволення робити ризиковані вчинки тільки заради забави
а) так
б) вірно щось середнє
в) немає
15. Я роблю людям різкі критичні зауваження, якщо мені здається, що вони того заслуговують
а) зазвичай
б) іноді
в) ніколи не роблю
16. Якби я працював у господарській сфері, мені було б цікавіше
а) розмовляти з замовниками, клієнтами
б) вибирати щось середнє
в) вести рахунки та іншу документацію
17. Вечір, проведений за улюбленим заняттям, приваблює мене більше, ніж жвава вечірка
а) згоден
б) не впевнений
в) не згоден
18. Зазвичай я можу зосереджено працювати, не звертаючи уваги на те, що люди навколо мене дуже шумлять
а) так
б) вірно щось середнє
в) немає
19. Якщо начальство або члени сім'ї мене в чомусь дорікають, то, як правило, тільки за справу
а) так
б) вірно щось середнє
в) немає
20. Буває, що я кажу незнайомим людям про речі, які здаються мені важливими, незалежно від того, запитують мене, чи ні.
а) так
б) вірно щось середнє
в) немає
21. При рівній тривалості дня мені було б цікавіше працювати:
а) столяром або кухарем
б) не знаю, що вибрати
в) офіціантом в хорошому ресторані
22. Коли мною намагаються командувати, я навмисне роблю все навпаки
а) так
б) вірно щось середнє
в) немає
23. Люди ставляться до мене менш доброзичливо, ніж я того заслуговую своїм добрим до них ставленням.
а) дуже часто
б) іноді
в) ніколи
24. Зазвичай я спокійно переношу самовдоволених людей, навіть коли вони хваляться або іншим чином показують, що вони високої думки про себе.
а) так
б) вірно щось середнє
в) немає
25. При вигляді диких тварин мені стає трохи не по собі, навіть якщо вони надійно замкнені в клітинах
а) так
б) не впевнений
в) немає
Субтест 3
Опитувальник містить твердження або питання, що стосуються Вашого характеру. З кожним з ні Ви можете погодитися або не погодитися. Давайте відповіді ("так" або "ні"), в залежності від того, чи підходить воно Вам.
1. Чи часто Ви переходите на інший бік вулиці, щоб не зустрічатися з ким небудь із знайомих?
2. Іноді Вам дуже хотілося назавжди піти з дому
3. Погані передчуття завжди виправдовуються
4. Ви дуже часто не в курсі справ та інтересів тих людей, які Вас оточують.
5. Іноді Ви так наполягаєте на чому-небудь, що люди починають втрачати терпіння
6. Часом у голову приходять такі думки, що краще про них нікому не розповідати
7. Чи подобаються Вам "першоквітневі" жарти?
8. Іноді у Вас пропадає або змінюється голос, навіть якщо Ви не застуджені
9. Вам ніяково входити в кімнату, де вже зібралися і розмовляють люди
10. Ви не раз помічали, що незнайомі люди дивляться на Вас критично.
11. Ви знаєте, хто винен у більшості Ваших неприємностей.
12. Тримайтеся Ви зазвичай "в тіні" на вечірках або в компаніях?
13. Іноді Ви не поступаєтеся людям не тому, що справа дійсно важливе, а просто з принципу.
14. Не всі Ваші знайомі Вам подобаються.
15. Чи вважаєте Ви мати поменше приятелів, але зате особливо близьких Вам.
16. Іноді по кілька днів Ви не можете звільнитися від якої-небудь дріб'язкової думки.
17. Ви часто турбуєтеся про що-небудь.
18. Ви здійснюєте багато вчинків про які потім шкодуєте (більше і частіше ніж інші)
19. У гостях Ви тримаєтеся за столом краще, ніж удома.
20. Деякі так люблять командувати, що Вам все хочеться робити наперекір, хоча Ви знаєте, що вони мають рацію.
21. Ви вважаєте за краще не починати розмову з людьми, поки вони самі до Вас не звернуться.
22. Вам неважко внести пожвавлення в досить нудну компанію.
23. Коли Ви дізнаєтеся про успіхи близького знайомого, у Вас з'являється відчуття, що Ви невдаха.
24. Найважче для Вас - це справитися з собою.
25. Часом Вам так подобається спритність якого-небудь злочинця, що Ви сподіваєтеся, що його не впіймають.
26. Якщо Вам не загрожує штраф, то Ви переходите вулицю там, де Вам зручно, а не там, де належить.
27. Ви часто відчуваєте потяг до нових вражень, до того, щоб підбадьоритися, випробувати порушення.
28. Ви скло Ганни приймати всі занадто близько до серця.
29. Ви любите готувати (їжу)
30. Ви не засуджуєте того, хто прагне взяти від життя все, що може.
31. Ви намагаєтеся уникати конфліктів і скрутних положень.
32. Чи справляєтеся Ви з справою краще, обмірковуючи його самостійно, а не обговорюючи з іншими.
33. Ваші батьки та інші члени сім'ї часто чіпляються до Вас
34. Часом, коли Ви погано себе почуваєте, Ви буваєте дратівливими.
35. Ви вели щоденник.
36. Ви легко бентежитеся.
- Вперше проведена робота по оптимізації структури психодіагностичних методик на основі дослідження механізму психологічної інтуїції програмних нейроімітаторов.
- Реалізовано ніколи раніше не застосовувалася полутораслойная структура нейронної мережі, що дозволяє реалізувати автоматичне зміна числа нейронів у залежності від потреб завдання, дозволяє не тільки дослідити, але й контролювати процес виховання психологічної інтуїції штучних нейронних мереж.
- Вперше застосована вибіркова константа Ліпшиця для оцінки необхідної для вирішення конкретного завдання структури нейронної мережі.
Практична значимість
Отримані в роботі результати дають підхід до розкриття механізму інтуїції нейронних мереж, що дається взнаки при вирішенні ними психодіагностичних завдань. Показується також шлях використання розуміння механізму психологічної інтуїції нейромережевих експертних систем в істотному спрощення процесу формування діагностичних моделей. Результати представляють інтерес для теорії створення психодіагностичних методик, дозволяють рекомендувати нейронні мережі для застосування в даній області. Представлений у роботі нестандартний для комп'ютерних методик інтуїтивний підхід до психодіагностики, що полягає у виключенні побудови описаної реальності, дозволяє скоротити і спростити роботу над психодіагностичні методики. Дослідження механізму інтуїції нейронних мереж при прогнозі психологічної сумісності в групі і парної сумісності дає важливий матеріал для осмислення механізму даного явища. Ідеологія, апробована при створенні програмного імітатора нейронної мережі, відкриває шлях до оптимізації структури штучних нейронних мереж за принципом достатньої для даного завдання обсягу. Створена для даної програми структура об'єктів є універсальним апаратом для моделювання складних функцій за допомогою мереж автоматів і знаходження локальних екстремумів цих функцій за допомогою методів безумовної оптимізації.
Положення виносяться на захист:
- Для вирішення класичної задачі психодіагностики по породження описаної реальності з ймовірністю правильної відповіді близько 95% може бути використана штучна нейронна мережа полносвязной структури з параметром нейрона рівним 0.4 і числом нейронів рівним 2.
- Штучна нейронна мережа полносвязной структури з 16 нейронів з параметром перетворювача рівним 0.1 здатна породжувати інтуїтивний прогноз соціометричного експерименту. Вихідні дані для прогнозу можуть бути обмежені об'єктивної психологічної картиною досліджуваних, збір інформації про їх соціальний історії необов'язковий. Відносна похибка такого прогнозу становить 25-30%.
- Розкриття механізму інтуїції нейронних мереж за допомогою апарату обчислення значущості вхідних параметрів дозволяє спрощувати психодіагностичні моделі, скорочуючи розмірність простору ознак.
- Нейронна мережа полутораслойной структури здатна вирішувати завдання відновлення залежності за навчальною вибіркою за допомогою алгоритму поетапного вичерпання помилки нарощуванням обсягу мережі.
- Застосування вибіркової константи Ліпшиця в алгоритмі нарощування мережі дозволяє обмежити надмірність числа нейронів і обсягу мережі.
Публікації. Основні результати роботи опубліковані в 11 друкованих роботах.
Апробація роботи. Матеріали дисертації були представлені на Всеросійському семінарі «Нейроінформатика та її застосування» в 1994 і 1995 роках, на конгресі «Нові концепції розкриття вищих функцій мозку» в 1995 році в японському місті Тохва, на всесвітньому нейромережевому конгресі у Вашингтоні в липні 1995 року, у двох доповідях на міжнародному симпозіумі «Нейроінформатика та нейрокомп'ютери» у Ростові на Дону в вересні 1995 року, на круглому столі з питань інтелектуальних технологій крайової конференції «Проблеми інформатизації регіону» в 1996 році, на 3-ій міжнародній конференції «Математика, комп'ютер, освіта» в Дубні в 1996 році. Останні результати, отримані при створенні полутораслойного предиктора повідомлено на конференції «Проблеми інформатизації регіону» -97. Розроблені методики оцінки і прогнозу сумісності у навчальних групах використовуються в повсякденній діяльності ФАР КГТА.

Глава 1. Психодіагностика та нейронні мережі

1.1 Завдання та методи сучасної психодіагностики

Важливе місце серед завдань сучасної психології займає психодіагностика - прийняття рішення про готівковому психологічному стані людини в цілому або по відношенню до якого або окремо взятому людському властивості. Метою психодіагностики за сучасними поняттями згідно [26] є опис індивідуально - психологічних особливостей, властивостей особистості в інтересах теорії і практики.
За однією з найбільш вживаних в даний час трактувань [71] психодіагностика є наукою, в руслі якої вирішуються такі питання:
Яка природа психологічних явищ і принципова можливість їх наукової оцінки?
Які в даний час загальні наукові підстави для принципової пізнаваності і кількісної оцінки психологічних явищ?
В якій мірі застосовуються засоби психодіагностики відповідають прийнятим загальнонауковим, методологічним вимогам?
Які основні методичні вимоги, які пред'являються до різних засобів психодіагностики?
Які підстави достовірності результатів, які пред'являються до умов проведення психодіагностики, засобів обробки отриманих результатів і способів її інтерпретації?
Які основні процедури конструювання та перевірки науковості методів психодіагностики, включаючи тести?
Точна психодіагностика в будь-якому психологічному експерименті передбачає оцінювання психологічних властивостей випробуваного.
Одним з ключових в сучасній психодіагностиці є поняття діагнозу, яке в [61] трактується наступним чином: «Поняття« діагноз »є своєрідним вираженням і конкретизацією загальнонаукового поняття« стан », що відображає домінуючий спосіб изменеия та розвитку систем у цих відносинах, у певному місці і часу ».
Згідно [21] діагностика як практична діяльність здійснюється з метою перетворення реального стану об'єкта. Діагностичне пізнання в цілому є таким видом пізнання, в якому суб'єкт, виходячи зі своїх практичних потреб, ставить цілком певну мету - використовувати закони функціонування об'єкта, що діагностується для здійснення втручання в систему, тобто приведення її у стан нормального функціонування методами управління.
Однак психодиагностический метод згідно [7], [26] має свої особливості. Його аналіз дозволяє виділити специфічні мотиви, що визначають активність суб'єкта, особливу стратегію його поведінки, специфіку ситуації - як соціальну (взаємодія психолога і досліджуваного), так і стимульную (наприклад, з різним ступенем структурованості) - і т.д.
Істотну складність в психодіагностики складає парадокс теоретичного та психодіагностичного опису однієї і тієї ж реальності, суть якого полягає в гносеологічному різниці між «теоретичної» і «виміряної» особою, що відрізняється в свою чергу від особистості реальною. Наслідком даної складності є те, що спроби ототожнення «теоретичної» і «виміряної» особистості виявляються, в кінцевому рахунку, малопродуктивними, носять штучний характер.
Область застосування психодіагностики згідно [71] дуже широка. У неї входять:
-Перевірка гіпотез, що перевіряються в експериментах;
-Прикладні дослідження, в яких потрібно перевірити результат запровадження тих чи інших нововведень;
-Психологічне консультування, для проведення якого психолог повинен мати правильний діагноз досліджуваного, бачити суть його проблеми;
-Практична психокорекційна робота;
-Медична психологія;
-Патопсихологія;
-Інженерна психологія;
-Психологія праці.
Можна стверджувати, що психодіагностика може застосовуватися всюди, де потрібне точне знання про ступінь розвитку тих чи інших властивостей людини.
Згідно [47] психодіагностика характеризується широким спектром методичних підходів. Дане розмаїття обумовлює існування різних систем класифікації психодіагностичного експерименту в залежності від значущих для класифікації атрибутів. Для комп'ютерної психодіагностики таким значимим атрибутом може служити формализуемость психодіагностичної методики, яка дозволяє визначити можливість використання в психодіагностичне експерименті комп'ютерної інформаційної технології.
Поняття «формализуемость» конкретизується розбивкою на самостійно систематизуються елементи: вплив на випробуваного в ході експерименту (стимули), відповіді (відгуки) випробуваного на цей вплив і операції з інформацією, народженої реакцією випробуваного на стимули.

1.2 Сутність інтуїтивного методу

Згідно [81] інтуїція - знання, що виникає без усвідомлення шляхів та умов його отримання, в силу чого суб'єкт має його як результат «безпосереднього розсуду». Інтуїція трактується і як специфічна здатність (наприклад, художня та наукова інтуїція) і як «цілісний охоплення» умов проблемної ситуації (чуттєва інтуїція, інтелектуальна інтуїція) і як механізм творчої діяльності (творча інтуїція).
Наукова психологія розглядає інтуїцію як необхідний, внутрішньо обумовлений природою творчості момент виходу за межі стереотипів, що склалися поведінки і, зокрема, логічних програм пошуку рішення завдання.
Згідно [80] інтуїція - евристичний процес, що складається в знаходженні рішення задачі на основі орієнтирів пошуку, не пов'язаних логічно чи недостатніх для отримання логічного висновку. Для інтуїції характерна швидкість (іноді моментальність) формулювання гіпотез і прийняття рішень, а також недостатня усвідомленість його логічних підстав.
Інтуїція проявляється в умовах суб'єктивно чи об'єктивно неповної інформації та органічно входить у властиву мислення людини здатність до екстраполяції.
Механізм інтуїції полягає в сімультантном об'єднання декількох інформативних ознак різних модальностей у комплексні орієнтири, що направляють пошук рішення. У такому одночасному обліку різною за своєю якістю інформації полягає відмінність інтуїтивних процесів від дискурсивних, в яких у одному розумовому акті (логічному кроці) може враховуватися тільки якась одна модифікація ознак завдання, що пов'язуються між собою.
Орієнтири пошуку в інтуїтивних та дискурсивних процесах не мають принципового відмінності за складом входить в них інформації. Логічні принципи, у тому числі формальні, включаються в інтуїтивно формований інформативний комплекс і, будучи самі по собі недостатніми для отримання рішення, у поєднанні з іншими інформаційними зв'язками визначають напрямок пошуку.
Основну роль в інтуїції грають семантичні узагальнення, які стосуються цієї області завдань. Така інтуїція лікаря або вченого.

1.3 Математичні моделі та алгоритми психодіагностики

У роботі дослідника з конструювання психодіагностичного тесту прийнято виділяти три етапи [20], [47].
На першому етапі конструюється «чорнової» варіант тесту. До нього включаються завдання, відповіді на які, на думку експериментатора, повинні відображати індивідуально-психологічні відмінності досліджуваних з даного конструкту.
На другому етапі дослідник вибирає діагностичну модель і визначає її параметри. Під діагностичної моделлю розуміється спосіб компонування (перетворення, агрегування) вихідних діагностичних ознак (варіантів відповідей на завдання тесту) в діагностичний показник.
На третьому етапі проводиться стандартизація та випробування побудованої діагностичної моделі.
Найбільш вживаною в психодіагностики є лінійна діагностична модель. Без застосування емпірико-статистичного аналізу не обходиться жодна серйозна спроба конструювання або адаптації тестів [97]. Вихідним матеріалом для такого аналізу служать результати експериментального обстеження репрезентативної вибірки випробовуваних за допомогою «чорнового» варіанту психодіагностичного тесту. З отриманих даних формується таблиця експериментальних даних (див. табл. 1)
Таблиця 1
Структура таблиці експериментальних даних
Об'єкти (
Вихідні ознаки
випробовувані)
x1
x2
...
xi
...
xp
X1
x11
x12
...
x1j
...
x1p
...
...
...
...
...
...
...
Xi
xi1
xi2
...
xij
...
xip
...
...
...
...
...
...
...
XN
xN1
xN2
...
xNi
...
xNp
У табл. ... N - загальна кількість об'єктів (випробовуваних), p - загальна кількість ознак, xj - j-й ознака, xij - значення j-ї ознаки, виміряний біля i-го об'єкта, X = (x1, ..., xp) T - вектор ознак, Xi = (xi1, ..., xip) T - i-й об'єкт, X = {Xi} - безліч об'єктів.
Вихідні ознаки xj, як правило, виміряні в номінальних і порядкових (ординальні) шкалах [18], [82], [89]. Для більшості об'єктивних методик не можна апріорно встановити ні кількісних відносин ні відносин порядку, оскільки їх ознаки являють собою номінальні вимірювання. Найчастіше при формалізації тестових методик застосовують «діхотомізацію» [65] - процедуру перетворення початкових показників в набір ознак з двома градаціями.
Для ординальні ознак істотний лише порядок градацій на шкалі, і для них вважаються допустимими будь-які монотонні перетворення не порушують цей порядок. Методично суворим є застосування до ординальні ознаками методів обробки, результат яких інваріантний щодо допустимих перетворень порядкової шкали [49].
Далі, після сформування таблиці експериментальних даних, проводиться побудова діагностичної моделі. Вважається, що модель повинна в певній формі висловлювати залежність між вектором вхідних ознак і тестуємим властивістю (значення вираженості властивості далі буде позначатися y). Модель повинна відображати механізм перетворення y = y (x).
Попереднім етапом у побудові діагностичних моделей є як правило з'ясування структури таблиці експериментальних даних. На цьому етапі проводиться оцінка кореляції між факторами і близькості між об'єктами. Набір математичних моделей і алгоритмів, використовуваних для цього, визначається виходячи із специфіки експериментальних даних в психодіагностики.
Для визначення ступеня зв'язку між ознаками використовуються [48], [65], [73]:
-Коефіцієнт кореляції Пірсона, є мірою лінійної зв'язку двох змінних: , Де і . У рамках цього ж підходу сконструйовані коефіцієнт рангової кореляції Спірмена, точковий бісеріальний коефіцієнт кореляції і тетрахоріческій коефіцієнт кореляції.
-Коефіцієнт , Призначений для вимірювання зв'язку двох дихотомічних ознак [73]. Коефіцієнт обчислюється на базі таблиць спряженості ознак (див. табл. 2) за формулою .
Таблиця 2
Таблиця спряженості дихотомічних ознак
Ознака
Ознака
Підсумок
1
0
1
a
b
a + b
0
c
d
c + d
Підсумок
a + c
b + d
-Коефіцієнт рангової кореляції «тау» Кенделла, заснований на підрахунку числа розбіжностей в ранжировки об'єктів по зіставляються змінним. Даний коефіцієнт розроблений виходячи із завдання тлумачення процесу вимірювання зв'язку між змінними без допомоги принципу твори моментів. Розглядаються дві ознаки і , На кожен з яких N об'єктів відображаються в N послідовних рангів. З N об'єктів формується пар. Тоді коефіцієнт обчислюється за формулою , Де P - кількість збігів порядку на ознаці з порядком на ознаці , Q - кількість розбіжностей.
Ступінь зв'язку між ознаками може бути використана для оцінки надмірності набору ознак «чорнової» моделі, для взаємоконтролю шкал і т.п.
Для визначення близькості об'єктів використовуються різні міри відстані:
* Евклідів відстань .
* Виважена евклідова відстань .
* Відстань Махаланобіса , Де S - коваріаційна матриця генеральної сукупності, з якої вилучені об'єкти і .
* Відстань Маньківського (Міська метрика), що застосовується для вимірювання відстані між об'єктами, описаними ординальні ознаками. дорівнює різниці номерів градацій по k-му ознакою у порівнюваних об'єктів і .
* Відстань Хеммінга , Яке використовується для визначення відмінностей між об'єктами, що задаються дихотомічними ознаками й інтерпретується як число розбіжностей значень ознак у розглянутих об'єктів і .
Отримана на основі якої-небудь метрики (докладніше - [25], [48], [50]) інформація про ступінь близькості об'єктів може бути використана для виділення їх угруповань.
Представлення інформації про структуру експериментальних даних служить проміжною ланкою в побудові діагностичної моделі. Незалежно від типу моделі її створення може спиратися на два підходи:
1.Стратегія, заснована на автоінформатівності експериментальних даних.
Високий ступінь близькості між групою ознак може свідчити про те, що ознаки, що увійшли до групи, відображають емпіричний фактор, відповідний діагностичному конструкту.
Виділення геометричних угруповань у просторі об'єктів може свідчити про відмінність досліджуваних об'єктів щодо тестованого властивості, що дозволяє будувати діагностичний.
Для стратегій, заснованих на автоінформатівності експериментальних даних, важливою категорією є узгодженість завдань тесту.
Узгодженість вимірювалася реакція піддослідних на тестові стимули означає, що вони повинні мати статистичну спрямованість на вираження загальної, головної тенденції тесту.
На стратегії, заснованої на автоінформатівності експериментальних даних, будуються конструювання діагностичного алгоритму за допомогою методу головних компонент [17], [18], [19], факторного аналізу [66] і методу контрастних груп [97].
2. Стратегія, заснована на критеріях зовнішньої інформативності. Зовнішня інформація може бути представлена ​​у вигляді прив'язки до об'єктів значень «залежною» змінної, виміряної в кількісній шкалі, у вигляді номера однорідного щодо тестованого властивості класу, у вигляді порядкового номера (рангу) об'єкта в ряді всіх об'єктів, упорядкованих за ступенем прояву діагностується властивості або у вигляді сукупності значень набору зовнішніх (не включених до таблиці експериментальних даних) ознак, що характеризують тестований психологічний феномен.
Методи, засновані на зовнішній інформативності ознак прийнято підрозділяти на експертні, експериментальні та життєві.
До числа експертних критеріїв відносять оцінки, судження, висновки про випробовуваних, винесені одним експертом або їх групою.
Експериментальними критеріями служать результати одночасного і незалежного дослідження випробуваного іншим тестом, який вважається апробованим і вимірює те ж властивість, що і конструюються тест.
В якості життєвих критеріїв використовуються об'єктивні соціально - демографічні та біографічні дані.
На стратегії, заснованої на зовнішній інформативності експериментальних даних, будуються конструювання діагностичного алгоритму за допомогою регресійного аналізу, дискримінантного аналізу [49] і типологічного підходу [60], [99].
Найбільш широко в даний час вживаються лінійні діагностичні моделі. Однак в умовах неоднорідності навчальної вибірки вони мають практичної успішністю не вище 70-80% [60].
Побудована діагностична модель може вважатися психодиагностическим тестом тільки після проходження нею випробувань на предмет перевірки психометричних властивостей - надійності та валідності [20], [27].
Надійність тесту - характеристика методики, що відображає точність психодіагностичних вимірів, а також стійкість результатів тесту до впливу сторонніх випадкових факторів [27].
Валідність - міра відповідності тестових оцінок уявленням про сутність властивостей або їх ролі в тій чи іншій діяльності [60].

1.4 перспективні алгоритми побудови психодіагностичних методик

Перспективним напрямком у побудові психодіагностичних методик в даний час вважається використання апарату теорії розпізнавання образів [2], [13], [47].
Класифікація методів розпізнавання образів різноманітна. Виділяються параметричні, непараметричні і евристичні методи, існують класифікації засновані на термінології сформованих наукових шкіл. У [52] методи розпізнавання образів класифікуються наступним чином:
-Методи, засновані на принципі поділу;
-Статистичні методи;
-Методи типу «потенційних функцій»;
-Методи обчислення оцінок (голосування);
-Методи, засновані на апараті числення висловів.
Крім того істотним для методу, заснованого на теорії розпізнавання образів, може бути спосіб представлення знань. В даний час виділяють два основних способи [78]:
Інтенсіональні вистави - схеми зв'язків між атрибутами (ознаками)
Екстенсіонального вистави - конкретні факти (об'єкти, приклади).
Група інтенсіональних методів розпізнавання образів включає в себе наступні підкласи:
1) Методи, засновані на оцінках щільностей розподілу значень ознак (методи непараметричної статистики) [18].
2) Методи, засновані на припущеннях про клас вирішальних функцій (методи, які використовують в якості вирішального алгоритму мінімізацію функціонала ризику або помилки) [6], [15], [36], [41], [94].
3) Логічні методи, що базуються на апараті алгебри логіки і дозволяють оперувати інформацією, укладеної не тільки в окремих ознаках, а й у поєднанні їх значень [49].
4) Лінгвістичні (структурні) методи, засновані на використанні спеціальних граматик, що породжують мови, за допомогою яких може описуватися сукупність властивостей розпізнаваних об'єктів [93].
Група екстенсіонального методів включає в себе:
Метод порівняння з прототипом, що застосовується коли розпізнавані класи відображаються в просторі ознак компактними геометричними угрупованнями.
Метод k-найближчих сусідів, в якому рішення про віднесення об'єкта до певного класу приймається на основі інформації про приналежність k його найближчих сусідів.
Алгоритм обчислення оцінок (голосування), що складається в обчисленні пріоритетів (оцінок подібності), що характеризує «близькість» розпізнається і еталонних об'єктів за системою ансамблів ознак, що є системою підмножин заданої множини ознак [51], [52], [53].
При порівнянні екстенсіонального і інтенсіональних методів розпізнавання образів в [47] вживається наступна аналогія: інтенсіональні методи відповідають левополушарном способу мислення, заснованого на знаннях про статичних і динамічних закономірностях структури сприймають інформації; екстенсіонального ж методи відповідають правополушарной способу мислення, заснованого на цілісному відображенні об'єктів світу.

1.5 методи відновлення залежностей

Найбільш широко в даній роботі будуть розглянуті методи побудови психодіагностичних методик на базі інтенсіональних методів, заснованих на припущеннях про клас вирішальних функцій. Тому розглянемо їх більш докладно.
Основною перевагою методів, заснованих на припущенні про клас вирішальних функцій є ясність математичної постановки задачі розпізнавання як пошуку екстремуму. Різноманіття методів цієї групи пояснюється широким спектром використовуваних функціоналів якості вирішального правила та алгоритмів пошуку екстремуму. Узагальненням даного класу алгоритмів є метод стохастичної апроксимації [94].
У цьому класі алгоритмів розпізнавання образів змістовна формулювання задачі згідно [29] ставиться таким чином:
Є деяке безліч спостережень, які відносяться до p різних класів. Потрібно, використовуючи інформацію про ці спостереженнях і їх класифікаціях, знайти таке правило, за допомогою якого можна було б з мінімальною кількістю помилок класифікувати знову з'являються спостереження.
Спостереження задається вектором x, а його класифікація - числом ( ).
Таким чином, потрібно, маючи послідовність з l спостережень і класифікацій побудувати таке вирішальне правило , Яке з можливо меншим числом помилок класифікувало б нові спостереження.
Для формалізації терміна «помилка» приймається припущення про те, що існує деяке правило , Що визначає для кожного вектора x класифікацію , Яка називається «істинної». Помилкою класифікації вектора x за допомогою правила називається така класифікація, при якій і не збігаються.
Далі передбачається, що в просторі векторів x існує невідома нам імовірнісна міра (позначається щільність ). Відповідно до випадково і незалежно з'являються ситуації x, які класифікуються за допомогою правила . Таким чином визначається навчальна послідовність .
Якість вирішального правила записується у вигляді , Де .
Проблема отже полягає в побудові вирішального правила таким чином, щоб мінімізувати функціонал .
Схожою з завданням розпізнавання образів є завдання відновлення регресії, передумови до якої формулюються наступним чином:
Два безлічі елементів пов'язані функціональною залежністю, якщо кожному елементу x може бути поставлений у відповідність елемент y. Ця залежність називається функцією, якщо безліч x - вектори, а безліч y - скаляри. Однак існують і такі залежності, де кожному вектору x ставиться в залежність число y, отримане за допомогою випадкового випробування, згідно умовної густини . Інакше кажучи, кожному x ставиться у відповідність закон , Згідно з яким у випадковому випробуванні реалізується вибір y.
Існування таких зв'язків відображає наявність стохастичних залежностей між вектором x і скаляром і скаляром y. Повне знання стохастичної залежності вимагає відновлення умовної густини , Однак, ця задача дуже важка і на практиці (наприклад, в задачах обробки результатів вимірювання) може бути звужено до задачі визначення функції умовного математичного очікування. Ця звужена завдання формулюється так: визначити функцію умовного математичного очікування, тобто функцію, яка кожному x ставить у відповідність число y (x), рівне математичного сподівання скаляра y: . Функція y (x) називається функцією регресії, а завдання відновлення функції умовного математичного очікування - завданням відновлення регресії.
Сувора постановка завдання така:
У деякому середовищі, що характеризується щільністю розподілу ймовірності P (x), випадково і незалежно з'являються ситуації x. У цьому середовищі функціонує перетворювач, який кожному вектору x ставить у відповідність число y, отриманий в результаті реалізації випадкового випробування, відповідно до закону . Властивості середовища P (x) і закон невідомі, проте відомо, що існує регресія . Потрібно за випадковою вибіркою незалежної пар відновити регресію, тобто в класі функцій знайти функцію , Найбільш близьку до регресії .
Задача відновлення регресії є однією з основних задач прикладної статистики. До неї наводиться проблема інтерпретації прямих експериментів.
Завдання вирішується в наступних припущеннях:
-Бажаєма закономірність пов'язує функціональною залежністю величину y з вектором x: .
-Метою дослідження є визначення залежності в ситуації, коли в будь-якій точці x може бути проведений прямий експеримент з визначення цієї залежності, тобто проведено прямі вимірювання величини . Однак внаслідок недосконалості експерименту результат вимірювання визначить справжню величину з деякою випадковою помилкою, тобто в кожній точці x вдається визначити не величину , А величину , Де - Помилка експерименту, .
-Ні в одній точці x умови експерименту не допускають систематичної помилки, тобто математичне очікування вимірювання функції в кожній фіксованій точці дорівнює значенню функції в цій точці: .
-Випадкові величини і незалежні.
У цих умовах необхідно за кінцевим числа прямих експериментів відновити функцію . Необхідна залежність є регресія, а суть проблеми полягає у знаходженні регресії по послідовності пар .
Задача відновлення регресії прийнято зводити до проблеми мінімізації функціонала на множині (Інтегровних з квадратом у міру функцій) у ситуації, коли щільність невідома, але зате задана випадкова і незалежна вибірка пар .

1.6 алгоритми і методи безумовної оптимізації

Як було показано в попередньому параграфі даної глави, вирішення основних завдань відновлення залежностей досягається за допомогою процедури оптимізації функціоналу якості.
Її рішення буде розглянуто в підходах задачі безумовної мінімізації гладкої функції [77].
Дане завдання безпосередньо пов'язана з умовами існування екстремуму в точці:
* Необхідна умова першого порядку. Точка називається локальним мінімумом на , Якщо знайдеться для . Згідно з теоремою Ферма якщо - Точка мінімуму на і диференційована в , То .
* Достатня умова першого порядку. Якщо - Опукла функція, диференційована в точці і , То - Точка глобального мінімуму на .
* Необхідна умова другого порядку. Якщо - Точка мінімуму на і двічі диференційовна в ній, то .
* Достатня умова другого порядку. Якщо в точці двічі диференційовна, виконано необхідна умова першого порядку ( ) І , То - Точка локального мінімуму.
Умови екстремуму є основою, на якій будуються методи рішення оптимізаційних завдань. У ряді випадків умови екстремуму хоча і не дають можливості явного знаходження рішення, але повідомляють багато інформації про його властивості.
Крім того, доказ умов екстремуму або вид цих умов часто вказують шлях побудови методів оптимізації.
При обгрунтуванні методів доводиться робити ряд припущень. Зазвичай при цьому потрібно, щоб у точці виконувалося достатня умова екстремуму. Таким чином, умови екстремуму фігурують у теоремах про збіжність методів.
І, нарешті, самі докази збіжності зазвичай будуються на тому, що показується, як «нев'язка» в умові екстремуму прагне до нуля.
При вирішенні оптимізаційних задач істотні вимоги існування, єдиності та стійкості рішення.
Існування точки мінімуму перевіряється за допомогою теореми Вейєрштрасса:
Нехай неперервна на і безліч для деякого непорожньо та обмежено. Тоді існує точка глобального мінімуму на .
При аналізі єдиності точки екстремуму застосовуються такі міркування:
Точка мінімуму називається локально єдиною, якщо в деякій її околиці немає інших локальних мінімумів. Вважається, що - Невироджена точка мінімуму, якщо в ній виконано достатня умова екстремуму другого порядку ( , ).
Доведено, що точка мінімуму (строго) опуклої функції (глобально) єдина.
Проблема стійкості рішення виникає у зв'язку з наступним колом питань:
* Нехай метод оптимізації призводить до побудови мінімалізує послідовності, чи випливає з цього її збіжність до вирішення?
* Якщо замість вихідної задачі мінімізації вирішується завдання, подібна до неї, чи можна стверджувати близькість їх рішень?
В [77] наводиться таке визначення стійкості:
Точка локального мінімуму називається локально стійкою, якщо до неї сходиться будь-яка локальна мінімізує послідовність, тобто якщо знайдеться таке, що з слід .
При обговоренні проблеми стійкості рішення задачі оптимізації можна виділити наступні важливі теореми.
* Точка локального мінімуму безперервної функції локально стійка тоді і тільки тоді, коли вона локально єдина.
* Нехай - Локально стійка точка мінімуму безперервної функції , А - Безперервна функція. Тоді для досить малих функція має локально єдину точку мінімуму в околиці і при .
* Нехай - Невироджена точка мінімуму , А функція неперервно диференційовна в околиці точки . Тоді для досить малих існує - Локальна точка мінімуму функції в околиці , Причому .
Крім якісної характеристики точки мінімуму (стійка вона чи ні) суттєвим є питання кількісної оцінки стійкості. Такі оцінки, що дозволяють судити про близькість точки до вирішення , Якщо близько до записуються таким чином:
Для сильно опуклих функцій:
,
де - Константа сильній опуклості.
Для невиродженої точки мінімуму:
,
де - Найменше власне значення матриці .
Як видно, в кожному з цих визначень відіграє роль характеристики «запасу стійкості» точки мінімуму.
Крім в якості характеристики стійкості точки мінімуму використовують «нормований» показник , Званий обумовленістю точки мінімуму .
,
.
Можна сказати, що характеризує ступінь витягнутості ліній рівня в околиці - «Яружно» функції (чим більше , Тим більше «яружний» характер функції).
Найбільш важливі в ідейному відношенні наступні методи безумовної оптимізації: градієнтний і Ньютона.
Ідея градієнтного методу полягає в тому, щоб досягти екстремуму шляхом ітераційного повторення процедури послідовних наближень починаючи з початкового наближення відповідно до формули , Де - Довжина кроку.
Збіжність даного методу підтверджується в доказі наступного теореми:
Нехай функція диференційовна на , Градієнт задовольняє умові Ліпшиця:
,
обмежена знизу:

і задовольняє умові
.
Тоді в градієнтному методі з постійним кроком градієнт прагне до 0: , А функція монотонно спадає: .
Для сильно опуклих функцій доводяться сильніші твердження про збіжності градієнтного методу.
При вирішенні задачі оптимізації методом Ньютона використовується підхід, що полягає в ітераційному процесі виду

і в знаходженні точки екстремуму як рішення системи з n рівнянь з n невідомими
.
У методі Ньютона виробляється лінеаризація рівнянь у точці і рішення лінеаризованої системи виду
.
Аналіз переваг і недоліків ітераційних методів оптимізації можна звести в таблицю (див. табл. 3).
Таблиця 3
Переваги і недоліки ітераційних методів оптимізації
Метод
Переваги
Недоліки
Градієнтний
Глобальна збіжність, слабкі вимоги до , Простота обчислень
Повільна збіжність, необхідність вибору .
Ньютона
Швидка відповідність
Локальна збіжність, жорсткі вимоги до , Великий обсяг обчислень.
Видно, що достоїнства і недоліки цих методів взаємно додатковими, що робить привабливою ідею створення модифікацій цих методів, які об'єднують гідності методів і вільних від їх недоліків.
Модифікацією градієнтного методу є метод найшвидшого спуску:
, .
Модифікація методу Ньютона з метою надання йому властивості глобальної збіжності можлива, наприклад, способом регулювання довжини кроку:
.
Такий метод називають демпфірованним методом Ньютона. Можливі підходи до способу вибору кроку :
- Обчислення за формулою ;
- Ітераційний алгоритм, що полягає в послідовному дробленні кроку на константу починаючи зі значення до виконання умови , або умови , .
Демпфірованним метод Ньютона глобально сходиться для гладких сильно опуклих функцій.
Крім однокрокових методів, до яких відносяться градієнтний метод і метод Ньютона, існує цілий клас багатокрокових методів, які використовують для оптимізації інформацію, отриману з попередніх кроків. До них відносяться:
* Метод важкого кульки, що використовує итерационную формулу , Де , - Деякі параметри. Введення інерції руху (член ) У деяких випадках призводить до прискорення збіжності за рахунок вирівнювання руху по «яристі» рельєфу функції;
* Метод спряжених градієнтів. Тут параметри оптимізації знаходяться з рішення двовимірної задачі оптимізації:
,
.
Крім всіх перерахованих вище методів оптимізації існує ще клас методів, заснованих на ідеї відновлення квадратичної апроксимації функції за значеннями її градієнтів у ряді точок. До них відносяться:
* Квазіньютонівської методи, що мають загальну структуру , Де матриця перераховується рекуррентно на основі інформації, отриманої на k-й ітерації, так що . До числа таких методів відносяться ДФП (метод Давідона-Флетчера-Пауелла) і BFGS або БФГШ (метод Бройде-Флетчера-Гольдфарба-Шанно) [46].
* Методи змінної метрики і методи спряжених напрямків, згідно з якими метод , , Може розглядатися як градієнтний в метриці , А оптимальним вибором метрики є .

1.7 нейронні мережі

У даній роботі завдання розпізнавання образів і відновлення залежностей будуть вирішуватися в основному із застосуванням нейронних мереж. Огляд даної теми заснований на [1] - [6], [8] - [15], [22], [23], [32] - [34], [36] - [41], [59], [ 64], [67] - [70], [83] - [88].

1.7.1 Основні елементи

Нейронна мережа являє собою структуру взаємопов'язаних клітинних автоматів, що складається з наступних основних елементів:
Нейрон - елемент, що перетворює вхідний сигнал по функції:

де x - вхідний сигнал, c - параметр, що визначає крутизну графіка порогової функції, а cm - параметр спонтанної активності нейрона.
Суматор - елемент, що здійснює підсумовування сигналів надходять на його вхід:

Синапс - елемент, що здійснює лінійну передачу сигналу:

де w - "вага" відповідного синапсу.

1.7.2 Структура мережі

Мережа складається з нейронів, з'єднаних синапсами через суматори за наступною схемою:

1.7.3 Пряме функціонування мережі

Мережа функціонує дискретно за часом (тактами). Тоді синапси можна розділити на "синапси зв'язку", які передають сигнали в даному такті, і на "синапси пам'яті", які передають сигнал із виходу нейрона на його вхід на наступному такті функціонування. Сигнали, що виникають в процесі роботи мережі поділяються на прямі (використовувані при видачі результату мережею) і подвійні (що використовуються при навчанні) і можуть бути задані наступними формулами:
Для i-го нейрона на такті часу T:

де mi0 - параметр інціаціі мережі, xi1 - вхідні сигнали мережі, що надходять на даний нейрон, fiT - вихідний сигнал нейрона на такті часу T, Ai1 - вхідний параметр i-го нейрона на першому такті функціонування мережі, AiT - вхідний сигнал i-го нейрона на такті часу T, aji - вага синапсу від j-го нейрона до i-му, aMi - вага синап пам'яті i-го нейрона, ai1 - параметр нейрона і ai2 - параметр спонтанної активності нейрона, AiT-1 - вхідний сигнал i-го нейрона на такті T-1, fjT-1 - вихідний сигнал j-го нейрона на такті T-1 і fiT, A - похідна i-го нейрона за його вхідного сигналу.
Для синапсу зв'язку від i-го нейрона до j-му:

де sjT - вхідний сигнал синапсу від i-го нейрона до j-му, fiT - вихідний сигнал i-го нейрона, aij - вага даного синапсу, sijT - вихідний сигнал синапсу на такті часу T.
Для синапсу пам'яті i-го нейрона:

1.7.4 Навчання мережі

У цьому завданню навчання відбуватиметься по "конекціоністські" моделі, тобто за рахунок підстроювання ваг синапсів.
Суть навчання полягає у мінімізації функції помилки , Де W-карта ваг синапсів. Для вирішення завдання мінімізації необхідно обчислення градієнта функції з підстроювати параметри:

1.7.5 Зворотне функціонування

Розрахунок градієнта ведеться при зворотному відліку тактів часу за наступними формулами:
Для синапсу зв'язку:

Для синапсу пам'яті:

Остаточно після проходження q тактів часу приватні похідні за вагами синапсів будуть мати вигляд для синапсів пам'яті і для синапсів зв'язку відповідно:


Висновки глави 1

Застосовуваний в психодіагностики математичний апарат недостатньо задовольняє сучасним вимогам.
Нагальною є потреба у впровадженні в психодіагностичні методики математичного апарату, пов'язаного з розпізнаванням образів і відновленням залежностей.
Існуючі математичні методи та алгоритми занадто складні і трудомісткі для застосування їх фахівцями - предметниками, в тому числі і психодиагностом і не дозволяють комп'ютерними методиками безпосередньо по прецедентах переймати досвід людини-фахівця.
Використання математичного апарату нейронних мереж при створенні нейромережевих експертних психологічних систем дозволяє звести до мінімуму вимоги до математичної підготовки їх творців.

Глава 2. Рішення нейромереж класичних завдань психодіагностики

2.1 Класичний експеримент

Специфічні особливості математичного апарату нейронних мереж, детально описані в [36], [41] і досвід їх застосування в різних галузях знання (див. наприклад [5], [8], [10], [13], [84], [ 86]) підказали можливість вирішення при їх допомозі і психологічних завдань.
Передбачалося перевірити кілька можливостей використання нейронних мереж, а саме:
- По перше - очікувалося вирішення серйозної проблеми, що виникає у розробників і користувачів комп'ютерних психологічних тестів, а саме адаптивності методик. Математичне побудова сучасних об'єктивних діагностичних тестів грунтується на порівнянні, зіставленні виявленого стану з нормою, еталоном [21], [71]. Однак зрозуміло, що норми вироблені для однієї соціокультурної групи зовсім не обов'язково є такими ж для іншої (як приклад можна навести складності, які доводиться долати при адаптації зарубіжних методик). Нейромережеві ж імітатори володіють корисною в даному випадку особливістю дообучаться з того матеріалу, який надасть конкретний дослідник.
- По-друге - передбачалося використання нейромережевого імітатора як робочого засобу дослідника.
- По-третє - оцінка можливості створення за допомогою нейронних мереж нових, нестандартних тестових методик. Передбачалося перевірити можливість видачі безпосередніх рекомендацій щодо перетворення реального стану об'єкта, минаючи стадію виставлення діагнозу (побудови "виміряної індивідуальності" [26]).
Дослідження було виконано із застосуванням нейромережних програмних імітаторів об'єднання "НейроКомп" [36], [41], [70], [85], [87] на психологічному матеріалі, зібраному в Красноярському гарнізонному військовому госпіталі.
В першу чергу належало з'ясувати, чи доступний нейромереж той рівень діагностики, що вже досягнутий за допомогою стандартних психологічних тестів. Для отримання результатів максимальної достовірності була обрана досить перевірена клінічною практикою психологічна методика лобі [57] (Особистісний Опитувальник Бехтеревського інституту). Крім того, важливим фактором у виборі саме цього тесту було й те, що методика чітко алгорітмізована і має реалізацію у вигляді комп'ютерного тесту.
Отже завданням експерименту було визначити, наскільки адекватно нейромережевої імітатор може відтворити результати типової психологічної методики в постановці діагнозу пацієнту.
Розглянувши дану задачу, а також наявні в наявності нейромережеві програми було вирішено скористатися нейромережевих імітатором MultiNeuron (опис пакета див в [85], [87]).
Пакет програм MultiNeuron представляє собою програмний імітатор нейрокомп'ютера, реалізований на IBM PC / AT, і, в числі інших функцій, призначений для вирішення завдань n-арной класифікації. Даний пакет програм дозволяє створювати і навчати нейромережа для того, щоб по набору вхідних сигналів (наприклад, за відповідями на поставлені запитання) визначити приналежність об'єкта до одного з n (n <9) класів, які далі будемо нумерувати цілими числами від 1 до n. Необхідна для навчання вибірка була складена з результатів обстеження за методикою лобі 203 призовників і військовослужбовців на лікуванні в Красноярському гарнізонному військовому госпіталі та його співробітників. При цьому було отримано 12 файлів задачника для MultiNeuron (по гармонійного типу вибірка містила недостатньо даних - 1 приклад з наявністю даного типу).
Задачники були сформовані з рядків відповідей, що представляють собою ланцюжок з 162 сигналів, кожний з яких відповідав за 1 з питань опитувальника Лобі за наступним принципом: -1 - обраний негативну відповідь на дане питання, 1 - обраний позитивну відповідь, 0 - питання не вибраний. Дана система позначень була обрана, виходячи з бажаності нормування вхідних сигналів, що подаються на вхід нейронів на інтервалі [-1,1]. Відповідь задавався класами, 1 клас - тип відсутній, 2 клас - тип діагностується. При цьому для чистоти експерименту по власне типами реакції на стрес було прийнято рішення відмовитися від діагностики негативного ставлення до дослідження і виключити з навчальної вибірки такі приклади.
У загальних рисах суть експериментів зводилася до наступного: частина прикладів вихідної вибірки випадковим чином виключалася з процесу навчання. Після цього нейронна мережа навчалася на що залишилися, а відібрані приклади становили тестову вибірку, на якій перевірялося, наскільки обчислені відповіді нейронної мережі відповідають справжнім.
У процесі навчання нейронних мереж з різними характеристиками автор прийшов до висновку, що для даної задачі можна обмежитися числом нейронів рівним 2 (тобто по 1 нейрону на кожен з класів). Найкращі результати при тестуванні на перевірочної вибірці показали мережі з характеристичним числом нейронів c = 0.4.
Для докладної обробки була взята вибірка, що відповідає за ергопатіческій тип лобі. Серія експериментів з навчання мережі показала, що повнозв'язна мережу, що навчається на вибірці з 152 прикладів, не показує результат кращий, ніж 90% правильних відповідей (у середньому - близько 75%). Той же результат підтвердився при проведенні наскрізного тестування, коли навчання провадилося на 202 прикладах, а тестувався 1. Після навчання 203 мереж за такою методикою було отримано подібний результат - впевнено правильно було упізнано 176 прикладу (86.7%), невпевнено правильно - 4 (1.97%), невірно - 28 (13.79%), тобто загальний відсоток правильних відповідей склав 88.67. Слід, однак, відзначити, що зростання числа прикладів навчальної вибірки до 200 дозволили поліпшити число правильних відповідей до гарантованої величини 88.67% (див. вище). Слід припустити, що подальше збільшення навчальної вибірки дозволить і ще поліпшити цей результат. Крім того, причина помилок у визначенні ергопатіческого типу по лобі може переховуватися в недостатньому числі прикладів з наявністю даного типу (відношення прикладів з наявністю і відсутністю типу становить 29:174). Це підтверджується також і тим, що серед прикладів з наявністю типу відсоток невірних відповідей (12 з 29 або 41.38%) незрівнянно вищий ніж у вибірці в цілому. Можна, таким чином, зробити висновок, що нейронні мережі при використанні певних методів поліпшення результатів (див. нижче) дозволяють створювати комп'ютерні психологічні тести, які не поступаються нині чинними методиками, але володіють новим і дуже важливим на практиці властивістю - адаптивністю.

2.2 Оцінка значущості питань тесту

Представляє також інтерес результат, отриманий при оцінці значущості вхідних сигналів (відповідно - питань лобі).
Нехай деякий функціональний елемент нейронної мережі перетворює надходить на нього вектор сигналів A з якого-небудь закону , Де - Вектор адаптивних параметрів. Нехай H - функція оцінки, явно залежить від вихідних сигналів нейромережі і неявно від вхідних сигналів і параметрів нейромережі. При неоднозначному функціонуванні будуть обчислені приватні похідні для елемента v. Ці похідні показують чутливість оцінки до зміни параметра , Чим більше , Тим сильніше зміниться H при зміні цього параметра для даного прикладу. Може також виявитися, що похідна за яким-небудь параметру дуже мала в порівнянні з іншими, це означає, що параметр практично не змінюється при навчанні. Таким чином, можна виділити групу параметрів, до змін яких нейромережа найменш чутлива, і в процесі навчання їх зовсім не змінювати. Зрозуміло, що для визначення групи найменшою або найбільшої чутливості необхідно використовувати приватні похідні функції оцінки за параметрами в декількох циклах навчання і для всіх прикладів задачника. Під час навчання нейромережі динаміка зниження функції оцінки змінюється на різних етапах навчання. Буває важливим визначити, які вхідні сигнали на даному етапі навчання істотні для нейромережі, а які ні. Така інформація корисна в тих випадках, коли розмірність вектора вхідних сигналів велика і час навчання також залишає бажати кращого, оскільки дозволяє зменшити розмірність вектора вхідних сигналів без погіршення здатності до навчання нейромережі.
Пропонується наступний алгоритм вирішення такого завдання: через кілька циклів після початку навчання нейронної мережі включаємо процедуру обчислення показників значущості. Момент початку запуску даної процедури бажано підбирати індивідуально в кожному конкретному випадку, оскільки в перші кілька циклів навчання нейромережа як-би "нишпорить" в пошуках потрібного напрямку і показники значущості можуть змінюватися на діаметрально протилежні. Далі відбувається кілька циклів навчання, в ході яких накопичуються показники чутливості в якій-небудь нормі.
1)
2)
де - Норма для i-го сигналу, - Оцінка значимості i-го сигналу в k-му прикладі, M - число циклів підрахунку значущості. Після того, як показники підраховані, можна зробити зменшення числа вхідних сигналів. Зменшення слід проводити виходячи з того, що чим менше значення тим менше воно впливає на процес навчання.

2.3 Контрастування мережі за значимістю питань тесту

Таким чином, поряд з обчисленням показників значущості для оцінки ступеня навченості нейромережі, визначенням груп значущих сигналів з'являється можливість на ранніх етапах відсівати сигнали, маловліяющіе на процес навчання і роботу навченої нейромережі.
Однак слід зазначити, що даний алгоритм не страхує від того, що параметр, який опинився неважливим на початку навчання, не стане домінуючим при остаточному доучивания нейронної мережі.
Виходячи з таких посилок, автор зробив розрахунок параметрів значимості сигналів (питань) опитувальника лобі. При виборі сигналів з максимальною значимістю був отриманий список номерів питань, важливих для визначення даного типу, причому він в істотній частині збігався з ключовою вибіркою для даного типу по лобі. При відсіканні малозначущих входів був отриманий цікавий результат - якість навчання мережі істотно покращився (на 2-х таких мережах був отриманий результат 95.24% і 90.48%, або 20 і 19 правильних відповідей з 21 тестового прикладу). Який же висновок дозволяє зробити даний результат?
З найгрубіших оцінок необхідного обсягу експериментальної вибірки при створенні тестової методики слід, що якщо розмірність "ключовою послідовності" становить N питань, то для обчислення вагових коефіцієнтів при цих питаннях необхідна вибірка повинна становити порядку N * N прикладів. Якраз приблизно таке співвідношення (N - близько 15, N * N - близько 200) мало місце в описаному експерименті. Однак слід пам'ятати, що безліч запитань тесту, як правило, набагато ширше, ніж необхідно для діагностики даної ознаки, оскільки методики в більшості своїй призначені для визначення декількох ознак. А, отже, виникає наступна проблема: для визначення параметрів моделі потрібно M * M прикладів, де M - загальна кількість питань. Варто, мабуть, нагадати, що для методики лобі, наприклад, M = 162, тоді число прикладів має скласти 26244, що практично нереально для практика - одинаки, що не має за спиною потужного дослідницького центру.
У випадку ж, коли вибірка має недостатній розмір, виникає феномен "хибних кореляцій" - модель визначає вплив на вихідний результат тих параметрів, які насправді слабо з ним корелюють. Саме такі "помилкові кореляції" і викликають помилки при віднесенні досліджуваних до класу наявності або відсутності діагностується типу.

2.4 Результати експериментів з контрастували мережами

У наступній серії експериментів був використаний прийом, званий "контрастуванням". У нейроімітаторе "MultiNeuron" є можливість відключати частину вхідних сигналів. Досягається це тим, що синапси, відповідальному за відключається вхід, присвоюється фіксоване значення - 0, яке не може бути змінено в процесі навчання. Тоді цей вхід не впливає на процес навчання мережі. У даному експерименті автор виходив з того, що входи, що володіють мінімальної значимістю в області підстроювальних параметрів, яка відповідає навченому стану мережі, є несуттєвими для діагностики типу. Отже, при їх відключенні знижується розмірність простору входів, а отже - і реквізит розмір навчальної вибірки. Кардинальне поліпшення результатів навчання, досягнуте після проведення контрастування підтверджує цей факт, адже отриманий із загальних уявлень обсяг експериментальної вибірки як раз виявився достатнім для навчання контрастували мережі.
Отже, на запитання, поставлене вище, ми можемо відповісти: поліпшення результатів навчання після аналізу і настройки входів свідчить про те, що контрастування є засобом боротьби з помилковими кореляціями, і отже дозволяє скоротити обсяг експериментальної вибірки для багатопланових методик.
Крім того, побічним результатом обробки може служити набір питань, суттєвих для даного типу, що може дати предмет для роздумів психологам - теоретикам.

Висновки глави 2

1. Повнозв'язна нейронна мережа дозволяє виробляти психодіагностику досліджуваних на базі опитувальників класичних тестів з імовірністю правильної відповіді 95%.
2. Для створення нейромережевих експертних систем не потрібно втручання математика, дана технологія дозволяє програмі безпосередньо переймати досвід психодиагноста.
3. Психодіагностична методика, створена на базі технології нейромережевих експертних систем адаптивна до зміни соціокультурних груп.
4. За допомогою можливостей програмних нейроімітаторов можна виконувати дослідження параметрів психодіагностичних методик і уточнювати їх структуру.

Глава 3. Інтуїтивне передбачення нейромереж взаємин

3.1 Проблема оцінки взаємин

У роботі практичних психологів, які мають справу з підбором персоналу або досліджують взаємини всередині вже сформованих груп (прикладом першого може служити психолог-консультант з підбору персоналу, прикладом другого - офіцер по роботі з особовим складом у частинах, класний керівник у школі) постійно виникає задача встановлення і прогнозу міжособистісних відносин в групі.
Під ставленням до вивчення даного психологічний феномен, суттю якого є виникнення у людини психічного освіти, що акумулює в собі результати пізнання конкретного об'єкта дійсності (у спілкуванні це інша людина або група людей), інтеграції всіх відбулися емоційних відгуків на цей об'єкт, а також поведінкових відповідей на нього [24]. Крім того, спілкування звичайно відбувається в умовах певної ситуації: у присутності інших людей, які для спілкуються в різній мірі суб'єктивно значимі, на тлі якоїсь конкретної діяльності, при дії будь-яких експериментальних факторів.

3.2 Загальна завдання експериментів

У даній роботі була поставлена ​​задача змоделювати і, по можливості, спрогнозувати систему взаємовідносин в групі на основі стану і поведінки досліджуваних, залишаючи осторонь такі аспекти формування відносин між людьми, як зовнішній вигляд, приписувані людині цілі та мотиви [24]. Оцінки і прогнозу піддавалися міжособистісні «статусно-рольові» [79] відносини в групах. Оцінка сумісності «людина-людина» і «група-людина» велася за оцінкою статусу досліджуваних - індивідуальної (від кожного до кожного) і груповий (від групи до людини).
Завдання моделювання і прогнозування взаємовідносин людей в групі (колективі) неоднорідна - вона може бути умовно підрозділена на наступні підзадачі:
- Прогноз входження досліджуваного у сформований колектив;
- Прогноз сумісності між собою двох досліджуваних.
Крім того, при проведенні експериментів передбачалося апробувати до задачі прогнозу міжособистісних відносин методику інтуїтивною видачі передбачення минаючи створення описаної (дескриптивної) [26] реальності.

3.3 Застосовувані в експериментах психологічні методики

Для визначення фактичних відносин у досліджуваних групах застосовувалася соціометрична методика. Дана методика дозволяє визначити положення досліджуваного в системі міжособистісних відносин тієї групи, до якої він належить. Соціометричне дослідження групи зазвичай проводиться тоді, коли група включає в себе не менше 10 чоловік і існує не менше одного року. Всім членам досліджуваної групи пропонується оцінити кожного з товаришів (включаючи і самого себе - з'являється можливість вивчення самооцінки досліджуваних). У стандартному варіанті методики оцінка ведеться за триступеневою шкалою переваг - «сприймаю - байдужий - відкидаю». Однак для отримання більшої роздільної здатності методики шкала була модифікована до десятибальною. У використовуваному варіанті соціометричного дослідження застосовувалося таке завдання: «Оцініть своїх товаришів, поставивши собі запитання:« Наскільки я б хотів працювати з цією людиною в одній групі? ». Поставте у відповідній графі оцінку від 1 до 10 балів за наступним принципом: 1 - не хочу мати з ним нічого спільного, 10 - з цією людиною я б хотів працювати сильніше всього ».
Результатом дослідження для кожного з випробуваних у групі була стінова оцінка статусу та експансивності. Стен [20] представляє собою усереднену оцінку, нормовану у припущенні, що оцінки розподілені за законом нормального розподілу і, отже, виконується правило «трьох сигм». Статусом іменується стін бал усіх оцінок, зроблених даному члену групи, експансивністю - для стін бал усіх оцінок, зроблених даними випробуваним всім іншим представникам групи.
У процесі експериментів передбачалося підтвердити (або відкинути) гіпотезу про те, що нейромережа дозволяє на основі психологічних особливостей людей (представників групи) моделювати взаємини в групі і видавати прогноз щодо входження в групу нового члена і по взаєминах двох індивідуумів. Передбачалося також оцінити якість прогнозу - можливі значення помилок і їх розподіл.
Опис особистісних якостей піддослідних передбачалося отримати на основі опитувальника, складеного А.Г. Копитова (ППФ КДУ). Опитувальник включає в себе три субтеста, кожен з яких складається з питань, призначених для визначення константних властивостей людської особистості - темпераменту, емоційності, контактності і т. п. Загальна кількість питань - 90, у першому субтесте - 29, у другому - 25 і в третьому - 36. Текст опитувальників - див. Додаток 3.
Збір даних проводився шляхом проведення одночасного анкетування в студентських навчальних групах за опитувальником А.Г. Копитова і соціометричного дослідження. Потім результати соціометрії оброблялися на спеціально розробленою програмою (див. Додаток 2), яка розраховує стінові оцінки статусу і експансивності.
Експерименти з навчання нейронних мереж вироблялися на нейромережевому імітаторі MultiNeuron v2.0 в режимі предиктор, тобто нейромережі, що має на виході дійсне число (докладний опис - див [85], [87]).

3.4 Експерименти по прогнозу групового статусу

У цій серії експериментів передбачалося перевірити, наскільки нейронні мережі здатні моделювати входження до групи окремої людини.
За вищеописаною методикою були обстежили три студентські групи - третього, четвертого і п'ятого курсів, загальна кількість зібраних анкет - 48 (19, 17 і 12 по групах відповідно). Результати анкетування кожної з груп був складений задачник, що представляє собою реляційну таблицю, що включає наступні поля:
№ - автоіндексіруемий номер запису, ID - номер досліджуваного за списком групи, w1_1 - w1_29 - відповіді на запитання першого субтеста, w2_1 - w2_25 - відповіді на запитання другого субтеста, w3_1 - w3_36 - відповіді на питання третього субтеста, to1 - to30 - оцінки, виставлені даними випробуваним членам групи (рядок соціометричної матриці), St - значення стіновий оцінки статусу цього випробуваного, Ex - експансивності.
Для першого і третього субтестів, у яких питання мав два варіанти відповіді («Так» / «Ні»), відповідь кодувався за принципом 1 - «Так», 2 - «Ні». Другий субтест, що має три варіанти відповідей («а», «б,« в ») - 1 - варіант« а », 2 -« б », 3 -« в ».
При формування структури задачника поля w1_1 - w3_36 були позначені як вхідні, поле Ex - як вихідна. Нейромережа в процесі навчання повинна була придбати уміння передбачати статус члена групи з його відповідей на опитувальник А.Г. Копитова.

Таблиця 1
Результати експериментів з підбору оптимальних параметрів нейромережі, вирішує завдання передбачення статусу досліджуваних.
№ №
Характеристики мережі
Hвиб
Nneu

1
16
0.1
2,475
2
16
0,4
2,791
3
16
0,7
2,488
4
32
0,1
2,569
5
32
0,4
3,006
6
32
0,7
3,384
7
64
0,1
2,891
8
64
0,4
2,703
9
64
0,7
2,676
На першому етапі були проведені експерименти для з'ясування оптимальних параметрів нейромережі, призначеної для вирішення задачі передбачення статусу члена групи. Через нечисленність вибірок експерименти велися в режимі «ковзаючого тестування», коли для вирішення задачі навчається стільки ж мереж, скільки завдань в задачнику. При навчанні кожної з мереж одне завдання виключалася, і потім мережа тестувалася по ній. Для оцінки якості передбачення Hвиб застосовувався середній модуль помилки , Чим нижче значення - тим, відповідно краще прогноз. Результати цього етапу експериментів зведені в таблицю 1.
Значення чисел нейронів - Nneu - були взяті з таких міркувань: нейромережі з числом нейронів менше 16 навчалися вирішення завдання нестійке, процес оптимізації постійно заходив у глухий кут, а Hвиб у всіх таких експериментах перевищувало 3 (30% відносної похибки). 64 є максимально допустимим значенням числа нейронів для програми MultiNeuron v.2.0. Значення характеристичних чисел нейронів були розподілені в інтервалі від 0.1 до 0.7, оскільки даний інтервал є, по досвіду, накопиченого в групі «НейроКомп» [32], [33], [34], [36], [39], [41] , [59], [84], [86], інтервалом, в якому як правило лежать оптимальні характеристичні числа нейронів.
Таким чином, за результатами даної серії експериментів оптимальним було визнано кількість нейронів, рівне 16, і характеристичний параметр нейрона рівний 0.1, оскільки дані значення забезпечують найкращу вибіркову оцінку якості прогнозу Hвиб.
Наступним етапом роботи була серія експериментів, що дозволяють оцінити точність передбачення статусу досліджуваних всередині груп. Для кожної з груп було виконано навчання мереж для проведення ковзаючого контролю. Потім результати ковзаючого контролю фіксувалися і зводилися в табл. 2.
Таблиця 2
Результати експериментів по встановленню точності передбачення стаус досліджуваних всередині груп

Кількість піддослідних
Hвиб
1
19
2,587
2
17
2,854
3
12
2,475
Однак, з досвіду застосування нейроімітаторов, відомо, що на одних і тих же навчальних вибірках пророкування видається мережею може істотно різнитися.
Причина цього в тому, що початкова карта синаптичних ваг генерується випадковим чином. Для подолання даної проблеми в практиці створення нейромереж (див. наприклад [36]) використовується пророкування відповідей групою мереж, навчених на одних і тих же даних - консиліумом.
Вирішено було застосувати цей метод і для даної задачі. При проведенні ковзаючого контролю за вибіркою для кожного з випадків навчалася не одна нейромережа, а десять.
Фіксувалися середні вибіркові значення помилки передбачення статусу кожним з експертів, а потім, оцінювалася похибка передбачення всім консиліумом.
Таблиця 3
Оцінки похибок передбачення статусу досліджуваних у групах консиліуму мереж.
Nіссл
H1
H2
H3
H4
H5
H6
H7
H8
H9
H10
Hср
Hвиб
19
3,02
3,68
3,88
4,13
3,14
3,38
4,09
3,46
2,82
3,32
3,49
2,83
17
3,32
4,80
4,33
4,50
4,46
3,15
3,72
4,31
3,20
4,51
4,03
3,84
12
2,20
2,68
3,23
2,59
3,86
2,96
2,82
3,28
3,52
2,58
2,97
2,41
Для цього в якості відповіді на кожну із завдань ковзаючого контролю подавалося середнє значення відповідей десяти нейромереж - експертів. Результати цього експерименту представлені в табл. 3.
Тут Nіссл - число досліджуваних в даній групі, H1 - H10 - середні помилки передбачення статусу для кожної з мереж консиліуму, hсер - середнє значення помилки по всіх мереж консиліуму, Hвиб - помилка передбачення всім консиліумом.
Таким чином за трьома групами середній модуль помилки становить 3,08 (або, у відносних цифрах, середня похибка становить 30,8%).
Така похибка є задовільною для задачі передбачення статусу членів групи, оскільки як правило не виводить досліджуваного з груп класифікації - «лідер» - «середняк» - «аутсайдер», тобто відображає тенденцію входження до групи нової людини.
Крім того, при статистичному дослідженні експериментальних вибірок було обчислено середнє відстань між випадковими оцінками і
,
де N - кількість елементів вибірки.
Можна вважати, що характеризує математичне сподівання відстані між двома випадковими прикладами вибірки.
Для експериментів встановлення статусу тестованих в групі , Або 40.33%. Таким чином можна стверджувати, що отримана мережею похибка (30,8%) значимо відрізняється від випадкової.
Наступна серія експериментів проводилася з метою з'ясування, наскільки можна передбачати результати входження в одну групу на базі досвіду, накопиченого мережею по іншій групі.
У ході експериментів для кожної з груп був навчений консиліум з десяти нейромереж (їх характеристики, як і в попередніх експериментах, Nneu = 16,  = 0,1). Тут задачник подавався для навчання повністю, тобто мережа навчалася передрікання статусу за всім представникам групи. Потім на мережах цього консиліуму тестувалися дві інші групи.
Для згладжування фактора випадковості при генерації мереж як обчислених значень при розрахунку помилки визначення статусу бралися по кожній оцінці середні значення з обчислених десятьма мережами консиліуму. Результати цієї серії експериментів представлені в табл. 4.
Таблиця 4
Результати перехресного тестування
Про.
Тст.
H1
H2
H3
H4
H5
H6
H7
H8
H9
H10
Hср
Hвиб
1
2
1,87
3,96
2,85
3,65
4,62
1,82
2,82
1,97
1,77
4,32
2,97
2,48
1
3
2,26
3,98
3,58
3,61
2,36
2,46
3,64
2,16
2,55
3,11
2,97
1,79
2
1
4,31
4,03
3,92
3,48
4,17
3,66
3,83
4,33
4,03
3,78
3,95
3,5
2
3
3,82
1,81
2,91
3,43
2,75
3,13
3,08
2,53
2,57
3,06
2,91
2,05
3
1
3,4
4,09
3,21
2,91
2,76
3,65
3,03
2,56
2,89
3,51
3,20
2,79
3
2
3,60
3,28
3,72
2,94
4,24
4,30
3,91
4,35
3,60
4,13
3,81
3,77
Тут Про. - Порядковий номер групи, за якою навчалися нейронні мережі консиліуму, Тст. - Порядковий номер групи, за якою мережі тестувалися.
При аналізі цієї серії експериментів помітні наступні закономірності:
- Пророкування соціального статусу піддослідних нейронними мережами, навченими по інших групах (не за тим, в якій проводилося визначення статусу при соціометричному опитуванні) за своєю якістю дещо гірше, ніж таке ж пророцтво, зроблене нейромережі, навченими на цій же групі;
- Однак, у більшості випадків (у двох третинах з проведених експериментів) оцінка якості (середній модуль помилки Hвиб) є прийнятною (менше 3 балів або, у відносних значеннях - менше 30%);
- Добре видно, як при прогнозі статусу досліджуваних у групах реалізується принцип створення надійних систем з ненадійних елементів, закладений в концепцію нейронних мереж: помилка передбачення однієї нейромережею може становити неприйнятно більшу величину, однак консиліум з декількох нейромереж вирішує завдання істотно краще - помилка передбачення консиліумом мереж менше більшості з помилок окремих мереж, вона також завжди менше за середнє значення помилок окремих мереж консиліуму.
Після оцінки якості передбачення між групами вирішено було перевірити гіпотезу про те, що нейромережа може накопичувати досвід не тільки по окремій групі, але й акумулювати його по будь-якої заданої послідовності піддослідних. Для перевірки гіпотези була зроблена наступна серія експериментів: дані по всіх групах були об'єднані в один задачник, за яким проводилося ковзне тестування консиліуму з десяти мереж - експертів. Результати даної серії з 480 експериментів представлені в табл. 5.
Таблиця 5
Результати тестування консиліумів мереж, навчених за повною вибіркою.
№ експерта
Hвиб
1
3,02
2
2,56
3
2,88
4
3,04
5
2,94
6
2,88
7
2,74
8
2,46
9
2,59
10
3,12
Весь консиліум
2,32
Видно, що, як і в попередній серії експериментів, похибка кожного з експертів (і, як мінімум, математичне сподівання похибки) вище, ніж похибка консиліуму, тобто математичне очікування оцінок по консиліуму мереж завжди (або, вірніше, в більшості випадків) ближче до вірного відповіді, ніж оцінки окремих експертів.
Крім того легко помітити, що прогноз статусу досліджуваних у групі покращується з накопиченням вибірки - оцінка похибки передбачення, зробленого нейромережі, навченими за об'єднаною вибірці краще, ніж у будь-яких інших експериментах.
Інакше кажучи, нейромережі володіють можливістю акумулювати досвід передбачення соціометричного статусу досліджуваних у групі, причому цей досвід не локальний - навичка, отриманий на досліджуваних однієї групи значимо і для оцінки досліджуваних, що належать до інших груп.
Цей результат підтверджує тезу, наведений в [98], про те, що оцінки рівних у групі стійкі і, мабуть, на них не впливає зміна складу групи.
Причина цього феномена, імовірно, в тому, що при передбаченні статусу піддослідних інформація про них суттєво обмежена - відсутні дані анамнестичного плану, дані про їх соціальному стані.
Цим практично виключається зі складу використовуваних в прогнозі даних інформація про зовнішній вигляд, приналежності до соціокультурної або національної групи - тобто вся соціальна історія особистості і колективу в цілому, хоча відомо, що ці чинники можуть викликати істотну відмінність у поведінці людей зі схожим типом особистості.
Інформація ж про константних психологічні якості піддослідних щодо однорідна від групи до групи, що дозволяє нейромережі накопичувати досвід, заснований на ній.

3.5 Нейромережеве дослідження структури опитувальника

Наступним етапом робіт за прогнозом статусу досліджуваних у групах було визначення значущості питань опитувальника і виключення з нього найменш значущих питань.
Згідно з результатами глави 2 це може призвести до поліпшення якості прогнозу, що видається нейромережею. Для вирішення даної задачі була використана можливість обчислення значущості параметрів, закладена в MultiNeuron.
Були навчені п'ять нейронних мереж по задачник, який охоплює усі три групи досліджуваних, потім, засобами MultiNeuron, визначені числові значення значимості сигналів, відповідних питань опитувальника.
Після цього список питань був відсортований за середнім значенням величини значимості. У результаті була отримана наступна картина (питання розміщені за спаданням значимості):
1_6. Ви зазвичай говорите без запинок?
1_23. Ви зазвичай віддаєте перевагу робити нескладні справи, не вимагають від Вас великої енергії?
1_7. Чи легко Ви можете знайти інші варіанти вирішення відомої задачі?
3_24. Найважче для Вас - це справитися з собою.
3_28. Ви схильні приймати всі занадто близько до серця.
3_22. Вам неважко внести пожвавлення в досить нудну компанію.
1_2. Чи легко Вам виконувати роботу, що вимагає тривалої уваги і великої зосередженості?
1_1. Чи легко Ви генеруєте ідеї, пов'язані з роботою?
3_10. Ви не раз помічали, що незнайомі люди дивляться на Вас критично.
3_8. Іноді у Вас пропадає або змінюється голос, навіть якщо Ви не застуджені.
2_3. Навколишнім відомо, що в мене багато різних ідей, і я майже завжди можу запропонувати якесь рішення проблеми.
1_19. Зазвичай Ви віддаєте перевагу легку роботу?
1_27. Чи тремтять у Вас іноді руки під час сварки?
3_20. Деякі так люблять командувати, що Вам все хочеться робити наперекір, хоча Ви знаєте, що вони мають рацію.
2_25. Буває, що я кажу незнайомим людям про речі, які здаються мені важливими, незалежно від того, запитують мене, чи ні.
2_19. Якщо начальство або члени сім'ї мене в чомусь дорікають, то, як правило, тільки за справу
3_3. Погані передчуття завжди виправдовуються
2_24. Зазвичай я спокійно переношу самовдоволених людей, навіть коли вони хваляться або іншим чином показують, що вони високої думки про себе.
2_11. Застарілий закон повинен бути змінений
3_29. Ви любите готувати (їжу)
3_35. Ви вели щоденник.
1_8. Ви коли-небудь запізнюєтеся на побачення або на роботу?
2_5. До дня народження, до свят (я люблю робити подарунки / важко відповісти / вважаю, що купівля подарунків кілька неприємний обов'язок)
1_9. Чи часто Вам не спиться через те, що ви посперечалися з друзями?
2_21. При рівній тривалості дня мені було б цікавіше працювати (столяром або кухарем / не знаю, що вибрати / офіціантом в хорошому ресторані)
1_3. Чи відчуваєте Ви почуття занепокоєння, що Вас неправильно зрозуміли в розмові?
1_5. Швидкі чи у Вас руху рук?
3_4. Ви дуже часто не в курсі справ та інтересів тих людей, які Вас оточують.
1_28. Чи відчуваєте Ви тягу до напруженої відповідальної діяльності?
3_7. Чи подобаються Вам "першоквітневі" жарти?
1_17. Чи важко Вам говорити дуже швидко?
1_15. Чи завжди Ви платили б за провезення багажу на транспорті, якби не побоювалися перевірки?
3_25. Часом Вам так подобається спритність якого-небудь злочинця, що Ви сподіваєтеся, що його не впіймають.
1_10. Чи подобається Вам швидко бігати?
3_33. Ваші батьки та інші члени сім'ї часто чіпляються до Вас
2_2. У мене бувають такі хвилюючі сни, що я прокидаюся
3_18. Ви здійснюєте багато вчинків про які потім шкодуєте (більше і частіше ніж інші)
2_10. Думаю, що про мене правильніше сказати, що я (ввічливий і спокійний / вірно щось середнє / енергійний і напористий)
3_34. Часом, коли Ви погано себе почуваєте, Ви буваєте дратівливими.
3_12. Тримайтеся Ви зазвичай "в тіні" на вечірках або в компаніях?
1_20. Повільні Ваші руху, коли Ви щось майструєте?
3_2. Іноді Вам дуже хотілося назавжди піти з дому
3_31. Ви намагаєтеся уникати конфліктів і скрутних положень.
3_16. Іноді по кілька днів Ви не можете звільнитися від якої-небудь дріб'язкової думки.
3_11. Ви знаєте, хто винен у більшості Ваших неприємностей.
1_21. Ви зазвичай бажаєте виконувати тільки одну операцію?
1_18. Чи тремтять у Вас іноді руки під час сварки?
1_14. Чи всі ваші звички хороші і бажані?
3_14. Не всі Ваші знайомі Вам подобаються.
3_15. Чи вважаєте Ви мати поменше приятелів, але зате особливо близьких Вам.
3_13. Іноді Ви не поступаєтеся людям не тому, що справа дійсно важливе, а просто з принципу.
3_26. Якщо Вам не загрожує штраф, то Ви переходите вулицю там, де Вам зручно, а не там, де належить.
2_7. Мені подобається робота різноманітна, пов'язана з частими змінами та поїздками, навіть якщо вона трохи небезпечна
1_29. Чи подобається Вам швидко говорити?
3_9. Вам ніяково входити в кімнату, де вже зібралися і розмовляють люди
2_20. Буває, що я кажу незнайомим людям про речі, які здаються мені важливими, незалежно від того, запитують мене, чи ні.
3_21. Ви вважаєте за краще не починати розмову з людьми, поки вони самі до Вас не звернуться.
3_23. Коли Ви дізнаєтеся про успіхи близького знайомого, у Вас з'являється відчуття, що Ви невдаха.
1_24. Смокче Чи є у Вас під ложечкою перед відповідальним розмовою?
2_14. Мені приносить задоволення робити ризиковані вчинки тільки заради забави
3_6. Часом у голову приходять такі думки, що краще про них нікому не розповідати
2_13. Іноді якась нав'язлива думка не дає мені заснути
2_8. Я волів би мати дачу (в жвавому дачному селищі / волів би щось середнє / відокремлене, в лісі)
2_1. Я віддаю перевагу нескладну класичну музику сучасним популярним мелодіям?
2_22. Коли мною намагаються командувати, я навмисне роблю все навпаки
3_17. Ви часто турбуєтеся про що-небудь.
1_22. Чи буває так, що Ви говорите про речі, в яких не розбираєтеся?
1_16. . Зазвичай Вам важко переключати увагу з однієї справи на інше?
2_4. У мене бувають такі хвилюючі сни, що я прокидаюся
1_11. Чи відчуваєте Ви постійну спрагу діяльності?
3_19. У гостях Ви тримаєтеся за столом краще, ніж удома.
3_36. Ви легко бентежитеся.
3_30. Ви не засуджуєте того, хто прагне взяти від життя все, що може.
2_16. Якби я працював у господарській сфері, мені було б цікавіше
1_25. Чи вважаєте Ви свої рухи повільними і неквапливими?
3_32. Чи справляєтеся Ви з справою краще, обмірковуючи його самостійно, а не обговорюючи з іншими.
2_12. Якщо хтось розлютився на мене (Я постарався б його заспокоїти / я не знаю, що б я зробив / це викликало б у мене роздратування)
1_12. Чи швидко Ви читаєте вголос?
3_5. Іноді Ви так наполягаєте на чому-небудь, що люди починають втрачати терпіння
2_18. Зазвичай я можу зосереджено працювати, не звертаючи уваги на те, що люди навколо мене дуже шумлять
1_26. Ваша мова звичайно повільна і некваплива?
2_17. Вечір, проведений за улюбленим заняттям, приваблює мене більше, ніж жвава вечірка
2_15. Я роблю людям різкі критичні зауваження, якщо мені здається, що вони того заслуговують
1_4. Чи любите Ви гри в швидкому темпі?
1_13. Якщо Ви обіцяли щось зробити, чи завжди Ви виконуєте свою обіцянку незалежно від того, зручно це Вам чи ні?
2_9. Я проводжу багато вільного часу, розмовляючи з друзями про тих колишніх події, які ми разом пережили колись.
2_6. Іноді в мене бували засмучення через те, що люди говорили про мене погано за очі без усяких на те підстав.
3_27. Ви часто відчуваєте потяг до нових вражень, до того, щоб підбадьоритися, випробувати порушення.
2_23. Люди ставляться до мене менш доброзичливо, ніж я того заслуговую своїм добрим до них ставленням.
3_1. Чи часто Ви переходите на інший бік вулиці, щоб не зустрічатися з ким небудь із знайомих?
Для визначення значущості субтестів тесту було вироблено обчислення середньої значимості з питань кожного з них. Субтести розподілилися в такому порядку: найбільш значимий - 1-й, далі - 3-й і найменш значимий - 2-й. Даний розподіл можна проілюструвати гістограмою (рис. 1). Для побудови цієї гістограми всі питання, відсортовані в порядку убування значущості, були розбиті на дев'ять десяток, а потім для кожної з них було підраховано кількість входжень питань, що належать до першого, другого і третього субтесту.
\ S
Рис. 1. Діаграма розподілу питань тесту за їх значимістю для передбачення статусу піддослідних.
Для питань першу субтеста видно ексцес розподілу в бік більшої значимості, другого - в бік меншої, а питання третього - відносно рівномірно розподілені по всьому інтервалу.
Була проведена серія експериментів з метою з'ясувати достатній для нейромережі обсяг опитувальника. На кожному етапі виключалася половина з наявних питань опитувальника.
При виключенні половини питань ковзний контроль консиліуму мереж, навчених на вибірці по всіх групах, дав середню помилку в 24%, при виключенні трьох чвертей питань - у 28% і, нарешті, при виключення семи восьмих нейромережі навчитися не змогли.
Таким чином, приблизно половина запитань і без того спочатку мінімізованого тесту виявилася для нейромережі надлишкової, навіть приводить до погіршення оцінки якості передбачення. Оптимальним можна визнати опитувальник з половини питань, максимальних за своєю значимістю для нейронної мережі, оскільки результати тестування для нього краще ніж для всіх інших варіантів, включаючи і повний набір питань.

3.6 Оцінка оптимізації задачника нейромережею з позицій теорії інформації

Різницю між первісним (заданим психологом) і потрібним нейромережі для успішного вирішення завдання обсягом опитувальника можна оцінити з позицій теорії інформації [95].
Початкова кількість інформації, що міститься в тесті можна оцінити, виходячи з того, що запитання першого і третього тестів бінарні (варіанти відповідей «Так» і «Ні», ймовірність настання кожного з них - 0.5), а відповіді на запитання другого - можуть з однаковою ймовірністю відповідати настання одного з трьох подій, які будемо вважати рівноімовірними (варіанти відповідей «А», «Б» і «В», p = 0.333). Тоді, виходячи з формули Шеннона

і враховуючи, що кількість питань в першому субтесте - 29, у другому - 25 і в третьому - 36 можемо обчислити сумарну кількість інформації, що міститься у відповідях на запитання тесту:
.
Після виключення половини питань через їх малої значимості для нейронної мережі в оптимізованому опитувальнику залишилося 16 питань першу субтеста, 9 - другого і 20 - третього. Кількість інформації, що залишився після оптимізації:
,
тобто кількість інформації при оптимізації скоротилося кілька більш ніж удвічі.

3.7 Експерименти по прогнозу парних взаємин

У цій серії експериментів передбачалося встановити, чи здатні нейромережі відтворити взаємини пари піддослідних.
Навчальні вибірки мали наступну структуру: № - номер прикладу, ID_From - номер оцінює, ID_From - ім'я оцінює, ID_To - номер оцінюваного, Name_To - ім'я оцінює, w1_1_From - w3_36_From - відповіді на запитання опитувальника А.Г. Копитова, дані оцінюючим, w1_1_To - w3_36_To - відповіді на запитання опитувальника А.Г. Копитова, дані оцінюваним, Ocen - дана оцінка.
У задачник включалися рядки, які відповідають усім клітинам соціометричної матриці крім діагональних, що відповідають за самооцінку піддослідних.
Був сформований задачник по групі 5-го курсу. До нього увійшли 132 прикладу, за якими було вироблено навчання відповідного числа мереж за методикою ковзаючого контролю.
У силу великої трудомісткості завдання навчання за вибооркам такого обсягу і розмірності (навчання однієї мережі займає близько 40 хв.) Навчання консиліумів не проводилося.
Результат ковзаючого контролю наступний: середня відносна помилка передбачення парних взаємин у групі склала 33,1%.
Потім було обчислено середнє відстань між випадковими оцінками і , Яке обчислюється, як і в п.3.4, за формулою
,
де N - кількість прикладів навчальної вибірки.
Ця величина склала 6.612 (або, щодо шкали вимірювання ознаки, 66.12%), тобто відмінність передбачення мережі від випадкового майже дворазове.
Таким чином, можна говорити, що нейронні мережі можуть передбачати не тільки усереднений статус члена групи, але і взаємини між двома довільно взятими особистостями.

Висновки глави 3

Нейронна мережа здатна на основі лише психологічних властивостей досліджуваних, без залучення фактів соціальної історії досліджуваних особистостей, інтуїтивно породжувати прогноз результатів соціометричного експерименту на базі, з середньою помилкою 23-30%.
Даний прогноз общезначім для всіх досліджуваних з рівним соціальним статусом і стійкий щодо складу групи.
Апарат нейронних мереж дозволяє оптимізувати психодіагностичні тестові методики за обсягом точніше, ніж це доступно навіть досвідченому психологу.

Глава 4. Полутораслойний предиктор з довільними перетворювачами

4.1 Постановка проблеми

Функція F на R задана набором своїх значень у випадкових точках простору . Побудуємо її апроксимацію за допомогою комбінацій - Функцій з набору , Гладких і безперервно диференційовних. Тоді
- Помилка апроксимації F функцією ;
- Помилка попереднього кроку апроксимації

Апроксимація може вестися не тільки підбором коефіцієнтів, але і вибором на кожному кроці функцій з . Таким чином може бути отримано розкладання функції F у сходитися ряд виду:

Рішення задачі апроксимації може бути отримано шляхом мінімізації функціонала якості, відповідного квадрату відхилення:
,
Завдання полягає у наближенні функції F, заданої вихідної вибіркою точок, за допомогою нейромережі-предиктор з невідомим заздалегідь кількістю нейронів і видом функції, використовуваної в перетворювачі кожного з нейронів.
Рішення може бути представлено як ітераційний процес, що складається з наступних кроків:
- Підключення нового нейрона;
- Оптимізація помилки передбачення значень у заданих точок для поточного нейрона шляхом підбору функції перетворювача, її параметрів і ваг синапсів;
Якщо задана точність досягнута, то процес можна зупинити, інакше - процес повторюється спочатку, причому параметри вже навчених нейронів фіксуються, так що кожен новий нейрон навчається обчислювати похибка, що залишилася від попередніх.
Кількість ітерацій процесу вичерпання помилки може бути також обмежена з умови перевищення нижньої оцінки константи Ліпшиця для конструюється нейронної мережі над верхньою оцінкою вибіркової константи Ліпшиця.

4.2 Аналітичне рішення

Нехай - Наближається чергова шаром значення. Тоді - Саме значення наближається функції в точках експериментальної вибірки, а і наступні - похибки обчислення на відповідному кроці.
Навчання ведеться оптимізацією параметрів мережі будь-яким з градієнтних методів по всьому задачник.
Тоді при навчанні k-го нейрона
,
відповідно H (функція помилки) для всього задачника буде мати вигляд
,
тобто в якості критерію близькості аппроксіміруемой і апроксимуючої функцій обрана сума квадрата помилки по всій навчальної вибірки.
Для навчання кожного чергового нейрона використовуються приватні похідні функції за вагами синапсів першого шару :
,
параметру нейрона

і вагою синапсу другого (вихідного) шару відповідному даного нейрону
,
де - Число прикладів навчальної вибірки.
Однак, якщо обчислення функції H пов'язане з витратами процесорного часу порядку TH, то обчислення її градієнта традиційним способом зажадає часу порядку
TgradH = nTH,
де n - число змінних функції H. Враховуючи, що в завданнях, для яких традиційно застосовуються нейромережі, величина n може досягати декількох тисяч, аналітичне рішення для обчислення градієнта функції помилки слід визнати неприйнятним.
Однак при описі вирішальної функції F у вигляді мережі автоматів обчислення градієнта функції помилки H може бути представлено як функціонування системи, двоїстої вихідної. При такому підході
,
де C - константа, яка не залежить від розмірності n і в більшості випадків приблизно дорівнює 3.
Таким чином, ми приходимо до запису рішення вихідної задачі в ідеології нейронних мереж.

4.3 Запис рішення в ідеології нейромереж


Як вже було сказано, вище, ряд виду може бути представлений як нейронна мережа, що має структуру, показану на рис.1.
Тоді обчислення градієнта функції помилки H можна виробляти, використовуючи схему, двоїсту даної. При цьому рішення задачі може бути істотно спрощено застосуванням наступного прийому. Оскільки навчання наступного шару починається тоді, коли попередні вже навчені, а їх зв'язки зафіксовані, то, фактично, кожен нейрон навчається окремо від інших, а в якості значення, обчислюваного k-м нейроном береться похибка обчислення функції попередніми k-1 - нейронами, або Fi.
Процес навчання всієї мережі зводиться цим її розбивкою до ряду послідовних процесів навчання структур виду, представленого на рис. 2.

Тут x1 - xN - вхідні сигнали мережі, Wij (1) - синапси першого шару від i-го входу до j-му сумматору першого шару, Wj1 (2) - синапси другого шару від j-го перетворювача до вихідного сумматору, fj - j -й перетворювач, символом  позначаються тривіальні суматори.
Далі в тексті така структура буде називатися «потоком мережі» або просто «потоком».
Обчислення похідних H (функції помилки) для мережі, що представляє собою один «потік», можна вести на основі апарату двоїстих функцій та алгоритму зворотного поширення помилки. Схема проходження сигналів при зворотному функціонуванні показана на рис. 3.

Тут - Двоїстий сигнал від функції оцінки, рухаючись без зміни через тривіальний суматор другого шару, - Двоїстий сигнал від відповідного синапсу другого шару, - Двоїстий сигнал від перетворювача j-го «потоку», що передається сумматору для роздачі на синапси, - Подвійні сигнали відповідних синапсів першого шару.

4.4 Алгоритмічна частина

Навчання мережі, що складається з «потоків» проводиться відповідно до алгоритму, представленим на рис. 4.
Тут H - значення оцінки мережі, накопичене по всьому задачник,  - константа малості помилки.

Для навчання кожного з потоків використовується алгоритм, показаний на рис.5. Тут Nф - загальне число функцій, за яким йде навчання,  o - карта параметрів мережі, h0 - крок оптимізації на початку циклу, s - градієнт функції оцінки H по учнем параметрами.
Використовуване в алгоритмі умова зупинки формується з двох подусловій, скомбінованих через «або»:
1. Число кроків оптимізації, під час яких перевищило заздалегідь задану величину (при навчанні використовувалося значення Nsh = 15), тобто мережа в даній конфігурації вже не може поліпшити оцінку;
2. Досягнуто задане значення функції оцінки , Тобто мережа вже навчена.




При навчанні одного потоку використовуються процедури підбору кроку оптимізації - Increase (пошук кроку в бік зростання, блок-схему див на мал. 6), Decrease (пошук кроку в бік зменшення, блок-схему див на мал. 7) і Parabola ( пошук оптимального кроку за формулами параболічного пошуку блок-схему див на мал. 8).
У процедурах використовуються наступні позначення:
H (...) - функція оцінки мережі, накопичена з усього задачник;
h1, h2, h3 - різні значення величини кроку оптимізації, використовувані при її підборі;
W - величина кроку в вершину параболи, що проходить через точки (h1, H1), (h2, H2), (h3, H3). Обчислюється за формулою:

H1, H2, H3 - значення функції помилки, відповідні зміщення учнів параметрів по напрямку градієнта на величину кроку h1, h2 і h3.
Умова опуклості комбінації h1, 2,3, H1, 2,3 визначається формулою

Якщо вираз істинний, то умова опуклості виконано.
Тепер, розглянувши алгоритми навчання мережі, перейдемо до опису компонентів, структури та функціонування мережі.

4.5 Оцінка інформаційної ємності нейронної мережі за допомогою вибіркової константи Ліпшиця

Умова зупинки процесу покрокового вичерпання помилки може грунтуватися також на оцінці повноти функції, заданої нейронної мережею. У випадку, якщо число елементів мережі задано (для кожного кроку нарощування «потокової» це так) і значення її параметрів обмежені на певному інтервалі (ця умова виконується накладенням обмежень на параметри мережі), дана умова можна сформулювати з використанням константи Ліпшиця. Константа Ліпшиця вектор-функції в області D визначається як . Верхня межа може бути обчислена по області визначення D. В якості оцінки відстані використовується евклідова норма.
Для суперпозиції вектор-функцій .
Для лінійної комбінації функцій оцінка константи Ліпшиця .
Константа Ліпшиця для адаптивного суматора, що працює за формулою має вигляд .
Тоді для стандартної комбінації, що складається з матриці вхідних синапсів, суматора і перетворювача - нейрона з гладкою функцією активації .
Для прямого суми вектор-функцій константа Ліпшиця може бути оцінена як .
Таким чином, для шару нейронів з бираються перетворювачами , Де - Вектор ваг синапсів, що приходять на вхідних суматор i-го нейрона, а - Функція i-го перетворювача.
Якщо замінити всю область визначення функцій D на кінцеве безліч (задачник), то умова, що визначає необхідний обсяг нейронної мережі можна отримати, порівнюючи з оцінкою константи Ліпшиця для навчальної вибірки .
є нижньою оцінкою константи Ліпшиця аппроксіміруемой функції. Нейромережа може реалізувати цю функцію тільки в тому випадку, коли .

Виходячи з даної умови, можна сформулювати алгоритм навчання мережі з поетапним вичерпанням помилки так, як це показано в блок-схемою на рис. 9

4.6 Угода про термінологію

Виклад питань, пов'язаних зі структурою та функціонуванням мережі, тісно пов'язане з програмною реалізацією завдання. Тому по тексту будуть зустрічатися посилання на реальні структури програми.
Для опису компонентів мережі був використаний апарат об'єктно-орієнтованого програмування [28], реалізований у середовищі розробки програм Borland Delphi Developer v.3.0. (Див. [44], [45], [58], [63], [75], [76])
Базовим поняттям у мові програмування Object Pascal, вбудованому в Delphi, є клас - особливий вид запису, що включає поля і методи.
Примірник класу називається об'єктом.
Поняття поле для об'єкта аналогічно поняттю поля для запису.
Метод - процедура або функція, описана всередині класу і призначена для операції над його полями.

4.7 Компоненти мережі

Традиційний склад елементів мережі (див. розділ 1) включає в себе наступні елементи: нейрон, синапс, суматор. Крім того, до числа типових включені вхідний і вихідний елементи.
На рис. 9 показані схематичні зображення елементів мережі, які далі будуть використані у схемах, що описують структуру і функціонування програмної моделі.

4.8 Загальний елемент мережі

Базовим типом елементів, що використовуються для опису нейронної мережі, є загальний елемент мережі - клас, що інкапсулює основні властивості і методи, характерні для всіх компонентів мережі. Назва цього класу в програмній реалізації - TNetPiece.
Об'єкти даного класу включають в себе наступні поля:
NextPiece - покажчик на наступний елемент мережі;
PriorPiece - покажчик на попередній елемент мережі;
ForwOut - значення сигналу, що передається елементом вперед при прямому функціонуванні;
BackOut - значення сигналу, що передається елементом тому при зворотному функціонуванні.
Набір методів включає в себе:
Create - опис створення об'єкта;
Destroy - дії при руйнуванні (видаленні) об'єкта;
ForwardTact - дії елемента під час такту прямого функціонування;
BackwardTact - дії елемента під час такту зворотного функціонування;
При описі методів ForwardTact і BackwardTact вони були залишені порожніми, так як функціонування конкретних елементів мережі істотно різна.
Проте введення цих методів має досить глибокий сенс, оскільки клас TNetPiece є предком всіх інших класів, що описують елементи мережі, і наявність типових процедур прямого і зворотного функціонування дозволяє використовувати такі властивості моделі об'єктно-орієнтованого програмування як успадкування властивостей і методів та поліморфізм. Детальніше цю тезу буде розкрито нижче.

4.9 Вхід мережі

Для зв'язку мережі з задачником і передачі використовуються об'єкти класу TNetInput - вхідний елемент мережі.
Даний клас є нащадком TNetPiece, і тому успадковує його набір полів і методів цього класу, а крім того додано поле SourceSignal, яке містить номер поля задачника, з якого даний вхід мережі забирає значення.
Методи ForwardTact і BackwardTact перекриті, тобто їх код замінений на той, який відповідає призначенню вхідного елемента.
Метод ForwardTact виконує передачу значення з відповідного даному елементу поля задачника на вихідний сигнал елементу, поле ForwOut.
Метод BackwardTact передає двоїстий сигнал наступного елемента на свій подвійний сигнал (поле BackOut).

4.10 Вихід мережі

Вихідний елемент мережі описує клас TNetOutput, який також є нащадком TNetPiece.
У методах ForwardTact і BackwardTact закладені дії елемента при прямому і зворотному тактах функціонування.
Метод ForwardTact виконує передачу сигналу від виходу попереднього на вихід даного елемента, крім того в поле H заноситься значення помилки мережі при обчисленні функції Y.
Метод BackwardTact передає на зворотний вихід елемента (поле BackOut) значення двоїстого сигналу. Двоїстий сигнал  H представляє собою похідну функції помилки по вихідному сигналу мережі:
,
де - Аппроксимірованими значення функції, що видається мережею, - Значення аппроксіміруемой функції в даному прикладі.

4.11 Синапс мережі

Для опису синапсів мережі використовуються об'єкти класу TNetSynapse. Як спадкоємець класу TNetPiece він успадковує всі його поля і методи. Крім цього до списку полів включені Alpha - параметр, що представляє собою вага синапсу, і MuAlpha - сигнал, двоїстий вазі синапсу.
На такті прямого функціонування метод ForwardTact знімає вихідний сигнал попереднього елемента, примножує його на вагу синапсу і передає на вихідний сигнал даного об'єкта (поле ForwOut).
На такті зворотного функціонування метод BackwardTact передає в полі BackOut двоїстий сигнал синапсу, який може бути обчислений за такою формулою:
,
де - Двоїстий сигнал, що передається синапсом, W - функція перетворення в синапсі, - Сигнал, що надходить у синапс від попереднього елемента на такті прямого функціонування, - Вхідний двоїстий сигнал, що надходить у синапс від наступного елемента на такті зворотного функціонування, - Вага синапсу.
Крім того на зворотному такті обчислюється сигнал, двоїстий і представляє собою значення приватної похідною функції помилки за цим параметром:
,
де - Сигнал, двоїстий .
Для значень , в класі TNetSynapse передбачено поля Alpha і MuAlpha.

4.12 Тривіальний суматор

Програмною моделлю тривіального суматора є клас TSummator.
Окрім полів, успадкованих від класу - предка TNetPiece, TSummator має у своїй структурі PriorPieces, яке, на відміну від стандартного поля PriorPiece є не дороговказом на попередній елемент, а списком покажчиків на набір таких елементів.
Метод ForwardTact здійснює підсумовування вихідних сигналів елементів зі списку PriorPieces і поміщає отриманий результат у полі ForwOut.
На такті зворотного функціонування відбувається передача двоїстого сигналу наступного елемента на подвійний сигнал суматора BackOut.

4.13 Нейрон

У даній роботі під терміном «нейрон» мається на увазі нелінійний перетворювач виду
,
де у - вихідний сигнал перетворювача, - Вхідний сигнал, - Параметр перетворювача, - Так званий «параметр спонтанної активності».
Нейрон описується в програмній моделі класом TNeuron, вихідний сигнал на такті прямого функціонування заноситься в поле ForwOut.
Учнями в нейроні є обидва параметри - і , Тому в класі TNeuron крім полів Alpha і AlphaS, в яких зберігаються значення відповідних параметрів, передбачені MuAlpha і MuAlphaS, в яких містяться значення двоїстих їм сигналів.
Крім цього в полі BackOut заноситься сигнал, двоїстий вхідному. Крім того, об'єкт класу TNeuron характеризується ще й полем FunctionType, що представляє собою номер використовуваної функції перетворювача в списку функцій, використовуваних при оптимізації.
Обчислення подвійних сигналів в нейронах проводиться в загальному випадку за формулами:
,
де   - параметр, для якого обчислюється двоїстий сигнал, - Сам двоїстий сигнал.
Список виразів для застосовуваного в даній роботі набору стандартних функцій з їх похідними за основними параметрами наведено в таблиці 1.
Таблиця 1
Набір функцій нелінійного перетворювача
Ф-ція



















4.14 Потік мережі

Фрагмент мережі, що складається з шару вхідних синапсів, суматора, нейрона і вихідного синапсу і названий «потоком» представлений в програмній моделі класом TNetStream.
Крім звичайних для нащадка класу TNetPiece полів NextPiece, PriorPiece, ForwOut і BackOut даний клас включає в себе FirstLayer - список синапсів першого шару, Summator - об'єкт класу TSummator, що реалізує тривіальний суматор, Neuron - об'єкт класу TNeuron, що реалізує нелінійний перетворювач - нейрон, SecondLayer - об'єкт класу TSynapse, що описує вихідний синапс потоку.
Прямий такт потоку, описаний методом ForwardTact, відбувається наступним чином:
Перебираються елементи списку FirstLayer, для кожного з яких викликається його власний метод ForwardTact, потім відбувається «спрацьовування» (виклик цього ж методу) для об'єктів Summator, Neuron і SecondLayer. Потім вихідний сигнал об'єкта заноситься в поле ForwOut - вихідний сигнал усього потоку.
Такт зворотного функціонування потоку, який описаний у методі BackwardTact, включає в себе наступні дії:
Послідовний виклик власного методу BackwardTact для об'єктів SecondLayer, Neuron і Summator, потім перебір елементів списку FirstLayer і виклик методу BackwardTact для кожного синапсу, що входить до нього.
Структура зв'язків між елементами потоку представлена ​​на рис 10.

4.15 скомпонована полутораслойная потокова мережу

Ціла мережа представлена ​​класом TNet. Даний клас також є нащадком класу TNetPiece - загального елемента мережі, що дозволяє, використовуючи властивість поліморфізму об'єктів, досить легко компонувати з окремих фрагментів нейромережі більш складної структури.
Крім полів, успадкованих від TNetPiece, мережа характеризується також полями Inputs - список вхідних елементів, Streams - список потоків мережі, SecondLayer - суматор вхідного шару, Answer - вихідний елемент мережі.
Для опису такту прямого функціонування мережі використовується, так само як в інших елементах мережі, метод ForwardTact. Методом виконуються наступні дії:
Перебір списку вхідних елементів і виклик методу ForwardTact для кожного з них, перебір і пряме функціонування кожного з елементів списку потоків, і потім - для об'єктів SecondLayer і Answer.
Метод BackwardTact, що описує зворотне функціонування мережі, задається наступною послідовністю дій:
Зворотне функціонування елементів Answer, SecondLayer, потім перебір і виконання методів BackwardTact для елементів списків Streams і Inputs.
Структура зв `язків між стандартними елементами повністю скомпонованою потокової нейромережі показана на рис. 11.

Схема, наведена на рис. 11, добре ілюструє переваги застосування об'єктно-орієнтованого підходу до моделювання нейронних мереж.
Властивість поліморфізму об'єктів дозволяє складати список попередніх елементів, наприклад, суматора, як з простих синапсів, так і з більш складних структур - потоків. Для цього потрібно лише акуратне виконання ієрархії об'єктів, що описують елементи мережі.
У перспективі, з появою паралельних трансляторів, об'єктно-орієнтований підхід за рахунок властивості інкапсуляції об'єктів дозволить легко перейти до моделювання нейромереж в паралельних системах.

Висновки до розділу 4.

Створений програмний імітатор полутораслойной нейронної мережі являє собою механізм, що дозволяє реалізувати систему перетворювачів, відновлюють залежність, задану у вигляді навчальної вибірки.
Використання в програмі алгоритму попоточного вичерпання помилки дозволяє їй створювати нейронні мережі ненадлишковим структури.
Доповнення алгоритму попоточного вичерпання помилки перевіркою на порівняння константи Ліпшиця нейронної мережі з вибірковою константою Ліпшиця дає можливість використовувати в роботі користувацького програмного забезпечення більш суворі вимоги до необхідного для відновлення функції по даній вибірці обсягом нейронної мережі.
Застосування принципів об'єктно-орієнтованого програмування при створенні програмного імітатора полутораслойной нейронної мережі дозволило створити програму з прозорою, легко розширюваної і супроводжуваної структурою.

ВИСНОВКИ

1. Показано, що для вирішення класичної задачі комп'ютерної психодіагностики з ймовірністю правильної відповіді близько 95% може бути застосована штучна нейронна мережа з 2 нейронів з параметром перетворювача рівним 0,4. При цьому така експертна система здатна переймати досвід фахівця безпосередньо, без участі математика або програміста.
2. У полносвязной штучної нейронної мережі з числом нейронів 16 і параметром перетворювача 0.1 можливо виробити психологічну інтуїцію, що дозволяє видавати пророкування взаємин, формалізованих у вигляді результатів соціометричного експерименту, з похибкою 25-30%.
3. Завдання передбачення взаємин може вирішуватися інтуїтивно - без побудови описаної реальності і без збору інформації про соціальну історії досліджуваних.
4. Створена програма, що представляє собою нейронну мережу полутораслойной структури, здатна вирішувати завдання відновлення залежності за навчальною вибіркою за допомогою алгоритму поетапного вичерпання помилки нарощуванням обсягу мережі.
5. Застосування при створенні програми вибіркової константи Ліпшиця в алгоритмі нарощування мережі дозволило реалізувати спосіб обмеження надмірності числа нейронів і обсягу мережі.
6. Застосування концепції об'єктно-орієнтованого програмування дозволило розробити гнучкий, відкритий і легко супроводжуваний нейроімітатор.

Основний зміст дисертації викладено в наступних роботах:
Dorrer MG Neural networks instead of psychological measurements / / Abstracts of the 3rd International conference «Mathematics, computer, education». Dubna, 1996.
Dorrer MG, Gorban AN, Kopytov AG Simulation of psychological intuition by means of neural networks / / New Concepts to Uncover Higher Brain Functions. The 5th Tohwa university International Symposium. Fukuoka, Japan: Tohwa University, 1995. - P.153.
Dorrer MG, Gorban AN, Kopytov AG Zenkin VI Psychological intuition of neural networks / / Proceedings of the WCNN'95 (World Congress on Neural Networks'95, Washington DC, Juli 1995) - pp. 193-196
Dorrer MG, Gorban AN, Zenkin VI Neural networks in psychology: classical explicit diagnoses / / Neuroinformatics and neurocomputers, Proceedings of the 2nd RNNS-IEEE Symposium, Rostov-on-Don, September 1995 - pp 281-284
Gorban AN, Rossiev DA, Butakova EV, Gilev SE, Golovenkin SE, Dogadin SA, Dorrer MG, Kochenov DA, Kopytov AG, Maslennikova EV, Matyushin GV, Mirkes Ye.M., Nazarov BV, Nozdrachev KG, Savchenko AA, Smirnova SV , Shulman VA, Zenkin VI Medical, psychological and physiological applications of MultiNeuron neural simulator / / Neuroinformatics and neurocomputers, Proceedings of the 2nd RNNS-IEEE Symposium, Rostov-on-Don, September 1995 - pp 7-14
Gorban AN, Rossiev DA, Gilev SE, Dorrer MG, Kochenov DA, Mirkes Ye.M., Golovenkin SE, Dogadin SA, Nozdrachev KG, Matyushin GV, Shulman VA, Savchenko AA Medical and physiological applications of MultiNeuron neural simulator / / Proceedings of the WCNN'95 (World Congress on Neural Networks'95, Washington DC, Juli 1995) - paper № 050
Gorban AN, Rossiev DA, Gilev SE, Dorrer MG, Kochenov DA, Mirkes Ye.M., Golovenkin SE, Dogadin SA, Nozdrachev KG, Matyushin GV, Shulman VA, Savchenko AA «NeuroComp» group: neural network software and its application / / Russian Academy of Sciences, Krasnoyarsk Computing Center, Preprint № 8. - Krasnoyarsk, 1995 - 38p.
Доррер М.Г. Обробка психологічної інформації за допомогою нейронних мереж. / / Проблеми інформатизації регіону: Матеріали другої міжрегіональної конференції. Красноярськ: КДТУ, 1997. - С.33-43.
Доррер М.Г. Полутораслойний предиктор з довільними перетворювачами. / / Проблеми інформатизації регіону: Праці Третьої Всеросійської конференції (Красноярськ, 25-27 листопада 1997 р.). - Красноярськ: АТ «Діалог-Сибір», 1997р. -С.143.
Доррер М.Г. Спроба застосування нейронних мереж для прогнозування психологічної сумісності в групі. / / Нейроінформатика та її застосування: Програма і тези доповідей II всеросійського робочого семінару. - Красноярськ: КДТУ, 1994. - С.13.
Доррер М.Г., Горбань О.М., Копитов А.Г., Зенкін В.І. Психологічна інтуїція нейронних мереж / / Нейроінформатика та її застосування: Матеріали III всеросійського робочого семінару. - Красноярськ: КДТУ, 1995. - С.114-127.

ЛІТЕРАТУРА

1. Amari S. - I. The Brain and Computer / / Proceedings of 1993 International Joint Conference on Neural Networks, Nagoya, Japan, October 25-29, 1993. - Nagoya, 1993. - V.1. - P.7-8.
2. Asary KV, Eswaran CA Self-organizing Neural Network for Multidimensional Mapping and Classification of Multiple Valued Data / / Proceedings of 1993 International Joint Conference on Neural Networks, Nagoya, Japan, October 25-29, 1993. - Nagoya, 1993. - V.2. - P.2488-+2491.
3. Atamanchuk ZM, Petrov AA Some problems of building and learning of neural networks while creating user's expert systems diagnoses / / The RNNS-IEEE Symposium on Neuroinformatics and Neurocomputers, Rostov-on-Don, September 1992 - v.2. - Pp 1133-1135.
4. Baxt WG Complexity, chaos and human physiology: the justification for non-linear neural computational analysis / / Cancer Lett. - 1994. - V.77, № 2-3. - P.85-93.
5. Becraft WR Diagnostic applications of artificial neural networks / / Proceedings of +1993 International Joint Conference on Neural Networks, Nagoya, Japan, October 25-29, 1993. - Nagoya, 1993. - V.2. - P.2807-2810.
6. Bedenbaugh P., Gerstein GL Rectification of correlation by a sigmoid non-linearity / / Biol. Cybern. - 1994. - V.70, № 3. - P.219-225.
7. Berrios GE, Chen EY Recognizing psychiatric symptoms. Relevance to the diagnostic process / / Br. J. Psychiatry. - 1993. V.163. - P.308-314.
8. Cohen IL, Sudhalter V., Landon-Jimenez D. et al. A neural network approach to the classification of autism / / J. Autism Dev. Disord. - 1993. - V.23, № 3. - P.443-466.
9. Forrest DV, Flory MJ, Anderson S. Neural network programming / / NYState J. Med. - 1991. - V.91, № 12. - P.553.
10.Fu HC, Shann JJ A fuzzy neural network for knowledge learning / / Int. J. Neural Syst. - 1994. - V.5, № 1. - P.13-22.
11.Galushkin AI, Savushkin SA Neural Network expert system / / The RNNS-IEEE Symposium on Neuroinformatics and Neurocomputers, Rostov-on-Don, September 1992 - v.2. - Pp 1116-1123.
12.Galushkin AI, Sudarikov VA, Shabanov EV Neuromathematic: the methods of solving problems on neurocomputers / / The RNNS-IEEE Symposium on Neuroinformatics and Neurocomputers, Rostov-on-Don, September 1992 - v.2. - Pp 1179-1188.
13.Modai I., Stoler M., Inbar-Saban N. et al. Clinical decisions for psychiatric inpatients ant their evaluation by a trained neural network / / Methods Inf. Med. - 1993 - v.32, № 5. - P.396-399.
14.Sima J., Neruda R. Neural networks as expert systems / / Neural Network Worl. - 1992 - v.2, № 6. - P.775-783.
15.Sitting DF, Orr JA A parallel implementation of the backward error propagation neural network training algorithm: experiments in event identification / / Comput. Biomed Res. - 1992. - V.25, № 6. - P.547-561.
16.Аванесов В.С. Тести в соціологічному дослідженні. - М., 1982 - 199с.
17.Айвазян С.А., Бежаева З.І., Старовірів О.В. Класифікація багатовимірних спостережень. - М.: Статистика, 1974 - с. 240.
18.Айвазян С.А., Бухштабер В.М., Енюков С.І., Мешалкин Л.Д. Прикладна статистика. Класифікація та зниження розмірності. - М.: Фінанси і статистика, 1989 - С.607
19.Айвазян С.А., Енюков І.С., Мешалкин Л.Д. Прикладна статистика. Статистичне оцінювання залежностей. - М.: Фінанси і статистика, 1983 - с.471.
20.Анастазі А. Психологічне тестіованіе. - М. Педагогіка, 1982 - кн.1 - С.320, кн.2 - с.360.
21.Ануфріев А.Ф. Психодіагностика як діяльність і наукова дисципліна. / / Питання психології - 1994 - № 2 - с.123-131.
22.Барцев С.І. Деякі властивості адаптивних мереж. - Красноярськ, 1987. - 17 с. - (Препринт / ІФ СВ АН СРСР; № 71Б.)
23.Барцев С.І., Гильов С.Є., Охонін В.А. Принцип подвійності в організації адаптивних систем обробки інформації. / / Динаміка хімічних і біологічних систем. - Новосибірськ: Наука. Сибірське відділення, 1989. - С.6-55.
24.Бодалев А.А. Про взаємозв'язок спілкування і відносини / / Питання психології - 1994 - № 1 - с.122-126.
25.Боннер Р.Є. Деякі методи класифікації / / Автоматичний аналіз зображень. - М.: Світ, 1969 - с.205 - с.234.
26.Бурлачук Л.Ф., Коржова Є.Ю. До побудови теорії виміряної індивідуальності в психодіагностики. / / Питання психології - 1994 - № 5 - с.5-12.
27.Бурлачук Л.Ф., Морозов С.М. Словник - довідник по психологічній діагностиці. - Київ: Наукова думка, 1989 - с.200.
28.Буч Г. Об'єктно-орієнтоване програмування з прикладами застосування. - М.: Конкорд, 1992. - С.36.
29.Вапнік В.М., Глазкова Т.Г., Кощеєв. В.А., Михальський А.І., Червоненкіса А.Я. Алгоритми і програми відновлення залежностей. - М.: Наука, 1984, с.8-11, 27-32, 42-55.
30.Вапнік В.М., Червоненкіса А.Ф. Теорія розпізнавання образів. - М.: Наука, 1974.
31.Гаврілова Т.А., Червінська К.Р., Яшин А.М. Формування поля знань на прикладі психодіагностики. / / Известия АН СРСР. Технічна кібернетика. - 1988. - № 5. - С.72-85.
32.Гілев С.Є. Порівняння характеристичних функцій нейронів. / / Тези доповідей III всеросійського семінару «Нейроінформатика та її застосування». - Красноярськ: вид. КДТУ, 1995 - с.82.
33.Гілев С.Є., Горбань О.М., Міркес Є.М. та ін Визначення значущості навчальних параметрів для прийняття нейронної мережею рішення про відповідь. / / Нейроінформатика та нейрокомп'ютери: Тези доповідей робочого семінару, 8-11 жовтня 1993 р. - Красноярськ: Інститут біофізики СО РАН, 1993. - С.8.
34.Гілев С.Є., Коченов Д.А., Міркес Є.М., Россиев Д.А. Контрастування, оцінка значимості параметрів, оптимізація їх значення та їх інтерпретація в нейронних мережах / / Тези доповідей III всеросійського семінару «Нейроінформатика та її застосування». - Красноярськ: вид. КДТУ, 1995 - с.66-78.
35.Гласс Дж., Стенлі Дж. Статистичні методи в педагогіці і психології. - М.: Прогрес, 1976 - 495с.
36.Горбань О.М. Навчання нейронних мереж .- М. СП параграф - 1990.
37.Горбань О.М., Міркес Є.М. Кодування якісних ознак для нейромереж / / Тези доповідей II всеросійського семінару «Нейроінформатика та її застосування». - Красноярськ: вид. КДТУ, 1994 - с.29.
38.Горбань О.М., Міркес Є.М. Компоненти нейропрограмм. / / Тези доповідей III всеросійського семінару «Нейроінформатика та її застосування». - Красноярськ: вид. КДТУ, 1995 - с.17.
39.Горбань О.М., Міркес Є.М. Контрастування нейронних мереж. / / Тези доповідей III всеросійського семінару «Нейроінформатика та її застосування». - Красноярськ: вид. КДТУ, 1995 - с.78-79.
40.Горбань О.М., Міркес Є.М. Функціональні компоненти нейрокомп'ютера. / / Тези доповідей III всеросійського семінару «Нейроінформатика та її застосування». - Красноярськ: вид. КДТУ, 1995 - с.79-90.
41.Горбань О.М., Россиев Д.А. Нейронні мережі на персональному комп'ютері. - К.: Наука, 1996 - с.144.
42.Грановская Р.М., Березна І.Я. Інтуїція і штучний інтелект. - Л.: ЛДУ, 1991. - 272с.
43.Губерман Т.А., Ямпільський Л.Т. Застосування алгоритмів розпізнавання образів в психодіагностики / / Питання психології, 1983 № 5. - С.118-125.
44.Дантенманн Дж., Мішел Дж., Тейлор Д. Програмування в середовищі Delphi. - Київ: DiaSoft, 1995.
45.Дарахвелідзе П., Марков Е. Delphi - середовище візуального програмування. - Санкт-Петербург: BHV, 1996.
46.Денніс Дж. Мол., Шнабель Р. Чисельні методи безумовної оптимізації та рішення нелінійних рівнянь. - М.: Мир, 1988 - с.440.
47.Дюк В.А. Комп'ютерна психодіагностика. - Санкт-Петербург: Братство, 1994.
48.Елісеева І.І., Рукавишников В.О. Угруповання, кореляція, розпізнавання образів (Статистичні методи класифікації та вимірювання зв'язків). - М.: Статистика, 1977 - с.144.
49.Енюков І.С. Методи, алгоритми, програми багатовимірного статистичного аналізу: Пакет ППСА. - М.: Фінанси і статистика, 1986 - с.232
50.Жітков Г.М. Деякі методи автоматичної класифікації. / / Структурні методи розпізнавання та автоматичне читання. М.: ВІНІТІ, 1970 - с.68 - с.85.
51.Журавлев Ю.І. Непараметричні задачі розпізнавання образів / / Кібернетика - № 6 - 1976 - с.93-103.
52.Журавлев Ю.І., Гуревич І.Б. Розпізнавання образів та аналіз зображень / / Штучний інтелект. - У 3-х кн. Кн.2. - М.: Радіо і зв'язок, 1990 - с. 304.
53.Журавлев Ю.І., Про алгебраїчному підході до вирішення задач розпізнавання і класифікації / / Проблеми кібернетики. М.: Наука, 1978, вип.33 - с.5-68.
54.Забродін Ю.М., Похилько В.І., Шмельов А.Г. Статистичні та семантичні проблеми конструювання і адаптації багатофакторних особистісних тест-опитувальників. / / Психологічний журнал, т.8, № 6, 1987 - с.79-89.
55.Загоруйко Н.Г., Йолкіна В.М., Лбов Г.С. Алгоритми виявлення емпіричних закономірностей. - К.: Наука, 1985 - 110с.
56.Зеліченко А.І. Інтелектуальні системи та психологічне знання. / / У книзі: Комп'ютери та пізнання. - М.: Наука, 1990 - с.69-86.
57.Кабанов М.М., Личко А.І., Смирнов В.М. Методи психологічної діагностики та корекції в клініці. М. Медицина - 1983
58.Кілверт Ч. Енциклопедія Delphi 2. Київ: DiaSoft, 1996.
59.Коченов Д.А., Россиев Д.А. Апроксимація функцій класу нейромережевими предикторами / / Тези доповідей робочого семінару «Нейроінформатика та нейрокомп'ютери», Красноярськ, 8-11 жовтня 1993. - Красноярськ, 1993 - с.13.
60.Кулагін Б.В., Сергєєв С.Т. Типологічний підхід до дослідження проблеми профвідбору / / Психологічний журнал, 1989, т.10, № 1
61.Логіко-гносеологічні та методологічні проблеми прогнозу. - М., 1986.
62.Мельніков А.В. Про застосування персональних комп'ютерів у психології. / / Психологічний журнал, т.10, № 1, 1989 - с.56-61.
63.Міллер Т., Пауел Д. І ін Використання Delphi 3. - Київ: Діалектика, 1997 - 768 с.
64.Мінскій М., Пайперт С. персептрон. - М.: Світ, 1971
65.Міркін Б.Г. Аналіз якісних ознак і структур. - М.: Статистика, 1980. - С.319.
66.Налімов В.В. Теорія експерименту. - М: Наука, 1971 - с.208.
67.Нейроінформатіка та її застосування / / Матеріали II всеросійського семінару. Красноярськ, 1995.
68.Нейроінформатіка та її застосування / / Матеріали III всеросійського семінару. Красноярськ, 1996.
69.Нейроінформатіка та її застосування / / Матеріали всеросійського семінару. Красноярськ, 1994.
70.Нейропрограмми / збірник статей під ред. О.М. Горбаня / / Красноярськ, КДТУ, 1994.
71.Немов Р.С. Психологія. / У 3-х кн. Кн 2. Психологія освіти - М.: Просвещение, 1995.
72.Немов Р.С. Психологія. / У 3-х кн. Кн 3. Експериментальна педагогічна психологія та психодіагностика - М.: Просвещение, 1995.
73.Нікіфоров А.М., Фазилов Ш.Х. Методи і алгоритми перетворення типів ознак у задачах аналізу даних. - Ташкент: Фан, 1988 - с. 132.
74.Оганезов А.С., Суменко О.В. Автоматизація дослідження особистості за методикою психологічної MMPI із синтезом словесного діагнозу. / / Питання психології, 1990, № 1. - С.154-157.
75.Орлік С. Секрети Delphi на прикладах. - М.: Біном, 1996 - 316с.
Додати в блог або на сайт

Цей текст може містити помилки.

Програмування, комп'ютери, інформатика і кібернетика | Дисертація
462.6кб. | скачати


Схожі роботи:
Дослідження можливості застосування штучних нейронних мереж для автоматичного управління
Моделі нейронних мереж
Кластеризація за допомогою нейронних мереж
Властивості основних нейронних мереж
Апроксимація функції з використанням нейронних мереж
Конструювання алгоритмів керування на основі нечіткої логіки і нейронних мереж
Технологія вилучення знань з нейронних мереж апробація проектування ПЗ використання в психолінгвістиці
Інтуїція педагога
Інтуїція і звички
© Усі права захищені
написати до нас