Оптимізація Методи багатовимірного пошуку

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Міністерство освіти Республіки Білорусь
Установа освіти "Гомельський державний університет ім.Ф. Скорини "
Математичний факультет
Кафедра ВМ і П
"Оптимізація. Методи багатовимірного пошуку "
Виконали
студентки групи М - 51, М - 52
Лаптєва Є.М., Кулай Н.В.
Науковий керівник
Орлов В.В.
Гомель 2002

Содержіне
Введення
1. Основи теорії оптимізації
1.1 Проектні параметри
1.2 Цільова функція
1.3 Пошук мінімуму і максимуму
1.4 Простір проектування
1.5 Обмеження - рівності
1.6 Обмеження - нерівності
1.7 Локальний оптимум
1.8 Глобальний оптимум
2. Методи багатовимірного пошуку
3. Метод покоординатного підйому
4. Метод виключення областей
5. Метод випадкового пошуку
6. Градієнтні методи
6.1 Східчастий якнайшвидшої підйом
Література

Введення

Методи оптимізації дозволяють вибрати найкращий варіант конструкції з усіх можливих варіантів. В останні роки цим методам приділялася велика увага, і в результаті був розроблений цілий ряд високоефективних алгоритмів, що дозволяють знайти оптимальний варіант конструкції за допомогою ЕОМ. У даній методичній розробці викладаються основи теорії оптимізації, розглядаються принципи, що лежать в основі побудови алгоритмів оптимальних рішень, описуються найбільш відомі алгоритми, аналізуються їх переваги і недоліки.

1. Основи теорії оптимізації

Терміном "оптимізація" у літераторові позначають процес або послідовність операцій, що дозволяють отримати уточнене рішення. Хоча кінцевою метою оптимізації є відшукання найкращого, або "оптимального", рішення, зазвичай доводиться задовольнятися поліпшенням відомих рішень, а не доведенням їх до досконалості. Тому під оптимізацією розуміють скоріше прагнення до досконалості, яке, можливо, і не буде досягнуто.
Розглядаючи деяку довільну систему, описувану т рівняннями з n невідомими, можна виділити три основні типи завдань. Якщо т = n, завдання називають алгебраїчною. Таке завдання зазвичай має одне рішення. Якщо т> n, то завдання перевизначена і, як правило, не має рішення. Нарешті, при т <n завдання недоопределена і має нескінченно багато рішень. У практиці проектування найчастіше доводиться мати справу із завданнями третього типу. При цьому інженерові допомагає інтуїція, що дозволяє сформулювати умови для вибору оптимального варіанту. Очевидно, що виріб або технологічний процес, вигідно відрізняється від аналогічних виробів і процесів, буде користуватися на ринку великим попитом. У цьому і полягає сенс пошуку оптимальних рішень.
Перш ніж приступити до обговорення питань оптимізації, введемо ряд визначень.

1.1 Проектні параметри

Цим терміном позначають незалежні змінні параметри, які повністю і однозначно визначають вирішуване завдання проектування. Проектні параметри - невідомі величини, значення яких обчислюються в процесі оптимізації. В якості проектних параметрів можуть служити будь-які основні чи похідні величини, службовці для кількісного опису системи. Так, це можуть бути невідомі значення довжини, маси, часу, температури. Число проектних параметрів характеризує ступінь складності даного завдання проектування. Звичайно число проектних параметрів позначають через n, а самі проектні параметри через x з відповідними індексами. Таким чином n проектних параметрів даної задачі будемо позначати через x , x , x , ... x .

1.2 Цільова функція

Це - вираз, значення якого інженер прагне зробити максимальним або мінімальним. Цільова функція дозволяє кількісно порівняти два альтернативних рішення. З математичної точки зору цільова функція описує деяку (n +1) - мірну поверхню. Її значення визначається проектними параметрами M = M (x , x , x , ... x ).
Прикладами цільової функції, що часто зустрічаються в інженерній практиці, є вартість, вага, міцність, габарити, ККД. Якщо є тільки один проектний параметр, то цільову функцію можна представити кривої на площині (рис.1).


Тривалість експлуатації
(Проектний параметр)
Рис.1. Одновимірна цільова функція

Якщо проектних параметрів два, то цільова функція буде зображуватися поверхнею в просторі трьох вимірів. При трьох і більше проектних параметрах поверхні, що задаються цільовою функцією, називаються гіперповерхні і не піддаються зображенню звичайними засобами. Топологічні властивості поверхні цільової функції відіграють велику роль у процесі оптимізації, так як від них залежить вибір найбільш ефективного алгоритму.
Цільова функція в ряді випадків може приймати найнесподіваніші форми. Наприклад, її не завжди вдається висловити в замкнутій математичній формі, в інших випадках вона може являти собою кусково-гладку функцію. Для завдання цільової функції іноді може знадобитися таблиця технічних даних (наприклад, таблиця стану водяної пари) або може знадобитися провести експеримент. У ряді випадків проектні параметри приймають тільки цілі значення. Прикладом може служити число зубів у зубчастої передачі або число болтів у фланці. Іноді проектні параметри мають тільки два значення - так чи ні. Якісні параметри, такі як задоволення, яке відчуває придбав виріб покупець, надійність, естетичність, важко враховувати в процесі оптимізації, так як їх практично неможливо охарактеризувати кількісно. Однак у якому б вигляді не була представлена ​​цільова функція, вона повинна бути однозначною функцією проектних параметрів.
У ряді завдань оптимізації потрібне введення більш однієї цільової функції. Іноді одна з них може виявитися несумісною з іншого. Прикладом служить проектування літаків, коли одночасно потрібно забезпечити максимальну міцність, мінімальну вагу та мінімальну вартість. У таких випадках конструктор повинен запровадити систему пріоритетів і поставити у відповідність кожної цільової функції деякий безрозмірний множник. У результаті з'являється "функція компромісу", що дозволяє в процесі оптимізації користуватися однією складовою цільової функцією.

1.3 Пошук мінімуму і максимуму

Одні алгоритми оптимізації пристосовані для пошуку максимуму, інші - для пошуку мінімуму. Однак незалежно від типу розв'язуваної задачі на екстремум можна користуватися одним і тим же алгоритмом, так як завдання мінімізації можна легко перетворити в завдання на пошук максимуму, помінявши знак цільової функції на зворотний.

1.4 Простір проектування

Так називається область, яка визначається всіма n проектними параметрами. Простір проектування не настільки велике, як може здатися, оскільки воно зазвичай обмежена низкою умов, пов'язаних з фізичною суттю завдання. Обмеження можуть бути настільки сильними, що завдання не буде мати жодного задовільного рішення. Обмеження діляться на дві групи: обмеження - рівності й обмеження - нерівності.

1.5 Обмеження - рівності

Обмеження - рівності - це залежність між проектними параметрами, які повинні враховуватися при знаходженні рішення. Вони відображають закони природи, економіки, права, панівні смаки і наявність необхідних матеріалів. Число обмежень - рівностей може бути будь-яким. Вони мають вигляд C (X , x , ... x ) = 0, C (X , x , ... x ) = 0, C (X , x , ... x ) = 0.
Якщо будь-яке з цих співвідношень можна дозволити щодо одного з проектних параметрів, то це дозволяє виключити цей параметр з процесу оптимізації. Тим самим зменшується число вимірів простору проектування і спрощується рішення задачі.

1.6 Обмеження - нерівності

Це особливий вид обмежень, які висловлюються нерівностями. У загальному випадку їх може бути як завгодно багато, причому всі вони мають вигляд
z £ r (X , X , ... X ) £ Z
z £ r (X , X , ... X ) £ Z
... ... ... ... ... ... ... ... ... ... ....
z £ r (X , x , ... x ) £ Z
Слід зазначити, що дуже часто у зв'язку з обмеженнями оптимальне значення цільової функції досягається не там, де її поверхня має нульовий градієнт. Нерідко краще рішення відповідає жодному з кордонів області проектування.

1.7 Локальний оптимум

Так називається точка простору проектування, в якій цільова функція має найбільше значення в порівнянні з її значеннями у всіх інших точках її найближчій околиці. На ріс.6.4 показана одномірна цільова функція, що має два локальних оптимумів і слід дотримуватися обережності, щоб не прийняти перший з них за оптимальне вирішення завдання.

1.8 Глобальний оптимум

Глобальний оптимум - це оптимальне рішення для всього простору проектування. Воно краще за всіх інших рішень, відповідних локальним оптимумів, і саме його шукає конструктор. Можливий випадок кількох рівних глобальних оптимумів, розташованих у різних частинах простору проектування. Як ставиться завдання оптимізації, найкраще показати на прикладі.

2. Методи багатовимірного пошуку

На перший погляд може здатися, що різниця між методами багатовимірного і одновимірного пошуку полягає лише в тому, що перші вимагають більшого об'єму обчислень і що в принципі методи, придатні для функцій однієї змінної, можна застосовувати і для функцій багатьох змінних. Однак це не так, оскільки багатовимірний простір якісно відрізняється від одновимірного.
Насамперед, зі збільшенням числа вимірювань зменшується ймовірність унімодальному цільової функції. Крім того, безліч елементів, що утворюють багатовимірний простір, набагато могутніше безлічі елементів одновимірного простору. Обсяг обчислень, необхідних для звуження інтервалу невизначеності в багатовимірному просторі, є степеневою функцією, показник якої дорівнює розмірності простору.
Так, якщо у випадку одномірного простору для досягнення / == 0,1 потрібно обчислити 19 значень цільової функції, то у випадку двовимірного простору це число становить 361, тривимірного-6859, чотиривимірного - 130 321, а пятімерний-2476 099! Оскільки при виборі оптимальної конструкції нерідко доводиться мати справу з п'ятьма і більше змінними, серйозність труднощів, обумовлених багатомірністю, стає очевидною.
За традицією методи оптимізації в багатовимірному просторі діляться на дві великі групи - прямі та непрямі. Прямі методи засновані на порівнянні значень, що обчислюються цільової функції у різних точках, а непрямі - на використанні необхідних і достатніх умов математичного визначення максимуму і мінімуму функції.
Стратегія прямих методів - поступове наближення до оптимуму; при використанні непрямих методів прагнуть знайти рішення, не досліджуючи неоптимальні точки. У цьому розділі представлені найбільш поширені алгоритми, що застосовуються для вирішення багатовимірних задач оптимізації, порівнюються деякі написані на мові Фортран програми їх реалізації і даються загальні вказівки з вибору алгоритму для вирішення того чи іншого завдання.

3. Метод покоординатного підйому

Логічним розвитком розглянутої вище методики одновимірного пошуку було б послідовна зміна кожного проектного параметра до тих пір, поки не буде досягнуто максимуму цільової функції. По завершенні цієї процедури для всіх змінних можна повернутися до першої та подивитися, чи не можна ще більше вдосконалити рішення. Цей метод, званий методом покоординатного підйому, не завжди дозволяє знайти оптимальне рішення. Можна показати двовимірну цільову функцію, яка буде відповідна для вирішення завдання цим методом. Її особливість полягає в тому, що лінії рівня близькі за формою до кіл або еліпсах, осі яких паралельні осям координат. Якщо ж ці осі нахилені до осей координат, то ефективність алгоритму знижується, так як для знаходження оптимуму доводиться обчислювати набагато більше значень цільової функції. Метод покоординатного підйому абсолютно непридатний, якщо лінії рівня мають точки зламу. Оскільки лінії рівня такого типу дуже часто зустрічаються в інженерній практиці, то перш, ніж скористатися зазначеним методом, слід переконатися, що можна вирішити завдання не має такої вади. Незважаючи на це, метод покоординатного підйому часто використовують на першій стадії вирішення завдання, застосовуючи потім більш складні методи. До переваг методу покоординатного підйому слід віднести можливість використання простих алгоритмів одномірного пошуку, таких, як метод золотого перерізу.
Один з можливих прикладів алгоритмів.
f (x) -> min, xÎ R n
x 0-початкове наближення (масив [1: n])
Будемо вважати, що нам відома функція
minf (j (q)), яка обчислюється q min: j (q min) = min j (q)
...
r: = f (x 0); r1: = r +2 * e; x: = x 0;
поки abs (r1-r)> = e
НЦ
r1: = r;
Для i від 1 до n
НЦ
x1: = x;
x [i]: = x [i] + q;
j (q): = f (x);
q min: = minf (j (q));
x: = x1;
x [i]: = x [i] + q min;
КЦ
r: = f (x);
КЦ
...
x-шуканий вектор.

4. Метод виключення областей

Знаючи з попередньої глави, наскільки ефективно методи одновимірного пошуку дозволяють скорочувати інтервал невизначеності (одновимірний або двовимірний), можна спробувати застосувати ту саму методику і до багатовимірному простору. Один з найбільш очевидних методів винятку областей називається методом дотичної до лінії рівня, тому що в ньому використовуються дотичні до ліній рівня цільової функції. Продемонструємо цей метод на прикладі двовимірної цільової функції. Нехай довільно вибрана точка простору проектування лежить на лінії рівня, що проходить трохи нижче піку, відповідного оптимального рішення. Проведемо через цю точку дотичну до лінії рівня. Зробити це неважко, тому що дотична повинна лежати в площині лінії рівня і бути перпендикулярною локального градієнту поверхні цільової функції. Якщо цільова функція достатньо гладка і унімодальному, то дотична до лінії рівня розділить простір проектування на дві частини, в одній з яких ймовірність знаходження оптимуму велика, а в іншій мала. Користуючись цим прийомом в декількох вдало вибраних точках, для яких відомі значення цільової функції, можна істотно звузити область пошуку. Проте здійснення цього алгоритму пов'язано з деякими труднощами. Якщо лінії рівня увігнуті, а не опуклі, то може виявитися виключеною область, яка містить екстремум. Крім того, що залишилася після кількох винятків область невизначеності може мати конфігурацію, мало придатний для застосування інших алгоритмів.
Одним з методів виключення є метод сіткового пошуку, розроблений Мишкові і дає непогані результати. У цьому випадку звужена область невизначеності являє собою гіперкуб - багатовимірний аналог квадрата або куба, - розміри якого можна визначити заздалегідь. Завдяки цьому метод Мишке є одним з небагатьох методів багатовимірного пошуку, ефективність якого піддається вимірюванню. Щоб краще зрозуміти сутність цього методу, розглянемо його для випадку простору проектування, визначається двома змінними. Вихідну область невизначеності в залежності від розмірності простору відобразимо на одиничний квадрат, куб чи гіперкуб. Це дозволить вести пошук в нормованої області зі стороною, що дорівнює одиниці. У гіперкубі побудуємо сітку, утворену попарно симетричними взаємно ортогональними площинами, паралельними координатним напрямкам, вздовж яких змінюються проектні параметри. Ці площини перетинаються по прямих, які в свою чергу перетинаються в точках, які називаються в подальшому вузлами. Обчислимо значення цільової функції у вузлах і в центрі куба. У разі М проектних параметрів отримаємо 2 значень цільової функції, з яких виберемо найбільше. Приймемо відповідний вузол за центр гіперкуба менших розмірів і продовжимо дослідження. Процес продовжується до тих пір, поки не буде досягнута необхідна ступінь звуження інтервалу невизначеності. Якщо в області допустимих значень позначити ступінь звуження вздовж якої-небудь осі координат через r, то лінійне звуження для b-мірного гіперкуба дорівнюватиме f = r , А число обчислених значень цільової функції N = b (2 ) +1.
Ведмедику рекомендує вибирати r в інтервалі значень 2 / 3 <r <1. Він відзначає також, що у випадку трьох і більше змінних більшу ефективність забезпечують не кубічні, а зіркоподібні області.

5. Метод випадкового пошуку

Вище в цій главі говорилося про громіздкість обчислень у разі багатовимірного простору на прикладі числа значень цільової функції, які необхідно обчислити, щоб, користуючись методом сіток, отримати f == 0,1, і було показано, що це число зростає як статечна функція, показник ступеня якої дорівнює розмірності простору. Оригінальний підхід, що дозволяє обійти цю трудність, запропонований Бруксом і заснований на випадковому пошуку. Нехай простір проектування являє собою куб або гіперкуб зі стороною, що дорівнює одиниці, і розділено на кубічні осередку шляхом поділу на 10 рівних частин кожної сторони куба, що відповідає одному з проектних параметрів. При N = 2 число осередків дорівнює 100, при N = 3 воно дорівнює 100, у загальному випадку при N вимірювань число осередків дорівнює 10 . Імовірність того, що обрана навмання осередок увійде в число 10% найбільш перспективних осередків, дорівнює 0,1, так як при N = 1 нас буде цікавити одна клітинка з 10, при N = 2 - одна з десяти кращих при загальній кількості осередків 100 і т.д. Імовірність того, що ми пропустимо одну з 10% найбільш перспективних осередків, складе 0,9. Якщо випадковим чином вибрати два осередки, то ймовірність пропуску буде 0,9 , Тобто 0,81. Взагалі ймовірність знаходження принаймні одного осередку з найбільш перспективних, частка яких дорівнює f, після N спроб складе Р = 1 - (1-f) .
У таблиці 1 вказано, скільки клітинок треба вибрати випадковим чином, щоб забезпечити задану ймовірність при заданій частці найбільш перспективних осередків. З неї видно, що при випадковій вибірці 44 осередків ймовірність досягнення f = 0,1 складе 99%.
Це дуже непогано, якщо згадати, що для 100%-ного забезпечення цільову функцію у разі п'яти змінних довелося б обчислити 2476099 разів.

Таблиця 1.

F
ВІРОГІДНІСТЬ
0.80
0.90
0.95
0.99
0.1
16
22
29
44
0.05
32
25
59
90
0.01
161
230
299
459
0.005
322
460
598
919
Метод випадкового пошуку має дві переваги. По-перше, він придатний для будь-якої цільової функції незалежно від того, є вона унімодальної чи ні. По-друге, ймовірність успіху при спробах не залежить від розмірності розглянутого простору. Хоча цей метод не дозволяє безпосередньо знайти оптимальне рішення, він створює відповідні передумови для застосування в подальшому інших методів пошуку. Тому його часто застосовують у поєднанні з одним або кількома методами інших типів. Функція Random-випадкове число з [0,1]
Один з можливих прикладів алгоритмів.
f (x) -> min, xÎ R n
x 0-початкове наближення (масив [1: n])
Будемо вважати, що нам відома функція
minf (j (q)), яка обчислюється q min: j (q min) = min j (q)
r: = f (x 0); r1: = r +2 * e; x: = x 0;
поки abs (r1-r)> = e
НЦ
r1: = r; x1: = x;
Для i від 1 до n
НЦ
l [i]: = random;
x [i]: = x [i] + q * R [i];
КЦ
j (q): = f (x);
q min: = minf (j (q));
x: = x1;
для i від 1до n
НЦ
x [i]: = x [i] + q min * l [i];
КЦ
r: = f (x);
КЦ

6. Градієнтні методи

У багатьох алгоритмах багатовимірної оптимізації так чи інакше використовується інформація про градієнтах. Проілюструємо це положення наступним простим прикладом.
Уявімо собі, що альпіністові зав'язали очі і сказали, що він повинен дістатися до вершини "унімодальної" гори. Навіть нічого не бачачи, він може це зробити, якщо весь час буде рухатися вгору. Хоча будь-яка провідна вгору стежка в кінцевому рахунку приведе його до вершини, найкоротшою з них буде найкрутіша, якщо, правда, альпініст не наштовхнеться на вертикальний обрив, який доведеться обходити. (Математичним еквівалентом обриву на поверхні, яка утворюється цільовою функцією, є ті її місця, де поставлені умовні обмеження) Припустимо поки, що завдання оптимізації не містить обмежень.
Пізніше ми включимо їх у схему пошуку.
Метод оптимізації, в основу якого покладено ідею руху по самій крутій стежці, називається методом найшвидшого підйому або найшвидшого спуску. Вектор градієнта перпендикулярний лінії рівня і вказує напрям до нової точки в просторі проектування.
Відзначимо, що градієнтний метод на відміну від методу дотичній до лінії рівня можна використовувати стосовно до будь-якої унімодальної функції, а не тільки тих, у яких це властивість явно виражене. Щоб краще зрозуміти ідею градієнтних методів, докладніше зупинимося на властивостях градієнтів. Розглянемо систему незалежних одиничних векторів e , E , E , ..., E , Спрямованих уздовж осей координат x , X , X , ..., X , Що є в той же час проектними параметрами.
Вектор градієнта довільній цільової функції F (x , X , X , ..., X ) Має вигляд:
(¶ F / ¶ x ) E + (¶ F / ¶ x ) E + .... + (¶ F / ¶ x ) E ,
де приватні похідні обчислюються в розглянутій точці. Цей вектор спрямований вгору, у напрямку підйому; зворотний йому вектор вказує напрямок спуску. Одиничний вектор градієнта часто представляють у вигляді v e + V e + V e + ... + V e , Де
v = .
Іноді характер цільової функції буває досить добре відомий, щоб можна було обчислити компоненти вектора градієнта шляхом безпосереднього диференціювання. Якщо таким способом приватні похідні отримати не вдається, то можна знайти їх наближені значення в безпосередній околиці розглянутої точки:

Тут D - невеликий зсув в напрямку x . Цю формулу часто називають "наближенням січної". Отриману інформацію про напрямку градієнта можна використовувати різний спосіб для побудови алгоритму пошуку.
Один з можливих прикладів алгоритмів.
f (x) -> min, xÎ R n
x 0-початкове наближення (масив [1: n])
Будемо вважати, що нам відома функція
minf (j (q)), яка обчислюється q min: j (q min) = min j (q)

r: = f (x 0); r1: = r +2 * e; x: = x 0;
Поки abs (r-r1)> = e
НЦ
r1: = r;
x1: = x;
Для i від 1 до n
НЦ
l [i]: = ¶ f (x1) / ¶ x [i];
x [i]: = x [i] + q * l [i];
КЦ
j (q): = f (x);
q min: = minf (j (q));
x: = x1;
Для i від 1 до n
x [i]: = x [i] + q min * l [i];
КЦ
r: = f (x);
КЦ

6.1 Східчастий якнайшвидшої підйом

Ряд методів пошуку заснований на зсуві на постійний крок у напрямку градієнта з наступним обчисленням цільової функції. Якщо її розмір виявляється більше попередньої, обчислюється градієнт в новій точці, і вся процедура повторюється, причому часто при цьому крок збільшують. Якщо ж величина цільової функції не змінюється або убуває, то крок зсуву від попередньої точки зменшують і повторюють всю процедуру обчислень. Так надходять до тих пір, поки подальше зменшення кроку вже не призводить до покращення результату.
Якнайшвидшої підйом з використанням одновимірного пошуку
У деяких методах пошуку інформація про градієнті використовується для ведення одновимірного пошуку в напрямку якнайшвидшого підйому або спуску, причому використовується співвідношення
x = X + Sv ,
де S - новий одновимірний параметр, значення якого вимірюються в напрямку градієнта. Отримавши одновимірний оптимум у напрямку даного градієнта, знаходять новий градієнт і повторюють процес до тих пір, поки наступні обчислення дозволяють покращувати отриманий результат. Головне достоїнство цього методу полягає в тому, що параметр S можна використовувати в якості незалежної змінної для пошуку за методом Фібоначчі, і це забезпечує високу ефективність методу. Інша важлива перевага розглянутих методів полягає в тому, що вони дозволяють іти від сідлових точок поверхні, що описується цільовою функцією. Відзначимо, однак, що, як видно з рисунка, для мультимодальних функцій градієнтні методи дозволяють знайти лише локальний оптимум. Тому, якщо характер поверхні недостатньо добре відомий, слід випробувати кілька вихідних точок і переконатися, що у всіх випадках виходить одне і те ж оптимальне рішення. Іншою причиною, яка знижує ефективність градієнтних методів, є злами ліній рівня цільової функції. Так як такі точки відповідають розриву в нахилі ліній контуру, то тут можливі помилки у визначенні напрямку подальшого пошуку. Тому пошук може сповільнитися і йти зигзагами поперек лінії зламу, а час, необхідний для отримання рішення, буде настільки велике, що рахунок доведеться припинити. У дійсності більшість досліджуваних поверхонь має одну або більше ліній зламу, які нерідко проходять через точку оптимуму. Тому, наткнувшись на лінію зламу, слід надалі рухатися вздовж неї. Для реалізації цієї ідеї розроблено ряд дотепних алгоритмів.
Задача 1
Знайти пряму найкращим чином апроксимуючу сукупність експериментальних точок. Рівняння прямої y = m * x + b. Сумарна помилка в разі точок визначається виразом SUM =
Необхідно знайти мінімум, SUM, оптимальні значення m, b. Експериментальні точки задані.
Задача 2
Ємність баку для рідких відходів повинна скласти V л. Виготовляється бак із залізобетону товщиною t див. Визначити геометричні параметри бака, при яких на його виготовлення піде мінімальна кількість бетону.
Задача 3
Ємність баку для рідких відходів повинна скласти V л. Виготовляється бак із залізобетону товщиною t див. Визначити геометричні параметри бака, при яких на його виготовлення піде мінімальна кількість бетону, враховуючи що бак має кришку.
Задача 4
Виробник контейнерів проектує відкритий контейнер з листового матеріалу. Заготівля вирізається з листа, згинається по пунктирних лініях і зварюється чотирма швами. Якими мають бути розміри контейнера невеликого обсягу, якщо площа його дна не повинна перевищувати 1 м 2 і жоден з лінійних розмірів a, b, c не повинні бути більше іншого більш ніж в 3 рази?
Задача 5
Порівняно проста з математичної точки зору цільова функція Розенброка y = 100 (x 2-x ) 2 + (1 + x 1) 2 описує поверхню з западиною.
Мінімальне значення цільової функції відповідає точці з координатами M (x, y). Якщо взяти початкову точку в другому квадранті, то не завжди вдається забезпечити збіжність. Вибравши вихідну точку спробувати вирішити цю задачу оптимізації:
a) методом покоординатного спуску;
b) градієнтним методом.

Література

1. Шуп Т. "Рішення інженерних задач на ЕОМ", 1982
2. Брукс С.Ш. "Про випадкових методах пошуку максимуму", 1958
Додати в блог або на сайт

Цей текст може містити помилки.

Програмування, комп'ютери, інформатика і кібернетика | Реферат
75.1кб. | скачати


Схожі роботи:
Оптимізація алгоритмів пошуку
Методи пошуку відмов
Методи інформаційного пошуку
Методи пошуку інформації в Інтернеті
Методи пошуку та аналізу інформації
Евристичні методи пошуку способу розв`язання завдань
Методи збору і пошуку інформації застосовуються в сучасній етнології
Методи впливу електропрогона і простукування для пошуку неісп
Методи пошуку інформації в мережі інтернет Інформаційно-пошукові системи
© Усі права захищені
написати до нас