1   2   3   4   5   6   7   8
Ім'я файлу: 2017 печ 32Л _конспект лекцій_ЦОЗ_4 курс_Творошенко.pdf
Розширення: pdf
Розмір: 1701кб.
Дата: 07.01.2022
скачати
Метод максимальної правдоподібності
Розпізнавання за методом максимальної правдоподібності використовує значний обсяг статистичних даних та успішно справляється із складними завданнями. Метод максимальної правдоподібності забезпечує оптимальне розпізнавання. Однак, цей метод вимагає досить великої кількості операцій і є порівняно повільним. Бажано, щоб під час його використання враховувалися не тільки яскравості в спектральних каналах для кожного одиночного пікселя, але
і його оточення. У деяких випадках розглянутий варіант методу максимальної правдоподібності за якістю програє більш простим методам, які беруть до уваги взаємні зв’язки сусідніх пікселів.
Квадратичну форму






k
ij
k
T
k
ij
f
R
f




1
можна спростити, якщо покласти
n
m
R
mnk

 ,
0
, тобто не враховувати кореляцію яскравостей пікселя у спектральних каналах. У (2.6) залишаться тільки два члени, множник перед квадратними дужками стане рівним 1.
У разі двох класів k та s отримуємо такі вирази [8]:






n
m
mk
mk
mij
k
f
r
1 2
2 2


,






n
m
ms
ms
mij
s
f
r
1 2
2 2


,
(2.7) де m – номер спектрального каналу;
n – загальне число каналів;
2
k
r
– квадрат відстані в просторі яскравості по евклідовій метриці між класифікованих пікселем з вектором
ij
f
і вектором середнього значення
k

еталонного об’єкта «k».

31
Під час використання (2.7) вважається, що піксель відноситься до того класу, де менший один із двох
2
k
r
чи
2
s
r
Точність
2
k
r
істотним чином залежить від точності оцінювання
2
mk

, як і в методі максимальної правдоподібності.
Метод мінімальних відстаней
Подальше спрощення призводить до методу мінімальних відстаней, коли вирішення про те, до якого класу належить піксель, приймається на підставі порівняння відстаней між пікселями і середніми значеннями в просторі яскравості без урахування вектора дисперсії яскравості еталонного об’єкта:






n
m
mk
mij
k
f
r
1 2
2

(2.8)
Це самий простий і швидкий метод класифікації, він вимагає мінімальних відомостей про класи, але нерідко поступається методу максимальної правдоподібності у точності класифікації. Порівняння з результатами класифікації по методу максимальної правдоподібності показує, що у даному випадку краще всього виділилися згарища та інші елементи ландшафту, позбавлені рослинності, гірше виділилися листяні дерева.
Метод мінімальних відстаней не враховує оточення пікселя, тому іноді може поступатися методам кластерного аналізу, методам сегментації по нарощуванню областей та по виділенню кордонів.
Метод мінімальних відстаней заснований на евклідовій метриці та не пов’язаний з нормальним законом розподілу.
Метод паралелепіпедів
На практиці знаходить застосування ще один простий метод класифікації, пов’язаний з нормальним законом, – метод паралелепіпедів (метод прямокутників). Він використовує відомості про класи у вигляді векторів середніх значень яскравості
k

і векторів дисперсій
2
mk

, що отримані у процесі навчання. Відомо, що для нормально-розподіленої випадкової величини 95,4% її значень лежать у межах відхилень від середнього значення, менших

2
Розглянемо випадок двох спектральних компонент.
На рисунку 2.1 по вертикальній осі відкладені значення яскравості
1
f у першому каналі, по горизонтальній осі – значення яскравості
2
f у другому каналі.

32
Зазначені середні значення яскравості
11

і
12

для першого і другого класів у першому каналі,
21

і
22

для першого і другого класів у другому каналі. Від значення середньої яскравості в обидві сторони відкладені значення середньоквадратичного відхилення
22 21 12 11
,
,
,




для першого і другого класу в кожному із двох каналів.
Рисунок 2.1 – Дві спектральні компоненти
У двовимірному випадку отримано прямокутники, у три- і більше мірному випадку маємо паралелепіпеди у відповідному просторі.
Якщо компоненти вектора яскравості
ij
f
1
та
ij
f
2
такі, що потрапляють в лівий прямокутник, приймається рішення про належність пікселя до першого класу, якщо вони потрапляють у правий прямокутник, то до другого.
Прямокутники можуть частково перекриватися, особливо це характерно для областей, що примикають до кутів. У цьому випадку точки виявляються нерозпізнаними.
Метод паралелепіпедів відноситься до числа швидких методів класифікації, однак, за якістю розпізнавання він поступається більшості з розглянутих методів, як видно із зображення.

33
Метод паралелепіпедів найдоцільніше використовувати для попередньої класифікації, він найбільш ефективний при нормальному законі, так як для нього виконується «правило двох сигма».
Особливості непараметричних методів класифікації
Параметричні методи статистичної класифікації зображень є потужним засобом тематичної обробки. Специфіка дистанційного зондування в оптичному діапазоні полягає у тому, що зображення подане у вигляді декількох шарів, кожен з яких отримано в одному із спектральних каналів [10].
Для використання параметричних методів необхідно знати багатовимірні функції розподілу ймовірностей, пов’язані з класами образів. Часто ці функції не відомі і повинні оцінюватися по множині навчальних образів.
Використовується багатовимірний нормальний закон, хоча не відомі докази, що багатовимірні функції розподілу ймовірностей яскравостей багатоспектральних зображень мають саме такий вигляд.
В одновимірному випадку нормальний закон розподілу несправедливий хоча б через те, що яскравість – величина невід’ємна. У разі прийняття гіпотези про нормальність розподілу по навчальним образам необхідно оцінити тільки окремі параметри, пов’язані з цими функціями (такі як математичні сподівання, дисперсії, функції кореляції). Параметричні методи, зазвичай, легше реалізуються, але вимагають більшого обсягу апріорної інформації або фундаментальних припущень щодо природи образів. Якщо форма функцій розподілу ймовірностей не відома заздалегідь, метод є непараметричним.
Непараметричні методи мають великі потенційні можливості для точної оцінки функцій розподілу ймовірностей і для точного розпізнавання, але ця перевага, зазвичай, вимагає складних систем, що розпізнають, великого числа навчальних образів і, головне, великих часових витрат. Непараметричні алгоритми, зазвичай, синтезують евристично, часто використовуються локальні оцінки ймовірності за емпіричною частотою.
Робастні алгоритми
Серед непараметричних алгоритмів слід виділити робастні (стійкі) алгоритми, справедливі з тією чи іншою ефективністю при різних законах розподілу. Прикладом непараметричного алгоритму є метод мінімальних відстаней, метод використовує середні значення яскравості і дисперсії або тільки середні значення яскравості об’єктів, знайдені з навчальної вибірки.
При цьому припущення про функції розподілу не використовуються.
Головне, щоб середні значення яскравості і дисперсії існували.

34
Прикладом непараметричного алгоритму, що використовується під час придушення шуму у вигляді крапок і ліній на зображенні, є алгоритм медіанної
фільтрації.
Рангова статистика
Розглянемо типовий робастний алгоритм, так званий ранговий, який враховує відхилення елементів даної вибірки від елементів випадкової вибірки.
Наприклад, є зображення лісу з дозволом 30 м, на якому видні крони дерев та просіка. Потрібно виявити і виділити зображення просіки (рис. 2.2) [10].
Рисунок 2.2 – Зображення лісу з просікою
Можна використати градієнтний фільтр, наприклад, фільтр Лапласа.
Просіка стає більш помітною, але пікселі, що відносяться до неї, оточені
іншими пікселями, які можна інтерпретувати як шум (рис. 2.3) [10].
Рисунок 2.3 – Результат застосування фільтру Лапласа

35
Розглянемо один рядок зображення, який показано на рисунку 2.4.
Рисунок 2.4 – Рядок зображення, що містить пікселі об’єкта та шуму
Приймемо, що А – пікселі об’єкта (просіки),
i
x – вибіркові значення яскравості пікселів (табл. 2.1).
Таблиця 2.1 – Вибіркові значення яскравості пікселів
1
x
2
x
3
x
4
x
5
x
6
x
7
x
8
x
9
x
10
x
4 3
13 8
5 18 9
6 11 15
Рангом
i
R елемента вибірки
i
x називається число елементів n цієї вибірки, менших або рівних
i
x . Якщо елементи вибірки розташувати у порядку зростання від меншого до більшого (сформувати варіаційний ряд за зростанням), то отримаємо таблицю 2.2.
Таблиця 2.2 – Вибіркові значення яскравості пікселів
i
R
1 2
3 4
5 6
7 8
9 10 3
4 5
6 8
9 11 13 15 18
i
x
2
x
1
x
5
x
8
x
4
x
7
x
9
x
3
x
10
x
6
x
Ранг
9
R елемента
9
x дорівнює 7, ранг
2
R елемента
2
x дорівнює 1, ранг
6
R елемента
6
x дорівнює 10.
Коли спостерігається тільки шум, враховуючи незалежність та однорідність значення яскравості пікселів, то величини рангів рівноймовірні при будь-яких функціях розподілу.
Якщо ж у вибірці є суміш шуму і деякого невипадкового зображення, то величини рангу не будуть рівноймовірними.

36
Двовибірний алгоритм Вілкоксона
Для виявлення локальних контурних ознак можна використати двовибірний алгоритм Вілкоксона. Формуються дві вибірки, одна з яких
n
x
x
x
X
,
,
,
2 1


є опорною і належить області фону, інша
m
y
y
y
Y
,
,
,
2 1


– робоча. Вхідні в Y елементи можуть бути як пікселями фону, так і пікселями шуканого зображення, тобто до складу вектора Y включені ті пікселі, які відповідають очікуваному положенню об’єкта, що цікавить (табл. 2.3).
Таблиця 2.3 – Двовибірний алгоритм Вілкоксона
Без локальних контурних ознак
i
R
1 2
3 4
5 6
7 8
9 10
i
x
3 4
5 6
8 9
11 13 15 18
З локальними контурними ознаками
i
R
1 2
3 7
8 9
10 11 12 13
i
y
3 4
5 11 13 15 18 24 24 24
Складаються два варіаційних ряди – один для елементів опорної X вибірки, а другий для робочої Y вибірки. Ранги елементів робочої вибірки визначаються з урахуванням рангів елементів опорної вибірки, тобто для тих елементів робочої вибірки
i
y , які збігаються (або близькі) до елементів опорної вибірки
i
x , зберігаються ті ж самі ранги. Значення яскравості
i
y пікселів, що відносяться до області А, перевищують
i
x , тому вони потраплять у кінець варіаційного ряду з новими (більшими) номерами (рангами), а у загальній послідовності номерів відбудеться стрибок, зникнуть ранги 4, 5, 6.
Далі визначається рангова статистика


i
R
R
, порівняння якої з порогом
0
R призводить до вирішення про наявність чи відсутність локальних контурних ознак згідно правилу:
0
R
R
– локальні контурні ознаки є,
(2.9)
0
R
R
– локальні контурні ознаки відсутні.
(2.10)
У розглянутому прикладі R = 55, якщо локальні контурні ознаки відсутні
і R = 76, якщо локальні контурні ознаки є. При відсутності локальних контурних ознак елементи обох векторів X та Y утворюють однорідну множину випадкових величин, що підкоряються одному і тому ж закону розподілу
 
x
w

37
У цьому випадку елемент ро6очої вибірки з рівними шансами займає будь-яке положення у варіаційному ряді, а це означає, що випадкова величина
i
R підпорядковується рівноймовірному закону розподілу:
 


,
,
2
,
1
,
0
,
1 1
n
R
n
R
w
i
i




(2.11)
На даний розподіл не робить впливу конкретний вид розподілу некорельованого фону
 
x
w
Закон розподілу
 
R
w
вирішальної статистики R при фактичній відсутності в Y яскравісного перепаду не залежить від розподілу фону
 
x
w
Отже, від
 
x
w
не залежить і ймовірність помилкового виявлення локальних контурних ознак, яким відповідає верхня умова у процедурі
0
R
R
Для практичного застосування особливо важливо, що і вибір порогу рангової процедури
0
R , який підпорядковують вимозі отримання бажаної величини ймовірності помилкового виявлення, також не пов’язаний із розподілом фону
 
x
w
Таким чином, застосування рангового алгоритму автоматично стабілізує ймовірність помилкового виявлення, роблячи її незалежною від виду та параметрів закону розподілу фону. Ця властивість досягається тільки за умови, що всі випадкові величини, що утворюють вибірки X та Y, незалежні. В іншому випадку в закон розподілу
 
R
w
будуть входити параметри, що описують залежність елементів.
При наявності об’єкта А елементи вектора Y статистично перевищують елементи X, тому закон розподілу рангу
 
i
R
w
перестає бути рівномірним:
імовірності великих значень
i
R збільшуються за рахунок зменшення ймовірностей малих значень. Ця тенденція проявляється тим сильніше, чим більша величина яскравісного перепаду.
Декореляції фону
На зображенні ділянки лісу з просікою яскравості пікселів фону залежні статистично, це типово для багатьох зображень випадкового фону.
Тому для коректного використання рангового алгоритму необхідно перетворити зображення. Будемо вважати, що яскравості пікселів фону на рисунку 2.2 підкоряються нормальному закону розподілу, для якого незалежність і некорельованість елементів зображення еквівалентні один одному, тому перетворення зображення зводиться до декореляції фону.

38
Нехай фон є однорідним та ізотропним випадковим полем, у якого статистичні характеристики однакові по рядках і стовпцях.
Як модель фону (крона дерев) використовуємо чотириточкову модель:














,
,
1
,
,
1 1
,
,
1
,
j
i
z
j
i
f
j
i
f
j
i
f
j
i
f
j
i
f










(2.12) де i та j – номери рядків і стовпців;

– параметр, що характеризує ступінь впливу сусідніх відліків на даний відлік поля


j
i
f ,
;


j
i
z ,
– випадкове поле з нормальним законом розподілу та некорельованими відрахунками.
Для декореляції фону використовуємо таку процедуру [11]:
















,
,
1
,
,
1 1
,
,
1
,
,
j
i
z
j
i
f
j
I
f
j
i
f
j
I
f
j
i
f
j
i
g











(2.13)
0 0
1 0
0








Декореляція здійснюється шляхом обробки зображення ковзаючим вікном та враховує конфігурацію сусідніх підрахунків.
Результат цієї обробки при відсутності локальних контурних ознак збігається з породжуючим процесом


j
i
z ,
, який за властивостями своєї кореляційної функції близький до білого шуму. Для того, щоб при виявленні локальних контурних ознак використовувати незалежну вибірку, її відліки слід розташовувати так, щоб їх взаємна кореляція дорівнювала нулю.
Вид сигналу, що пройшов через процедуру декореляції, залежить від значень параметра

, тому зупинимося на їх визначенні. Приймемо умову однаковості характеристик зображення по рядках і стовпцях. Параметр

бере участь у процедурі декореляції, тому його вибір необхідно підпорядкувати мінімізації помилок декореляції [12].






2
,
,
j
i
z
j
i
g

,
(2.14) враховуючи, що


0
,

j
i
z
,


2 2
,
z
j
i
z


,






2 2
,
,
f
j
i
f
j
i
f



, причому коефіцієнт кореляції між сусідніми відліками дорівнює (2.15).

39




















2
,
1
,
,
,
f
j
i
f
j
i
f
j
i
f
j
i
f
,
(2.15) де

– нормований коефіцієнт кореляції між сусідніми пікселями фону.
Як модель коефіцієнта кореляції приймемо вираз












2 2
2
,
,
,
,
m
n
j
i
f
m
j
n
I
f
j
i
f
j
i
f
f










,
(2.16) при цьому






2 1
2 2
2 2
2 2
2 2
2 2
4 2
2 2
4 2
4
,
,












f
f
f
f
z
j
i
g
j
i
z








. (2.17)
Прирівнюючи нулю похідну по

лівій частині цього виразу, знаходимо:











2 2
1 2
1




(2.18)
Процедура декореляції впливає на сигнальну (А) складову зображення.
Необхідно оцінити зміну яскравісного перепаду, що відбувається під час цього впливу. Уявімо повну модель вихідного зображення


j
i
h ,
у вигляді суми безперервної (фонової) складової


j
i
f ,
і ступінчастої функції


j
i
s ,
, яка описує яскравісний перепад:






j
i
f
j
i
s
j
i
h
,
,
,


(2.19)
Для зображень, поданих на рисунках 2.2 та 2.3, значення коефіцієнта кореляції

лежать у межах 0,9 <

<1. Цьому відповідає 0,25 <

< 0,255.
Зміна параметру

у таких невеликих межах незначно змінює відгук оператора декореляції на яскравісний перепад


j
i
s ,
. Нижче наведено переріз вихідного сигналу, розрахований при

= 0,25 [12]:
0 1
0 1
4 1
0 1
0 25
,
0 0
25
,
0 0
25
,
0 1
25
,
0 0
25
,
0 0









Лінія локальних контурних ознак перетвориться фільтром Лапласа, причому яскравість всіх елементів ділиться на 4, множник 0,25 не є принциповим, його можна упустити.

40

1   2   3   4   5   6   7   8

скачати

© Усі права захищені
написати до нас