1   ...   10   11   12   13   14   15   16   17   ...   23
Ім'я файлу: Богайчук Нейронні мережі.docx
Розширення: docx
Розмір: 1578кб.
Дата: 14.03.2021
скачати
Пов'язані файли:
strategichniy_menedzhment_.doc

Рівень ReLU




layer {

name: "relu1"

type: "ReLU"

bottom: "ip1"

top: "ip1"

}

ReLU є поелементною операцією. Дане вхідне значення х, шар ReLU обчислює вихід, як х, якщо х> 0 і negative_slope * х, якщо х <= 0. Коли параметр negative_slope не встановлено, це еквівалентно стандартній функції ReLU взяття max(х , 0). Також підтримується “in-place”обчислення, а це означає, що нижня і верхня мітка може бути одна й та ж, що зменшує споживання пам'яті.

Далі пишемо другий шар InnerProduct
layer {

name: "ip2"

type: "InnerProduct"

param { lr_mult: 1 }

param { lr_mult: 2 }


weight_filler {


inner_product_param {
type: "xavier"

}




bias_filler {


type: "constant"

}

bottom: "ip1"

top: "ip2"

}

      1. 1   ...   10   11   12   13   14   15   16   17   ...   23

        скачати

© Усі права захищені
написати до нас