1 ... 10 11 12 13 14 15 16 17 ... 23 Ім'я файлу: Богайчук Нейронні мережі.docx Розширення: docx Розмір: 1578кб. Дата: 14.03.2021 скачати Пов'язані файли: strategichniy_menedzhment_.doc Рівень ReLUlayer { name: "relu1" type: "ReLU" bottom: "ip1" top: "ip1" } ReLU є поелементною операцією. Дане вхідне значення х, шар ReLU обчислює вихід, як х, якщо х> 0 і negative_slope * х, якщо х <= 0. Коли параметр negative_slope не встановлено, це еквівалентно стандартній функції ReLU взяття max(х , 0). Також підтримується “in-place”обчислення, а це означає, що нижня і верхня мітка може бути одна й та ж, що зменшує споживання пам'яті. Далі пишемо другий шар InnerProduct layer { name: "ip2" type: "InnerProduct" param { lr_mult: 1 } param { lr_mult: 2 } weight_filler { inner_product_param { type: "xavier"
type: "constant" } bottom: "ip1" top: "ip2" } |