19:57:18 From Антон Панов : + 19:57:40 From OTUS Онлайн-образование : https://otus.ru/polls/4602/ 19:59:00 From Антон Панов : + 20:00:47 From MainSpec : + 20:00:48 From Anton Pekarskii : + 20:00:48 From Roman Novokshanov : + 20:02:07 From MainSpec : + 20:02:11 From Alexander Nozdrin : - 20:02:13 From Nickolay Bobrov : Перезагрузка сверху 20:02:16 From Anton Pekarskii : - 20:02:16 From Roman Novokshanov : - 20:02:17 From Nickolay Bobrov : справа 20:02:17 From Oleg : - 20:02:28 From Nickolay Bobrov : )))) 20:02:31 From Nickolay Bobrov : Я успел 20:02:47 From MainSpec : На ResNet34 одну домашку тестировал 20:07:52 From Alexander Nozdrin : + 20:08:08 From Anton Pekarskii : + 20:08:10 From Roman Novokshanov : + 20:08:22 From Alexander Nozdrin : А что с количеством входов и выходов при предобучении и собственно обучении? 20:14:51 From Oleg : но ведь когда мы добавим слои - учим же мы всю сеть целиком, значит и первые слои тоже будут переобучены, нет? 20:17:23 From Oleg : тогда следующий вопрос: а как мы можем быть уверены, что замороженные слои обучены правильно под новую задачу? 20:22:30 From Alexander Nozdrin : - 20:22:34 From Oleg : - 20:29:06 From Oleg : то есть используем автокодировщик? 20:29:21 From Nickolay Bobrov : просто слой на котормо режем 20:31:55 From Nickolay Bobrov : То есть первые слои переобучаем так чтобы на выходе распредления были одинаковые? 20:35:36 From Oleg : - 20:35:36 From Nickolay Bobrov : в коде надо посмотреть, на словах понятно 20:35:39 From Alexander Nozdrin : +/- 20:38:20 From Nickolay Bobrov : Идея еще понятней стало + 20:38:32 From Alexander Nozdrin : Не очень понятно, что в таком случае нам дают данные без лейблов на входе, если мы для них не обновляем веса 20:42:24 From Nickolay Bobrov : А как лоссы комбинруются при обратном распространии на слое признаков? Суммирование? 20:42:51 From Anton Pekarskii : А поченму его в GANе не использовали? Gradient reversal layer 20:47:58 From Nickolay Bobrov : от эпох зависит или от на каждой эпохе постепенно открывается? 20:54:41 From Anton Pekarskii : - 20:54:42 From Nickolay Bobrov : - 20:54:43 From Alexander Nozdrin : - 20:54:44 From Oleg : - 20:58:54 From MainSpec : + 20:58:54 From Anton Pekarskii : + 20:58:55 From Alexander Nozdrin : + 21:06:53 From Nickolay Bobrov : клиссифактор надо предобучить? 21:12:32 From Nickolay Bobrov : А можно еще раз проговорить, почему у нас разность лосов. Получается мы же уменьшаем лосс. Так как он всегда положителен? 21:18:07 From Nickolay Bobrov : То есть в общем случае понятно. Что так как мы вычитаем вектора. получаем замедляем обучение с изменением направления шага? 21:20:16 From Anton Pekarskii : + 21:21:03 From Nickolay Bobrov : ну смотрите, у нас же все равно общий лосс это разность. они скачут при кажом обратном распространеии. Если мы их вычитем, то общий вектор движения обратного расрпотрания обычно уменьшается. И вместе с этим мы зменяем направление самомго вектора, так как по кажому измерению кофициенту скачут. Это если в многомерном пространстве представлять. Ну это кка я понял 21:26:06 From Nickolay Bobrov : Ну короче все равно не очен понятно почему так. На потом оставим ))) 21:40:33 From MainSpec : - 21:40:35 From OTUS Онлайн-образование : https://otus.ru/polls/4602/ 21:40:48 From Alexander Nozdrin : - 21:41:17 From Alexander Nozdrin : Спасибо 21:41:30 From Anton Pekarskii : Спасибо