logo

Crowdly

Функция активации ReLU обнуляет все отрицательные входные значения, что может пр...

✅ Перевірена відповідь на це питання доступна нижче. Наші рішення, перевірені спільнотою, допомагають краще зрозуміти матеріал.

Функция активации ReLU обнуляет все отрицательные входные значения, что может привести к появлению «мёртвых нейронов» при обучении.

100%
0%
Більше питань подібних до цього

Хочете миттєвий доступ до всіх перевірених відповідей на else.fcim.utm.md?

Отримайте необмежений доступ до відповідей на екзаменаційні питання - встановіть розширення Crowdly зараз!