Накратко, вие не можете да извършвате обратно разпространение, ако нямате целева функция. Не можете да имате целева функция, ако нямате мярка между прогнозирана стойност и обозначена (действителна или тренировъчна) стойност. Така че, за да постигнете „учене без надзор“, може да се откажете от способността да изчислявате градиент.
Какви са ограниченията на обратното разпространение?
Недостатъци на алгоритъма за обратно разпространение:
Разчита на вход за изпълнение на конкретен проблем. Чувствителен към сложни/шумни данни. Нуждае се от производните на функциите за активиране за времето за проектиране на мрежата.
Как коригирате обратното разпространение?
Процес на обратно разпространение в дълбока невронна мрежа
- Въведени стойности. X1=0,05. …
- Начално тегло. W1=0,15 w5=0,40. …
- Стойности на отклонение. b1=0,35 b2=0,60.
- Целеви стойности. T1=0,01. …
- Напред. За да намерим стойността на H1, първо умножаваме входната стойност от теглата като. …
- Преминаване назад в изходния слой. …
- Обратно преминаване в скрит слой.
Ефективно ли е обратно разпространение?
Обратно разпространение е ефективно, което го прави възможно да се обучават многослойни мрежи, съдържащи много неврони, като същевременно се актуализират теглата, за да се минимизира загубата.
Какъв проблем решава обратното разпространение при работа с невронни мрежи?
При монтиране на невронна мрежа, обратното разпространение изчислява градиента нафункцията на загуба по отношение на теглата на мрежата за единичен вход-изход пример и го прави ефективно, за разлика от наивното директно изчисляване на градиента по отношение на всяко тегло поотделно.