Các Wikipedia page for backpropagation có tuyên bố này:làm thế nào là backpropagation giống nhau (hoặc không) như sự khác biệt tự động đảo ngược?
Thuật toán lan truyền ngược để tính một gradient đã tái phát hiện một số lần, và là một trường hợp đặc biệt của một hơn kỹ thuật nói chung được gọi là sự khác biệt tự động trong điều ngược lại chế độ tích lũy .
Ai đó có thể giải thích về vấn đề này không? Chức năng được phân biệt là gì? "Trường hợp đặc biệt" là gì? Có phải chính các giá trị của các giá trị được sử dụng hoặc gradient cuối cùng?