Tất cả hoặc gần như tất cả các giấy tờ sử dụng bỏ học đang sử dụng nó cho việc học có giám sát. Dường như nó có thể dễ dàng được sử dụng để thường xuyên hóa các bộ mã hóa tự động sâu, RBM và DBN. Vậy tại sao không bỏ học được sử dụng trong học tập không giám sát?Tại sao DropOut không được sử dụng trong Học tập không giám sát?
7
A
Trả lời
1
Học sinh bỏ học được sử dụng trong học tập không giám sát. Ví dụ:
Shuangfei Zhai, Zhongfei Zhang: Dropout Đào tạo Matrix thừa và Autoencoder cho Link Dự đoán trong đồ thị thưa thớt (arxiv, 14 Dec 2015)
Các vấn đề liên quan
- 1. Thực hiện hệ thống giới thiệu cho việc học tập không giám sát
- 2. Tài khoản thực thi không được giám sát trong SSRS
- 3. Giám sát ứng dụng virtualenv django qua người giám sát
- 4. Giám sát PHP/Curl sử dụng Fiddler
- 5. Giám sát ZooKeeper với Giám sát
- 6. Phân tích ý kiến không được giám sát
- 7. Đào tạo HMM không được giám sát trong NLTK
- 8. Instrumentation.ActivityMonitor không giám sát Intent.ACTION_CALL
- 9. Docker, Giám sát và giám sát-stdout
- 10. Giám sát Memcached với tập lệnh PHP
- 11. Tại sao giám sát một ngắt bàn phím trong chủ đề trăn không hoạt động
- 12. Tại sao người giám sát của tôi chấm dứt?
- 13. Giám sát
- 14. Người giám sát OTP có thể giám sát quy trình trên một nút từ xa không?
- 15. Tại sao Giám sát viên không nhận ra các thay đổi mã?
- 16. chạy cần tây như daemon sử dụng giám sát không hoạt động
- 17. Giám sát IIS 6.0
- 18. Elixir/Erlang và Cowboy - Cách sử dụng người giám sát
- 19. giám sát thư mục
- 20. Giám sát JMX bằng cách sử dụng Zabbix
- 21. giám sát với chọn
- 22. Giám sát USB OSX
- 23. Redis - giám sát việc sử dụng bộ nhớ
- 24. Giám sát celerybeat với người giám sát và virtualenv
- 25. Giám sát việc sử dụng bộ nhớ của Spark Jobs
- 26. Giám sát việc sử dụng mạng của quá trình?
- 27. Dù sao để có được ID của các quy trình được tạo ra bởi Giám sát?
- 28. Giám sát không bắt đầu quá trình bị giết
- 29. Tensorflow LSTM Dropout Implementation
- 30. Giám sát nhiều ứng dụng đường ray
Nhìn vào denoising autoencoder, thêm tiếng ồn ngẫu nhiên tương tự để bỏ học. –
Đúng, đó chính xác là ý tưởng tương tự. Họ chọn ngẫu nhiên các đầu vào và đặt chúng thành 0. Xem: http://deeplearning.net/tutorial/dA.html – alfa
Tôi có cùng một câu hỏi. Tôi nghĩ rằng denoising AE chỉ áp dụng bỏ học trên lớp intput. Câu hỏi của tôi là tại sao không phải là bỏ học áp dụng cho các lớp ẩn để ngăn chặn overfitting? –