Nhóm của tôi đang đào tạo CNN trong Tensorflow để phân loại nhị phân các bộ phận bị hỏng/chấp nhận được. Chúng tôi đã tạo mã bằng cách sửa đổi mã ví dụ cifar10. Theo kinh nghiệm trước đây của tôi với mạng lưới thần kinh, tôi luôn được đào tạo cho đến khi thua lỗ rất gần với 0 (dưới 1). Tuy nhiên, chúng tôi hiện đang đánh giá mô hình của mình với một bộ xác thực trong quá trình đào tạo (trên một GPU riêng biệt) và có vẻ như độ chính xác đã ngừng tăng sau khoảng 6,7k, trong khi sự mất mát vẫn giảm liên tục sau hơn 40k bước. Đây có phải là do overfitting? Chúng ta có nên mong đợi một sự tăng đột biến khác về độ chính xác khi sự mất mát rất gần với không? Độ chính xác tối đa hiện tại không được chấp nhận. Chúng ta có nên giết nó và tiếp tục điều chỉnh không? Bạn đề xuất món gì? Đây là mã và đồ thị được sửa đổi của chúng tôi trong quá trình đào tạo.Dòng chảy: giảm giảm, nhưng độ chính xác ổn định
https://gist.github.com/justineyster/6226535a8ee3f567e759c2ff2ae3776b
Bạn có nghĩ rằng việc thêm nhiều lớp hoặc lớp bỏ học sẽ giúp ích không? –
trước tiên áp dụng các lớp bỏ học, nếu nó không có ý nghĩa, sau đó thêm nhiều lớp hơn và nhiều học sinh bỏ học hơn. cũng cố gắng giảm kích thước bộ lọc và tăng kênh. –
Hình ảnh của chúng tôi chỉ là một kênh (đen và trắng). Bạn có thể giải thích thêm về việc tăng kênh không? Ngoài ra, bạn có nghĩ rằng việc thay đổi số lượng bộ lọc cũng sẽ cải thiện độ chính xác không? Hiện tại là 256. –