2011-09-08 21 views
6

Tôi mới sử dụng mạng nơron và, để nắm bắt vấn đề này, tôi đã triển khai MLP chuyển tiếp cơ bản mà tôi hiện đang đào tạo thông qua quá trình truyền lại. Tôi biết rằng có nhiều cách phức tạp hơn và tốt hơn để làm điều đó, nhưng trong Introduction to Machine Learning, họ đề xuất rằng với một hoặc hai thủ thuật, độ dốc cơ bản có thể có hiệu quả cho việc học hỏi từ dữ liệu thế giới thực. Một trong các thủ thuật là tỷ lệ học tập thích ứng.Yếu tố nhân và bổ sung nào để sử dụng khi thực hiện tỷ lệ học tập thích nghi trong mạng thần kinh?

Ý tưởng là để tăng tỷ lệ học bởi một giá trị không đổi một khi lỗi được nhỏ hơn, và giảm nó bằng một phần nhỏ b của tỷ lệ học khi lỗi được lớn hơn. Vì vậy, về cơ bản sự thay đổi tỷ lệ học được xác định bởi:

+(a) 

nếu chúng ta đang học tập đúng hướng, và

-(b * <learning rate>) 

nếu chúng ta đang làm hỏng việc học của chúng tôi. Tuy nhiên, trên cuốn sách trên không có lời khuyên về cách thiết lập các thông số này. Tôi sẽ không mong đợi một gợi ý chính xác vì việc điều chỉnh tham số là một chủ đề hoàn toàn, nhưng chỉ là một gợi ý ít nhất về thứ tự độ lớn của chúng. Bất kỳ ý tưởng?

Cảm ơn bạn,
Tunnuz

Trả lời

6

tôi đã không nhìn mạng thần kinh cho thời gian dài nhất (10 năm +) nhưng sau khi tôi thấy câu hỏi của bạn tôi nghĩ rằng tôi sẽ có một trinh sát nhanh về. Tôi tiếp tục nhìn thấy những con số tương tự khắp nơi trên internet liên quan đến tăng (một) và giảm (b) yếu tố (1,2 & 0,5 tương ứng).

Tôi đã quản lý để theo dõi các giá trị này xuống Martin Riedmiller và Heinrich Braun's RPROP algorithm (1992). Riedmiller và Braun khá cụ thể về các thông số hợp lý để lựa chọn.

Xem: RPROP: A Fast Adaptive Learning Algorithm

Tôi hy vọng điều này sẽ giúp.

+0

Tôi muốn chấp nhận câu trả lời này, nhưng chúng giống như những con số rất lớn cho rằng chúng được sử dụng để mở rộng hoặc thu nhỏ giá trị tỷ lệ học tập phải ở [0.0.1.0]. Bạn có chắc chắn rằng họ không có ý nghĩa khác trong RPROP không? – tunnuz

+0

Các giá trị được đề cập cụ thể cho các yếu tố tăng/giảm (được sử dụng để sửa chữa bạn khi bạn bắt đầu đi ra khỏi khóa học). Nếu bạn xem qua PDF (tìm kiếm does't làm việc cho tôi, có thể là một điều LaTex - và thứ tự trang dường như là ngược!) Tôi nghĩ nó đề cập đến tốc độ học (epsilon và delta zero - tùy thuộc vào thuật toán). Trong một bảng nó cho nó một giá trị 0,05. Nó cũng đề cập đến các thuật toán tiềm năng khác (BP, SuperSAB, QuickProp) và kết quả được đưa ra khi các giá trị/thuật toán khác được sử dụng. –

+0

Xem thêm: http://stackoverflow.com/questions/2865057/resilient-backpropagation-neural-network-question-about-gradient –

Các vấn đề liên quan