2016-02-22 20 views

Trả lời

16

Giá trị keep_prob được sử dụng để kiểm soát dropout rate được sử dụng khi đào tạo mạng thần kinh. Về cơ bản, nó có nghĩa là mỗi kết nối giữa các lớp (trong trường hợp này giữa lớp được kết nối dày đặc cuối cùng và lớp readout) sẽ chỉ được sử dụng với xác suất 0.5 khi đào tạo. Điều này làm giảm quá mức. Để biết thêm thông tin về lý thuyết bỏ học, bạn có thể xem bản gốc paper by Srivastava et al. Để xem cách sử dụng nó trong TensorFlow, xem tài liệu trên toán tử tf.nn.dropout().

Giá trị keep_prob được cấp thông qua trình giữ chỗ để cùng một biểu đồ có thể được sử dụng để đào tạo (với keep_prob = 0.5) và đánh giá (với keep_prob = 1.0). Một cách khác để xử lý các trường hợp này là xây dựng các đồ thị khác nhau cho đào tạo và đánh giá: xem xét việc sử dụng bỏ học trong mô hình convolutional.py hiện tại cho một ví dụ.

+0

Cảm ơn bạn rất nhiều :-) –

Các vấn đề liên quan