Chúng tôi đã sử dụng lớp này và giáo sư của chúng tôi nói rằng chúng tôi có thể truyền cho nó hình dạng đúng (bình luận cho biết "danh sách 1D có kích thước hàng loạt float-Tensors có cùng chiều dài như logits"). Điều đó không giúp ích cho ý nghĩa của chúng, nhưng có thể nó sẽ giúp bạn chạy mã. Đã làm cho tôi.
Mã này nên thực hiện thủ thuật: [tf.ones(batch_size, tf.float32) for _ in logits]
.
Chỉnh sửa: từ mã TF:
for logit, target, weight in zip(logits, targets, weights):
if softmax_loss_function is None:
# TODO(irving,ebrevdo): This reshape is needed because
# sequence_loss_by_example is called with scalars sometimes, which
# violates our general scalar strictness policy.
target = array_ops.reshape(target, [-1])
crossent = nn_ops.sparse_softmax_cross_entropy_with_logits(
logit, target)
else:
crossent = softmax_loss_function(logit, target)
log_perp_list.append(crossent * weight)
Các trọng số được thông qua được nhân bởi sự mất mát cho rằng logit cụ thể. Vì vậy, tôi đoán nếu bạn muốn có một dự đoán cụ thể thêm nghiêm túc, bạn có thể tăng trọng lượng trên 1.
Nguồn
2016-12-14 05:56:01
Nó giúp một chút, nhưng tôi đang cố gắng hiểu thêm về mục đích của thông số trọng số, Im không tìm thấy nhiều cuộc thảo luận về trọng số trong hàm mất của RNN, trừ khi chúng ta đang nói về đầu ra lớp. Bạn có biết câu trả lời cho câu hỏi hình dạng thích hợp liên quan đến chiều dài có nghĩa là gì không? – TheM00s3
Tôi đoán bạn đang nói về nhận xét trong mã? 'trọng số: Danh sách 1D có kích thước hàng loạt float-Tensors có cùng độ dài như logits.' Là câu hỏi của bạn về nhận xét đó? –
đó sẽ là một. – TheM00s3