Tôi cố gắng để làm theo các hướng dẫn trên Udacity tensorflow nơi tôi đi qua hai dòng sau cho các mô hình từ nhúng:Tensorflow tiêu cực lấy mẫu
# Look up embeddings for inputs.
embed = tf.nn.embedding_lookup(embeddings, train_dataset)
# Compute the softmax loss, using a sample of the negative labels each time.
loss = tf.reduce_mean(tf.nn.sampled_softmax_loss(softmax_weights, softmax_biases,
embed, train_labels, num_sampled, vocabulary_size))
Bây giờ tôi hiểu rằng tuyên bố thứ hai là cho lấy mẫu nhãn tiêu cực. Nhưng câu hỏi đặt ra là làm cách nào để biết được các nhãn tiêu cực là gì? Tất cả tôi đang cung cấp chức năng thứ hai là đầu vào hiện tại và nhãn tương ứng của nó cùng với số lượng nhãn mà tôi muốn (phủ định) mẫu từ. Không phải là có nguy cơ lấy mẫu từ bộ đầu vào trong chính nó?
Đây là toàn bộ ví dụ: https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/udacity/5_word2vec.ipynb
"Tôi nghĩ TensorFlow sẽ loại bỏ hoàn toàn khả năng này khi lấy mẫu ngẫu nhiên". Chính xác! Có cờ: 'remove_accidental_hits': Một bool. có nên xóa "các lần truy cập tình cờ" trong đó một lớp được lấy mẫu bằng một trong các lớp mục tiêu hay không. Mặc định là True.' – Alex
Có ai biết cách cung cấp trọng lượng lấy mẫu không? –