Tôi hiện đang triển khai YOLO trong TensorFlow và tôi hơi ngạc nhiên về lượng bộ nhớ đang dùng. Trên GPU của tôi tôi có thể đào tạo YOLO bằng cách sử dụng khung Darknet của họ với kích thước lô 64. Trên TensorFlow tôi chỉ có thể thực hiện với kích thước lô 6, với 8 Tôi đã hết bộ nhớ. Đối với giai đoạn thử nghiệm, tôi có thể chạy với kích thước lô 64 mà không cần hết bộ nhớ.TensorFlow: Làm thế nào để đo lường bao nhiêu bộ nhớ GPU mỗi tensor mất?
Tôi tự hỏi làm thế nào tôi có thể tính toán lượng bộ nhớ đang được tiêu thụ bởi mỗi tensor như thế nào? Có phải tất cả các tensors được lưu mặc định trong GPU không? Tôi có thể tính toán tổng mức tiêu thụ bộ nhớ như hình dạng * 32 bit không?
Tôi nhận thấy rằng vì tôi đang sử dụng động lượng, tất cả các tensors của tôi cũng có một dây dẫn
/Momentum
. Có thể đó cũng đang sử dụng rất nhiều bộ nhớ?Tôi đang tăng thêm số liệu của mình bằng phương pháp
distorted_inputs
, rất giống với phương pháp được xác định trong CIFAR-10 tutorial. Nó có thể được rằng phần này là chiếm một phần lớn của bộ nhớ? Tôi tin rằng Darknet thực hiện những thay đổi trong CPU.
Điều này phải là * chấp nhận * câu trả lời bây giờ – Wontonimo
cũng điều này là trong python, nhưng làm thế nào tôi có thể ngăn chặn tất cả đăng nhập trong cpp tensorflow –