Có cách nào đơn giản để tìm bộ nhớ GPU được tiêu thụ bởi mô hình khởi động-resnet-v2 được khởi tạo trong lưu lượng tensor không? Điều này bao gồm suy luận và các ký ức backprop cần thiết.Làm cách nào để tính toán bộ nhớ GPU cần thiết để chạy mô hình trong TensorFlow?
Trả lời
Kể từ khi sử dụng gpu.options.allow_growth
và gpu_options.per_process_gpu_memory_fraction
cho ước lượng mô hình kích thước hiện là một thử nghiệm-và-lỗi và giải pháp tẻ nhạt, tôi đề nghị sử dụng tf.RunMetadata()
kết hợp với tensorboard.
Ví dụ:
run_options = tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE)
run_metadata = tf.RunMetadata()
summary, _ = sess.run(train_step, feed_dict, options=run_options, run_metadata=run_metadata)
train_writer.add_run_metadata(run_metadata, 'step%d' % i)
Chạy mô hình và tensorboard của bạn, điều hướng đến phần mong muốn của đồ thị của bạn và đọc số liệu thống kê node.
Bạn có thể tính toán bộ nhớ cần thiết một cách rõ ràng để lưu trữ các thông số, nhưng tôi sợ sẽ khó tính toán kích thước của tất cả bộ đệm cần thiết cho việc đào tạo. Có lẽ, một cách thông minh hơn sẽ là làm cho TF làm điều đó cho bạn. Đặt tùy chọn cấu hình gpu_options.allow_growth
thành True và xem mức độ sử dụng nó là bao nhiêu. Một tùy chọn khác là thử các giá trị nhỏ hơn cho gpu_options.per_process_gpu_memory_fraction
cho đến khi nó không hoạt động hết bộ nhớ.
- 1. Làm thế nào để ngăn chặn lưu lượng tensorflow phân bổ toàn bộ bộ nhớ GPU?
- 2. TensorFlow: Làm thế nào để đo lường bao nhiêu bộ nhớ GPU mỗi tensor mất?
- 3. TensorFlow: cách đăng nhập sử dụng bộ nhớ GPU (VRAM)?
- 4. Thiết lập nhiều GPU/Tháp Tensorflow 1.2 Ước tính
- 5. Cách tính toán mức sử dụng bộ nhớ GPU trong Theano?
- 6. Có cách nào để xác định bộ nhớ GPU đang được sử dụng bởi TensorFlow không?
- 7. Làm thế nào tôi có thể giải quyết 'hết bộ nhớ gpu' trong TensorFlow
- 8. Làm thế nào để kiểm soát bộ nhớ trong khi sử dụng Keras với backend tensorflow?
- 9. Làm cách nào để giảm mức tiêu thụ bộ nhớ trong một vòng lặp trong TensorFlow?
- 10. Sử dụng GPU để tăng tốc độ tính toán BigInteger
- 11. Làm thế nào để tính số bit địa chỉ cần thiết cho bộ nhớ?
- 12. Tính toán Multi-GPU Cuda
- 13. GPU và CPU? Số lõi/luồng trong GPU để tăng tốc tính toán chương trình?
- 14. Split RNN Mức tiêu thụ bộ nhớ Đồng đều giữa các GPU trong TensorFlow
- 15. Cách tính toán bộ làm việc riêng tư (bộ nhớ)?
- 16. TensorFlow: Cách xác minh rằng nó đang chạy trên GPU
- 17. Làm cách nào để thiết lập cụm Tensorflow bằng Google Compute Engine Instances để đào tạo một mô hình?
- 18. Làm cách nào để triển khai bộ nhớ cache hình ảnh trong bộ nhớ trong Android?
- 19. Phục vụ phân luồng: Sử dụng một phần bộ nhớ GPU cho mỗi mô hình
- 20. Làm thế nào để tạo ra toàn bộ trong tensorflow?
- 21. Làm cách nào để xử lý giới hạn bộ nhớ của GPU để xử lý hình ảnh có độ phân giải cao trên GPU?
- 22. Làm cách nào để tạo trường mô hình Django được tính khi chạy?
- 23. Làm thế nào để cấu hình bộ nhớ trong Java?
- 24. Làm thế nào để thiết lập giới hạn bộ nhớ để NodeJS chạy với mãi mãi
- 25. Làm thế nào để đào tạo một mô hình trong C + + với tensorflow?
- 26. Tính toán thời gian cần thiết để chạy một chức năng nhất định
- 27. Thời gian chạy Asymtotic cần thiết để tính toán đóng cửa chuyển tiếp của biểu đồ?
- 28. Làm thế nào để cấu hình mạng TensorFlow?
- 29. Làm cách nào để chạy tập lệnh python với Tensorflow chạy trong Docker trên Windows?
- 30. Làm cách nào để chạy Tensorflow trên một lõi đơn?