Trên hướng dẫn CIFAR-10, tôi nhận thấy rằng các biến được đặt trong bộ nhớ CPU, nhưng nó được ghi trong cifar10-train.py
rằng nó được đào tạo với một GPU duy nhất.Biến trên CPU, đào tạo/gradients trên GPU
Tôi khá bối rối .. là lớp/kích hoạt được lưu trữ trong GPU? Hoặc cách khác, là các gradient được lưu trữ trong GPU? Nếu không, có vẻ như việc lưu trữ các biến trên CPU sẽ không tận dụng được GPU - tất cả mọi thứ được lưu trữ trong bộ nhớ CPU, vì vậy chỉ có CPU được sử dụng để truyền tiếp/lùi.
Nếu GPU được sử dụng để truyền phát f/b, đó không phải là một sự lãng phí do độ trễ xáo trộn dữ liệu CPU < -> GPU?