Tôi đang sử dụng NVIDIA Grid K2 để lập trình CUDA. Nó có hai GPU, mỗi GPU có 1536 lõi. Có thể sử dụng cả hai GPU trong một hoặc nhiều cuộc gọi hạt nhân không?Sử dụng nhiều GPU CUDA
5
A
Trả lời
8
Không, điều đó là không thể. Mỗi GPU trên một thẻ đa GPU như một Grid K2 là một thiết bị CUDA riêng biệt với bộ nhớ riêng của nó. Như vậy, mỗi GPU có ngữ cảnh CUDA riêng và phải được lập trình rõ ràng. Trình điều khiển CUDA hoặc thời gian chạy sẽ không tự động sử dụng cả hai thiết bị như một thiết bị ảo duy nhất để khởi chạy hạt nhân.
Các vấn đề liên quan
- 1. Chạy nhiều ứng dụng CUDA trên một GPU
- 2. lệnh đỉnh cho GPU đang sử dụng CUDA
- 3. Tính toán Multi-GPU Cuda
- 4. SLI cho nhiều GPU
- 5. sử dụng cơ bản nhiều GPU
- 6. Tensorflow không sử dụng GPU
- 7. Cách bật Keras với Theano để sử dụng nhiều GPU
- 8. Bắt Theano để sử dụng GPU
- 9. Máy tính GPU song song sử dụng OpenCV
- 10. CUDA: cách sử dụng lực đẩy :: sort_by_key trực tiếp trên GPU?
- 11. Khởi chạy đồng thời nhiều hạt nhân bằng CUDA cho GPU
- 12. Cuda - OpenCL CPU 4x nhanh hơn so với OpenCL hoặc CUDA phiên bản GPU
- 13. Sử dụng gói GPU của R trên Amazon
- 14. Sử dụng GPU làm thẻ video và GPGPU
- 15. Đồng thời, 4 Ứng dụng CUDA cạnh tranh để nhận tài nguyên GPU
- 16. Sử dụng bộ nhớ GPU progamatically
- 17. Cách tách mã CUDA thành nhiều tệp
- 18. Sử dụng hằng số với CUDA
- 19. Cách sử dụng đa hình trong CUDA
- 20. TensorFlow - Sử dụng GPU thấp trên Titan X
- 21. OpenCV trên iOS - Sử dụng GPU?
- 22. Sử dụng số ngẫu nhiên với GPU
- 23. Phép nhân ma trận sử dụng CUDA
- 24. Lập trình GPU?
- 25. Thực hiện song song cho nhiều SVD bằng CUDA
- 26. Lỗi Opencv: không hỗ trợ GPU (thư viện được biên dịch không hỗ trợ CUDA)
- 27. Tôi có thể sử dụng GPU trên máy tính xách tay Ipython như thế nào?
- 28. C# có sử dụng GPU cho đồ họa không?
- 29. Tại sao không sử dụng GPU làm CPU?
- 30. Sử dụng GPU để tăng tốc độ tính toán BigInteger
là bộ nhớ ít nhất được chia sẻ? I E. tôi có thể sao chép dữ liệu từ máy chủ đến device0 và sau đó chạy một hạt nhân trên device1 sẽ sử dụng dữ liệu từ device0? hoặc tôi có phải sao chép dữ liệu riêng biệt vào từng dữ liệu không? hoặc ít nhất có thể sao chép dữ liệu trực tiếp giữa các thiết bị (từ dev0 đến dev1)? – Val
@ValCool: Theo như tôi biết câu trả lời là không, bộ nhớ không được chia sẻ. Trên nền tảng được hỗ trợ, có thể sử dụng bộ nhớ ảo hợp nhất và truy cập bộ nhớ ngang hàng, nhưng hai GPU rời rạc chỉ được liên kết bởi một chip cầu nối PCI-e thông thường trên bo mạch, và giao tiếp cơ bản là ở tốc độ PCI-e DMA – talonmies
để SLI không được sử dụng cho loại giao tiếp này? – Val