Bộ nhớ cache L2 hoạt động như thế nào trong GPU với kiến trúc Kepler về mặt địa phương của các tham chiếu? Ví dụ: nếu một chuỗi truy cập địa chỉ trong bộ nhớ chung, giả sử giá trị của địa chỉ đó không nằm trong bộ nhớ cache L2, giá trị được lưu trong bộ nhớ cache như thế nào? Là nó thời gian? Hoặc là các giá trị lân cận khác của địa chỉ đó được đưa vào bộ nhớ cache L2 quá (không gian)?Bộ nhớ cache L2 trong Kepler
Ảnh dưới đây là từ báo cáo chính thức của NVIDIA.
Bộ nhớ cache L2 được giới thiệu với khả năng tính toán 2.0 trở lên và tiếp tục được hỗ trợ trên kiến trúc Kepler. Chính sách bộ nhớ đệm được sử dụng là LRU (ít được sử dụng gần đây nhất), ý định chính của nó là tránh tắc nghẽn băng thông bộ nhớ toàn cầu. Tôi đã đọc điều này từ cuốn sách "Thiết kế và phát triển ứng dụng Cuda". Bạn không chắc chắn nếu câu trả lời cho câu hỏi của bạn. –
Bộ nhớ cache L1 có kích thước bộ nhớ cache là 128 byte. Bộ nhớ cache L2 có kích thước bộ nhớ cache là 32 byte. Vì vậy, một L2 bỏ lỡ gây ra một tải 32-byte. Kepler thường không có L1 được kích hoạt cho tải toàn cầu thông thường. –