2008-08-26 29 views
13

Bạn nghĩ tương lai của GPU như một sáng kiến ​​CPU như CUDA là gì? Bạn có nghĩ rằng họ sẽ trở thành xu hướng chủ đạo và là mốt được chấp nhận tiếp theo trong ngành? Apple đang xây dựng một khuôn khổ mới cho việc sử dụng GPU để thực hiện các nhiệm vụ CPU và đã có rất nhiều thành công trong dự án Nvidias CUDA trong khoa học. Bạn có gợi ý rằng một sinh viên cam kết thời gian vào lĩnh vực này?Tính khả thi của GPU dưới dạng CPU?

Trả lời

5

Trước hết tôi không nghĩ rằng câu hỏi này thực sự thuộc về SO.

Theo ý kiến ​​của tôi, GPU là một lựa chọn rất thú vị bất cứ khi nào bạn thực hiện toán học nổi dựa trên vectơ. Tuy nhiên điều này chuyển thành: Nó sẽ không trở thành chủ đạo. Hầu hết các ứng dụng chính (Desktop) đều thực hiện rất ít tính toán dấu phẩy động.

Nó đã đạt được lực kéo trong trò chơi (vật lý-động cơ) và trong tính toán khoa học. Nếu bạn coi bất kỳ cái nào trong số đó là "chủ đạo", thì có, GPU sẽ trở thành chủ đạo.

Tôi sẽ không coi hai video này là chủ đạo và do đó tôi nghĩ, GPU sẽ tăng lên để trở thành mốt được chấp nhận tiếp theo trong ngành công nghiệp chủ đạo.

Nếu bạn là sinh viên có hứng thú với các tính toán khoa học dựa trên vật lý, bạn hoàn toàn nên dành thời gian cho nó (GPU vẫn là phần cứng thú vị).

+1

Ý kiến, nhưng không có câu trả lời ... – leppie

+1

Xét rằng các máy tính siêu được xây dựng với mục đích duy nhất là tính toán khoa học, và các trò chơi video dẫn đầu phát triển đồ họa, AI và ứng dụng chuyên sâu vật lý (đặc biệt là cùng một lúc) Tôi không biết làm thế nào bạn có thể xem chúng không phải là luồng chính. Nhưng tôi đồng ý, GPU sẽ không bao giờ thay thế CPU. GPU chỉ không có tính linh hoạt. – Narcolapser

+0

Thú vị khi xem câu hỏi này sau một vài năm. Tôi nghĩ rằng GPU đã chắc chắn trở nên chủ đạo hơn bởi thời điểm này, mặc dù thay thế CPU là không thể. Họ tiếp tục thêm nhiều hơn và nhiều lõi hơn anyway =) Và yea, điều này có lẽ là tốt hơn off sống tại [Lập trình viên] (http://programmers.stackexchange.com/) so với SO. –

2

Tôi nghĩ đó là cách đi đúng đắn.

Xét rằng GPUs have been tapped to create cheap supercomputers, nó dường như là sự phát triển tự nhiên của sự vật. Với rất nhiều sức mạnh tính toán và R & D đã làm cho bạn, tại sao không khai thác công nghệ có sẵn?

Vì vậy, hãy tiếp tục và làm điều đó. Nó sẽ làm cho một số nghiên cứu mát mẻ, cũng như một lý do chính đáng để mua thẻ đồ họa cao cấp đó để bạn có thể chơi Crysis và Assassin's Creed về chi tiết đồ họa đầy đủ;)

1

Với rất nhiều năng lượng chưa được khai thác, tôi không thể thấy nó sẽ không được sử dụng quá lâu. Câu hỏi là, mặc dù, làm thế nào GPU sẽ được sử dụng cho việc này. CUDA dường như là một dự đoán tốt cho hiện tại nhưng các công nghệ khác đang nổi lên trên đường chân trời mà có thể làm cho nó dễ tiếp cận hơn bởi các nhà phát triển trung bình.

Apple gần đây đã công bố OpenCL mà họ tuyên bố là nhiều hơn CUDA, nhưng khá đơn giản. Tôi không chắc chắn chính xác những gì để làm cho điều đó nhưng nhóm khronos (Những kẻ làm việc trên các tiêu chuẩn OpenGL) đang làm việc trên các tiêu chuẩn OpenCL, và đang cố gắng để làm cho nó rất tương thích với OpenGL. Điều này có thể dẫn đến một công nghệ phù hợp hơn cho phát triển phần mềm thông thường.

Đó là một chủ đề thú vị và tôi sắp bắt đầu luận án thạc sĩ về cách tốt nhất để làm cho GPU có sẵn cho các nhà phát triển trung bình (nếu có thể) với CUDA là trọng tâm chính.

+0

Bạn đã thấy GPU ++, nó đến từ một luận án tương tự như những gì bạn sắp bắt đầu. Có thể cung cấp cho bạn một sự khởi đầu khó khăn. – gbjbaanb

+0

Cảm ơn bạn, nó có vẻ là một điều thú vị. –

2

Đây là một trong những thứ bạn thấy 1 hoặc 2 ứng dụng, nhưng sẽ sớm có ai đó tìm ra 'ứng dụng sát thủ' để tìm ra cách làm điều gì đó hữu ích hơn với nó, ở tốc độ siêu nhanh.

Trình tạo pixel để áp dụng các thường trình cho các mảng giá trị float lớn, có thể chúng ta sẽ thấy một số ứng dụng phủ sóng GIS hoặc tốt, tôi không biết. Nếu bạn không dành nhiều thời gian cho nó hơn tôi có thì bạn sẽ có cùng một mức độ thấu hiểu như tôi - tức là ít!

Tôi có cảm giác nó có thể là một điều thực sự lớn, như Intel và S3, có lẽ nó chỉ cần 1 chút tinh chỉnh thêm vào phần cứng, hoặc ai đó có bóng đèn phía trên đầu.

6

Dài hạn Tôi nghĩ rằng GPU sẽ ngừng tồn tại, vì các bộ xử lý mục đích chung phát triển để tiếp nhận các chức năng đó. Intel's Larrabee là bước đầu tiên. Lịch sử đã chỉ ra rằng cá cược chống lại x86 là một ý tưởng tồi.

Nghiên cứu về kiến ​​trúc song song và xử lý vectơ song song sẽ vẫn hữu ích.

+0

Cảm ơn câu trả lời, Nó khiến tôi suy nghĩ khác về chủ đề. –

18

Thời gian cam kết nếu bạn quan tâm đến tính toán khoa học và song song. Đừng nghĩ đến CUDA và làm cho GPU xuất hiện như một CPU. Nó chỉ cho phép phương pháp lập trình GPU trực tiếp hơn các kỹ thuật lập trình GPGPU cũ hơn.

CPU mục đích chung lấy được khả năng làm việc tốt trên nhiều tác vụ từ tất cả công việc đã đi vào dự đoán nhánh, pipelining, superscaler, v.v. Điều này giúp họ đạt được hiệu suất tốt trên nhiều loại của khối lượng công việc, trong khi làm cho chúng hút ở các bộ nhớ thông lượng cao.

GPU ban đầu được thiết kế để thực hiện một việc và thực hiện rất tốt. Các hoạt động đồ họa vốn đã song song. Bạn có thể tính toán màu của tất cả các điểm ảnh trên màn hình cùng một lúc, bởi vì không có sự phụ thuộc dữ liệu giữa các kết quả. Ngoài ra, các thuật toán cần thiết không phải đối phó với các chi nhánh, vì gần như bất kỳ chi nhánh nào được yêu cầu đều có thể đạt được bằng cách thiết lập một đồng hiệu quả về 0 hoặc một. Do đó, phần cứng có thể rất đơn giản. Nó không phải là cần thiết để lo lắng về dự đoán chi nhánh, và thay vì làm cho một bộ xử lý superscaler, bạn chỉ có thể thêm càng nhiều ALU như bạn có thể nhồi nhét trên chip.

Với kết cấu có thể lập trình và trình đổ bóng đỉnh, GPU đã đạt được một đường dẫn đến khả năng lập trình chung, nhưng chúng vẫn bị giới hạn bởi phần cứng, vẫn được thiết kế cho các hoạt động điểm trôi nổi cao. Một số mạch bổ sung có thể sẽ được thêm vào để cho phép tính toán mục đích chung hơn, nhưng chỉ lên đến một điểm. Sau khi tất cả, các công ty GPU vẫn còn trong kinh doanh đồ họa và thị trường mục tiêu vẫn là game thủ và những người cần hình dung cao cấp.

Thị trường GPGPU vẫn là sự sụt giảm trong nhóm và đến một mức độ nhất định sẽ vẫn như vậy. Xét cho cùng, "nó trông khá" là một tiêu chuẩn thấp hơn nhiều để đáp ứng hơn "100% kết quả được đảm bảo và tái sản xuất, mọi lúc."

Vì vậy, trong ngắn hạn, GPU sẽ không bao giờ khả thi như của CPU. Chúng được thiết kế đơn giản cho các loại khối lượng công việc khác nhau. Tôi hy vọng GPU sẽ đạt được các tính năng giúp chúng có thể giải quyết nhanh chóng nhiều vấn đề khác nhau, nhưng chúng sẽ luôn là đơn vị xử lý trước tiên và quan trọng nhất.

Sẽ luôn luôn quan trọng để luôn phù hợp với vấn đề bạn gặp phải với công cụ thích hợp nhất mà bạn phải giải quyết.

+0

+1 "Sau khi tất cả," nó trông khá "là một tiêu chuẩn thấp hơn nhiều để đáp ứng hơn" 100% đảm bảo và tái sản xuất kết quả, mỗi lần. "" Hoàn toàn nói! – Blindy

+0

+1 để giải thích tốt –

+0

+1 "Sẽ luôn luôn quan trọng để luôn phù hợp với vấn đề bạn có với công cụ thích hợp nhất mà bạn phải giải quyết" – Adam

5

GPU sẽ không bao giờ thay thế CPU. Một CPU thực hiện một tập các lệnh tuần tự, và một GPU thực hiện một kiểu tính toán rất cụ thể song song. Những GPU này có tiện ích tuyệt vời trong tính toán số và đồ họa; tuy nhiên, hầu hết các chương trình không thể tận dụng được hương vị của máy tính này.

Bạn sẽ sớm bắt đầu thấy các bộ xử lý mới từ Intel và AMD bao gồm tính toán vector điểm nổi GPU-esque cũng như tính toán CPU tiêu chuẩn.

+0

Cảm ơn bạn! Tôi đọc chính xác rằng đặc sản của CPU là các chỉ dẫn được tuần tự hóa trong khi đặc sản của GPU là song song? Bạn có thể đưa ra một ví dụ thế giới thực? Cảm ơn trước! –

1

Một thời gian dài trước đây, thật khó để thực hiện các phép tính dấu chấm động (hàng nghìn/triệu chu kỳ thi đua cho mỗi lệnh thực hiện khủng khiếp (theo tiêu chuẩn ngày nay) CPU như 80386). Những người cần hiệu suất điểm nổi có thể nhận được một FPU (ví dụ, 80387.Các FPU cũ đã được tích hợp khá chặt chẽ vào hoạt động của CPU, nhưng chúng được bên ngoài. Sau đó, chúng được tích hợp, với 80486 được tích hợp sẵn FPU.

FPU cũ là giải pháp hậu môn để tính toán GPU. Chúng tôi đã có thể nhận được nó với APU của AMD. APU là một CPU có GPU tích hợp sẵn.

Vì vậy, tôi nghĩ câu trả lời thực tế để câu hỏi của bạn, GPU sẽ không trở thành CPU, thay vì CPU sẽ có một GPU tích hợp trong.

Các vấn đề liên quan