thể trùng lặp:
How can I speed up fetching pages with urllib2 in python?Lấy nhiều url cùng một lúc/song song
Tôi có một kịch bản python mà tải trang web, phân tích nó và gửi lại một số giá trị từ trang. Tôi cần phải cạo một số trang như vậy để có được kết quả cuối cùng. Mỗi lần truy xuất trang mất nhiều thời gian (5-10 giây) và tôi muốn thực hiện yêu cầu song song để giảm thời gian chờ.
Câu hỏi đặt ra là - cơ chế nào sẽ thực hiện nhanh chóng, chính xác và với lượng bộ nhớ CPU/Bộ nhớ tối thiểu? Xoắn, asyncore, luồng, cái gì khác? Bạn có thể cung cấp một số liên kết với các ví dụ không?
Cảm ơn
UPD: Có một vài giải pháp cho vấn đề này, tôi đang tìm sự thỏa hiệp giữa tốc độ và tài nguyên. Nếu bạn có thể cho biết một số chi tiết về trải nghiệm - cách tải xuống nhanh chóng từ chế độ xem của bạn, v.v. - nó sẽ rất hữu ích.
Xem câu trả lời của tôi ở đây http://stackoverflow.com/questions/3491455 –