Tôi đang sử dụng Python để lưu hàng dữ liệu theo hàng ... nhưng điều này cực kỳ chậm!Cách di chuyển tệp CSV sang Sqlite3 (hoặc MySQL)? - Python
CSV chứa dòng 70million, và với kịch bản của tôi Tôi chỉ có thể lưu trữ 1thousand một giây.
Đây là những gì kịch bản của tôi trông giống như
reader = csv.reader(open('test_results.csv', 'r'))
for row in reader:
TestResult(type=row[0], name=row[1], result=row[2]).save()
Tôi nghĩ rằng để thử nghiệm tôi có thể phải xem xét liệu MySQL hoặc PostgreSQL.
Bất kỳ ý tưởng hay mẹo nào? Đây là lần đầu tiên tôi xử lý lượng dữ liệu khổng lồ như vậy. :)
sqlite chậm hơn so với mysql. MongoDB thường nhanh hơn để chèn, mặc dù nó có những hạn chế khác –
'TestResult' là gì? Bạn đã không hiển thị bất kỳ cuộc gọi thực tế nào đến sqlite3, do đó, hơi khó để nhận xét về mã như nó đứng. Thời gian đọc ban đầu là gì nếu bạn bỏ qua 'save()' và sau đó nếu bạn thay thế cấu trúc TestResult bằng 'pass'? –
Testresult là mô hình phân lớp của mô hình Django ORM – RadiantHex