Tóm tắt:
Có thể:Có thể đọc dữ liệu MongoDB, xử lý dữ liệu với Hadoop và xuất nó vào một RDBS (MySQL) không?
- nhập dữ liệu vào Hadoop với «MongoDB Connector cho Hadoop».
- Xử lý bằng Hadoop MapReduce.
- Xuất khẩu bằng Sqoop trong một giao dịch.
Tôi đang xây dựng một ứng dụng web với MongoDB. Trong khi MongoDB làm việc tốt cho hầu hết công việc, trong một số phần, tôi cần đảm bảo giao dịch mạnh hơn, mà tôi sử dụng cơ sở dữ liệu MySQL.
Vấn đề của tôi là tôi muốn đọc một bộ sưu tập MongoDB lớn để phân tích dữ liệu, nhưng kích thước của bộ sưu tập có nghĩa là công việc phân tích sẽ mất quá nhiều thời gian để xử lý. Thật không may, khung công tác giảm bản đồ tích hợp của MongoDB sẽ không hoạt động tốt cho công việc này, vì vậy tôi muốn thực hiện phân tích với Apache Hadoop.
Tôi hiểu rằng có thể đọc dữ liệu từ MongoDB vào Hadoop bằng cách sử dụng «MongoDB Connector for Hadoop», đọc dữ liệu từ MongoDB, xử lý nó với MapReduce trong Hadoop và cuối cùng đưa kết quả trở lại vào cơ sở dữ liệu MongoDB.
Vấn đề là tôi muốn đầu ra của MapReduce đi vào cơ sở dữ liệu MySQL, thay vì MongoDB, vì kết quả phải được hợp nhất với các bảng MySQL khác.
Vì mục đích này, tôi biết rằng Sqoop có thể xuất kết quả của một Hadoop MapReduce thành MySQL.
Cuối cùng, tôi muốn đọc dữ liệu MongoDB sau đó xử lý dữ liệu bằng Hadoop và cuối cùng xuất kết quả vào cơ sở dữ liệu MySQL.
Điều này có khả thi không? Những công cụ có sẵn để làm điều này?
câu hỏi của bạn có thể được thực hiện rõ ràng hơn nhiều. Tôi không chắc chắn về những gì bạn đang cố gắng làm. Tôi sẽ chỉnh sửa câu hỏi của bạn để phản ánh những gì tôi nghĩ rằng bạn đang cố gắng để nói, nhưng làm rõ của bạn sẽ là hữu ích quá. – brice
Tôi cập nhật câu hỏi của mình để làm rõ – paganotti
có xem xét câu trả lời cập nhật của tôi, điều này sẽ giải thích cách bạn có thể làm những gì bạn đang yêu cầu. – brice