Tôi đã tìm thấy rất nhiều ví dụ trực tuyến để làm việc với âm thanh trong iOS, nhưng hầu hết trong số đó là khá lỗi thời và không áp dụng cho những gì tôi đang cố gắng hoàn thành. Đây là dự án của tôi:Làm cách nào để ghi lại các mẫu âm thanh trong iOS bằng Swift?
Tôi cần chụp mẫu âm thanh từ hai nguồn - đầu vào micrô và tệp âm thanh được lưu trữ. Tôi cần phải thực hiện FFT trên các mẫu này để tạo ra một "dấu vân tay" cho toàn bộ clip, cũng như áp dụng một số bộ lọc bổ sung. Mục tiêu cuối cùng là xây dựng một loại phần mềm nhận dạng bài hát tương tự như Shazam, v.v.
Cách tốt nhất để nắm bắt các mẫu âm thanh riêng lẻ trong iOS 8 để thực hiện Chuyển đổi Fourier nhanh là gì? Tôi tưởng tượng kết thúc với một mảng lớn trong số họ, nhưng tôi nghi ngờ rằng nó có thể không hoạt động như thế. Thứ hai, làm cách nào tôi có thể sử dụng khung tăng tốc để xử lý âm thanh? Nó có vẻ là cách hiệu quả nhất để thực hiện phân tích phức tạp về âm thanh trong iOS.
Tất cả các ví dụ tôi đã xem trực tuyến đang sử dụng các phiên bản cũ hơn của iOS và Objective-C và tôi không thể dịch thành công các phiên bản đó thành Swift. IOS 8 có cung cấp một số khung công tác mới cho loại điều này không?
Bạn có thể bắt đầu bằng cách xem các ví dụ của Apple. Chúng có thể nằm trong Objective-C, nhưng các API không thay đổi. Tất cả các hàm vDSP_xx đều có API C trong mọi trường hợp, và thực tế, phần phân tích của dự án của bạn có thể sẽ được viết bằng C hoặc C++ (điều này, một cách ngẫu nhiên, lời khuyên từ các kỹ sư của Apple tại WWDC năm nay cho viết xử lý âm thanh/xử lý hiển thị). Đối với ghi vân tay âm thanh, đây là một vấn đề không tầm thường và quá hội đồng cho SO. – marko
bạn có tìm thấy gì không? – hoangpx