Công nghệ Deep Fusion của Apple hoạt động như thế nào?

Series iPhone 11 ra mắt rạng sáng nay (11/9) đều được nâng cấp hệ thống camera khá ấn tượng. Apple còn giới thiệu công nghệ Deep Fusion mới, hỗ trợ xử lý và cho ra những bức ảnh sắc nét hơn, nhất là trong điều kiện thiếu sáng.

Công nghệ Deep Fusion mới của Apple hoạt động như thế nào?

Vậy Deep Fusion là gì? Hoạt động ra sao?

Deep Fusion là tính năng camera mới, sử dụng machine learning để xử lý hình ảnh trong điều kiện ánh sáng yếu hoặc tối. Công nghệ này sẽ cho ra bức ảnh cuối cùng sắc nét, độ nhiễu thấp và dải tần nhạy sáng rộng nhờ bộ xử lý Neural Engine trong chip A13 Bionic.

Hiện Deep Fusion chưa có sẵn trong series iPhone 11 mà sẽ được cập nhật trên phiên bản nâng cấp iOS mới trong thời gian tới. Phil Schiller, trưởng bộ phận marketing của Apple đã giải thích cách công nghệ này hoạt động như sau:

“Hệ thống sẽ chụp tổng cộng 9 bức ảnh. Trước khi bạn ấn nút, camera đã tự động chụp 4 ảnh chính và 4 ảnh phụ. Khi bạn bấm chụp, camera sẽ thu một bức ảnh phơi sáng dài. Sau đó chỉ trong 1 giây, Neural Engine (bộ xử lý AI của Apple) tự phân tích và kết hợp tất cả hình ảnh lại, chọn những chi tiết nét nhất trong đó, hợp nhất từng pixel trong tổng số 24 triệu pixel để tối ưu hóa, giảm độ nhiễu và tạo thành bức ảnh hoàn hảo nhất.”

Công nghệ Deep Fusion mới của Apple hoạt động như thế nào?

Về cơ bản công nghệ này sử dụng thuật toán để cho ra hình ảnh cuối cùng. Apple nói đây là lần đầu tiên hệ thống Neural Engine chịu trách nhiệm xử lý và tạo ra hình ảnh. Nhìn chung, nếu đúng như mô tả thì đây là một tính năng khá ấn tượng.

Hiện chưa có thông tin chính xác về thời điểm phát hành Deep Fusion. Theo Phone Arena, công nghệ mới sẽ được cập nhật trên iPhone 11 khoảng cuối tháng 10.

Theo Phone Arena