Gần đây chúng ta thường nghe tới cảm biến LiDAR thường xuyên trong những bài viết về camera trên các thiết bị mới của Apple. Cụm từ này nhắc nhiều đến mức làm chúng ta vô tình quên đi cảm biến ToF đã đưa điện thoại Samsung lên tầm cao mới. Vậy sự khác biệt của LiDAR và ToF là gì?
1. ToF là gì?
ToF (Time of Flight) sử dụng tốc độ ánh sáng (kể cả âm thanh) để xác định khoảng cách. Nó đo thời gian ánh sáng (âm thanh) rời khỏi thiết bị, tác động lên đối tượng muốn tiếp cận rồi bật trở lại.
Các cảm biến ToF có tốc độ lên tới 160 khung hình/giây. Vì thế, công nghệ này có ứng dụng cho việc làm mờ nền để lấy nét chủ thể trong hình ảnh, video kể cả khi đang di chuyển.
Để biết thêm về công nghệ cảm biến ToF 3D bạn bấm: TẠI ĐÂY.
2. LiDAR là gì?
LiDAR (Light Detection and Ranging) là một phương pháp đo khoảng cách tới mục tiêu bằng cách chiếu sáng mục tiêu đó bằng một tia LASER xung quanh và đo các xung phản xạ bằng một cảm biến.
LiDAR có thể xác định khoảng cách và kích thước vật thể với độ chính xác tương đối trong khoảng cách nhỏ. Dữ liệu này sau đó có thể được sử dụng để tái tạo các mô hình 3D của vật thể hoặc bản đồ địa hình toàn bộ khu vực.
Mặc dù LiDAR còn mới trên smartphone nhưng thực tế công nghệ này đã có mặt được một thời gian. LiDAR có thể được dùng trong việc từ lập bản đồ môi trường dưới nước cho đến các địa điểm khảo cổ học.
3. ToF và LiDAR: Cảm biến nào vượt trội hơn?
LiDAR nhanh và chính xác hơn ToF.
Ví dụ: ToF và Depth API của Google gặp khó khăn trong việc hiểu các mặt phẳng lớn. Điều này có thể gây khó khăn trong việc xác định chính xác các đối tượng kỹ thuật số trên một số bề mặt lớn. Các ứng dụng sử dụng LiDAR ít gặp sự cố này hơn.
LiDAR có thể giúp máy tính dễ dàng đọc được Point cloud so với Depth map. Ưu điểm của ToF so với LiDAR là ToF không cần nhiều thiết bị chuyên dụng để có thể sử dụng thiết bị nhỏ hơn và ít tốn kém hơn.
Point cloud: Đám mây điểm là một tập hợp các điểm dữ liệu trong không gian. Các điểm thể hiện một hình dạng hoặc đối tượng 3D.
Depth map: Trong đồ họa máy tính 3D, Depth map là một hình ảnh hoặc kênh hình ảnh chứa thông tin liên quan đến khoảng cách bề mặt của các đối tượng từ một điểm nhìn.
4. Cách ToF và LiDAR hoạt động trên các ứng dụng AR
Bản đồ độ sâu và điểm đám mây rất tuyệt và đối với một số người dùng, như vậy cũng đủ. Tuy nhiên, đối với hầu hết các ứng dụng AR, dữ liệu này phải được chuyển hóa phù hợp với môi trường xung quanh.
Cả ToF và LiDAR đều thực hiện được điều bằng cách hoạt động cùng với các cảm biến khác trên thiết bị di động. Các nền tảng này cần hiểu được hướng chuyển động của điện thoại của bạn.
5. Apple và Google sử dụng cảm biến độ sâu khác nhau: Lý do là gì?
Khi ra mắt các thiết bị tương thích với LiDAR như iPhone, iPad. Apple nói rằng họ sẽ "thiết lập quy trình chuyên nghiệp hơn để hỗ trợ các ứng dụng ảnh và video chuyên nghiệp". iPad Pro được cho "thiết bị tốt nhất thế giới cho AR".
Google không giải thích về lý do tại sao Depth API của họ và dòng thiết mới không sử dụng LiDAR. Việc làm việc chung với LiDAR sẽ giữ cho các thiết bị Android nhẹ hơn và giá cả phải chăng hơn, có một lợi thế lớn về khả năng truy cập.
Vì có nhiều công ty sản xuất thiết bị Android nên việc sử dụng LiDAR sẽ ưu tiên các kiểu máy tương thích với LiDAR hơn so với các kiểu máy khác.
Trên thực tế, Depth API của Google là thiết bị bất khả thi. Vì nếu xây dựng Depth API, các nhà phát triển xây dựng trải nghiệm AR của Google cũng có thể phát triển trải nghiệm hoạt động trên các thiết bị của Apple.
Một số sản phẩm điện thoại đang kinh doanh tại Thế Giới Di Động
Bài viết trên đã giúp bạn có thêm kiến thức về cảm biến ToF và LiDAR. Hy vọng bài viết này sẽ giúp ích cho bạn!