본문 바로가기

IT

애플은 왜 인덕션 모양으로 카메라를 배치했을까?

애플이 2016년부터 true depth 기술을 개발했는데,

두 카메라 렌즈를 이용해서 사물을 보면 

입체감을 느낄 수 있는 것에 주목할 수 있습니다. 

 

쓰이는 알고리즘은 MRF라고 Markov Random Field라는 확률 계산 알고리즘입니다. 

 



그렇게 왼쪽 오른쪽의 렌즈로 사진을 찍으면 저런 Depth map을 구현해낼 수 있죠..

 

 



그 뒤 망원렌즈로 찍은 사진과 depth map을 결합하면..!

 

포트레잇 이미지라고 하는 DSLR보다 더 예쁜 사진이 나옵니다.. 어떤 차이인 지 보실 수 있을 거에요. 

 

 

--

 

one more thing....

 

아이폰에 적외선 센서랑 "라이다"가 있어서 depth map이 거의 오차없이 계산됨. 오차가 0.1mm라고 합니다.  

 

 

뭐 이제는 diffusion 알고리즘으로 gaussian splatting을 하니 더 정확하게 나옵니다만.