지난 6월 6일에 진행된 wwdc23 에서는 소문만 무성했던 애플 글래스 아니 Apple Vision Pro 가 드디어 마침내 발표 되었다.
애플의 새로운 라인업, 그리고 비싼 가격 ( 3,499 달러 ) , 그리고 실제로 체험해본 사람도 극소수인 제품이기 때문에 다양한 관측과 의견들이 나오고 있는 것 같다.
특히, 겉모습만 보면 기존의 VR 기기들이 만들어 놓은 시장에서 볼법한 모습인데, 심지어는 유선형 배터리까지 선택하고 있어서 기존의 VR 기기에 대한 경험치나 사용자들에게 많은 비판을 받고 있는 것 같기도 하다.
나 역시 호구처럼 Meta 퀘스트 프로를 정가에 사서 잘 써먹지도 못하고 전시하고 있고, 과거에 VR 관련된 일을 해왔으며, 이 분야에서 선구자적 기기로 칭송 받던 홀로렌즈2 를 활용해서 컨텐츠도 만들고, 강의도 해보고 사용해본 입장에서 많은 생각이 들었다.
그런데, 왜 애플은 굳이 “Vision Pro” 라는 기기를 만들고 발표를 했을까?
애플은 연구단체도 아니고 철저하게 시장성 있는 제품을 만드는 회사이다. 혹자는 혁신의 아이콘이라고 이야기 하지만 혁신을 위해서 제품을 만드는 것이 아니라 소비자들의 지갑을 열게 해주는 가치를 만들기 위해서 “혁신”을 선택하는 회사이다.
스티븐 잡스 시절에도 그렇고, 그 뒤를 이은 팀쿡때도 그래왔다.
그래서 은근슬쩍 라인업에서 사라진 제품들도 꽤 많고, 그럴싸하게 소개했지만 출시를 하지 않은 제품들도 꽤나 많다. 그리고 딱히 시장의 반응이 없으면 홍보도 안하고 출시하는 제품들도 있다.
애플이 이번 Vision Pro 를 만들면서 7년이라는 시간을 공을 들였고, 아직 양산도 안하고 있다는 소문이 돌면서, 수익이 나지 않는 분야로 판단해서 결국 출시를 포기하지 않을까.. 라는 시선도 있었다. 또한 이번 발표 후에 많은 사람들이 예상하기로는 애플이 Vision Pro 를 팔때마다 오히려 손해를 보는 것이 아니냐.. 할정도로 가격대비 고 스펙으로 나오기도 했다.
주식 시장의 반응도 이에 화답하듯이 비전 프로가 발표된 직후에는 소폭 주가가 하락하기도 했다.
따라서 근본적인 질문인
‘ 애플은 왜 Vision Pro 를 만들었을까? ‘
라는 관점에서 이야기를 적어보려한다.
1. 공간 컴퓨팅 ( Spatial Computing )
내가 생각하는 첫번째 힌트는 발표와 홈페이지등에서 쉽게 찾아볼 수 있는 공간 컴퓨팅이라는 키워드에 있다고 생각한다.
애플이 헤드셋 타입의 HMD (Head Mount Display) 기기를 출시할 것이라는 루머가 돌기 시작할 때부터 업계에서는 과연 애플이 VR 기기를 만들것인가, AR 글래스 타입을 만들 것 인가에 대해서 많은 궁금증이 존재했다.
그리고 시간이 흘러서 발표 및 출시는 미뤄졌지만, 더 다양한 루머가 나오면서 애플은 MR (Mixed Reality) 기기를 출시 할 것이며, XR ( eXtended Reality ) 용어를 쓸 것이다! 라는 꽤나 구체적인 이야기까지 나왔었다. ( 맥루머스등에서 .. )
그러나 애플의 선택은 Vision Pro 였고, Spatial Computing Device 라고 소개하고 있다.
애플이 말하는 공간 컴퓨팅이 과연 무엇일까?
사전적 의미의 공간 컴퓨팅을 구현하기 위해서는 다양한 기술들이 필요하다. 먼저 공간 정보를 인식할 수 있는 라이다 스캐너와 같은 ToF ( Time of Flight ) 센서 등을 활용해서 주변 환경에 대한 정보를 인식해야 하고 이를 수치적으로 처리를 할 수 있어야 한다.
또한 이렇게 획득된 Depth 정보를 바탕으로 실제 보이는 정보와 매칭을 시켜야 하는데, 과거에 출시되었던 MS 의 홀로렌즈2의 경우는 반투명 글래스에 처리된 정보를 홀로그램과 유사하게 그려주는 방식을 선택해주었다.
당시에는 아주 혁신적이고 놀라운 기술이었고, 직관적이고 실제 화면을 보면서 사용할 수 있다는 장점이 있지만, 반투명 디스플레이와 드로잉 방식의 한계로 실제로 볼때는 시야각도 좁고, 색상도 제대로 표현되지 못하는 문제가 있었다.
업계에 들리는 소문에 의하면 MS가 홀로렌즈3의 개발을 포기한 이유도 이러한 홀로렌즈2의 디스플레이 부분을 더 향상 시키는데 어려움이 있었고, 제조단가도 너무 비쌌기 때문이라는 이야기가 있는데, 그만큼 해당 분야는 장점 만큼이나 단점도 큰 특징을 갖고 있었다.
이번에 발표된 비전 프로가 선택한 방식은 Meta 의 퀘스트 프로의 Color Pass Trough 와 유사하게 외부 외부 카메라를 통해서 촬영된 이미지를 소프트웨어적으로 스티칭 ( Image Stiching : 여러 카메라로 획득된 정보를 엮어주는 이미지 처리 방식 ) 을 시켜주는 방식을 취하고 있다.
이러한 방식이 대중들에게 알려지기 시작한 건 퀘스트2 기기에서 흑백으로 처리된 패스스루 모드를 다른 용도로 사용할 수 있도록 열어주기 시작하면서로 기억하는데, 최초에 퀘스트2에서 흑백 패스스루 모드를 만들어놨던 이유는 사용중에 시야가 다 가려지는 VR 기기의 특성상 주변의 장애물로 인해서 충돌이 나지 않도록 사용 범위를 선택할 때 흑백으로나마 주변을 인지할 수 있도록 하기 위함이었다.
필자도 퀘스트2를 처음 사용할 때, 흑백 패스스루 모드가 너무 신기했고, 퀘스트2는 아마도 외부에서 제스쳐 및 사물 인식을 위한 적외선 카메라를 활용하기 때문에 해상도도 낮고 아쉬웠지만, 이러한 기술을 활용해서 주변 정보와 매칭 할 수 있는 MR 환경을 구축하면 정말 좋을 것 같다고 생각했다.
당시에 Meta 는 정말 미친 듯이 업데이트를 대응해줄 때였기 때문에, 나와 같은 개발자들의 요청에 대응해주며 패스스루 모드를 다른 용도로도 사용할 수 있도록 해줬으며, 이를 활용해서 실제 키보드와 연동해서 사용하는 기능 등, 진정한 의미에 혼합현실을 홀로렌즈의 비싸고 어려운 길이 아닌 상대적으로 저렴한 솔루션 으로 다가갈 수 있을 것 같이 느껴졌었다.
나 역시도 홀로렌즈2 의 가능성과 한계를 동시에 느낀 상태에서 VR 기기 시장의 대장이라고 할 수 있는 메타에서 퀘스트 프로를 발표할 때, 컬러 패스스루 모드를 장착하고 MS 와의 협업을 통해서 기존의 MR 시장을 대응 할 수 있을 것 같이 이야기를 해서, 고민도 하지않고 구매가 열리지마자 바로 비싼가격에 구매를 했던 기억이 있다.
하지만 기대와는 다르게 메타 퀘스트 프로의 컬러 패스스루 모드는 해상도, 컬러노이즈, 어지러움 등등 여러모로 처참했고, 해당 기능을 MR 기기로써 가장 기대하고 있던 나와 같은 사용자들은 큰 실망감을 갖았다.
야심차게 MR 시장을 뛰어들 것처럼 등장했던 퀘스트 프로가 제대로 된 칼라 패스스루 모드를 제공하지 못 한데에는 여러가지 이유가 있을 수 있겠지만, 개인적으로 생각할때는 결국 고화질 이미지 처리를 할 수 있는 성능이 아니었기 때문이 아닐까 생각을 한다.
위에서 말했던 것처럼 외부 카메라를 통해서 여러 각도로 찍힌 화상을 스티칭 해서 자연스럽게 연결되어 있는 것처럼 공간 이미지를 만들기 위해서는 많은 컴퓨팅 리소스가 필요하게 된다.
이러한 기술은 생각보다 꽤 오래전부터 환경맵을 만들기 위해서 사용되어져 왔으며, 필자도 십수년전에 연구소에서 근무할 때 VR 환경 맵을 만들기 위해서 HDRI ( High Dynamic Range Imaging ) 데이터를 만들기 위해서 직접 촬영을 해서 스티칭을 시도해본 적이 있다.
당연한 이야기지만 VR 컨텐츠의 실제감이 잘 나오기 위해서는 고해상도의 또한 다양한 빛 Range 값에 따른 촬영물을 따로 만들고 처리를 해줘야 하는데, 작은 스튜디오를 촬영했음에도 불구하고 고가의 워크스테이션으로 24시간이 넘는 연산을 했었고, 또한 결과물의 용량이 기가 단위가 넘어가서 포토샵에서 열리지도 않았던 기억이 난다.
따라서, 이를 실제로 사용하기 위해서는 꽤 낮은 해상도까지 수정을 하고, 압축을 하는 과정이 있었고, 충분히 용량을 줄인뒤에야 내가 사용하던 VR 소프트웨어에 올라가서 구동이 되었던 기억이 난다.
즉, 실시간으로 외부 촬영을 하고 스티칭을 하고 이를 디스플레이에 보여주는 것은 많은 연산을 필요로 하는 작업이고, 메타의 경우에는 내부 칩셋의 성능의 한계 때문에 어쩔 수 없이 낮은 해상도로 처리하는 것이 아닐까 조심스럽게 예측을 해본다.
그런데 Vision Pro 소개에서 보여준 영상이나 사용자들의 후기 등을 살펴보면, 놀라울 정도로 자연스럽고 현실과 크게 이질감을 느끼지 못 했다라는 이야기들을 살펴 볼 수 있다.
아직 구체적인 스펙은 알 수 없지만, 알려진 내용에 의하면 약 4개의 외부 카메라와 센서들을 활용해서 외부 정보를 획득하고 처리해줘서 내부의 이미지를 제작해준다고 하는데.. 만약 실제 사용시에 어색하지 않을 만큼 충분히 높은 화질의 이미지들을 실시간으로 스티칭 해주고 자연스럽게 보여주면서 비전 프로에서 보여주는 3D 혹은 기타 오브젝트들과 연동을 해주는 것이라면.. 정말 대단한 기술이다.
12년전에 MIT 에서 오픈소스로 풀어준 소프트웨어 써서 수동으로 스티칭 하려고 캐논 카메라로 노출 을 6단계로 바꾸면서 각도별로 촬영하고 데이터 모으고 소프트웨어로 묶고, 결과물 후가공하고 용량 줄이고 생쇼를 하면서 애를 써봤던 내 입장에서는.. 정말 놀랍다.
라이다 스캐너가 사용되는 것으로 알려진 아이폰 프로에는 소니사의 IMX590 이미지 센서가 사용되는 것으로 알고 있는데, 이 센서의 해상도 스펙이 648 x 488 정도로 그리 크지 않다.
즉, 뎁스 연산을 하기위해서 사용되는 이미지 센서의 정보량은 생각보다 그렇게 디테일 하지 않지만, 그마저도 처리하는 것이 쉽지 않은 것으로 알고 있다.
비전 프로에서 사용되고 있는 실제 외부 카메라 스펙이나 뎁스 센서의 스펙은 아직 정확하게 알지는 못하지만, 애플이 공개한 것처럼 자연스러운 혼합 현실을 구현하는 것이 가능하다면, 이 것은 여러가지 의미에서 정말 대단한 기술력이라고 말할 수 있을 것 같다.
물론, 그 밖에도 시전추적, 표정인식, 음성인식, 공간 음향 등등.. 정말로 다양한 기능들이 들어가 있다고 하니.. 후덜덜..
실제로 유튜브등을 보면 이번 wwdc 에 초대가 되어서 비전 프로를 사용해본 테크 유튜버들의 후기가 올라오고 있는데, 분명 아쉬운 점도 이야기하고 다양한 이야기가 나오고 있지만, 전반적으로 비전 프로가 보여주는 혼합현실은 수준급인 것 같다. 대부분 놀랍다는 반응.
이러한 완성도를 바탕으로 애플은 기존의 기대와는 다르게 VR, AR, MR 이 아닌 이러한 기술들을 활용해서 사용할 수 있는 공간 컴퓨팅에 대한 이야기를 하고 있는 것 같다.
그리고, 애플이 주장하는 수준의 공간 컴퓨팅이 가능한 기기가.. 배터리를 이용해서 2시간 정도 스탠드 얼론으로 사용이 가능하면서, 머리에 쓰고 다닐정도로 가볍다면? 혹자들이 주장하는 것처럼 3,499 달러의 가격이.. 가성비로 느껴질 수도 있을 것 같다. ( 이걸 다른 장비들로 구현한다고 생각한다면..? 어우아.. )
즉, 기존의 PC 나 맥 과 같은 기기가 주로 데스크 에서 설치해 놓고 사용을 해왔다면, 나에게 익숙한 공간에서 자유롭게 걸어 다니거나 생활하면서 사용할 수 있는 컴퓨터 기기를 만들어냈다고 이해할 수 있을 것 같다.
다시한번 강조하지만, 애플이 주장하는 비전 프로의 공간 컴퓨팅은.. 쉽사리 구현할 수 있는 게 아니라고 생각한다.
일단 현존하는 기기중에는 이정도 수준은 처음일듯
4. M2 칩셋 그리고 R1 의 등장.
지난 5년동안 컴퓨터 칩셋 시장에서 가장 큰 변화와 충격을 줬던 것 중에 하나는 바로 애플의 실리콘 칩셋일 것이라고 생각한다.
전성비를 극한으로 끌어 올려서 칩셋 하나만으로도 엄청난 성능을 끌어올리는 M1 칩셋의 등장으로 일정 수준 이상의 성능을 필요로 하는 작업에 대한 칩셋의 포지셔닝이 아예 싹 다 바뀌어 버렸다고 생각한다.
애플은 M1, M1Pro, M1max 이후에 M2 라인을 공개하고 맥북, 아이패드 프로등에 공급하면서 훨씬 더 효율적이고 집약적인 성능을 끌어낼 수 있는 환경을 만들어낸 것 같다. 그리고 그 칩셋이 이번 Vision Pro 에 들어간 것이다.
앞서서 이야기했던 공간 컴퓨팅을 구현하기 위해서는 정말 다양한 연산 처리가 필요하다. 거듭 강조하지만 기존의 MS 나 Meta가 해당 가치를 제안하고도 제대로 구동을 못하거나 일반인 레벨이 사용할 수 있을 정도로 보급을 못한 것에는 결국 연산 처리를 하는데 근본적인 한계를 갖고 있는 것도 큰 원인이라고 생각한다.
MS 의 홀로렌즈나 메타의 퀘스트 프로는 퀄컴사에서 제작하는 XR 용 칩셋을 사용하는데, 정확한 수치를 직접 테스트를 해볼 순 없지만, 해당 칩셋의 기본 적인 성능을 고려해보면 이번에 Vision Pro 에 들어간 M2 칩셋과의 성능차이는 산술적으로 봐도 엄청난 차이다.
정확하게 비전 프로에 어떤 M2 칩이 들어간지도 모르고, 퀘스트 프로에서 구동한 긱벤치 테스트가 어느정도 신뢰도가 있는지는 모르겠지만, 단순히 산술적으로 봐도, 싱글의 경우에는 5배이상, 멀티코어의 경우에는 9배 이상 차이가 나는 것으로 보인다.
( 이 정보는 정확하지 않을 수 있다. 테스트 기준이 명확하지 않기 때문이다.)
그래픽 처리 성능도 Vulkan api 와 OpenCL 의 차이라서 명확하게 체크하긴 어렵지만, 아마도 칩셋의 성능의 차이가 꽤 날 것으로 보인다.
즉, M2 칩셋이 들어감으로써 아이디어와 테스트만 해볼 수 있던 수많은 처리가 실제로 가능하게 됨으로써 Vision Pro 가 나올 수 있었던 것 같다.
업계에서 들었던 루머로는 애플이 해당 제품을 계속 출시하지 못한데에는 이러한 문제가 컸다.. 라는 이야기를 들은 적이 있었는데, 상품의 가치를 재고하는 패키지 작업을 하는 초기 단계에서 구상했던 기능들이 당시에 고려하고 있던 메인 칩셋의 성능 부족으로 제대로 구동이 되지 않아서 출시 및 양산을 계속 미룰 수 밖에 없었다.. 라는 이야기였다.
대략적으로 2년전쯤에 들은 이야기였는데, 그 이후에 실제로 m1 칩셋이 등장하고, 당시에 차세대 애플 기기인 ‘애플 글래스’ 에는 m1 칩셋이 들어갈 것이다 라는 소문이 돌면서, 해당 루머가 신빙성이 있다고 생각했고, 뜬금없이 아이패드 라인에 실리콘 칩셋이 적용되기 시작하면서 칩셋 양산화와 플랫폼 정리를 하기 위한 과정으로 보면서 아주 타당하다고 생각을 했었다.
그리고 이번 Vision Pro 에 M2 라인이 들어가면서, 뇌피셜로 생각해보면, 어쩌면 Vision Pro가 개발되기 시작하는 초기단계 때부터 자연스럽게 애플의 OS 에 어울리게 작동이 되면서 전성비가 훌륭하면서 직접 제어 및 양산을 제어 할 수 있는 애플만의 칩셋 개발이 진행되었던게 아닐까.. 상상해본다.
게다가 이번 Vision Pro 에는 R1 이라는 다른 칩셋이 또 들어간다는데, 이 칩셋의 경우는 센서 데이터를 처리하는데 집중한다고 한다.
앞서서 이야기한 대로 센서를 통해서 획득된 데이터를 가공하고 사용할 수 있도록 처리하는데는 생각보다 많은 리소스가 사용하게 되고, 우리가 흔히 말하는 라이다 스캐너라고 말하는 Depth 센서의 경우도 해상도가 존재해서, 더 정확한 주변 위치 정보를 획득하기 위해서는 더 높은 해상도의 적외선 입자를 방출 해야하고 이를 처리하기 위해서는 훨씬 더 많은 처리가 필요한 것은 당연한 것이다.
따라서, 애플은 R1 칩셋을 이용해서 별도로 센서 데이터를 정리하고 정리된 데이터를 활용해서 M2 칩셋을 통해서 기본적인 연산을 처리 하는 것이 아닌가.. 생각해본다.
알려진 내용에 따르면 R1 칩은 12 밀리초 이내에 이 모든 처리를 한다고 한다. 눈을 깜빡이는데 걸리는 시간이 평균적으로 100 밀리초라고 하는데, 약 8배 빠른 시간안에 처리를 다 함으로써, 사용자가 지연 시간으로 인해서 느낄 수 있는 어지러움이나 문제점들이 발생하지 않도록 하기 위해서 사용이 되는 칩이라고 한다.
작년 말에 발표 되었던 퀄컴의 AR2 칩의 경우에도 보조 프로세서가 따로 존재하는 방식으로 플랫폼이 발표 되었었기 때문에, Vision Pro 의 이러한 방식은 ( 주처리 프로세스와 센서등을 처리하는 보조 프로세서 ) 센서 기반의 환경 처리를 하는 기기들이 가야할 방향성인 것 같다.
어찌됐던 현재까지는 OS 개발, 하드웨어 개발, 소비자층 확보, 자체 칩셋 개발, 개발자 풀을 지닌 회사는 애플이 유일하기 때문에, 이러한 자체 칩셋 으로 인한 성능 차이 및 제작 퀄리티 차이의 격차는 한동안 따라잡기 어려울 것이라고 본다.
이를 의식해서 인지 지난 MWC 에서도 메타와 삼성, 구글, 퀄컴등은 다양한 합의체 발표등을 하면서 이를 견제하거나 혹은 Vision Pro 출시 이후 생겨날 시장에 대응 할 수 있는 신규 제품들을 더 효율적으로 제작하기 위한 준비를 하는 것처럼 이야기가 나오고는 있는데..
이러한 제조사 및 칩셋 회사들의 협업은 소비자 입장에선 쌍수들고 환영할 일이지만, 각자 다른 가치를 지니고 있는 회사들이 애플처럼 한 회사에서 작업하는 것 만큼 유기적으로 협업을 하는 것이 쉽지도 않고, 이러한 협업 모델이 크게 성공한 사례가.. 구글이 무료로 뿌려버렸던 안드로이드 OS 시장 말고는 잘 떠오르지 않기 때문에.. 애플 만큼 완성도 있게 나올지는 지켜봐야 할 것 같다.
이러한 상황에서 칩셋 제작을 제외한 다른 영역에서 가장 많은 기술을 확보하고 있던 MS ( 하드웨어, os, sdk ) 가 HMD 쪽에는 관심을 끊고 AI 쪽에 집중하고 있는 것이 좀 아쉽게 느껴진다.. Vision Pro 가 한 2년만 발표가 빨랐다면.. MS도 홀로렌즈 라인업을 찬밥취급하고 있진 않지 않을까.. ( MR 부분 MVP 로써 눈물이 난다. )
비전 프로에 대한 첫번째 글을 마치며..
적다 보니 내용이 너무 길어져서, 애플이 왜 비전 프로를 만들었을까 에 대한 첫 번째 글을 이쯤에서 정리해보려 한다.
( 아직 출시도 안하고 써보지도 않은 제품에 너무 많은 글을 적고 있는 것 같다.. )
공간 컴퓨팅과 M2 칩셋의 성능에 대한 이야기를 매우 길게 적어보았는데, 결국은 ‘ 어떠한 목적’ 을 위해서 현존하는 시스템으로는 구현할 수 없는 엄청난 성능의 크기 대비 컴퓨팅 시스템을 만들어 냈고, 이로 인해서 기존이 MS 나 메타 등이 지속적으로 도전해왔던 “공간 인식 컴퓨팅” 환경을 충분한 수준까지 완성 한 것으로 보인다.
아마도, 다음 글에서 다뤄볼 “인풋 시스템” , “홈 엔터테인멘트” , ” 가격” , ” 개발자 생태계” 등 에서도 다시 한번 강조하겠지만, 애플이 이러한 노력을 하고 준비를 하고 이에 맞춰서 비전 프로를 출시한 것에는 애플이 앞으로 내다보는 시장에 대한 의지와 목적 의식을 살펴볼 수 있다고 생각한다.
이번 시연 연상에서 볼 수 있던 대부분의 장면은 개인 사용자가 자신에게 익숙한 공간에서 영상을 보고, 사진을 보고, 웹 브라우징을 하고, 게임을 하고, 업무를 하는 내용들을 다루고 있다.
물론, 페이스 타임등을 통해서 지인들과 교류하거나 줌이나 팀즈와 같은 화상회의 솔루션을 통해서 타인들과 교류하는 장면들도 나오지만, 어디까지나 주제가 가상환경에서의 “소통” 이 주가 아니라, 실제 자신의 삶에서의 “활용” 으로 보인다.
즉, 애플은 자신들이 지니고 있는 컴퓨팅 기술과 OS 소프트웨어 기술을 바탕으로 새로운 가상세계에 대한 도전과 개척이 아닌, 이미 삶을 영위하고 있는 라이프 스타일 자체에 하나의 “레이어”를 추가 하고 이 레이어에 애플이 제공하는 서비스를 바탕으로 공간의 제약에서 벗어난 “가치를 덧 칠” 해주는 것에 애플의 미래를 배팅 하기 위해서 비전 프로를 출시 한 것이 아닌가 싶다.
물론, 이러한 가치들은 애플이 처음으로 제시하는 것이 아니며, 다양한 가상 현실 기기를 출시해왔던 회사들이 지속적으로 주장해왔던 것이기도 하다. 나 뿐만 아니라 많은 이들이 여기에 낚여서 기대를 많이 했으리라..
하지만 현실은 기기의 성능적 제한, 기술력의 한계로 인해서 아주 극히 일부의 컨텐츠만 사용할 수 있었고, 이 자체도 진입장벽이 높아서 대중화에는 실패했다고 보고 있다.
그러다보니 가상 현실 기기 시장은 대부분 몰입형 게임 컨텐츠 위주로 구성이 될 수 밖에 없었고, 상대적으로 저렴한 중국산 양산 기기 들과 메타가 주도하고 있는 퀘스트 VR 기기의 시장으로 크게 양분화 되었다고 생각한다.
따라서, VR 기기를 사용하면 대부분 ” 몰입형 기기를 즐기기 위함.” 으로 이해를 하고 있다.
물론, 메타는 Horizon 이라는 제품을 내면서 흔히 말하는 메타버스에 진심으로 도전하며, 회사명까지 “Meta” 로 바꾸는 강수를 두었지만.. Horizon 에 대한 평가는 아주 좋지 않았으며, 이야기를 시작하고 몇년이 지났음에도 불구하고 아직도 정식 서비스가 되고 있지 않은 것으로 알고 있다.
그 밖에도 Worksroom 과 같이 혼합현실의 가치를 잘 적용한 재밌는 시도를 하기도 했고, MS 도 Mesh 라는 솔루션을 통해서 그 가능성을 타진해보기도 했지만.. 나처럼 신기술을 좋아하는 극히 일부 유저들만 사용을 해봤지.. 디바이스 자체가 대중화 되지 않은 상태에서 이 가치를 느끼고 경험해본 사람은 극소수라고 생각한다. ( 그리고 그마저도 제대로 구동도 안됨 ㅠㅠ )
<필자가 2021년에 홀로렌즈2와 Mesh 를 활용해서 판교 메타버스 허브에서 시연을 했던 관련 영상. 출처 : 본인 유튜브 채널 >
따라서 애플은 아직 디바이스 보급 이슈로 인해 시장이 덜 형성되었고, 네트워크 기술, 콘텐츠 부족, 인프라 부족등등으로 인해 진입장벽이 높은 가성 공간에서의 소셜적 가치, 그리고 디지털 트윈과 같이 높은 리소스 투입이 필요한 분야 보다는 애플이 잘하고, 좋아할 수 있는 개인 엔터테인멘트 및 라이프 스타일에 집중을 한 것으로 보인다.
즉 애플은 미래 시장을 보고 선택과 집중을 잘해서 자신들이 제일 잘할 수 있는 것을 한 것 같다.
그리고 그러한 의지가 잘 투영된 제품이 Apple Vision Pro 라고 생각한다
직관적인 인풋 시스템과, UX 인터페이스, 강력한 컴퓨팅 성능을 바탕으로 비전 프로를 통해 레이어가 추가된 혼합현실을 구현하고, 이 안에서 공간의 제약에서 벗어난 다양한 “Personal” 한 가치들을 구현하고, 새로운 가치 시장을 만들어내려고 하는 것 같다.
비전 프로를 통해서 나의 집, 나의 방에서 정말 엄청나게 큰 영상을 보고, 음악을 듣고, AR 컨텐츠가 가미된 스포츠 컨텐츠를 즐기며, 자신의 공간에 같이 교류하는 가족이나 지인들과도 자연스럽게 융합할 수 있는 환경을 구축한다면, 기존의 VR 시장과는 다르게 Geek 한 혹은 얼리아답터 기질을 지니고 있는 일부 사용자가 아닌 구매력을 갖추고 있는 일반 사용자들도 충분히 끌어들일 수 있다고 생각하는 게 아닌가 싶다.
실제로 내 주변에도 집에서 영화를 보고 음악을 감상하는 것을 좋아하는 아저씨(?) 들은 값비싼 대형 TV 나 홈씨어터, 빔 프로젝트등을 구매하는데 투자를 아끼지 않는다.
그런데, 불과 3,499 달러 밖에 안되는 기기를 하나 사서 조금의 불편함을 감수하고 뒤집어 써서(?) 사용하는 것만으로 엄청난 크기의 화면을 통해서 영화 및 영상 감상이 되고, 적응형 사운드를 통해서 높은 수준의 음악 감상 및 음향효과를 즐기고, 자신이 사용하는 맥과 같은 기기의 화면의 크기 제약 등에서 벗어나서 집안을 돌아다니면서 손 쉽게 맥을 사용하고 생산성을 향상 시킬 수 있다면…
3,499 달러의 가격은 투자할만한 가격이 아닐까?
물론, 실제 사용을 해보면, 평가가 아예 다르게 될 수도 있겠지만..
상업적 가치를 그 어느 회사보다도 잘 챙겨왔던 애플이 무슨 자신감으로 비전 프로를 만들었을까? 에 대해서 다시 한번 생각해본다면, 꽤나 가치있는 제품이 될 수도 있을 것 같다.