• 한겨레21 ·
  • 씨네21 ·
  • 이코노미인사이트 ·
  • 하니누리
표지이야기

“입체영상을 골라서 보세요”

367
등록 : 2001-07-11 00:00 수정 :

크게 작게

사용자의 능동성 구현하는 3차원 영상… 컴퓨터 합성 이용해 다양한 화면 제공



사진/ (a) 가상 시점 3D 비디오 시스템은 동일한 간격으로 배치된 카메라를 이용해 서로 다른 각도에서 한 장면을 촬영한다. 이렇게 촬영된 이미지를 통해 (b)와 같이 임의의 위치에서 움직임을 볼 수 있는 가상 시점의 배열을 생성한다.(IEEE Computer Magazine)

비디오의 역사는 과학발전의 한 줄기를 잘 보여주고 있다. 1820년대 다귀에르가 발명한 사진은 100년이 지날 즈음에 드디어 색이 입혀져 천연색 사진이 되었다. 그리고 그 위에 소리와 움직임이 더해져서 영화가 되었고, 이제는 이러한 장치가 개별 사용자의 손에까지 이르게 된 비디오 장치까지 나오게 된 것이다. 그럼에도 아직 영화나 비디오의 가장 큰 단점은 그것을 찍은 사람이 보여주는 장면만 시청자가 볼 수 있다는 것이다. 예를 들어 비디오에서 이런저런 장치를 사용해서 화면은 느리게 또는 빠르게 할 수는 있지만 주인공의 등 뒤에 가려진 장면은 아무리 애를 써도 볼 수 없다. 보통 이런 매체를 수동적(passive) 매체라고 하는데 대부분은 영화매체가 이 부류에 속한다.

영화에 3차원 입체감을 불어넣기 위한 노력은 오랫동안 계속돼왔다. 가장 처음 시도된 방식은 인간의 시야각 차이를 이용한 방법으로 두개의 카메라로 인간의 시야각과 같은 방향으로 찍은 뒤 이를 다시 사람이 입체안경을 쓰고 보는 것이었다. 이 방식을 이용해 입체영화로 처음 나온 게 유니버설 영화사가 만든 <검은 늪의 괴물>(1954)이었다. 물론 이런 유의 영화를 보려면 특별한 안경이 필요하다. 특별히 두눈 간격이 좁은 사람이나 넓은 사람은 어지럽거나 입체감이 분명하지 않은 단점이 있어 이 방식은 이후 시들해졌다. 그러나 1970년 아이맥스(IMAX) 방법이 나오면서 다시 입체영화에 대한 관심이 생겨나기 시작했다. 이 방식은 사람이 볼 수 있는 시각을 모두 포함할 정도의 초대형 화면에 영화를 영사하는 것이다. 이전의 조악한 입체안경 방식에 비해 훨씬 나아졌고, 동시에 관객의 화면에 대한 몰입(immersion)감도 좋아졌다. 하지만 그래도 사용자가 자신이 볼 수 있는 장면을 주체적으로 결정할 수 없는 것은 그대로 남아 있었다.

능동적으로 영상을 선택할 수 없는가


사진/ 가상 시점 3D 소프트웨어는 이미지의 전경(foreground)을 배경으로부터 분리할 수 있다. 스튜디오 내에서 촬영된 연속적인 투구 동작이 어떤 수의 배경막(backdrops)과 함께라도 이음새가 눈에 띄지 않게 합성될 수 있다.(IEEE Computer Magazine)
이에 비해 1950년대부터 시작된 레이저를 이용한 홀로그램(Hologram) 방식은 더 나은 방향을 제시해주고 있었다. 물론 <스타트랙>과 같은 영화에서는 3차원 영사실이 가끔 나온다. 이 방에 들어가면 우리가 실제 그곳에 가서 마음대로 살펴보는 것과 같은 효과를 거둘 수 있다. 하지만 현실적으로 이런 공상과학영화에서 보여주는 것과 같은 완벽한 3차원 이미지는 아직 많이 멀었다. 대신 지금까지의 여러 가지 기법을 종합하여 상당한 수준의 3차원 이미지생성기법이 속속 발표되고 있다. 능동적 3차원 이미지를 보여주는 방법은 크게 3가지로 압축된다.

가장 전통적이며 간단한 방법으로는 여러 각도에서 찍은 정지사진을 모아서 이를 적절히 조립하여 3차원 입체감을 주는 것이다. 우리가 흔히 사용하는 애플사의 퀵타임(QUickTime) 가상현실영화(http://www.apple.com/quicktime/qtvr/)가 사용하는 방식이다. 예를 들어 어떤 장난감을 이러한 방식을 이용해 3차원 입체로 만드는 과정은 다음과 같다. 일단 해당 장난감을 회전원판에 올리고 이를 1도씩 회전해가면서 카메라로 찍는다. 사용자가 특정한 각도에서 물체를 보고 싶으면 해당 각도에서 찍은 이미지를 보여준다. 만일 사용자가 원하는 각도에서 찍은 이미지가 없으면 그 각도에서 가장 근접한 두 이미지를 적절히 조합하여 대신 보여준다. 이 방식은 만들거나 다루기가 간단하지만 몇 가지 결함이 있다. 사용자가 물체의 밑면이나 윗면을 보려 할 경우 그것을 미리 찍어두지 않으면 보여주지 못할 수 있고, 3차원 물체의 파일사이즈가 매우 크다는 것이다.

최근 이런 문제를 개선한 방식이 잇따라 나오고 있다. 먼저 다각형 모델에 물체의 사진이미지를 새로 감싸서 이것을 새로운 3차원 물체로 이용하는 방법이다. 예를 들어 3차원 CD플레이어를 만들기 위해서는 먼저 수동적으로 그러한 플레이어와 비슷한 육각형의 물체를 설계한다. 그리고 해당 CD플레이어의 사진은 상하좌우 아래와 위에서 각각 6장면을 디지털 사진기로 찍어서 이것을 잘라 해당되는 면에 입힌다. 이렇게 하면 어떤 각도에서든지 물체의 모양을 볼 수 있고, 마음대로 사용자가 돌려가며 볼 수도 있다. 보통 고급 인터넷 쇼핑몰에서 사용하는 방법이다. 해당 기계나 상품을 작동하는 것도 가능하다. 이 방식의 장점은 해당 물체의 그림자도 가능하고 새로운 조명효과도 넣어 볼 수 있는 등 보통의 3차원 동작을 모두 해볼 수 있다는 것이다.

이 방식은 만드는 과정도 비교적 간단하고 3차원 물체의 파일크기도 크지 않다. 하지만 사용자가 해당 물체의 3차원 구조체(Wireframe Model)를 일일이 손으로 만들어야 하는 단점이 있다. 특히 물체가 단순히 박스형이 아니라면 해당되는 물체를 위한 3차원 다면체를 만드는 비용이 매우 크다는 것이다. 예를 들어 육각형 모양의 TV, CD플레이어, 오디오 등은 쉽게 만들지만 안경, 컵, 골프채, 반지와 같은 것은 쉽지 않다. 더구나 유연성을 지닌 옷, 모자 등과 같은 물체의 3차원 격자구조를 손으로 일일이 만든다는 것은 엄청난 비용과 시간이 들어간다. 이 기술을 판매하는 곳으로는 ViewPoint(http://www.viewpoint.com)와 Geometrix(http://www.geometrix.com)가 있다.

다음으로는 3차원 ‘정지-회전’(freeze and rotate) 방식이 있다. 이 방식은 이전 방식과는 확연히 다른 엄청난 물량과 장비가 투여된다. 1999년에 나온 영화 <매트릭스>의 화려한 몇 장면을 생각하면 쉽게 이해가 된다. 한두대의 카메라가 아니라 수십대의 카메라를 같은 간격으로 피사체 주위에 설치해서 동시에 한 장면을 찍는 것이다. 그뒤 각 카메라에서 찍은 장면을 한 장면씩 돌아가면서 보여주면 아주 그럴싸한 입체장면이 만들어진다. 제작공정이 복잡한 이 기술은 영화뿐만이 아니라 일반 스포츠중계에 활용된다. 올해 슈퍼볼 경기에서는 아이비전(EyeVision)사와 카네기-메론대학의 로보틱스 연구소 합작으로 이 방식을 사용했다. 원격조정이 가능한 30대의 카메라를 8도 간격으로 운동장 주위에 설치해 입체영상을 구현한 것이다. 하지만 여전히 시청자는 마음대로 화면 각도를 골라서 볼 수 없었다.

최근 Zaxel(http://zaxel.com)은 사용자가 직접 개입하는 능동적 3차원 영상을 제작하고 있다. Zaxel은 그동안의 3차원 입체 이미지의 핵심문제였던 많은 수의 카메라를 설치해야 한다는 고정관념을 바꾸었다. 두개의 근접각도 사진을 받아서 그 중간과정 그림을 컴퓨터로 새롭게 만들어주는 이미지 합성기술을 이용한 것이다. 예를 들어 그림 1, 2에서 보는 것과 같이 특별한 방의 구석에 카메라를 설치해서 동작을 찍은 다음에 그 중간 그림은 모두 컴퓨터로 합성할 수 있다. 따라서 사용자는 그림2와 같이 자신이 투수의 투구장면을 보고싶은 곳으로 마음대로 카메라를 옮겨가면서 살펴볼 수 있다. 여기에 가상현실 등이 더해지면 그야말로 사용자 개입이 가능한 환상적인 3차원 영화가 된다. Zaxel사의 주장에 의하면 다음 NBA 농고나 미국하키 리그에 그들의 시스템을 도입해서 인터넷으로 사용자들이 마음대로 자신이 보고 싶은 선수만 골라서, 또 특별히 자신이 좋아하는 각도에서 잘 관찰할 수 있도록 할 계획이라고 한다.

조환규/ 부산대 교수·컴퓨터과학


좋은 언론을 향한 동행,
한겨레를 후원해 주세요
한겨레는 독자의 신뢰를 바탕으로 취재하고 보도합니다.