| Home | E-Submission | Sitemap | Editorial Office |  
top_img
Korean Journal of Otorhinolaryngology-Head and Neck Surgery > Volume 52(2); 2009 > Article
Korean Journal of Otorhinolaryngology-Head and Neck Surgery 2009;52(2): 104-112.
doi: https://doi.org/10.3342/kjorl-hns.2009.52.2.104
Three-Dimensional Computer Graphics in Otology.
Sung Wan Byun
Department of Otolaryngology, School of Medicine, Ewha Womans University, Seoul, Korea.
이과학을 중심으로 본 3차원 컴퓨터 그래픽스의 이용
변성완
이화여자대학교 의학전문대학원 이비인후과학교실

서     론


  
우리가 살고 있는 세계는 3차원 공간이며, 의사들이 다루고 있는 인체도 기본적으로 3차원 공간의 개체(object)이다. 반면에 예로부터 여러 가지 기록을 위해 사용하던 종이 문서, 책, 인체의 구조를 기록하던 x-ray 필름, 최근의 컴퓨터 모니터 화면은 기본적으로 2차원 평면의 기록 매체이다. 의학 분야에서는 3차원의 인체를 직접 2차원의 매체에 기록하는 문제를 여러 깊이의 부분을 한 평면에 겹쳐서 기록하거나(simple x-ray, radionuclide scan, cephalometry 등), 연속된 단면 영상들(a stack of sectional images)로 기록하는(CT, MRI, SPECT, PET 등) 방법을 사용하여 해결해 왔다.
   현재 이과학을 비롯한 이비인후과학 분야에서도 내부의 상황을 정확하게 기록, 표현할 수 있는 연속된 단면 영상 자료(CT)를 주로 사용하고 있다. 수술 등과 의료 같은 현장에서는 기록된 2차원 평면의 단면 영상을 보고, 임상 의사들의 머리 속에서 3차원으로 재구성하며 의료에 임하고 있는 상황이 대부분이다. 드물게 단면 영상보다 나은 직관적인 이해 및 의료진 간의 의사 소통의 편의를 위하여 2차원 영상으로부터 3차원 입체로 재구성한 후(reconstruction), 그 결과를 다시 2차원 평면에 보여주는 렌더링(rendering) 기법을 사용하기도 한다. 기본적으로 CT, MRI 같은 연속된 단면 영상 자료는 volumetric data이기 때문에, 직접 이 volumetric data를 표시(=시각화, visualization)하는 방법이 적절하지만(direct volume visualization), polygon mesh 같은 중간 매개물(주로 surface data)을 재구성하여 시각화하기도 한다(indirect volume visualization). 후자의 경우에 해당하는 것이 surface shaded display(surface rendering)이고, 전자에 해당하는 것에 direct volume rendering, maximum intensity projection, multiplanar reformatting 등이 있다.1) 이 두 가지의 장점을 모은 hybrid rendering 기법도 있어 가상 내시경(virtual endoscopy) 등에 주로 사용된다.2,3) 특히 surface rendering의 경우에는 prosthesis 모델처럼 수작업으로(예술적으로) 모델링한 3차원 모델 자료와의 통합, 흔히 보급된 PC의 하드웨어 GPU(graphics processing unit, 과거의 명칭은 graphics card)를 쉽게 이용할 수 있는 장점이 있다.1) 현재 널리 보급된 GPU들은 모두 surface rendering을 사용하고 있다. 이런 GPU의 성능 향상과 보급은 주로 PC의 3D 게임의 발달에 힘입은 것으로, PC의 3D 게임은 대부분 surface rendering을 사용한 엔진을 탑재하고 있기 때문이다.
   이러한 3차원 컴퓨터 그래픽스에 사용되는 수학의 이론은 즉, 3차원 재구성과 렌더링은 기본적으로 3차원 해석 기하학, 벡터, 행렬 연산의 수학적인 이론과 컴퓨터를 이용한 연산으로 이루어져 있다. 이는 자연계 고등학교 과정에서 접할 수 있었던 수학이고, 대부분의 의사들이 자연계 고등학교 출신으로 수학 성적이 좋은 학생이었다는 국내의 현실을 고려하면, 의사들이 이 분야에 깊이 관여하기 어려운 문제가 아니라고 생각한다. 그리 어려운 이론이 아님에도 불구하고, 수학과 컴퓨터 공학이 관련되어 있다는 것 때문에 많은 의사들이 스스로의 영역이 아니라고 느끼고 있는 분위기가 강한 것이 다소 아쉬운 상황이다.
   특히 이과학 분야의 측두골은 다른 뼈에 비해 3차원적으로 미세한 굴곡이 많아 3차원 컴퓨터 그래픽스가 유용한 분야인 것으로 생각하지만, 시각화라는 면에서는 중추신경계, 심장, 정형외과 영역 같은 다른 부위에 비해 상대적으로 덜 연구가 되어 있다. 본고에서는 이에 대한이비인후과 의사들의 관심 증대라는 목적으로, 3차원 그래픽스의 기본적인 개념과 그 교육, 연구, 진료 면에서의 이용에 대하여 간략하게 고찰해 보고자 한다.

3차원 입체의 수작업(예술적) 모델링

   이것은 주로 3차원 그래픽스 아티스트(3D graphics artist)들이 하는 작업으로, 아무것도 없는 가상의 빈 공간에서 가상적인 3차원 물체를 만들어 가는(build up) 과정이다. 이러한 모델링 작업은 주로 3차원 모델러(modeler) 소프트웨어를 이용하여 이루어진다. 과거에는 방대한 연산량과 처리 용량 문제로 개인이 가지기 힘든 워크스테이션(workstation) 및 중대형 컴퓨터에서 작업이 이루어졌으나, 최근에는 PC의 CPU와 GPU의 비약적인 성능 향상과 늘어난 메모리 용량의 도움으로 PC에서도 Maya, Rhinoceros, Hexagon, 3D Studio Max 같은 뛰어난 성능의 모델러를 실행시킬 수 있게 되었다(Fig. 1A).
   수작업 모델링에는 polygon modeling, NURBS modeling, subdivision modeling 3가지의 방법이 주로 사용되고 있다. 

Polygon Modeling

   2차원에서 정8각형, 정9각형, 정10각형으로 선분이 작아질수록 점점 더 곡선인 원에 가까워진다. 이렇게 곡선을 작은 선분으로 나타내는 것처럼, 곡면을 작은 다각형(삼각형과 사각형)으로 근사시켜 모델링하고 나중에 부드러운 곡면인 것처럼 렌더링하는 방법이다(Fig. 1B). 수작업 모델링은 아니지만, 인체에 대한 surface rendering으로 가장 많이 사용되고 있는 marching cube algorithm도4) 이 polygon modeling과 같은 결과물을 산출한다.

NURBS(Non-Uniform Rational Basis Spline) Modeling

   Control points라고 하는 점들과 각 점의 가중치(weight value), knot vector를 이용하여 직접 수학적으로 곡선 및 곡면을 기술하는 방법이다(Fig. 1C and D).5) Knot vector는 control points의 적용 범위와 방식, 곡선의 차수(degree)를 결정하여, knot vector의 변화로 곡선의 smoothness와 curvature를 조절할 수 있다. Polygon modeling이나 subdivision modeling과 달리 이는 평면에 의한 곡면의 근사가 아닌 직접적인 곡면의 수학적 기술이다. 2차원에서 곡선을 그리는 대표적인 algorithm인 Bezier curve도 uniform non-rational B-spline에 해당하는 것으로 NURBS의 특수한 경우이다(non-rational B-spline은 특수한 경우의 rational B-spline이고, uniform은 non-uniform의 특수한 경우이다). 몇 개의 control point만으로도 전체적인 부드러운 곡선 및 곡면을 기술할 수 있는 장점이 있어 최근의 유선형 자동차나 각종 유선형의 장비의 설계(CAD, computer aided design)에는 거의 이 모델링이 쓰이고 있다. 인체의 대부분은 곡면으로 이루어져 있어, 인체 등의 표현에 적절한 방법이지만 polygon modeling보다 더 어려운 수학적 계산과 이론을 요구하고, CT, MRI 등의 연속된 단면 영상 자료로부터 쉽게 NURBS 곡면을 얻을 수 있는 방법이 아직 확립되어 있지 않아 NURBS를 이용한 의학 논문은 아직 매우 드물고, 그것도 대개는 비교적 단순한 모양의 장골(long bone)에 대한 논문들이다.6,7,8,9)

Subdivision Modeling

   대략적인(coarse) polygon 평면으로 표시하고, 일정한 규칙에 따라 반복적인(iterative) 세밀화과정(refinement process)을 통해, 더 작은 polygon들로 분할(subdivide)하여, 곡면에 근사시키는 방법이다(Fig. 2). 반복횟수를 늘일수록 곡면에 더 근접하지만 자료 크기(data size)가 커지는 단점이 있어, 목적에 따라 반복횟수를 제한하여 사용한다. 필요에 따라 부위별로 반복횟수를 다르게 할 수 있어, 굴곡이 별로 없는 부위는 적은 횟수의 반복, 해부학적으로 복잡한 부위는 많은 횟수의 반복을 사용하면 작은 자료 크기로도 복잡한 해부학적 세부를 보존할 수 있는 장점이 있다.

수작업의(예술가적인) 모델링 vs. 공학적인(수학적인) 모델링

   이러한 3차원 그래픽스 아티스트들이 하는 방식의 모델링과 달리, CT, MRI로 주어진 3차원적인 수치(CT의 경우는 Hounsfield unit,10) MRI의 경우는 signal intensity)의 나열로부터 컴퓨터 연산에 의해 수학적으로 3차원 모델을 산출하는 모델링이 있다. 이러한 모델링의 기본 자료는 volumetric data이다. 임상에서 접하는 측두골 CT가 바로 이과학 영역에서 가장 대표적인 volumetric data라고 할 수 있겠다. 현재 사용하는 일반적인 측두골 CT의 경우 slice 하나당 가로×세로 512×512=262,144개의 점(화소, pixel)으로 이루어져 있다. 여기서 간과하기 쉬운 사실은 크기가 없는 수학적인 의미의 점(point)과 달리 엄연히 pixel에는 크기가 있고(pixel spacing), CT slice도 두께가 없는 수학적인 의미의 단면과 달리 두께를 가진 slice라는 것이다(slice thickness). 이렇게 생각하면 두께가 없는 2차원 평면에서 사용하는 pixel(picture cell)이란 명칭 대신 voxel(volume cell)이라 부르는 것이 더 정확한 표현이라 할 수 있다. 따라서 CT에 있는 하나의 voxel은 pixel spacing 만큼의 가로와 세로의 길이를 가지고, slice thickness 만큼의 높이를 지닌 정사각기둥으로 생각할 수 있고, 각 voxel들은 각 정사각기둥 만큼에 해당하는 인체 부위에 대한 정보(HU)를 가진 volumetric data인 것이다.
   현재 측두골 CT에 사용하는 통상의 pixel spacing은 0.25
~0.33 mm 정도로 길이로는 1 mm에 3~4개의 pixel이 들어가며, 넓이로는 1 mm2에 9~16개의 pixel이 들어가는 셈이다. Slice thickness는 0.6~1.5 mm로 사용하고 있다. 물론 slice thickness가 얇을수록 영상은 정밀하지만, 촬영 부위에 대한 방사선의 피폭량은 증가하고, slice 장수가 많아져 저장 공간을 더 차지하게 된다.
   과거에는 각 voxel의 위치(좌표값)와 그 voxel의 HU값은 CT촬영기를 다루는 기사와 영상의학과 의사들만이 알 수 있었지만, PACS의 보급에 따라 임상의사들도 PC에서 DICOM이라는 표준에 의해 체계적으로 이런 정보를 얻을 수 있게 되었다.

DICOM과 PACS

   최근 10년간 병원에서 일어난 가장 큰 변화는 PACS(Picture Archiving & Communication System)의 급격한 보급일 것이다. 이로 인하여 필름 분실의 걱정을 덜게 되었으며 계측 가능, 복사의 용이성, 화질 손상 없이 발표용 slide나 Powerpoint 파일로 붙여 넣을 수 있다는 장점 때문에 임상의사들에게도 환영 받는 system으로 자리 잡았다. 문자 그대로 '필름이 없는(filmless)' 병원의 시대가 이미 도래한 것이다. 이는 저렴해진 자료(data) 저장 장치(hard disk drive), 향상된 컴퓨터 망(network) 속도, 공간을 덜 차지하는 액정 모니터(LCD monitor)의 보급이 적절한 시기에 어우러져 전국적으로 급격한 보급을 가능하게 한 것이라 생각한다. 이 보급에 간과할 수 없는 중요한 요소는 DICOM이라는 표준일 것이다. DICOM(Digital Imaging and Communications in Medicine;공식 홈페이지 http://dicom.nema.org)은 의학 영상 정보 및 자료의 취급, 저장, 표시, 및 전송을 위한 국제 표준이다. 이는 파일 형식의 정의(definition)와 동시에 통신 규약(network communication protocol, 인터넷 protocol TCP/IP 기반)을 포함한다. 이 표준의 존재로 Simple X-ray, CT, MRI 등의 실제 촬영 장치를 제작하는 회사 및 PACS를 제작하는 서로 다른 국가의 서로 다른 회사의 기기 사이에도 자료의 전송, 교환이 가능해진 것이다. 아직도 표준화가 더디게 진행되고 있는 전자의무기록(Electronic Medical Record, EMR)의 상황에 비추어 볼 때, DICOM이라는 표준의 존재가 더욱 돋보인다. DICOM에 대한 내용만으로도 분량이 많아지므로, 본고에서는 주로 3차원 영상 재구성의 가장 신뢰할 만한 volumetric data source로서 DICOM 파일의 의미를 이해하는데 필요한 최소한의 내용만을 간략하게 다루려고 한다.
   현재 이비인후과 영역에서 사용하는 측두골, 부비동, 두경부 CT는 보통 가로 해상도 512×세로 해상도 512=262,144 Pixels(256 KB)의 해상도를 가지고 있으며, pixel 당 2바이트를 차지하므로 CT slice 하나는 512×512×2 =524,288 Bytes(=512 KB=0.5 MB)를 차지한다. 실제로는 환자, 병원, 검사 및 영상의 정보를 포함하여 대략 0.51
~0.55 MB 정도를 차지한다(컴퓨터에서는 1 KB=210 Bytes=1,024 Bytes, 1 MB=1,024 KB=1,048,576 Bytes). 자료 저장 효율을 놓이기 위하여 해상도가 수천×수천인 simple x-ray는 그대로 저장하면 영상 1장의 자료 용량이 수십 MB에 해당하기 때문에 jpeg 손실 압축 기법을 이용하여 1/20 정도로 압축 저장하며, CT, MRI 같은 단면의 영상 자료(sectional image data)는 무손실(lossless) jpeg 2,000 압축 기법(lossless jpeg)으로 1/2 정도로 압축하여 저장한다. 일반적으로 slice 하나당, 하나의 DICOM 파일(주로 .dcm 확장자의 파일)이 만들어지며, 한 번의 CT 검사로 30~100장의 slice image가 만들어지므로, 대략 15~50 MB(jpeg 2,000 압축하면 8~30 MB) 정도의 자료가 된다.
   디지털 카메라로 촬영한 사진 파일(bmp, jpg)에 촬영 정보, 카메라 정보, 가로 세로 해상도의 정보가 들어 있는 것처럼, DICOM 파일에는 (1) 환자의 영문 이름, 생년월일, 성별, 병록 번호와 같은 기본적인 환자 정보, (2) 병원 이름, 촬영기기의 이름, 촬영을 의뢰한 과 및 의사 이름과 같은 병원 정보, (3) 촬영 일시, 찰영 조건 등과 같은 검사 정보 (4) 가로 세로 해상도, slice thickness, slice interval, pixel spacing 등 영상 정보 (5) 가장 큰 저장 공간을 차지 하는 영상 자료 자체가 들어 있다. 여기에서 영상 자료는 jpg(jpeg) 형식이나 tif(tiff) 형식 같은 일반적인 image 파일이 올 수도 있지만, CT로 부터의 영상 자료는 HU(Hounsfield Units, CT number)로 저장된다(Fig. 3).
   표준 온도와 압력에서의 물과 공기의 방사건 감쇠 계수 μH2O, μair를 이용하여 각각 HUH2O=-1,000, HUair=0의 값을 가지도록 각 물질의 방사선 감쇠 계수(attenuation coefficient) μ를 다음과 같은 공식으로 normalize하면 원하는 조직의 방사선 감쇠 계수를 HU단위로 구할 수 있다.10) 이는 조직의 radiodensity를 반영하여 조직에 따라 비교적 일정한 값을 가진다. 지방조직은 대략 -120 HU 정도로, 근육은 +40 HU 정도로, 뼈는 +400 HU 이상으로 계측된다.

   HU =  μ-μH2O
   HU =------- × 1,000
   HU =μH2Oair 

   흑백 jpg 파일의 경우에는 0
~255의 256(28, 8비트로 표현 가능)단계의 자료를 가지고 있지만, DICOM 파일 HU의 경우는 0~65,535 또는 -32,768~+32,767의 65,536(216, 16비트로 표현 가능)단계값을 가지고 있다. 보통의 이비인후과 영역에서 사용하는 HU의 자료범위는 -1,024~3,071의 4,096(212, 12 비트로 표현 가능)단계값을 가진다.1) 일반적인 인간의 눈으로는 256단계 이상의 명암을 구별하기는 어려우므로, 필름이나 모니터에도 4,096단계나 65,536단계로 명암을 표시하지는 않는다. 보통 필름과 모니터는, 0은 흑색, 최댓값 255는 백색, 중간값 128은 회색으로 하여 그 수치에 따라 256단계의 흑백 명암을 표시한다. 따라서 영상 자료를 모니터 화면에 보여주거나, jpg 등의 영상 파일로 변환 저장할 때, 사용하는 것은 0~255단계의 자료만을 사용하게 된다. 이에는 4,096단계를 256단계로 사상(寫像, mapping)하는 과정이 필요하다. 이 mapping 과정을 결정하는 것이 window center(=window level), window width이다. 이 두 가지의 수치에 의하여, HU는 256단계의 명암값(gray value)으로 변환된다(Fig. 4). 공식은 다음과 같다.

   Gray = 0;if HU ≤ (Center -    Width
   Gray = 0;if HU ≤ (Center - ----)
   Gray = 0;if HU ≤ (Center -       2
   Gray = (HU-(Center  -(Width
   Gray =  HU-(Center-----)  
   Gray = (HU-(Center-      2---  ×      255 ;(Ce - Width) < HU≤(Center -(  Width
   Gray = -------------- ×255if (Center - ----) < HU≤(Center - ----)
   Gray = (HU-(Center-(Width,2   ×255      ;i f(Cenr    2      < HU≤(Center -     2
   Gray = 255if HU > (Center + (Width
   Gray = 255if HU > (Center + ----)
   Gray = 255;if HU > (Center +    2

   이 공식에 의하여 같은 HU값이라 하더라도, window setting(center, width)에 따라 다른 명암값을 보일 수 있다. 예를 들어 HU=100인 부분은 center=40, width=200의 경우(soft tissue window setting) gray=229로 백색(255)에 가깝게 표시되지만, center=1,000, width=4,000의 경우(bone window setting) gray=102로 어두운 회색으로 표시된다(Fig. 5). 이와 같은 이유로 같은 영상 자료라 하더라도 영상을 보는 방식(window setting)에 따라 다른 분위기의 영상이 만들어진다. Bone window setting에서는 일반적으로 뼈가 얇아 보인다(Fig. 6). 따라서 CT를 이용한 계측 연구를 하면서 window width와 window center를 특정하지 않거나, 표준화하지 않은 채 계측된 결과를 발표하는 것은 잘못 디자인된 연구이거나, 자료의 제시가 불충분한 발표라 할 수 있다. 뼈의 두께를 CT에서 계측하는 연구를 하였는데, 어떤 예는 center=400, width=2,000 조건에서 계측하고, 어떤 예는 center=800, width=4,000 조건에서 계측하였다면, 신뢰성 있는 두께값이 측정될 수 없을 것이다. 심지어는 같은 환자의 같은 slice를 계측할 때에도 다른 두께값이 나올 것이다. 반면에 HU를 직접 사용하여 수학적으로 계측하는 경우에는 window width나 window center에 대한 특정이 불필요하다. 대부분의 PACS에는 어떤 pixel의 (x,y) 좌표값과 HU를 확인할 수 있는 'Lens cursor'나 'pixel lens'라는 이름의 도구가 갖추어져 있다.
   Center=40, width=200의 조건은 HU=40을 중간 회색(gray=128)으로 mapping하며, center를 중심으로 HU 200 범위(-60
~+140)의 영역을 255단계로 나누어 mapping한다. -60 이하는 흑색(gray=0), +140 이상은 백색(gray=255)으로 mapping한다. 이런 mapping에서 center는 명도(brightness), width는 대비(contrast)를 나타낸다.1) HU -60~+140의 연부 조직(soft tissue) 범위를 잘 구분해 보기 위해서는 center={(+140)+(-60)}/2=40, width =(+140)-(-60)=200 조건으로 표시하여야 하며, HU -400~+1,600 정도의 주로 골부 조직(bone) 범위를 잘 구분해 보기 위해서는 center={(+1,600)+(-400)}/ 2=600, width=(+1,600)-(-400)=2,000 조건으로 표시하여야 한다. 따라서 Gray값은 모니터나 필름에서 직접 눈에 보이는 명암값이긴 해도, window width나 window center값에 따라 큰 차이가 날 수 있기 때문에, 3D 재구성을 위한 안정적인 volumetric data source로 사용하기에는 부족함이 많다. 또 실제 계측을 위해서는 pixel spacing(예 1 pixel=0.3125 mm)과 slice thickness(예 0.75 mm)같은 정보도 중요하므로, 이를 HU의 영상 자료와 함께 가지고 있는 DICOM 파일이 data source로서 중요한 의미를 가진다.
   DICOM 파일에서 적절하게 영상 정보와 영상 자료(HU)를 해독하는 DICOM parser를 제작하거나, 이미 제작된 parser를 이용하면 안정적인(다른 조건의 영향을 받지 않는) volumetric data를 확보할 수 있다.

교육적인 면에서의 이용

   교육적인 면으로는 주로 polygon, NURBS, subdivision modeling 등을 이용하여 표면 모델(surface model)을 만드는 예술적인 모델링이 사용된다. 3차원의 가상 공간에서 인체 모델에 가상의 3차원 미로 모델을 붙여서 Dix-Hallpike검사의 과정을 좀 더 알기 쉽게 설명하는 교육적인 동영상을 만든다거나(Fig. 7A), Epley 운동 요법을 보여주거나(Fig. 7B), VVOR 회전의자검사에 대한 교육적인 동영상을(Fig. 7C) 만드는 것 같은 예에 이용할 수 있다. 이는 직접 환자를 놓고 찍는 실사(實寫) 동영상보다는 사실감은 떨어지지만, 미로 모델을 반투명하게 처리하여 내부의 이석(canalith)이 움직이는 모습을 동영상에 같이 표현하거나, 머리 부위를 반투명하게 처리하여 안구의 움직임을 같이 동영상에 표현하거나, 시상면(sagittal plane)을 나타내는 반원면같은 보조적인 3차원 개체를 같이 표현하여(Fig. 7A) 실사로는 불가능한 교육적 영상을 표현할 수도 있다. 여러 각도에서 관찰한 동영상을 산출할 수 있으므로 실제 환자를 여러 번 촬영하지 않아도 되는 장점이 있다. 한 번 적절하게 제작된 모델(그림의 미로 모델, 회전 의자 모델 등)은 여러 동영상을 제작하는 데 재사용할 수 있는 장점이 있다.
   위와 같은 설명과 이해를 위한 교육적인 3차원 모델링 이외에도 수술의 연습, 수련을 위한 시스템들이 개발되고 있다. '신체발부 수지부모 불감훼상 효지시야(身體髮膚 受之父母, 不敢毁傷, 孝之始也)'로 대표되는 유교적 전통은 부검과 장기 기증의 수급에 많은 제약이 되고 있고, 사회적인 통념이란 것이 단시간에 바뀔 수 없는 것이라 해부학적 이해를 위한 dissection용 또는 수술 수련을 위한 측두골을 얻는 일도 단기간에 해결되기 어려운 문제라 하겠다. 이런 측두골의 공급 사정과 함께 교육적인 필요에 의해, 가상의 측두골 수술을 연습할 수 있는 장치가 개발되었거나 개발되고 있다. 수술 교육을 위한 시뮬레이터(simulator)의 경우에는 다른 분야에 비해 상당히 많은 진전이 있어 상업화된 시스템도 개발되어 있다. 이는 (1) 입체시(stereopsis)가 중요한 수술 현미경, 한 손의 drill system 다른 손의 suction system 등의 실제 수술 환경을 현재 이용 가능한 HMD(head mount display), 입체안경(stereo glass), haptic feedback이 가능한 3차원 입력 장치 등으로 유사하게 구현할 수 있고, (2) 연부 조직(soft tissue)의 탄성에 의한 복잡한 변성 등을 고려하지 않아도 되고, (3) drill burr에 의하여 깎여 나가는 즉, 실시간으로 3D 모델이 변화하는 상황-드릴과 3D 모델의 공간적 충돌(collision)의 검출과 이의 haptic feedback 등-에 공학적으로 도전적인(challenging) 과제들이 많이 포함되어 있기 때문일 것이다. IERAPS(Integrated Environment for the Rehearsal and Planning of Surgical Intervention),11,12) Ohio Virtual Temporal Bone dissection simulator,13,14,15) Stanford Temporal Bone Surgical Simulator16,17,18,19) 등이 연구, 교육 목적으로 개발되어 발표되었다. 특히 University Hospital Hamburg-Eppendorf에 의해 개발된 Voxel-Man TempoSurg는20,21,22,23,24) 시판되고 있는 시스템이다.

연구 면에서의 이용

   주로 측두골 CT를 이용하여 특정 부위의 길이, 면적, 부피를 계측하는 연구가 많다.25,26,27,28) 이의 이론적인 배경에는 3차원 벡터 및 해석 기학학적인 기법이 많이 사용된다. 실제로는 모델에서 자동으로 측정에 필요한 경계선(contour)을 산출하기는(automatic segmentation) 어려운 경우가 많아, 손으로 tracing하는(manual segmentation) 연구가 많다.1) 이 방법은 자동 tracing에 비해 제약 없이 적용할 수 있지만 재현성, 신뢰성, 정확성에 의문의 여지가 있다.29,30,31) 상업적인 3차원 의학 영상 소프트웨어를 이용하여 연구한 결과를 발표한 예도 있다. 이 경우 대개는 고가의 소프트웨어를 구입하여 재현해 볼 수 없다는 단점, 대개는 영세한 벤쳐 기업인 소프트웨어 업체가 없어지면서 그 기술도 사장되기 쉽다는 단점, 계측에 사용한 알고리즘이 적절한 것인지 정확한 것인지 검증되지 않았으며, 그 알고리즘이 대개는 영업상의 비밀로 공개되지 않는다는 단점이 있다.
  
측두골 CT를 직접 읽어 3D 모델을 생성하고, 이에 대한 가상의 수술로 수술 전에 rehearsal surgery를 시행하여 볼 수 있고,11,12) 새로운 시야에서의 수술 접근법을 연구해 볼 수도32,33) 있다(진료와 연구의 복합적인 면). 실제 측두골과 달리, 동일한 표준 모델로 여러 명의 전공의에(inter-trainee) 대한 수술 수련, 같은 전공의에서(intra-trainee) 여러 번 동일한 모델로 수술 수련이 가능하므로, 적절한 계량화 기준(metrics)을 내장한 시스템을 만들면, 수련의 효과를 계량화하는 연구에도17,19) 이용할 수 있다(교육과 연구의 복합적인 면). 실제의 환자를 위험에 노출시키지 않아도 교육과 수련이 가능해지므로 윤리적으로 많은 지지를 받을 수 있는 장점도 있다.

진료 면에서의 이용

   외상성 이소골 탈구, 선천성 측두골 기형과 같은 경우에 때로는 3차원 재구성을 통해 미리 수술 소견을 예측하고, 시험적 고실개방술(explorative tympanotomy)에 임하여 진료의 편의를 얻기도 한다(Fig. 8).2)
   최근에는 측두골 CT의 경우 횡단면(axial, transverse) 스캔으로부터 재구성을 통하여 관상면(coronal) 영상을 얻는 경우가 많아졌다. 관상면에 대한 실제 스캔이 필요하지 않아 환자의 방사선 피폭이 감소하는 장점이 있지만, 실제 스캔보다는 횡단면 스캔에 대한 보완 효과가 적다는 단점이 있으므로, 관상면 영상을 얻는 방법은 필요에 따라 선택하는 것이 현명할 것이다. 또 상반고리관 결손 증후군(Superior canal dehiscence syndrome, Minor syndrome)의 경우34) 상반고리관의 평면을 따라 재구성(multiplanar reformat)한 CT slice를 작성하는 것이 진단에 도움이 된다(Fig. 9).
   수술용 항법장치(surgical navigator)도 3차원 그래픽스 기술의 발전으로 진료에 도움이 되는 예라 하겠다.1,35,36) 실제 수술 시야에서 marker가 있는 위치를 해당 axial, coronal, sagittal slice에 표시함으로써 해부학적으로 복잡한 부위에서의 수술이나, 최소 절개로 깊은 부위를 수술하는데 도움을 주기도 한다. 현재는 전자기적 추적(electromagnetic tracking)이나 적외선을 이용한 광학적 추적(optical tracking) 방법을 주로 사용하고 있으며, 수술 전 CT 영상의 좌표 시스템과 수술 시야의 좌표 시스템을 일치시키도록 피부의 주요 landmark들을 이용하여 등록(registration)하는 과정이 필요하고, 장비가 고가라는 단점이 있다.1)
   이렇게 진료 면에서 이용되는 3차원 그래픽스 관련 도구들은 현재 주로 CT 촬영기의 컴퓨터, 수술용 항법장치 등에 부속되어 있어 PC에서 실행되는 version은 제작되지 않았거나, 구하기가 어려운 경우가 많다. 그러나 점점 PC 하드웨어가 발전되어 PC에서 위의 많은 작업들을 시행할 수 있게 될 것이다. 예로 상업적으로 PACS로부터의 DICOM 파일에서 CT 영상 자료를 읽어들여 3차원 재구성을 하는 PC용 소프트웨어들이 시판되고 있다. 수요가 적어 가격이 비싸고, 관련 업체의 영세성으로 회사가 사라지며, 유용한 기술이 사장되는 예를 보기도 한다. 아직까지는 PC를 이용한 3차원 재구성은 연구 목적으로 더 많이 쓰이고 있다.

향후의 방향과 결론

   PC 기반의 소프트웨어와 하드웨어를 이용한 3차원 재구성이 점점 더 널리 쓰이게 될 것이다. 아마도 PACS에 부속 소프트웨어로 설치되는 형태로 나타날 것으로 보인다. 원하는 임의 평면의 단면 영상을 얻을 수 있는 모듈도 PACS에 포함될 것이다.
   아직까지는 surface rendering이 주종이지만, 점차 OpenGL 2.0의 shading 함수를 이용한 volume rendering 기법의 쓰임이 늘어날 것이고, 두 방법의 장점을 합한 hybrid rendering 기법이 주종을 이루게 될 것이다.1,3) PC를 기반으로 HMD를 이용하여 입체시가 가능한 가상 수술 현미경, haptic device를 이용한 가상 suction과 drill이 구현된 가상 측두골 수술 시뮬레이터들이 점차 보급될 것이다. 저렴한 비용으로 PC를 수술용 항법장치로도 사용할 수 있게 해주는 모듈도 개발될 것이다. 3차원 컴퓨터 그래픽스는 영화관에만 있는 것이 아니라, 이미 진료 현장에 들어와 있다.


REFERENCES

  1. Preim B, Bartz D. Visualization in Medicine. Theory, Algorithm, and Application. Burlington: Morgan Kaufmann Publishers;2007. p.47-9, 71-3,96,251-2,407-9.

  2. Vrabec JT, Briggs RD, Rodriguez SC, Johnson RF Jr. Evaluation of the internal auditory canal with virtual endoscopy. Otolaryngol Head Neck Surg 2002;127(3):145-52.

  3. Seemann MD, Seemann O, Bonél H, Suckfüll M, Englmeier KH, Naumann A, et al. Evaluation of the middle and inner ear structures: Comparison of hybrid rendering, virtual endoscopy and axial 2D source images. Eur Radiol 1999;9(9):1851-8.

  4. Lorensen WE, Cline HE. Marching cubes: a high-resolution 3D surface construction algorithm. Comput Graph 1987;21:163-9.

  5. Fisher J, Lowther J, Shene C-K. If you know B-splines well, you also know NURBS!. Proceedings of the 35th SIGCSE technical symposium on Computer science education;2004 March 03-07, Norfolk, Virginia, USA

  6. Anderson CW, Crawford-Hines S. Fast generation of NURBS surfaces from polygonal mesh models of human anatomy. Colorado State University Computer Science Technical Report CS-99-101, 2000.

  7. Au AG, Palathinkal D, Liggins AB, Raso VJ, Carey J, Lambert RG, et al. A NURBS-based technique for subject-specific construction of knee bone geometry. Comput Methods Programs Biomed 2008;92(1):20-34.

  8. Wu FT, Ng-Thow-Hing V, Singh K, Agur AM, McKee NH. Computational representation of the aponeuroses as NURBS surfaces in 3D musculoskeletal models. Comput Methods Programs Biomed 2007;88(2):112-22.

  9. Lee C, Lodwick D, Hasenauer D, Williams JL, Lee C, Bolch WE. Hybrid computational phantoms of the male and female newborn patient: NURBS-based whole-body models. Phys Med Biol 2007;52(12):3309-33.

  10. Hounsfield GN. Computerized transverse axial scanning (tomography). 1. Description of system. Br J Radiol 1973;46(552):1016-22.

  11. John NW, Thacker N, Pokric M, Jackson A, Zanetti G, Gobbetti E, et al. An integrated simulator for surgery of the petrous bone. Stud Health Technol Inform 2001;81:218-24.

  12. Neri E, Sellari Franceschini S, Berrettini S, Caramella D, Bartolozzi C. IERAPSI project: Simulation of a canal wall-up mastoidectomy. Comput Aided Surg 2006;11(2):99-102.

  13. Wiet GJ, Stredney D, Sessanna D, Bryan JA, Welling DB, Schmalbrock P. Virtual temporal bone dissection: An interactive surgical simulator. Otolaryngol Head Neck Surg 2002;127(1):79-83.

  14. Stredney D, Wiet GJ, Bryan J, Sessanna D, Murakami J, Schmalbrock P, et al. Temporal bone dissection simulation--an update. Stud Health Technol Inform 2002;85:507-13.

  15. Wiet GJ, Schmalbrock P, Powell K, Stredney D. Use of ultra-high-resolution data for temporal bone dissection simulation. Otolaryngol Head Neck Surg 2005;133(6):911-5.

  16. Sewell C, Morris D, Blevins N, Barbagli F, Salisbury K. Quantifying risky behavior in surgical simulation. Stud Health Technol Inform 2005;111:451-7.

  17. Sewell C, Morris D, Blevins NH, Agrawal S, Dutta S, Barbagli F, et al. Validating metrics for a mastoidectomy simulator. Stud Health Technol Inform 2007;125:421-6.

  18. Sewell C, Morris D, Blevins NH, Barbagli F, Salisbury K. Evaluating drilling and suctioning technique in a mastoidectomy simulator. Stud Health Technol Inform 2007;125:427-32.

  19. Sewell C, Morris D, Blevins NH, Dutta S, Agrawal S, Barbagli F, et al. Providing metrics and performance feedback in a surgical simulator. Comput Aided Surg 2008;13(2):63-81.

  20. Pflesser B, Petersik A, Tiede U, Hohne KH, Leuwer R. Volume cutting for virtual petrous bone surgery. Comput Aided Surg 2002;7(2):74-83.

  21. Pommert A, Hohne KH, Pflesser B, Richter E, Riemer M, Schiemann T, et al. Creating a high-resolution spatial/symbolic model of the inner organs based on the visible human. Med Image Anal 2001;5(3):221-8.

  22. Hohne KH, Pflesser B, Pommert A, Riemer M, Schubert R, Schiemann T, et al. A realistic model of human structure from the visible human data. Methods Inf Med 2001;40(2):83-9.

  23. Schiemann T, Freudenberg J, Pflesser B, Pommert A, Priesmeyer K, Riemer M, et al. Exploring the visible human using the voxel-man framework. Comput Med Imaging Graph 2000;24(3):127-32.

  24. Zirkle M, Roberson DW, Leuwer R, Dubrowski A. Using a virtual reality temporal bone simulator to assess otolaryngology trainees. Laryngoscope 2007;117(2):258-63.

  25. Vrabec JT, Champion SW, Gomez JD, Johnson RF Jr, Chaljub G. 3D CT imaging method for measuring temporal bone aeration. Acta Otolaryngol 2002;122(8):831-5.

  26. Lee DH, Jun BC, Kim DG, Jung MK, Yeo SW. Volume variation of mastoid pneumatization in different age groups: A study by three-dimensional reconstruction based on computed tomography images. Surg Radiol Anat 2005;27(1):37-42.

  27. Park MS, Yoo SH, Lee DH. Measurement of surface area in human mastoid air cell system. J Laryngol Otol 2000;114(2):93-6.

  28. Isono M, Murata K, Azuma H, Ishikawa M, Ito A. Computerized assessment of the mastoid air cell system. Auris Nasus Larynx 1999;26(2):139-45.

  29. Cross JJ, Baguley DM, Antoun NM, Moffat DA, Prevost AT. Reproducibility of volume measurements of vestibular schwannomas-a preliminary study. Clin Otolaryngol 2006;31(2):123-9.

  30. Chong VF, Zhou JY, Khoo JB, Huang J, Lim TK. Nasopharyngeal carcinoma tumor volume measurement. Radiology 2004;231(3):914-21.

  31. Chong VF, Zhou JY, Khoo JB, Huang J, Lim TK. Tongue carcinoma: Tumor volume measurement. Int J Radiat Oncol Biol Phys 2004;59(1):59-66.

  32. Klenzner T, Ngan CC, Knapp FB, Knoop H, Kromeier J, Aschendorff A, et al. New strategies for high precision surgery of the temporal bone using a robotic approach for cochlear implantation. Eur Arch Otorhinolaryngol. 2008 in press.

  33. Stadie A, Kockro R, Tropine A, Boor S, Stoeter P, Perneczky A. Virtual reality for planning minimally invasive neurosurgery technical note. J Neurosurg 2008;108(2):382-94.

  34. Minor LB. Superior canal dehiscence syndrome. Am J Otol 2000;21(1):9-19.

  35. Strauss G, Koulechov K, Hofer M, Dittrich E, Grunert R, Moeckel H, et al. The navigation-controlled drill in temporal bone surgery: A feasibility study. Laryngoscope 2007;117(3):434-41.

  36. Wagner W, Gaab MR, Schroeder HW, Sehl U, Tschiltschke W. Experiences with cranial neuronavigation in pediatric neurosurgery. Pediatr Neurosurg 1999;31(5):231-6.


TOOLS
PDF Links  PDF Links
Full text via DOI  Full text via DOI
Download Citation  Download Citation
Share:      
METRICS
2
Crossref
6,163
View
35
Download
Related articles
Three-dimensional Computer-aided Reconstruction of the Temporal Bone in Mongolian Gerbil.  2005 November;48(11)
Three-Dimensional Analysis of Eye Movement.  2008 October;51(10)
Editorial Office
Korean Society of Otorhinolaryngology-Head and Neck Surgery
103-307 67 Seobinggo-ro, Yongsan-gu, Seoul 04385, Korea
TEL: +82-2-3487-6602    FAX: +82-2-3487-6603   E-mail: kjorl@korl.or.kr
About |  Browse Articles |  Current Issue |  For Authors and Reviewers
Copyright © Korean Society of Otorhinolaryngology-Head and Neck Surgery.                 Developed in M2PI
Close layer
prev next