Endoscopia Virtual

  • October 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Endoscopia Virtual as PDF for free.

More details

  • Words: 7,636
  • Pages: 11
UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

1

Realidad Virtual en Medicina: Revisión de la Endoscopia Virtual Byron Pérez, Student Member IEEE [email protected]

Abstract— Un sistema de realidad virtual en medicina se compone de una reconstrucción 3D a partir de imágenes médicas, un subsistema de visualización y uno de manipulación necesarios para lograr la interacción entre el usuario y el entorno virtual. Se presenta la endoscopia virtual como aplicación en esta área como método de entrenamiento, planeación y diagnóstico. Este artículo describe sus diferentes formas de diseño, análisis e implementación a nivel de rendering y visualización, manipulación y navegación, en aplicaciones no invasivas.

3D del paciente y manipular su geometría dentro del entorno virtual. Este artículo hace una revisión del estado del arte de los métodos de rendering y tipos de navegación utilizados en la endoscopia virtual. La sección II presenta las características de un sistema de realidad virtual en medicina y sus elementos constituyentes. La sección III presenta la endoscopia virtual, sus diferentes formas de navegación y aplicaciones.

Index Terms— Virtual endoscopy, virtual reality, rendering

II. I.

I NTRODUCCIÓN

OS métodos de diagnóstico no invasivos y la Cirugía Mínimamente Invasiva (MIS) han sido unas de las áreas de mayor interés por parte la realidad virtual durante los últimos años. La MIS presenta muchas ventajas frente a los métodos tradicionales, tales como la recuperación más rápida, menor dolor postoperatorio y menor riesgo de infecciones[1], así mismo, los métodos no invasivos permiten caracterizar y diagnosticar patologías en forma temprana, monitorear la evolución de un tratamiento y adicionalmente, permitir entrenamiento sobre alguna técnica quirúrgica específica. Es por eso que se han desarrollado múltiples aplicaciones usando realidad virtual en el campo de entrenamiento, planeación y diagnóstico, en los cuales el usuario o un grupo de ellos puede acceder de una manera conveniente a datos médicos complejos[2]. Un sistema de realidad virtual debe ofrecer la posibilidad de manipulación, interacción, e inmersión dentro de un entorno generado por computador (entorno virtual). En el caso de la medicina dicho entorno debe contener la geometría 3D del paciente, que se reconstruye usando diferentes técnicas de procesamiento digital de imágenes (adquisición, filtrado, segmentación) sobre una pila de imágenes médicas (tomografías computarizadas - CT, resonancias magnéticas- MRI, ultrasonido). La manipulación de la geometría dentro de este entorno se puede realizar utilizando diferentes dispositivos de entrada como un simple mouse, sistemas de captura de movimiento, head-trackers, y dispositivos haptics (dispositivos que permiten controlar y obtener sensaciones táctiles a través de un sistema de cómputo)[3], [4]. La inmersión se logra utilizando visión estereoscópica sobre el entorno con la ayuda de gafas de obturación (shutter glasses) o un HMD (head mounted display), los cuales generan la sensación de profundidad en las imágenes generadas por computador[3]. Finalmente la interacción se logra combinando el uso de estos sistemas en los cuales el usuario puede visualizar el modelo

L

R EALIDAD VIRTUAL EN MEDICINA

La realidad virtual presenta un espectro muy amplio de aplicaciones en ingeniería, educación, entretenimiento, astronomía, arqueología y medicina entre muchas otras áreas. En el caso de la medicina con la ayuda del computador se pueden generar entornos virtuales para recrear diferentes escenarios que permiten interactuar con la anatomía del cuerpo humano. Estos sistemas permiten al usuario mejorar sus habilidades en distintas técnicas quirúrgicas, realizar diagnósticos más acertados y a estudiantes permite comprender y afianzar conceptos más facilmente. Un sistema de realidad virtual en medicina consta de tres unidades funcionales: Reconstrucción 3D a partir de imágenes 2D: Generación del modelo 3D a partir de imágenes médicas usando técnicas de procesamiento de imágenes y computación gráfica. Visualización de geometría: Permite al usuario recorrer la reconstrucción 3D de las estructuras anatómicas y brinda la posibilidad de usar métodos de estereoscopía para percibir la sensación de profundidad en el modelo. Manipulación de geometría: Es un complemento al sistema de visualización en el cual el usuario puede interactuar con la reconstrucción 3D para simplemente desplazar, rotar, acercar o alejar el modelo, ó realizar algún tipo de manipulación avanzada con dispositivos externos. En las siguientes secciones se realiza una revisión de diferentes métodos existentes en cada unidad funcional. II-A.

Reconstrucción 3D a partir de imágenes 2D

Para poder aplicar la realidad virtual a la medicina se debe realizar la reconstrucción de volúmenes usando una pila de imágenes médicas (dataset) como punto de partida. Esta imágenes pueden ser tomografías computarizadas, resonancias magnéticas o ultrasonido. Las tomografías computarizadas se generan a partir de proyecciones de rayos x de baja

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

intensidad sobre el paciente. Esta técnica permite obtener buenos resultados en el sistema óseo dada su capacidad de absorción[5], [2]. En contraparte las resonancias magnéticas, como su nombre lo indica, se generan al exponer al paciente con un campo magnético, obteniendo alto contraste en tejidos blandos[5], [2]. Un buen ejemplo sobre el uso de estas dos técnicas fue desarrollado por el Instituto Nacional de Salud de Estados Unidos con el Visible Human Project[6]. Este proyecto consistió en tomar una imagen por milímetro en el eje axial de un cadaver congelado usando CT, MRI, y adicionalmente fotografías de cortes realizados en las mismas distancias. Posterior a la adquisición, las imágenes deben ser filtradas y segmentadas de acuerdo con la estructura anatómica que se quiere reconstruir. Lehmann[7] hace una revisión de diversos métodos de interpolación en imágenes médicas utilizados en las etapas previas a la reconstrucción 3D. En las siguientes secciones se describen las técnicas de rendering: Poligonal o de superficies Volumétrico Basado en imágenes (IBR) Basado en Puntos (PBR) utilizadas para la reconstrucción. II-A.1. Rendering poligonal o de superficies: Cada imagen del dataset es filtrada y segmentada para obtener isocontornos de las estructuras anatómicas de interés. Posteriormente se ajusta una malla poligonal entre los isocontornos de dos imágenes consecutivas obteniendo un volumen 3D[8]. Esta es la técnica más usada para reconstrucción 3D, sin embargo, como los volúmenes están generados únicamente por superficies, se pierde la información interna de cada volumen. Esto se traduce en una mayor velocidad de rendering comparado con el rendering volumétrico (sección II-A.2). Un algoritmo muy empleado para este tipo de rendering es el Marching Cubes[9]. Para visualización de geometría poligonal se puede utilizar el Lenguaje de Modelado de Realidad Virtual [10] (VRML), que permite visualizar geometría 3D a través de un navegador de internet. Este lenguaje es muy conveniente para compartir información sin necesidad de software complejo, característica que lo hace ideal para visualizar geometría utilizando cualquier computador. Otra ventaja de este formato es la capacidad de enlazar otros archivos VRML o a cualquier página de internet utilizando la misma geometría como botón. Redfern[11] definió una forma de ampliar las características del VRML agregando a la geometría poligonal diferentes secciones utilizando render basado en imágenes (sección II-A.3) logrando una reducción en el tiempo de cómputo del modelo. Actualmente se está desarrollando el lenguaje de código abierto X3D como una extensión al VRML por el Web3D Consortium[12] que unifica las diferentes implementaciones que existen a nivel de reproductores de VRML y extendiéndolo con más funciones y componentes para aumentar sus aplicaciones. II-A.2. Rendering volumétrico: Este tipo de generación de volúmenes presenta los mejores resultados a nivel de detalle y calidad de imagen. Permite realizar transparencias y generar planos de corte en cualquier dirección[13], [2]. Con esta técnica se puede utilizar el algoritmo de ray tracing para iluminación de la escena, sin embargo para aplicaciones en

2

tiempo-real, esta técnica requiere de hardware alto desempeño como sistemas multiprocesadores que no son de fácil acceso para muchos centros de investigación, es por eso que se propone el uso de clusters de computadores para resolver este problema con un costo muy inferior[14], [15]. La geometría en un sistema de rendering volumétrico está conformada por elementos de volumen (voxels). Estos se definen como cubos con algún nivel de gris o de color con algún lado perteneciente a un isocontorno. El principal problema en la asignación de voxels radica en una clasificación binaria: falso positivo (se asignó un voxel a una superficie equivocada - superficie de espurias) o falso negativo (no se asignó un voxel a una superficie correcta - huecos en la superficie). Para corregir este problema se evita una representación geométrica intermedia utilizando un proceso de shading (asignación de colores y raytracing) y clasificación (asignación de transparencias y raytracing) en forma paralela a un mismo voxel, para obtener como resultante un plano de imagen que representa el volumen ocupado[8].

Fig. 1. Método de raytracing para render volumétrico[8]. El pixel mostrado en el punto de observación se calcula a través de una interpolación trilineal del voxel a partir del rayo de visión.

Bartz[13] realizó una comparación entre cuatro diferentes métodos de render volumétrico (ray-casting, splatting, shearwarp, texture-mapping). La tabla II muestra la clasificación de los métodos. La prueba consistió en generar 24 vistas aleatorias en cinco datasets utilizando cada método y comparar el tiempo requerido para procesar cada frame, para esto se utilizó un SGI Octane (R10000 CPU, 250MHz) con 250 MB de memoria RAM y sistema de gráficos MXE con 4MB de memoria de textura. Los resultados mostraron que el ray-casting es más rápido que el splatting para datasets con un menor número de muestras que no contribuyen, sin embargo, el splatting es mejor para datasets con un número pequeño de voxels relevantes. La calidad del texture-mapping depende del número de bits para el manejo de texturas. El shear-warp es considerado uno de los mejores métodos de render por software pero en las pruebas mostró una menor calidad de imagen cuando se magnificaba alguna zona (Figura2) II-A.3. Rendering basado en imágenes[4]: Con esta técnica se logran muy buenos resultados a nivel de modelado y representación de geometría compleja, presenta un alto desempeño a nivel de framerate. Debido al manejo de la iluminación

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

3

TABLE I C OMPARACIÓN DE CUATRO MÉTODOS DE RENDER

Rata de muestreo Evaluación de muestras Interpolación Rendering pipeline Aceleración Precisión / Canal Voxels considerados

Raycasting Libre seleccionable Puntos muestreados Trilineal Post-clasificada

Splatting Libre seleccionable Promediados en ∆s Gausiana Post-clasificada

Finalización de rayos temprana Punto flotante Todos

Finalización de temprana Punto flotante Relevantes

splats

VOLUMÉTRICO [13]

Shear-Warp Fijo [1.0, 0.58] Puntos muestreados Bilineal Pre-clasificada, colores con peso-opacidad Codificación RLE de opacidad Punto flotante Relevantes

3D Texture Mapping Libre seleccionable Puntos muestreados Trilineal Pre-clasificada, colores con peso-opacidad Hardware gráfico 8-12 bits Todos

Fig. 2. Comparación de render con vasos sanguíneos[13]. Los cuatro métodos de render presentan buena calidad a nivel general, sin embargo las diferencias principales radican en la velocidad de generación y nivel de detalle.

global y entre objetos el render presenta características fotorealísticas. Estas ventajas significativas frente a otros tipos de rendering se logran al usar mapeo de texturas 2D sobre polígonos planares para representar objetos complejos. Este método logra una reducción del tiempo de cómputo, que se refleja en un aumento considerable del framerate. La generación de las imágenes para las texturas se realiza utilizando rendering poligonal en determinados puntos de la geometría previamente definidos, en el caso de la endoscopia virtual se definen ciertos puntos a lo largo de la trayectoria de la cámara. Posteriormente se aplica la técnica de environment mapping donde se mapean las imágenes sobre las caras de un cubo. El cálculo de la iluminación se realiza a partir de la captura de la luz incidente en un punto específico de la escena y con la imagen de textura generadas se calculan las reflexiones en todos los objetos. Esta técnica permite realizar una endoscopia virtual utilizando hardware de bajo nivel, sin embargo los cálculos previos para generar las imágenes del mapeo requieren un procesamiento adicional previo a la etapa

de visualización. II-A.4. Rendering basado en puntos[16]: Esta técnica plantea una alternativa al rendering tradicional con mallas de polígonos, al utilizar puntos como primitiva. Posteriormente se realiza el proceso de splatting que consiste en hacer filtrado gaussiano para obtener un resultado similar al de las superficies poligonales. Los cálculos de iluminación se realizan a nivel de puntos obteniendo resultados similares al phong usado en superficies. Inicialmente el filtrado se realiza a nivel de puntos, donde se pueden presentar problemas de ruido de alta frecuencia. La solución planteada para prevenir este problema consiste en realizar un filtrado con pesos elípticos promedio, este nuevo filtrado tambien agrega un antialias al modelo. Para la implementación de esta técnica se parte del hecho que las tarjetas de video actuales están basadas en rendering poligonal, por consiguiente el procesamiento de los splats tiene que realizarse por software, obteniendo muy buena calidad de imagen pero baja velocidad de rendering. Es por eso que se propone utilizar las características programables

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

de vertex y fragment shaders de las tarjetas de video más recientes, para liberar el uso de CPU y delegar al GPU de la tarjeta de video para el proceso de rendering. Un trabajo futuro en esta técnica novedosa consiste en escribir extensiones que permitan una implementación independiente del fabricante del modelo de rendering. II-B.

Visualización de la geometría

La sensación de profundidad de campo en un entorno virtual se genera utilizando imágenes estereoscópicas. En esta técnica se deben generar las imágenes correspondientes a los ojos izquierdo y derecho y mostrarse en forma alternada para las técnicas de page y line flipping (usando gafas de obturación - shutter glasses), y en forma simultánea para anaplyph (gafas de filtrado por longitud de onda - lentes rojo y azul) y head mounted displays[17]. Como los algoritmos de rendering generan una sola imagen, se debe generar la imagen adicional on-the-fly para evitar retardos en el sistema y así perder las características deseables de real-time que influyen notablemente en la inmersión del usuario en el sistema. Wan et al [18] desarrollaron un algoritmo para generar el par de imágenes estéreo sobre un render volumétrico. Este tipo de render requiere una gran cantidad de cálculos y tiempo de cómputo, sin embargo en este desarrollo el algoritmo fue optimizado para obtener una rápida respuesta. Para el desarrollo de aplicaciones de visualización de imágenes, reconstrucción 3D y estereoscopía se cuenta con librería de código abierto VTK (Visualization Toolkit) de la empresa Kitware, donde se han realizado muchas aplicaciones tanto en ingeniería como en medicina. Moreland y Thompson[19] presentan un método de procesamiento distribuido usando un cluster para hacer render volumétrico usando la librería VTK. Muestran a nivel general que partes del proceso son paralelizables y que funciones especificas se usan para tal fin. Los resultados se muestran en una aplicación con un pantalla de gran formato (63 millones de pìxeles) y analizan el comportamiento del sistema variando el número de procesadores en el cluster. Mroz[20] desarrolló un sistema para visualización de volúmenes en computadores desktop de bajo desempeño utilizando Java con la librería RTVR (Real Time Volume Rendering) desarrollada en la Universidad de Tecnológica de Viena / Austria. El sistema cuenta con una fase de preprocesamiento donde se determinan los posibles voxels que pueden contribuir en ese momento con la escena y si se está trabajando en un cluster, se pueden enviar por la red a otro equipo para su procesamiento, el render lo realiza con el método de shear-warp (basado en software) que da resultados de calidad aceptables en forma rápida, también cuenta con un módulo que permite asignar niveles de opacidad a los objetos y colores sin afectar significativamente el rendimiento. II-C.

Manipulación de la geometría

La manipulación de la geometría corresponde a la interacción del usuario y el entorno virtual utilizando hardware externo al sistema de cómputo. Estos dispositivos externos pueden ser datagloves, dispositivos haptics, o simplemente el

4

mouse del computador. Estos dispositivos se caracterizan por el número de grados de libertad que tiene y por las funciones que puede realizar el usuario con estos dispositivos. Raghupathi et al[1] en su simulador de laparoscopia permiten al usuario interactuar con el entorno virtual usando un dispositivo haptic externo. Montgomery et al[21] utilizaron un equipo de laparoscopia virtual como dispositivo haptic para manipular el entorno virtual de su simulador de histerectomía. Este dispositivo cuenta con 6 grados de libertad para manipulación, 3 grados para la realimentación de fuerza (forcefeedback) y una frecuencia de respuesta mayor a 1kHz. II-D.

Aplicaciones de la realidad virtual en medicina

El proceso de aprendizaje en medicina lleva consigo, aparte del tiempo básico de formación, una contínua actualización y recertificación de conocimientos en distintas áreas. Es por eso que la visualización de imágenes es una herramienta fundamental en el proceso de resolución de problemas (diagnóstico) y manejo de problemas (terapia)[5]. Al involucrar la realidad virtual se puede mejorar todo el proceso de formación y desarrollo de médicos. Adicionalmente, la realidad virtual permite obtener ángulos de visión que difícilmente se pueden lograr en la realidad. Para la Cirugía Mínimamente Invasiva (MIS), Joskowicz y Taylor [22], proponen un sistema de Cirugía Integrada por Computador(CIS), tomando como punto central el computador (o una red de ellos) corriendo el modelo del paciente, el cual permite realizar diferentes actividades tales como planeación de cirugías, monitoreo, control de procesos quirúrgicos. La información manipulada por el sistema es adquirida previamente mediante métodos automatizados como robots y almacenada de bases de datos. Se identifican tres campos de acción principales usando realidad virtual: cirugía, entrenamiento y planeación. La característica común de los tres campos es la capacidad de visualizar el modelo 3D del paciente ya sea para tener una guía paralela a la cirugía, para desarrollar habilidades adicionales en alguna técnica quirúrgica o para tomar decisiones sobre la mejor alternativa antes de operar. En las siguientes subsecciones se presentan diversos sistemas ya implementados en los distintos campos de acción. II-D.1. Cirugía: Uno de los problemas principales en un procedimiento quirúrgico consiste en la visualización de estructuras internas no expuestas, ubicadas bajo algún tejido en particular. Como solución se presenta la cirugía basada en imágenes para tener acceso a estas zonas, sin embargo la interpretación de tejidos puede ser bastante difícil. Es por eso que se propone el uso de sistemas de realidad virtual en este campo para facilitar la interpretación de imágenes usando los modelos 3D reconstruidos. En una cirugía se puede usar en forma paralela el modelo 3D reconstruido para determinar sitios exactos para realizar incisiones y trayectorias alternas. Gering et al[23], [24] desarrollaron un sistema para visualización de reconstrucciones 3D con imágenes procedentes de un escaner de resonancia magnética. El sistema, llamado 3D Slicer, permite realizar biopsias y craneotomías en la sala de cirugía, y así mismo planeación de procedimientos

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

quirúrgicos. El sistema permite obtener una mejor resolución de imágenes (trabajando en conjunto con el escaner), controlar el tiempo para generación de imágenes (imágenes obtenidas en un corto tiempo por lo general tienen calidad deficiente), fusión multimodal (posibilidad de utilización de información preoperativa con intraoperativa simultáneamente), ubicación rápida (planeación de trayectorias con poco tiempo de cómputo), y visualización 3D (posibilidad de puntos de visión que no son físicamenteposibles). Adicionalmente Gering propone el Lenguaje de Modelado de Realidad Médica (MRML) en el cual se presenta un formato de archivo usando XML que describe en una misma escena distintos datasets con sus respectivas ubicaciones geométricas en un espacio 3D preservando la información original. II-D.2. Entrenamiento: Los simuladores de escenarios médicos permiten al usuario mejorar sus habilidades en algún área determinada. Existen variadas aplicaciones en este campo, desde simuladores de suturas hasta métodos de laparoscopia virtual. Berkley et al[25] proponen un simulador de suturas usando el método de elementos finitos (FE), donde el usuario puede interactuar con el modelo de una laceración dentro de un entorno virtual y realizar practicas con la ayuda de una aguja virtual con capacidad de realimentación de fuerza (force feedback). En esta aplicación se modela la piel como una malla de elementos finitos y la sutura como una serie de fuerzas que deforman el objeto dando la forma deseada. Como complemento al método de Berkeley et al[25], Bielser y Gross[26] desarrollaron un simulador de cortes quirúrgicos utilizando un escalpelo haptic, un algoritmo para subdivisión de polígonos y un algoritmo para detección de colisiones. Este tipo de sistemas le permite a los cirujanos aumentar sustancialmente sus destrezas en esta área y experimentar con distintos tipos de suturas. En una laparoscopia para extracción de cáncer de colon se necesita contar con bastante habilidad en la manipulación de los órganos internos de la cavidad toráxica. Es por eso que Raghupathi et al[1] desarrollaron un sistema de entrenamiento en la manipulación del intestino y el mesenterio. El sistema combina diferentes técnicas, donde se destacan las referentes al modelado del intestino (bounding spheres) y los métodos para detección y manipulación de colisiones al manipular estos órganos. Este sistema presenta buen desempeño al ser probado por diferentes médicos especializados en el área, sin embargo el modelado de las colisiones merece ser profundizado y ampliado para aumentar el nivel de realismo del sistema. Montgomery et al[21] desarrollaron un sistema de entrenamiento para la simulación de una histerectomía, donde se cuenta con un dispositivo haptic con force feedback que mejora la sensación de inmersión. El sistema incluye modelado de tejidos blandos, detección de colisiones, interacción con el instrumental. El sistema fue probado utilizando una reconstrucción 3D del dataset del Visible Female Project y por cirujanos con amplia experiencia en el área. II-D.3. Planeación: Muchas veces el éxito de una cirugía depende de una buena planeación, es por eso que los sistemas de realidad virtual juegan un papel muy importante en este campo. Una de las aplicaciones principales en este campo es

5

la planeación de trayectorias adecuadas para invadir en menor forma los diferentes tejidos. Otra aplicación muy importante es la medición de distancias y volúmenes dentro de la reconstrucción 3D para permitir al cirujano establecer relaciones en la fase preoperativa y determinar el procedimiento a seguir. Reitinger et al[27] desarrollaron un sistema de realidad aumentada para planear la extracción de un tumor en el hígado. El sistema permite realizar mediciones de distancias y volúmenes en tiempo real, incorporando visión estereoscópica a través de un Head Mounted Display y dispositivos de 6 grados de libertad para manipular la reconstrucción 3D. Preim et al [28] presentan una herramienta para medición de distancias, ángulos y volúmenes en una reconstrucción 3D. Su sistema fue validado utilizando diferentes modelos de tumores de hígado, donde los volúmenes se obtenían sobre voxels con similar nivel de intensidad, obteniendo muy buenos resultados, sin embargo la estimación correcta de una medida depende de la calidad de la segmentación aplicada a las imágenes médicas. Para la reconstrucción de estructuras complejas como vasos sanguíneos, Hahn et al[29], desarrollaron un sistema de visualización e interacción con estructuras vasculares en el hígado. A partir de la información volumétrica el sistema realiza la segmentación de los diferentes vasos sanguíneos, extracción del skeleton, análisis de grafos, realce del skeleton y visualización. La morfología matemática aplicada a las vasos sanguíneos permite no solo su reconstrucción adecuada, sino llegar a dar la base para la planeación de un cirugía de transplante, en este caso del hígado. III.

E NDOSCOPIA VIRTUAL

La endoscopia virtual es una aplicación de los métodos no invasivos que se presenta como solución efectiva, confiable y económica frente a la endoscopia real. Uno de los problemas principales de la endoscopia real es el diámetro de la cámara de fibra óptica, que si es demasiado grande, puede causar mayor molestia al paciente y lastimar tejidos adyacentes. Si se reduce mucho su diámetro la capacidad de transporte de luz a la cabeza de la fibra se reduce en la zona de interés[30]. En muchos casos no solo debe introducirse la fibra óptica sino que debe introducirse instrumental quirúrgico como sondas, catéteres, etc. Todas estas razones hacen que la endoscopia virtual sea una alternativa interesante a la comunidad médica. Como el objetivo de una endoscopia es desplazar una cámara de un sitio a otro dentro de alguna estructura anatómica hueca del cuerpo humano para visualizar su interior, Bartz[30] define una taxonomía para la clasificación de los diferentes sistemas: De acuerdo con la técnica de rendering: superficies poligonales, volumétrico (sección II-A.1 - II-A.4) De acuerdo con su tipo navegación: manual (totalmente controlada por el usuario), autónoma (solo se dan los puntos orígen y destino) o guiada (apoyada por el computador). La tabla II muestra una comparación entre diferentes sistemas de endoscopia virtual. En la sección II-D.1 se hace una revisión del sistema 3D Slicer y en la sección III-B.2 del sistema VIVENDI.

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

6

TABLE II C OMPARACIÓN DE SISTEMAS DE ENDOSCOPIA VIRTUAL [13] Tecnica de render: Tipo de navegación Autónoma Libre Guiada

III-A.

Poligonal de superficies Con aceleración Sin aceleración Vesa, VirEn, 3D Slicer, Free flight Free flight, 3D Slicer VICON, VIVENDI

VirEn

Volumétrico Alta calidad Reducida calidad VI VoxelView, PMS EnGE NAvigator, SMS Virdo3D, SMS Syngo tuoso PMS Endo3D, VI Vitrea2, GE NAvigator, SMS VirSMS Syngo tuoso, CRS4 Viatronix, V3D viewer

Modelos de navegación de la cámara

La manipulación y control de la cámara, que permiten visualizar el interior de las estructuras anatómicas donde se está realizando la endoscopia virtual, son tareas muy importante para el éxito del sistema. Uno de los problemas más frecuentes es la colisión de la cámara con las estructuras anatómicas, es por eso que se han desarrollado diversos sistemas de navegación autónoma y guiada para resolver esto. A continuación se presenta una revisión de diferentes sistemas. III-A.1. Manual: Permite al usuario controlar libremente la posición de la cámara, pero tiene el inconveniente de su dificultad de control. Summers y Selbie [31], [5], del Instituto Nacional de Salud de USA, desarrollaron un sistema de Broncoscopia Virtual usando VRML, el cual permite realizar una navegación libre utilizando el mouse lo que permite observar cualquier ángulo, sin embargo el modelo no cuenta con un sistema de colisiones y fácilmente se atraviesa la geometría. Con la navegación libre con frecuencia se tienen problemas de dificultad en el control de la cámara, por eso la mayoría de sistemas que incluyen navegación manual incluyen navegación autónoma y/o guiada. III-A.2. Autónoma: Se definen previamente los puntos de salida y llegada de la cámara y con ello el sistema define una trayectoria adecuada evitando obstáculos. Dentro de esta categoría se producen recorridos con rendering off-line, que pueden limitar la capacidad de exploración en determinado punto por parte del usuario del sistema. Esta limitación del sistema se puede superar definiendo la trayectoria con puntos intermedios en zonas de interés, como aquellas difícil acceso en una endoscopia real, sin embargo, determinar estos puntos sobre las imágenes médicas 2D ortogonales es un proceso tedioso si se tienen estructuras complejas. Para facilitar este proceso, Deschamps y Cohen[32] propusieron un método para extracción de trayectorias mínimas entre dos puntos definiendo una función de costo sobre la imagen 3D donde su integral es mínima. Otro algoritmo para navegación autónoma es el trayectoria central en objetos 3D cerrados desarrollado por Chaudhur[33]. Este algoritmo se basa en la cálculo de distancia del campo de frontera (DFB)[33], [34], [35] sobre una subdivisión jerárquica en el espacio libre de un objeto 3D cerrado. Para determinar el centro del objeto se usa el concepto de skeleton, el cual determina la mínima estructura funcional que atraviesa un objeto y se logra usando topological thinning (erosiones sucesivas preservando la topología del objeto). El algoritmo se encarga de subdividir al objeto, calcular las distancias a la frontera y con los datos de usuario calcula la trayectoria central. Existe

Fig. 3. Trayectorias mínimas en una colonoscopia[32]. En la gráfica se observan las tomografías con las trayectorias mínimas resultantes.

una variante adicional del algoritmo donde se crea una versión progresiva, la cual se diseño para funcionar dentro una región de interés particular del objeto 3D. Bitter y Kaufman[34] hicieron un estudio detallado sobre la extracción del skeleton de una imagen 3D. Revisan los métodos de topological thinning, donde se van eliminando capas de voxels hasta que únicamente queda el skeleton teniendo cuidado de no remover los voxels de los extremos para no violar las condiciones topológicas, también se revisa el método de grafos de Dijkstra sobre la trayectoria más corta, donde su objetivo es buscar el peso mínimo global de la trayectoria, para lograr esto la información volumétrica se transforma en un grafo. El método de Dijkstra encuentra el skeleton de la imagen usando el método del gradiente descendente. También revisan el método de las bolas máximas, donde el máximo local, de la distancia a la frontera, se modela como el centro de una bola inscrita dentro del objeto. Finalmente proponen el algoritmo de penalización de distancia, donde se calcula un vector gradiente que permite interconectar las vecindades no uniformes para los voxels, y luego se calcula la función de mínimo costo y por el método de Dijkstra se calcula la trayectoria más corta. Otra revisión sobre el uso del skeleton fue desarrollada por Wan[35], donde deriva su trabajo del algoritmo de distancia del campo de frontera (DFB)[33], [34]. Además de la navegación automática, este desarrollo incluye la posibilidad de un manejo interactivo de la cámara por parte del usuario, con movimientos en seis grados de libertad y con un sistema de monitoreo que evita colisiones con paredes. III-A.3. Guiada: El sistema de navegación guiado tiene la flexibilidad del sistema manual pero con asistencia para evitar colisiones. Galyean[37] desarrolló un sistema de navegación guiada usando el algoritmo “analogía del río”, el cual tiene

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

Fig. 4.

7

Subdivisón, extracción del DFB[36] y trayectoria resultante[33]. Se observa como la subdivisión de la geometría permite extraer la trayectoria.

Fig. 5. Skeleton calculado por el método de Dijkstra[34]. Si se realiza este recorrido con una cámara, se observa que la trayectoria más corta toca las paredes internas de la geometría y por consiguiente se obtiene un resultado no deseado.

Fig. 7. Skeleton del colon usando el algoritmo de penalización[34]. Al combinar este algorimo con el método de Dijkstra se obtienen buenos resultados.

Fig. 6. Bola máxima para determinar el skeleton del colon[34]. Este método obtiene el punto central de la trayectoria al inscribir bolas máximas dentro de la geometría.

como objetivo conducir al cámara siempre hacia el mismo objetivo permitiéndole cierta movilidad al usuario de controlar la cámara. Hong et al [38] desarrollaron un sistema para evitar las colisiones con las fronteras de las superficies internas en una colonoscopia utilizando el algoritmo de campo de potencial, en el cual el usuario tiene cierto control de la cámara para examinar detalles estando bajo la supervisión de un sistema de control automático. III-B.

Aplicaciones

La endoscopia virtual permite recorrer cualquier estructura interna siempre y cuando se pueda definir una trayectoria libre de obstáculos. Partiendo de este hecho se encuentran diversos tipos de aplicaciones: III-B.1. Cardioscopia: Permite recorrer las vías circulatorias ligadas al corazón y sus estructuras internas. Entre los desarrollos en esta área se encuentra el trabajo de Bartz[39], donde se utiliza el sistema de endoscopia virtual para la exploración de las estructuras vasculares y en especial para

Fig. 8. Navegación guiada usando el algoritmo del campo de potencial [38]. La cámara se monta en un “submarino” que está inmerso dentro de un potencial que evita las colisiones con las fronteras, el interior del colon se modela como un túnel de agua.

buscar estenosis las arterias coronarias. III-B.2. Neuroendoscopia: Los recorrido por distintas estructuras anatómicas del cerebro tales como vasos sanguíneos, permiten diagnosticar aneurismas y por consiguiente realizar las acciones correspondientes. Bartz y Skalej [40] desarrollaron VIVENDI, un sistema de endoscopia virtual aplicable al sistema ventricular del cerebro, con la ventaja de evitar daños a los tejidos adyacentes. Este sistema realiza una etapa de preprocesamiento en la cual se realizan las operaciones auxiliares necesarias para la etapa interactiva. Estas operaciones incluyen

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

Fig. 9. aórtica.

8

Reconstrucción 3D para una cardioscopia[39]. Se aprecia la complejidad de la reconstrucción 3D del corazón y un caso específico de estenosis

segmentación y clasificación de voxels del sistema ventricular del cerebro, definición de trayectorias mínimas usando el método de Dijkstra[34], construcción de isosuperficies usando el algoritmo Marching Cubes[9]. III-B.3. Colonoscopia: Un endoscopia del colon permite realizar recorridos a lo largo de las diferentes estructuras que lo componen (colon ascendente, transverso, descendente, sigmoide y el recto) y realizar diagnósticos apropiados sobre existencia de pólipos y tumores en una etapa temprana. El sistema VIVENDI, presentado en la sección III-B.2, permite realizar colonoscopias. Otro sistema para segmentación automática del colon fue desarrollado por Sato et al [41], donde proponen el uso de dos técnicas para resolver el efecto de volumen parcial (PVE) en las fronteras de las imágenes con alta y baja intensidad. La primera consiste en un filtro vertical que remueve los voxels con PVE y el segundo es un algoritmo de magnitud del gradiente en la frontera. III-B.4. Broncoscopia: Los recorridos por las vías respiratorias y los pulmones permiten determinar obstrucciones y con ello realizar diagnósticos adecuados. Summers y Selbie [31], [5] desarrollaron un sistema para esta aplicación (sección III-A.1). Bartz et al [42], desarrollaron un sistema para segmentación del árbol traqueo-bronquial de los pulmones y así realizar una broncoscopia que permita determinar patologías del sistema respiratorio. Para lograr esto, la segmentación se realiza utilizando un algoritmo de propagación de ondas que permite encontrar reconstruir todo el árbol. Wegenkittl et al[43] desarrollaron un sistema de broncoscopia virtual utilizando render basado en imágenes para poder ejecutar la aplicación en un computador de bajo desempeño. El sistema realiza, en una etapa de preprocesamiento, la generación de imágenes dentro de las áreas de la trayectoria definida para ser posteriormente mapeadas dentro de un cubo que servirá como escenario para grabar un video con el movimiento de la cámara. El sistema genera una mezcla automática de los diferentes videos hasta llegar a la zona requerida, el usuario puede en cualquier momento para el video y avanzar o retroceder manualmente. Este sistema es adecuado para correr en sistemas de cómputo limitados, pero no cuenta con un sistema de navegación libre para que el usuario pueda interactuar con el modelo.

III-B.5. Angioscopia: Los recorridos por el sistema circulatorio (arterias, venas y vasos menores) permiten encontrar estenosis y aneurismas los cuales generan cambios en el flujo sanguíneo. Gobbetti et al [44] desarrollaron un sistema de angioscopia virtual que realiza la reconstrucción 3D a partir de imágenes en formato DICOM y presenta los resultados utilizando render volumétrico (sección II-A.2). El sistema permite navegar en forma libre pero tiene en cuenta las colisiones con las fronteras y evita que el usuario se salga del interior de las estructuras que está recorriendo. III-B.6. Nariz / oído: Actualmente se están desarrollando métodos de MIS usando endoscopia en otorrinolaringología (nariz, oído, garganta). Greimel y Backfrieder[45] desarrollaron un sistema de endoscopia virtual que complementa a los sistemas existentes con el modelado de la cámara teniendo en cuenta las distorsiones de imagen que suceden en los sistemas reales, para llegar a sitios como la base del cráneo y realizar la planeación de una cirugía de extracción de un tumor. Neubauer et al [46] desarrollaron un sistema para simulación de cirugía endonasal transesfenoidal que sirve como herramienta de diagnóstico, planeación y asistencia para remoción de tumores pituitarios. Este sistema permite realizar una segmentación manual, donde el usuario selecciona los pixels, y un sistema basado en el algoritmo Watershed. IV.

T RABAJO FUTURO Y CONCLUSIONES

En este artículo se presentó una revisión de los diferentes componentes de un sistema de realidad virtual en medicina, detallando los métodos de rendering y las aplicaciones de la endoscopia virtual. Los métodos de rendering volumétrico y poligonal muestran los mejores resultados de calidad de imágen pero su tiempo de cómputo es mayor que el método basado en imágenes, sin embargo este último método requiere un menor tiempo de cómputo por frame para la navegación. Se propone desarrollar aplicaciones para ejecución sobre hardware de bajo desempeño que permitan extender su uso por fuera de los centros de cómputo especializados. Las técnicas propuestas para tal fin serían el rendering basado en imágenes y basado en puntos. De acuerdo a los diversos tipos de navegación en un sistema de endoscopia virtual se concluye que la navegación autónoma

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

es la alternativa más adecuada para recorrer estructuras anatómicas complejas y principalmente si utilizan un método de rendering volumétrico o poligonal. En forma complementaria las funciones manuales para examinar algún detalle en la trayectoria debe estar supervisada para evitar que el usuario pierda la orientación y pueda continuar en cualquier momento con el sistema automático. Los sistemas de realidad virtual en medicina dejan la puerta abierta a muchas mejoras y extensiones. Se pueden desarrollar sistemas de manipulación haptic más avanzados que modelen en forma más acertada el proceso de endoscopia, teniendo en cuenta la realimentación presente en un sistema real. Bajo el mismo principio se propone desarrollar un método bayesiano de navegación autónoma en una endoscopia virtual que permita reducir el número de cálculos necesarios para definir las posiciones siguientes de la cámara y con eso hacer más portable la aplicación a hardware de bajo desempeño.

9

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

R EFERENCES [1] L. L. Raghupathi, “An intestinal surgery simulator: Realtime collision processing and visualization,” IEEE Transactions on Visualization and Computer Graphics, vol. 10, No. 6, pp. 708–718, November/December 2004. [Online]. Available: http://csdl.computer.org/comp/trans/tg/2004/06/v0708abs.htm [2] J. A. Waterworth, “Survey of medical applications of virtual reality,” Dept of Informatics Research Report, Web report 9802, October 1998. [Online]. Available: http://www.informatik.umu.se/˜jwworth/medpage.html [3] R. Azuma, “A survey of augmented reality,” Presence: Teleoperators and Virtual Environments, vol. 6, 4, pp. 355–385, August 1997. [Online]. Available: http://www.cs.unc.edu/ãzuma [4] E. M. Stoyanov D., “Current issues of photorealistic rendering for virtual and augmented reality in minimally invasive surgery,” in Seventh International Conference on Information Visualization (IV’03) July 16 - 18, London, England, 2003. [Online]. Available: http://csdl.computer.org/comp/proceedings/iv/2003/1988/00/ 19880350abs.htm [5] P. D., “Tutorial: Imaging and visualization in medical education,” IEEE Computer Graphics and Applications, vol. 19, No. 3, pp. 21–31, May/June 1999. [Online]. Available: http://csdl.computer.org/comp/mags/cg/1999/03/g3021abs.htm [6] N. I. of Health, “Visible human project,” National Library of Medicine, Tech. Rep., 1986. [Online]. Available: http://www.nlm.nih.gov/research/visible/visible_human.html [7] S. K. Lehmann T., Gonner C., “Survey: interpolation methods in medical image processing,” IEEE Transactions on Medical Imaging, vol. 18 , Issue: 11, pp. 1049 – 1075, Nov 1999. [8] M. Levoy, “Display of surfaces from volume datadisplay of surfaces from volume data,” IEEE Computer Graphics and Applications, vol. 8, No. 3, pp. 29–37, May 1988. [Online]. Available: http://graphics.stanford.edu/papers/volume-cga88/ [9] S. W. Bartz D., “Parallel construction and isosurface extraction of recursive tree structures,” in WSCG, Vol III, Plzen, 1998. [Online]. ˜ Available: http://www.gris.uni-tuebingen.de/bartz/Publications/ [10] Web3dConsortium, VRML97 Functional specification and VRML97 External Authoring Interface (EAI) International Standard ISO/IEC 14772-1:1997 and ISO/IEC 14772-2:2002, web3d, 2003. [Online]. Available: http://www.web3d.org/x3d/specifications/vrml/index.html [11] T. Redfern, “Combining vr paradigms in vrml,” in Seventh International Conference on Virtual Systems and Multimedia (VSMM’01) October 25 - 27, Berkeley, California, 2001. [Online]. Available: http://csdl.computer.org/comp/proceedings/vsmm/2001/1402/00/ 14020228abs.htm [12] Web3dConsortium, X3D International Specification Standards ISO/IEC FDIS, web3d, 2005. [Online]. Available: http://www.web3d.org/x3d/specifications/ [13] C. R. Bartz D., Mueller K., “A practical evaluation of four popular volume rendering algorithms,” in ACM Symposium on Volume Visualization, 2000. [Online]. Available: http://www.gris.uni˜ tuebingen.de/bartz/Publications/ [14] L. B. J. Mahovsky, “An architecture for java-based real-time distributed visualization,” IEEE Transactions on Visualization and Computer Graphics, vol. 9, No. 4, pp. 570–579, October-December 2003. [Online]. Available: http://csdl.computer.org/comp/trans/tg/2003/04/v0570abs.htm [15] E. L. S. Muraki, “A pc cluster system for simultaneous interactive volumetric modeling and visualization,” in 2003 IEEE Symposium on Parallel and Large-Data Visualization and Graphics October 20 - 21, Seattle, Washington, 2003. [Online]. Available: http://csdl.computer.org/comp/proceedings/pvg/2003/2091/00/ 20910013abs.htm [16] L. K. Mario Botsch, “High-quality point-based rendering on modern gpus,” in 11th Pacific Conference on Computer Graphics and Applications (PG’03) October 08 - 10, Canmore, Canada, 2003. [Online]. Available: http://csdl.computer.org/comp/proceedings/pg/2003/2028/00/ 20280335abs.htm [17] R. B. R. Azuma, Y. Baillot, “Recent advances in augmented reality,” IEEE Computer Graphics and Applications, vol. 21, No. 6, pp. 34–47, November/December 2001. [Online]. Available: http://csdl.computer.org/comp/mags/cg/2001/06/g6034abs.htm [18] H. Q. M. Wan, N. Zhang, “Interactive stereoscopic rendering of volumetric environments,” IEEE Transactions on Visualization and Computer Graphics, vol. 10, No. 1, pp. 15–28, January-February 2004. [Online]. Available: http://csdl.computer.org/comp/trans/tg/2004/01/v0015abs.htm

10

[19] T. D. Moreland K., “From cluster to wall with vtk,” in 2003 IEEE Symposium on Parallel and Large-Data Visualization and Graphics October 20 - 21, 2003 Seattle, Washington, 2003. [Online]. Available: http://csdl.computer.org/comp/proceedings/pvg/2003/2091/00/20910005 abs.htm [20] L. Mroz, “Real-time volume visualization on low-end hardware,” Ph.D. dissertation, Technischen Universit at Wien, 2001. [Online]. Available: http://www.vrvis.at/vis/research/rtvr/ [21] C. B. K. Montgomery, L. Heinrichs, “Surgical simulator for hysteroscopy: A case study of visualization in surgical training,” in 12th IEEE Visualization 2001 Conference (VIS 2001) October 24 - 26, San Diego, CA, 2001. [Online]. Available: http://csdl.computer.org/comp/proceedings/vis/2001/7200/00/7200 montgomeryabs.htm [22] T. R. Joskowicz L., “Computers in imaging and guided surgery,” IEEE Computational Science and Engineering, vol. 3 , Issue: 5, pp. 65 – 72, Sept.-Oct. 2001. [23] L. G. D. Gering, A. Nabavi, “An integrated visualization system for surgical planning and guidance using image fusion and interventional imaging,” in Medical Image Computing and Computer-Assisted Intervention (MICCAI), Cambridge England, Sept 1999, pp. 809–819. [Online]. Available: http://www.spl.harvard.edu:8000/pages/papers/slicer/index.html [24] D. T. Gering, “A system for surgical planning and guidance using image fusion and interventional mr,” Master’s thesis, MASSACHUSETTS INSTITUTE OF TECHNOLOGY, December 1999. [Online]. Available: http://www.spl.harvard.edu:8000/pages/papers/slicer/index.html [25] D. B. J. Berkley, G. Turkiyyah, “Real-time finite element modeling for surgery simulation: An application to virtual suturing,” IEEE Transactions on Visualization and Computer Graphics, vol. 10, No. 3, pp. 314–325, May/June 2004. [Online]. Available: http://csdl.computer.org/comp/trans/tg/2004/03/v0314abs.htm [26] M. H. G. Daniel Bielser, “Interactive simulation of surgical cuts,” in Pacific Graphics 2000 (PG’00) October 03 - 05, 2000 Hong Kong, China, 2000. [Online]. Available: http://csdl.computer.org/comp/proceedings/pg/2000/0868/00/ 08680116abs.htm [27] R. B. B. Reitinger, A. Bornik, “Tools for augmented reality based liver resection planning,” in Proceedings of the SPIE Medical Imaging 2004: Visualization, Image-Guided Procedures, and Display February San Diego. Springer, February 2004, pp. 88–99. [Online]. Available: http://liverplanner.icg.tugraz.ac.at/modules.php?op=modload&name=Publications&file=index [28] S. W. Preim B., Tietjen C., “Integration of measurement tools in medical 3d visualizations,” in 13th IEEE Visualization 2002 Conference (VIS 2002) October 27 - November 01, Boston, MA, 2002. [Online]. Available: http://csdl.computer.org/comp/proceedings/vis/2002/7498/00/ 7498preimabs.htm [29] D. S. H. Hahn, B. Preim, “Visualization and interaction techniques for the exploration of vascular structures,” in 12th IEEE Visualization 2001 Conference (VIS 2001) October 24 - 26, San Diego, CA, 2001. [Online]. Available: http://csdl.computer.org/comp/proceedings/vis/2001/7200/00/ 7200hahnabs.htm [30] D. Bartz, “Virtual endoscopy in research and clinical practice,” Visual Computing for Medicine Group University of Tübingen, Tech. Rep., 2003. [Online]. Available: http://www.gris.uni˜ tuebingen.de/bartz/tutorials/eg2003_star4/ [31] S. W. Summers R., “Implicit modeling and virtual endoscopy of pulmonic cavities,” in 18th Annual International Conference of IEEE EMBS, Amsterdam, The Netherlands, October, 1996. [Online]. Available: http://www.cc.nih.gov/drd/virtual/vindex.html [32] C. L. Deschamps T., “Fast extraction of minimal paths in 3d images and applications to virtual endoscopy,” ELSEVIER - Medical Image Analysis, vol. 5, Issue 4, pp. 229–332, 2001. [33] D. S. P. Chaudhuri, R. Khandekar, “An efficient central path algorithm for virtual navigation,” in Computer Graphics International (CGI’04) June 16 - 19, Crete, Greece, 2004. [Online]. Available: http://csdl.computer.org/comp/proceedings/cgi/2004/2171/00/ 21710188abs.htm [34] M. S. I. Bitter, A. Kaufman, “Penalized-distance volumetric skeleton algorithm,” IEEE Transactions on Visualization and Computer Graphics, vol. 7, No. 3, pp. 195–206, July-September 2001. [Online]. Available: http://www.cs.sunysb.edu/˜vislab/projects/colonoscopy/ papers_3dcolon.html [35] M. Wan, “Distance-field based skeletons for virtual navigation,” in Visualization 2001, San Diego, CA, October, 2001. [Onli-

UNIVERSIDAD NACIONAL DE COLOMBIA - MAESTRÍA EN ING. DE SISTEMAS Y COMPUTACIÓN 2005 - I

[36]

[37]

[38]

[39]

[40] [41] [42]

[43]

[44]

[45]

[46]

ne]. Available: http://www.cs.sunysb.edu/˜vislab/projects/colonoscopy/ papers_3dcolon.html G. N. C. Rossl, F. Zeilfelder, “Reconstruction of volume data with quadratic super splines,” IEEE Transactions on Visualization and Computer Graphics, vol. 10, No. 4, pp. 397–409, 2004. [Online]. Available: http://csdl.computer.org/comp/trans/tg/2004/04/v0397abs.htm G. T., “Guided navigation of virtual environments,” in Proceedings of the 1995 symposium on Interactive 3D graphics, April 9 - 12, Monterey, CA USA., 1995. [Online]. Available: http://ic.media.mit.edu/icSite/icpublications/Conference/ GuidedNavigation.html B. D. Hong L., Muraki S., “Virtual voyage: Interactive navigation in the human colon,” in Proc. ACM SIGGRAPH ’97, 1997. [Online]. Available: http://www.cs.sunysb.edu/˜vislab/projects/colonoscopy/ papers_3dcolon.html L. M. Bartz D., Gurvit O., “Virtual endoscopy for cardio vascular exploration,” in Proc. of Computer Aided Radiology and Surgery (CARS 2001), Berlin, 2001. [Online]. Available: http://www.gris.uni˜ tuebingen.de/bartz/tutorials/vis2004/ve_bib.html S. M. Bartz D., “Vivendi - a virtual ventricle endoscopy system for virtual medicine,” in Symposium on Visualization 1999 proceedings, 1999. W. M. Sato M., Sarang L., “Automatic colon segmentation for 3d virtual colonoscopy,” IEICE Transactions on Information and Systems, vol. NA, pp. 1–8, 2000. M. D. Bartz D., “Hybrid segmentation and exploration of the human lungs,” in 14th IEEE Visualization Conference, Seattle, Washington, 2003. [Online]. Available: http://csdl.computer.org/comp/proceedings/vis/2003/2030/00/ 20300024abs.htm B. H. R. Wegenkittl, A. Vilanova, “Mastering interactive virtual bronchioscopy on a low-end pc,” in 11th IEEE Visualization 2000 Conference (VIS 2000) October 08 - 13, Salt Lake City, UT, 2000. [Online]. Available: http://csdl.computer.org/comp/proceedings/vis/2000/6478/00/ 64780024abs.htm Z. A. Gobbett E.i, Pili P., “Interactive virtual angioscopy,” in IEEE Visualization 98 (VIS’98), Research Triangle Park, North Carolina, 1998. [Online]. Available: http://csdl.computer.org/comp/proceedings/vis/1998/9176/00/ 91760435abs.htm B. W. Greimel W., “A display system for surgical navigation in orl surgery,” Institute of Computer Graphics Vienna University of Technology, Tech. Rep., 2000. [Online]. Available: http://www.cg.tuwien.ac.at/studentwork/CESCG/CESCG2000/WGreimel/ L. M. A. Neubauer, S. Wolfsberger, “Steps an application for simulation of transsphenoidal endonasal pituitary surgery,” in IEEE Visualization 2004 (VIS’04) October 10 - 15, Austin, Texas October 10 - 15, Austin, Texas, 2004. [Online]. Available: http://csdl.computer.org/comp/proceedings/vis/2004/8788/00/ 87880513abs.htm

PLACE PHOTO HERE

Byron Pérez Ingeniero Electrónico y Especialista en Telecomunicaciones Móviles de la Universidad Distrital. Docente del programa Ingeniería Mecatrónica de la Universidad Militar. Actualmente se encuentra cursando estudios de Maestría en Ingeniería de Sistemas y Computación en la Universidad Nacional de Colombia.

11

Related Documents

Endoscopia Virtual
October 2019 8
Endoscopia
October 2019 6
Endoscopia Delgado
October 2019 29
Cv12 Endoscopia De Vias
November 2019 11
Cv14 Endoscopia Digestiva
November 2019 4