Gracias a los importantes avances del hardware en estos años, se ha logrado un
nuevo método de tomografía computarizada (TC), el TAC helicoidal (TCH), que
aprovecha el giro continuo de detectores y tubo productor de rayos X con el
movimiento continuo de la mesa de estudio. El conjunto de todos estos movimientos
hace que la resultante sea una espiral o hélice. Con esta forma de estudio
conseguimos que el tiempo útil sea el 100%, mejorando considerablemente el tiempo
de exploración.
El TC espiral o helicoidal se utiliza desde 1989, siendo un instrumento de
diagnóstico nuevo y de mejores prestaciones que los anteriores. El término “espiral”
hace referencia al movimiento aparente del tubo de rayos X durante el examen.
Con esta técnica es posible obtener mejores imágenes de estructuras anatómicas
implicadas en los movimientos respiratorios, resultando muy adecuada en el estudio
del tórax, abdomen y pelvis, aunque también nos permite obtener imágenes de otras
regiones del cuerpo en las que no existen problemas de movimiento como son la
cabeza, la columna y las extremidades.
Los actuales equipos de TAC helicoidal se llaman TAC multidetector.
La adquisición Helicoidal, implica tener que manejar una gran cantidad de datos,
hecho que fue solucionado con nuevas computadoras, cada vez más rápidas, y con la
utilización de disco duros, también de gran capacidad de almacenamiento. Fue
necesario elaborar nuevos algoritmos de reconstrucción ya que ahora la adquisición,
no se hace con la camilla parada, sino que ésta está en continuo movimiento. Los
algoritmos tienen que ser capaces de reconstruir las imágenes en los distintos planos,
como si la camilla estuviese parada.
PRINCIPIOS DE EXPLORACION
El movimiento de un aparato de TC espiral recuerda a las espiras formadas al
estirar un muelle largo, pero el desplazamiento producido en esta técnica no es
realmente una hélice.
Cuando se inicia un examen, el tubo de rayos X gira de forma continua sin
invertir su movimiento, mientras la camilla se desplaza con el paciente a través del
plano de rotación del haz de RX. En todos los barridos de TC espiral se recogen los
datos de manera continua. Con estos datos después podremos reconstruir la imagen
de cualquier corte transversal del paciente a lo largo del eje Z.
SCANER DE TC HELICOIDAL
La TC espiral ha sido posible gracias a la tecnología del “anillo deslizante”, que
son dispositivos electromecánicos que conducen la electricidad y las señales eléctricas
a través de anillos y escobillas situados en una superficie que gira sobre un soporte
fijo. Gracias al anillo deslizante en la TC espiral la grúa gira de forma continua sin
interrupción, diferenciándose así de la TC convencional, en la cual la grúa rota con
pausas, durante las cuales la camilla del paciente se desplaza a la nueva posición y la
grúa recupera su posición inicial. Por tanto, podemos decir que en la TC espiral el
sistema de grúa de anillo deslizante permite que las señales eléctricas y la
alimentación se realicen sin necesidad de tener gran cantidad de cables eléctricos
externos.
Los detectores empleados en la TC espiral son de estado sólido y están
diseñado sobre una matriz que reduce la dosis que recibe el paciente, permitiendo
tiempos de barrido más rápidos y mejoran la calidad de la imagen al aumentar la
relación señal/ruido.
El generador de alta tensión está diseñado para que quepa en la grúa rotatoria
y debe tener una potencia máxima de 50 Kw.
Los parámetros de la exploración que deben fijar los radiólogos y los técnicos
son:
• El tamaño del tejido que se examina.
• El movimiento de la camilla (mm/s que se desplaza, por ejemplo 8
mm/s).
• El paso (movimiento de la camilla por rotación de 360º/colimación)
• Colimación.
TAC helicoidal multicorte
A finales de los años 90, se produce una mejora en la TAC helicoidal surgiendo la
Tomografía Computada Helicoidal Multicorte, donde el tiempo de exploración ya se
había reducido a 0,5 seg. Esta velocidad exponía a los componentes del Gantry a una
fuerza centrífuga equivalente a 13 veces la fuerza que debe realizar el transbordador
espacial en sus vuelos al espacio exterior. Esto hizo que se tuvieran que rediseñar los
generadores de Rayos X (incorporados al Gantry), los Tubos de Rayos X, y las placas
electrónicas que están en la parte móvil. Por otro lado se desarrollaron equipos con
varias matrices de detectores para producir varios cortes al mismo tiempo en que
antes se producía uno solo (los detectores Matriciales permitían la adquisición
simultánea de 4 cortes por giro)
El factor de desplazamiento del corte o pitch del TC helicoidal es el
movimiento del paciente cada 360º dividido por el grosor del corte.
El factor de desplazamiento del haz relaciona el movimiento de la camilla del
paciente por cada revolución de 360º por la anchura del haz de RX. Por ejemplo, con
una matriz de 16 coronas de detectores de 1,25 mm de anchura cada uno, cuando
usemos todos los detectores la anchura del haz sería 20 mm, si el movimiento de la
camilla es de 20 mm, el factor de desplazamiento del haz es de 1,0.
Ventajas de la TAC helicoidal
La TAC helicoidal presenta una serie de ventajas como son:
1.- Velocidad: la velocidad de desplazamiento de la camilla se ha cuadriplicado con lo
que los tiempos de adquisición se han reducido hasta en un factor de 4 en
comparación con los TAC Helicoidal de corte único
2.- Mayor resolución: se emplea rutinariamente cortes de 1 y 5mm
3.- Mayor calidad de la imagen: También contribuyen a mejorar la calidad de la
imagen, al eliminar los artefactos debidos a la respiración del paciente, se acortan los
tiempos de estudio y se logra un mejor aprovechamiento del medio de contraste.
4.- Colimación flexible: después de haber realizado el examen se puede elegir el
espesor de corte independiente del grosor de colimación inicial.
5.- Reconstrucciones multiplanares isotrópicas (iguales dimensiones en sus 3
ejes): al trabajar los volúmenes con grosor subcentimétrico y con ello las
reconstrucciones 2D son de idéntica resolución espacial que el axial.
COMENTARIO
Gracias a la técnica de la tomografia computarizada se ha vivido un verdadero avance tecnológico en poco tiempo llegando
a los modernos aparatos de TAC helicoidal y Multicorte que nos abren un nuevo
campo en las posibilidades de diagnóstico por imagen. que nos ofrece diversas ventajas para su realizacion con una mejora tanto en calidad de imagen como al paciente.
viernes, 30 de junio de 2017
martes, 27 de junio de 2017
GESTION DE LA IMAGEN DIGITAL
INTRODUCCION DE LA FOTOGRAFIA
La intervención global en conjuntos fotográficos, sean de naturaleza analógica o digital, va a partir de una misma metodología y de unos mismos principios científicos. En nuestro caso, la praxis archivística será aplicada indistintamente en la intervención de conjuntos de imágenes, aunque algunas tareas, especialmente aquellas vinculadas a la naturaleza física de los objetos, van a tener diferentes consideraciones.
Es el caso de la conservación, de la reproducción y de la autentificación de los documentos. De todos modos, es importante tener presente esta visión global de nuestra intervención y no centrarnos en actuaciones aisladas que podrían desvirtuar nuestra labor en la preservación y difusión de las imágenes.
El ingreso. En esta primera fase del proceso se van a recoger los datos principales que nos informan del conjunto documental. Si se trata de documentación de producción interna el instrumento de control será el registro de transferencias, mientras que si la procedencia es externa a la institución utilizaremos el registro de ingresos. En este segundo caso, conseguimos la identificación del conjunto y aseguramos de este modo su integridad. Diferenciaremos en los conjuntos los fondos documentales, de constitución orgánica, de las colecciones, resultado de la voluntad de una persona física o jurídica. Durante el ingreso vamos a ocuparnos de la autentificación de los documentos, tarea de especial importancia para los materiales de procedencia externa. En el caso de las imágenes digitales va a ser fundamental disponer de los datos técnicos y de la información respecto a la procedencia y al productor de la imágenes.
ASPECTOS FORMALES DE LA IMAGEN DIGITAL
Para definir la calidad de una imagen digital es necesario criterio fotográfico, y esto significa una experiencia previa con fotografías convencionales que nos permita valorar adecuadamente las reproducciones a realizar. Así pues, los atributos de las fotografías convencionales son el punto de partida para establecer los valores de calidad, y a partir de aquí será preciso entender el tratamiento que da la tecnología digital, o mejor dicho, ver a partir de qué valores se analizan estos atributos. Hablaremos pues de definición, tonalidad, colores de reproducción y ruido.
La definición de una imagen vendrá dada por la resolución espacial. La resolución se define como el número de píxeles que componen la imagen y se mide en píxeles por pulgada (ppi, pixels per inch), o puntos por pulgada (dpi, dots per inch), cuando se refiere a dispositivos de salida. A mayor resolución, mayor detalle de imagen y, por tanto, mayor calidad. En contrapartida, los ficheros serán de mayores dimensiones y, por consiguiente, requerirán un mayor espacio de memoria y serán menos manejables.
La reproducción del color será un valor complejo de medir y, en todo caso, hemos de tener presente que está muy vinculado a la finalidad. La profundidad y el modo de color serán los elementos claves a controlar. 8 bits por color pueden ser suficientes para una representación visual en los dispositivos de salida actuales, pero no permiten capturar todas las sutilidades del original. Si se desea reproducir el color con la máxima fidelidad será necesaria una mayor profundidad.
Finalmente, el ruido consiste en las pequeñas alteraciones aleatorias a la luminosidad del color y sería el equivalente al grano de la imagen convencional. Un sensor con una alta relación entre señal y ruido representa una imagen con gran precisión.
PANTALLAS DE CRISTAL LIQUIDO DE MATRIZ ACTIVA
El cristal liquido es un estado intermedio de la materia entre
solido y liquido
Presenta propiedades de estructura molecular muy ordenada
Moléculas orgánicas lineales cargadas eléctricamente formando
un dipolo molecular natural
Se pueden alinea con la acción de un campo eléctrico externo.
Características:
- Se organizan pixel a pixel.
- Retro iluminación blanca intensa
- Cada pixel contiene filtros polarizadores de luz y películas para controlar intensidad y color de luz emitida
- Las usadas en medicina son monocromas
- El pixel son 2 sustratos de placa de vidrio separados por cuentas esféricas de vidrio que actúan como separadores.
- Una serie de líneas conductoras controlan cada pixel con un TF
CONSERVACIÓN DE LA IMAGEN DIGITAL
La idea de conservación de imágenes digitales está más asociada a la idea de custodia de ficheros electrónicos que no a la de soportes físicos. Así pues, el soporte final que se decida para un fichero tiene que ser considerado como algo temporal, susceptible de ser substituido periódicamente en función de la evolución tecnológica. Actualmente las posibilidades de almacenamiento se centran principalmente en los CDs, DVDs y HDs. En cualquier caso, la labor de conservación, a diferencia de lo que ocurre con la fotografía convencional, pasa a ser una tarea dinámica que requiere una intervención activa por parte de los profesionales que periódicamente deberán preocuparse por la migración de datos.
Aún considerando que el objetivo central de la conservación se centra en los ficheros electrónicos, no podemos olvidar otros aspectos que condicionan la pervivencia de las imágenes a largo plazo. Una correcta planificación de las tareas preventivas pasa por tener presente tres aspectos: la degradación del soporte, la obsolescencia del hardware y la obsolescencia del formato.
Respecto al hardware, podemos considerar que la trepidante evolución tecnológica además de propiciarnos numerosos beneficios en la optimización de nuestro trabajo conlleva también algunos problemas de los cuales la obsolescencia de los dispositivos que gestionan las aplicaciones y el almacenamiento sea probablemente el más importante. La solución a este problema pasa por una renovación constante de los dispositivos de acuerdo con el proceso de transferencia de soportes. En este sentido debemos estar atentos a la evolución del mercado, ya que de nada serviría centrarnos en la longevidad de los medios si éstos hubieran entrado en incompatibilidad con los sistemas de lectura.
Aunque la evolución del software en muchos casos hace compatibles los formatos antiguos, esta situación es menos probable si la contemplamos a largo plazo. Ante ésta situación, nuestras respuestas deben pasar forzosamente por la migración de datos, en un proceso de conversión de la información a nuevos formatos que puedan ser accesibles por los dispositivos vigentes y en consecuencia ser compatibles con el software del momento. Existen otras opciones como la emulación, es decir, trabajar con hardware actualizado y emulando a través del software las funciones del hardware antiguo. También se podría considerar la posibilidad de mantener el hardware original, aunque probablemente no garantice resultados satisfactorios en el futuro.
SISTEMA DICOM
Es un formato de imagen como un protocolo de
intercambio de datos que puede hacerse por archivos o por
red.
Este protocolo de comunicación fue desarrollado en 1987 por
el ACR (American College of Radiology) y la NEMA (National
Electronics Manufactures Association)
Formato complejo y mucho mas evolucionado que los
formatos digitales estándares como jpeg, tiff, bmb, etc.
Define un protocolo de transmisión de imágenes médicas
asociadas a información especifica referentes al paciente y el
tipo de estudio a los que se le asigna un numero de
identificación propio.
En la actualidad existen varias versiones pero la más
utilizada es la 3.0
FORMATO DE IMAGEN
El protocolo DICOM crea un fichero de extensión .dcm con la
siguiente información:
- Información personal del paciente
- Datos del equipo utilizado - Parámetros de la imagen (Profundidad, tamaño, contrastes…)
- Estudio realizado (Cráneo, Tórax, Resonancia…)
Todos estos datos se guardan en la parte inicial del fichero
(cabecera) y posteriormente se incluyen los datos de la
imagen.
SISTEMA PACS
Definición
Un PACS (Picture Archiving and Communication System) es un método de almacenamiento y comunicación de imágenes y datos médicos. Los primeros PACS comenzaron a usarse en los 80 en Estados Unidos.
Ventajas
• Almacenamiento de las imágenes
• Evita la pérdida o la no disponibilidad de los
exámenes
• Recuperar imágenes en el menor tiempo posible
• Posibilidad de poder usar las imágenes desde otros
puntos del servicio/hospital
• Poder emplear diversos estudios de imagen
simultáneamente
Un PACS debe ser de confianza, actualizable, expandible , este sistema de almacenamiento debe ser tolerante a posibles
fallos.Se deben tener en cuenta en el diseño:
- Volumen de datos
- Recuperación de datos de acceso rápido (cercanos en el
tiempo)
- Recuperación de datos de acceso lento (lejanos en el
tiempo)
•Arquitecturas posibles:
- Centralizada
- Distribuida
- Distribuida múltiple
TECNOLOGIA DE ALMACENAMIENTO
En las horas siguientes a la adquisición de una imagen, esta se
consulta con mayor probabilidad
PRESENTA :
- Almacenamiento a corto plazo: Discos locales y memoria
- Almacenamiento a medio plazo: En el servidor (Compresión
reversible)
-
Almacenamiento a largo plazo: debe ser permanente
(Compresión irreversible)
REDES DE COMUNICACION
La red de comunicaciones es un aspecto vital en la
eficiencia de un PACS por varios motivos:
El tamaño de los archivos a transmitir es elevado , un archivo de texto ocupa unos 100 kb – 2 Mb , estudio típico de rayos ocupa unos 18 Mb , presenta una ransmisión de una gran cantidad de archivos , la velocidad es determinante y debe ser dimensionada para evitar la congestión del
servicio
La visualizacion de las imagenes digitales se distingue entre estaciones de trabajo, equipos de diagnostico y equipos de visualizacion.
COMENTARIO
Gracias al tema logramos entender aquellos aspectos a tener en cuenta en la gestión de la imagen digital, tratando de modo más exhaustivo aquellas cuestiones que presentan más particularidades desde el punto de vista de la gestión.
La necesidad del conocimiento y la comprensión de la imagen digital, tanto de los aspectos formales y tecnológicos como de los aspectos culturales y de orden sociológico, como condición indispensable para asumir cualquier responsabilidad de custodia de los documentos
jueves, 22 de junio de 2017
PROCESAMIENTO DE LA IMAGEN DIGITAL
El procesamiento digital de imágenes es el conjunto de técnicas que se aplican a las imágenes digitales con el objetivo de mejorar la calidad o facilitar la búsqueda de información.
La imagen puede haber sido generada de muchas maneras, por ejemplo, fotográficamente, o electrónicamente, por medio de monitores de televisión. El procesamiento de las imágenes se puede en general hacer por medio de métodos ópticos, o bien por medio de métodos digitales, en una computadora.
PROCESAMIENTO ÓPTICO
Los principios del procesamiento óptico de imágenes están bien establecidos desde el siglo pasado, cuando se desarrolló la teoría de la difracción de la luz. Sin embargo, su aplicación práctica data apenas del principio de la década de los sesenta, cuando se comenzó a disponer del rayo láser.
El procesamiento óptico se basa en el hecho de que la imagen de difracción de Fraunhofer de una transparencia colocada en el plano focal frontal de una lente es una distribución luminosa que representa la distribución de las frecuencias de Fourier que componen la imagen, a la que se le llama técnicamente transformada de Fourier.
Cada porción de la transformada de Fourier corresponde a una frecuencia espacial diferente sobre el objeto. Por lo tanto, mediante los diafragmas adecuados se pueden eliminar las frecuencias espaciales, llamadas también de Fourier, que se deseen quitar.
Todos estos números se almacenan en la memoria de una computadora.
El tercer paso es alterar los valores de la luminosidad de los pixeles mediante las operaciones o transformaciones matemáticas necesarias, a fin de hacer que resalten los detalles de la imagen que sean convenientes. El paso final es pasar la representación de estos pixeles a un monitor de televisión de alta definición, con el fin de mostrar la imagen procesada
La imagen puede haber sido generada de muchas maneras, por ejemplo, fotográficamente, o electrónicamente, por medio de monitores de televisión. El procesamiento de las imágenes se puede en general hacer por medio de métodos ópticos, o bien por medio de métodos digitales, en una computadora.
PROCESAMIENTO ÓPTICO
Los principios del procesamiento óptico de imágenes están bien establecidos desde el siglo pasado, cuando se desarrolló la teoría de la difracción de la luz. Sin embargo, su aplicación práctica data apenas del principio de la década de los sesenta, cuando se comenzó a disponer del rayo láser.
El procesamiento óptico se basa en el hecho de que la imagen de difracción de Fraunhofer de una transparencia colocada en el plano focal frontal de una lente es una distribución luminosa que representa la distribución de las frecuencias de Fourier que componen la imagen, a la que se le llama técnicamente transformada de Fourier.
Cada porción de la transformada de Fourier corresponde a una frecuencia espacial diferente sobre el objeto. Por lo tanto, mediante los diafragmas adecuados se pueden eliminar las frecuencias espaciales, llamadas también de Fourier, que se deseen quitar.
Al igual que en el caso del procesamiento óptico, los principios fundamentales del procesamiento digital de imágenes están establecidos hace muchos años, pero no se llevaban a cabo debido a la falta de computadoras. Con la aparición de las computadoras de alta capacidad y memoria, era natural que se comenzara a desarrollar este campo. Uno de los primeros lugares donde se empezó a realizar el procesamiento digital fue en el Jet Propulsion Laboratory, en 1959, con el propósito de mejorar las imágenes enviadas por los cohetes. Los resultados obtenidos en un tiempo relativamente corto fueron tan impresionantes que muy pronto se extendieron las aplicaciones del método a otros campos.
El procesamiento digital de imágenes se efectúa dividiendo la imagen en un arreglo rectangular de elementos.
Cada elemento de la imagen así dividida se conoce con el nombre de pixel. El siguiente paso es asignar un valor numérico a la luminosidad promedio de cada pixel. Así, los valores de la luminosidad de cada pixel, con sus coordenadas que indican su posición, definen completamente la imagen.
El tercer paso es alterar los valores de la luminosidad de los pixeles mediante las operaciones o transformaciones matemáticas necesarias, a fin de hacer que resalten los detalles de la imagen que sean convenientes. El paso final es pasar la representación de estos pixeles a un monitor de televisión de alta definición, con el fin de mostrar la imagen procesada
COMENTARIO
La utilidad del procesamiento de imágenes es muy amplia e importante, abarca muchos campos. Un ejemplo son las imágenes obtenidas con fines de diagnóstico médico, gracias a que nos brinda ventajas como :Fácil asociación del concepto de frecuencia con ciertas características de la imagen; cambios de tonalidad suaves implican frecuencias bajas y cambios bruscos frecuencias altas,nos proporciona flexibilidad en el diseño de soluciones de filtrado y rapidez en el filtrado al utilizar el Teorema de la Convolución.
LA IMAGEN DIGITAL
La radiografía digital debido a sus múltiples ventajas está tomando cada día mayor auge en el diagnóstico odontológico sin embargo ha de diferenciarse entre lo que es una radiografía digital y una radiografía digitalizada, ya que la calidad de imagen entre ellas puede variar sensiblemente, son realmente muchas las ventajas que involucran el éxito de la radiografía digital, sin embargo la comunidad odontológica toma sus precauciones respecto a su utilización como prueba clínica en la investigación experimental y su utilización como documento legal.
La técnica radiográfica en radiología digital es parecida a la utilizada en sistemas analógicos. Las imágenes características, entre las cuales están la resolución espacial, la resolución de contraste, el ruido, distorcion, etc
1.RESOLUCION ESPACIAL
capacidad del sistema de imágenes para resolver y crear en la imagen un objeto pequeño de alto contraste. Se describe por la cantidad de frecuencia espacial.
FUNCION DE TRANSFERENCIA DE MODULACION
Describe la capacidad del sistema para mostrar objetos de alto contraste de tamaños diferentes en la misma imagen. El sistema ideal es el que genera una imagen exacta del objeto:
FTM = 1
Puede considerarse como la relación entre el objeto real y su imagen
2.RESOLUCION DE CONTRASTE
Capacidad para distinguir muchas tonalidades de gris desde el negro al blanco. El rango dinámico (escala de grises) del sistema de imágenes describe mejor la resolución de contraste.
3.RUIDO DE LA IMAGEN DIGITAL
Ruido Dispersión: principal fuente de ruido
Fuentes de ruido
- Defectos mecánicos: Motor de barrido lento o rápido
- Defectos ópticos: Control de la intensidad del laser, dispersión del haz estimulante, cuantos de luz emitidos, cuantos de luz recogidos.
- Defectos del ordenador: Ruido electrónico, muestreo inadecuado, cuantificación inadecuada.
4.DISTORCION
La técnica radiográfica en radiología digital es parecida a la utilizada en sistemas analógicos. Las imágenes características, entre las cuales están la resolución espacial, la resolución de contraste, el ruido, distorcion, etc
1.RESOLUCION ESPACIAL
capacidad del sistema de imágenes para resolver y crear en la imagen un objeto pequeño de alto contraste. Se describe por la cantidad de frecuencia espacial.
FUNCION DE TRANSFERENCIA DE MODULACION
Describe la capacidad del sistema para mostrar objetos de alto contraste de tamaños diferentes en la misma imagen. El sistema ideal es el que genera una imagen exacta del objeto:
FTM = 1
Puede considerarse como la relación entre el objeto real y su imagen
2.RESOLUCION DE CONTRASTE
Capacidad para distinguir muchas tonalidades de gris desde el negro al blanco. El rango dinámico (escala de grises) del sistema de imágenes describe mejor la resolución de contraste.
3.RUIDO DE LA IMAGEN DIGITAL
Ruido Dispersión: principal fuente de ruido
Fuentes de ruido
- Defectos mecánicos: Motor de barrido lento o rápido
- Defectos ópticos: Control de la intensidad del laser, dispersión del haz estimulante, cuantos de luz emitidos, cuantos de luz recogidos.
- Defectos del ordenador: Ruido electrónico, muestreo inadecuado, cuantificación inadecuada.
4.DISTORCION
Suscribirse a:
Entradas (Atom)