23 Junio 2017
Iniciar sesión Registro

Login

Usuario
Password *
Recordarme

Crear una cuenta

Los campos marcados con un asterisco (*) son obligatorios.
Nombre
Usuario
Password *
Verificar password *
Email *
Verificar email *
Captcha *
Usted esta aqui: Usted está aquí:Medicina & Laboratorio>Otros artículos>Edimeco - Mostrando artículos por etiqueta: editorial
“La medicina es la ciencia de la incertidumbre y el arte de la probabilidad” sir William Osler, padre de la medicina interna
 
La fascinante historia de las plaquetas, aquellos pequeños fragmentos celulares que se desprenden del citoplasma de los megacariocitos, se remonta a los siglos XVII y XVIII [1]; no obstante, lo que hoy representan en el contexto de la salud y la enfermedad se inicia cuando sir William Osler (1849-1919), el padre de la medicina interna, las describe por primera vez en el año 1874 [2] y cuando Giulio Bizzozero (1846-1901) las caracteriza, en 1881, como un nuevo elemento forme de la sangre [3].
Con el correr del tiempo, y a partir de los primeros años del siglo xx, las plaquetas se fueron posicionando como un parámetro más para incluir en el hemograma y, desde el punto de vista clínico, para definir y caracterizar algunas entidades hematológicas relacionadas con su recuento, como la púrpura trombocitopénica idiopática, hoy conocida como trombocitopenia autoinmune [4] y llamada, originalmente, enfermedad de Werlhof, que fue descrita en 1735 [5], muchísimos años antes de que se descubriesen las plaquetas y su papel en la hemostasia; al igual que aquellas asociadas a su morfología y funcionamiento, como el síndrome de Bernard-Soulier [6] y la trombastenia de Glanzmann [7], entre otras.
 
El desarrollo tecnológico relacionado con las plaquetas en la primera mitad del siglo XX se limitó a su recuento manual con cámaras desarrolladas para ese fin [8], y al tiempo de sangría [9] como única prueba de la función plaquetaria por muchos años; esta última aún ofertada en algunos laboratorios clínicos a pesar de ser una prueba obsoleta de acuerdo a lo definido claramente por el CAP (del inglés, College of American Pathology) y la ASCP (del inglés, American Society for Clinical Pathology) [10]. Todo lo anterior es suficiente para entender por qué el papel de las plaquetas fue considerado, por muchos años, como secundario.
 
Dos inventos revolucionaron la hematología, en general, y en el hemogramalos parámetros plaquetarios, en particular:
 
• El primero se desarrolló en 1953 y es conocido como principio de Coulter, el cual se define como un método que utiliza un campo eléctrico para contar y dimensionar partículas que se encuentran en suspensión en el líquido conductor, como reza en su patente [11], y que hoy se aplica en todos los contadores electrónicos de hematología y en las citometrías de flujo. Este principio revolucionó la hematología en general y, en el caso particular de las plaquetas, no solo mejoró su recuento, que antes se hacía por métodos manuales, sino que introdujo nuevos parámetros plaquetarios de utilidad clínica en el hemograma de rutina, como el volumen medio plaquetario, el ancho de distribución de las plaquetas, el plaquetocrito y el índice de plaquetas inmaduras o plaquetas reticuladas [12].
 
 
Publicado en Editorial
Si de por sí la condición de cetoacidosis diabética consiste en una estado clínico de gravedad, lo es aún más en los niños, en los que reconocer esta entidad se vuelve todo un reto para el clínico desde su identificación hasta el tratamiento, el cual no sólo consiste en lograr un estado metabólico adecuado, sino en evitar las complicaciones que derivan de ésta.
La diabetes mellitus afecta a gran parte de la población mundial. Según datos de los Centros para el Control y la Prevención de Enfermedades (CDC), para el año 2010, alrededor de 215.000 americanos menores de 20 años tenían diabetes [1]. La cetoacidosis es la primera manifestación de la enfermedad hasta en un tercio de los pacientes con diabetes mellitus tipo 1; lo mismo que ocurre para los pacientes con diabetes mellitus tipo 2 en un 5% al 25% [2].
La cetoacidosis diabética tiene una mortalidad menor del 1%; sin embargo, es la primera causa de mortalidad y morbilidad en niños relacionada con la diabetes mellitus [3], con una incidencia de déficit neurológico secundario a edema cerebral mayor del 26%, incluso con alteración de la memoria por la condición de cetoacidosis diabética per se aún sin edema cerebral [4,5].
Aunque la triada clínica clásica de la cetoacidosis diabética consiste en poliuria, polidipsia y pérdida de peso, se debe sospechar esta entidad en todo paciente que curse con taquipnea y alteración en el nivel de consciencia, ya que la clínica en la población pediátrica especialmente en los lactantes puede ser muy atípica [6].
La causa metabólica de esta entidad parte del déficit absoluto o relativo de la insulina, lo que genera un incremento significativo de las hormonas contrarreguladoras con hiperglucemia secundaria [6,7], la cual se perpetúa aún más por la deshidratación.
Es fundamental conocer las bases fisiopatológicas de esta crisis hiperglucémica aguda para dirigir el tratamiento, donde se parte desde un estado de acidosis metabólica y cetosis sumado a deshidratación, lo que implica brindar una adecuada hidratación e insulinoterapia dirigida, no sólo a lograr una meta glucémica, sino con el objetivo de inhibir la cetogénesis.
Se debe hacer una búsqueda clínica activa del posible factor desencadenante de la crisis hiperglucémica, el cual hasta en un 30% de los casos puede ser debida a una infección asociada [8]; además, considerar diagnósticos diferenciales de acuerdo a la clínica de cada paciente, en los cuales se debe tener presente otras causas de enuresis secundaria, de dolor abdominal, de taquipnea, de alteraciones en el nivel de consciencia y de posibles intoxicaciones por salicilatos, metanol, etilenglicol y paraldehído [9].
 
 
Publicado en Editorial
Más allá de la habilitación y la certificación de los laboratorios clínicos como prestadores de servicios de salud con un sistema de gestión de calidad establecido, la búsqueda de las acreditaciones internacionales que avalen, respalden y soporten la competencia técnica de los laboratorios clínicos se ha convertido en una herramienta que, adicional a la obtención de un certificado, ha permitido el mejoramiento continuo. Esto, gracias a que los sistemas de acreditación establecen pautas específicas para la estandarización y el control de todas las fases de la prestación de los servicios de los laboratorios, en donde se incluyen aquellas más susceptibles al error humano, como la fase preanalítica.
Los servicios de habilitación de los laboratorios clínicos, al avalarlos como prestadores de servicios de salud en el territorio colombiano, establecen los requisitos mínimos que deben cumplir para su funcionamiento con énfasis en la capacidad técnico-administrativa, la suficiencia patrimonial y financiera, la capacidad tecnológica y científica, el recurso humano, las instalaciones físicas, la dotación y el mantenimiento, la gestión de medicamentos y dispositivos, los procesos prioritarios asistenciales, la gestión de riesgos y la seguridad del paciente, entre otros [1]. A su vez, los servicios de certificación, como la ISO 9001, a pesar de no ser específicos de los laboratorios clínicos, permiten la estructuración de un sistema de gestión de la calidad efectivo, cuya decisión estratégica de implementación ayuda a mejorar el desempeño y el desarrollo sostenible de las instituciones [2].
Luego de establecer un sistema de gestión de la calidad fortalecido se requiere mejorar y avalar la competencia técnica de los laboratorios clínicos a partir de una evaluación más rigurosa de su quehacer, por lo que la acreditación se convierte en una oportunidad invaluable para el mejoramiento de los mismos. Entre los entes de acreditación, específicos de los laboratorios clínicos, se destacan la Organización Internacional de Normalización (ISO), con su norma NTC-ISO 15189 [3], y el Colegio Americano de Patólogos (CAP), con su programa de acreditación internacional [4].
La NTC-ISO 15189, en su numeral 5.4. Procedimientos preanalíticos, hace referencia específica al manejo de la información de los pacientes y los usuarios, la información de la solicitud requerida y los procesos de toma y manipulación de la muestra primaria, transporte, preparación y almacenamiento previos al análisis [3], lo que brinda las pautas básicas para que los laboratorios clínicos estandaricen y controlen todos los aspectos relacionados con la toma de muestra. Incluso, en esta norma se describen los lineamientos de la orden médica y el uso y la recolección de los datos de los pacientes y usuarios, por lo que el alcance de su aplicación, de forma rigurosa y metódica por parte de los laboratorios, contribuye a disminuir las tasas de error en la fase preanalítica.
 
 
 
Publicado en Editorial
Lunes, 06 Febrero 2017 10:30

Hipoglicemia en pediatría

La identificación, investigación y manejo de la hipoglicemia en la infancia y el periodo perinatal continúan siendo una emergencia clínica debido a que la falla en la identificación oportuna puede conducir a un daño neurológico e incluso la muerte. Los avances en biología molecular y las técnicas diagnósticas han ayudado a comprender los mecanismos implicados en la homeostasis del metabolismo de la glucosa y, de esta manera, tener una mejor aproximación clínica del paciente pediátrico con hipoglicemia.
En este número de la revista MEDICINA & LABORATORIO se presenta una revisión sobre el enfoque diagnóstico de la hipoglicemia en pediatría como paso inicial de la educación médica continua para actualizar al lector sobre los avances en la identificación y caracterización adecuada de las causas subyacentes.
No obstante, establecer las causas de hipoglicemia es el punto de inicio necesario para definir y diseñar un plan de manejo apropiado que prevenga las complicaciones secundarias al daño neuronal por el bajo aporte de glucosa.
Es importante tener presente que la evaluación y el manejo de la hipoglicemia en pediatría presenta particularidades propias. En niños, la hipoglicemia persistente casi siempre se debe a defectos congénitos o adquiridos en la regulación de la secreción de insulina, deficiencia del cortisol o la hormona de crecimiento o defectos en el metabolismo de la glucosa, el glucógeno y los ácidos grasos. En las primeras 48 horas de vida distinguir recién nacidos con hipoglicemia persistente de aquellos con hipoglicemia transicional puede ser difícil. De igual forma, los primeros meses de vida representan el periodo más vulnerable para el desarrollo de discapacidad cognitiva. Estas particularidades requieren ser precisadas y tenidas en cuenta al momento del diagnóstico para ser lo más oportunos posible y disminuir el impacto permanente que generan los bajos niveles de glucosa en el tejido cerebral en desarrollo.
 
 
Publicado en Editorial
La tosferina es un enfermedad infectocontagiosa causada por un tipo de bacteria llamada Bordetella pertussis, la cual puede ser grave y letal si no se trata a tiempo. La mayoría de los casos fatales ocurren en pacientes menores de un año de edad y el 90% se produce en menores de seis meses, siendo ésta la gran población en riesgo para desarrollar tosferina maligna.
 
La introducción de la vacuna en la década de los cincuenta y sesenta disminuyó de manera importante la morbilidad y mortalidad de la enfermedad en la población infantil en países industrializados. Sin embargo, a pesar de la extensión de la vacunación, se ha visto un incremento de su incidencia en las últimas dos décadas. Según la Organización Mundial de la Salud (OMS) existe una alta carga de tosferina en los países en desarrollo, convirtiéndola en una de las principales causas de muertes prevenibles por vacunas en el mundo. Así mismo, la OMS estima una ocurrencia de cincuenta millones de casos y 300.000 fallecimientos anuales, con una letalidad del 4% en los países en desarrollo.
Por su parte, Colombia no está exenta de este mismo contexto ya que, aunque a partir de 1993 la cobertura de la vacunación con DPT aumentó en un 53% y en los últimos cinco años se ha mantenido en un 80%, en los últimos reportes del año 2011-2012 se evidencian nuevos brotes de tosferina atípicos en grupos poblacionales diferentes a los menores de un año, lo cual enciende una alerta en todos los actores de la gestión de política en salud de nuestro país que propenda en una mejor vigilancia, la ampliación de la cobertura a otros grupos poblacionales y el diagnóstico de la enfermedad.
Publicado en Editorial
La Hematología es esa "ciencia roja" llena de células de diferentes tamaños, colores y sin sabores, porque, ya lo confirmarán algunos colegas, que amargo y doloroso es encontrar una célula neoplásica en el extendido de sangre periférica de un paciente. Pero realmente ¿estamos conscientes los profesionales que trabajamos en esta área clínica de la presencia de estas células? y ¿por qué el temor de tantos, el respeto de algunos y la indiferencia de otros por conocer, estudiar y poner ojos y corazón en esa estructura observada a través del microscopio? De allí la importancia del compromiso y la dedicación en nuestra labor al servicio de la comunidad.
Entrando entonces a ese aún enigmático mundo de las neoplasias hematológicas podemos encontrar que existe, según la clasificación de la Organización Mundial de la Salud (OMS), una enorme variedad y que, a partir del descubrimiento de diferentes alteraciones genéticas y moleculares se está avanzando para alcanzar la predicción del comportamiento clínico, pronóstico y el tratamiento de estas entidades. El esquema de clasificación de la OMS parte primero del linaje celular maligno: linfoide, mieloide, histiocítico/dendrítico y mastocítico, y los diferencia de acuerdo con una mezcla interesante de las características morfológicas, el inmunofenotipo, la genética, la biología molecular y los síndromes clínicos relacionados.
 
La nueva clasificación de la OMS presentada este año (2016), elaborada gracias al consenso entre hemato-oncólogos, patólogos, hematólogos y genetistas, incluye los cambios de las neoplasias hematológicas actuales, como la adición de un número limitado de nuevas entidades provisionales, esclareciendo el diagnóstico y tratamiento en las primeras etapas; además, refina los criterios diagnósticos, moleculares, la citogenética y su correlación clínica.
 
En la actualidad, algunas neoplasias hematológicas aún son incurables, una de ellas es el mieloma múltiple, una enfermedad maligna, sistémica, que resulta de la proliferación clonal de células plasmáticas derivadas de los linfocitos B, en la cual hay producción anómala de una proteína M en el suero, la orina o ambas. Esta entidad es la neoplasia hematológica más frecuente después del linfoma no Hodgkin y, según la OMS, representa el 1% de todas las neoplasias y el 10% al 15% de las neoplasias hematológicas. 
 
Publicado en Editorial
Resistencia a la aspirina: llegó el momento de detectarla y de personalizar cada tratamiento
Aspirin resistance: It is time to detect it and to customize each treatment
«Estudios recientes han encontrado que entre el 5% y más del 40% de las personas que toman aspirina son resistentes a la aspirina o no responden a ella. Esto significa que la aspirina no inhibe la coagulación de su sangre, como se supone que debería hacerlo. A. Pollack. New York Times. Nueva York, julio 20 de 2004.
Para la comunidad científica es una nueva noticia que las enfermedades cardiovasculares, incluidas las afecciones del corazón, del cerebro y de los vasos sanguíneos representan a nivel mundial la principal causa de muerte que, de acuerdo con la Organización Mundial de la Salud, son responsables de más de 17.500.000 de muertes cada año: entre ellas, 7.400.000 por ataques cardíacos y 6.700.000 por ictus isquémico [1]. A nivel mundial se estima que el 1% de la población puede presentar un evento cardiovascular o cerebrovascular por año, de los que cerca del 50% se presentan en pacientes con enfermedad vascular preexistente [2, 3] y muchísimos de los cuales se pudieron haber prevenido con medidas tan simples como la antiagregación plaquetaria. Colombia no es ajena a esta problemática: la principal causa de morbimortalidad está relacionada con complicaciones cardiovasculares, con una tasa de mortalidad estimada para 2008 de 124,2 y 122,9 por 100.000 hombres y mujeres, respectivamente [4] y un aumento del 2,4% por año, constituyéndose, por lo tanto, en un problema prioritario de salud pública [5]. Sumado a lo anterior y, lo más grave, es que en el país no existe la cultura de la antiagregación plaquetaria [6], como sí existe en países como Estados Unidos, en donde se consumen diariamente más de setenta millones de dosis de aspirina como prevención de eventos trombóticos [7].
 
 
Publicado en Editorial
Lunes, 08 Agosto 2016 15:23

Vitamina D: una hormona poderosa

La vitamina D representa uno de los principales factores determinantes para el desarrollo de la vida en la tierra y para la evolución humana. Aproximadamente el 10% al 20% de los requerimiento de vitamina D de un organismo humano se puede obtener a través de la dieta y aproximadamente el 90% del total de la vitamina D necesaria tiene que ser fotosintetizada en la piel a través de la acción del sol (luz ultravioleta B (UV-B)) [1].
 
El raquitismo por deficiencia de vitamina D fue la enfermedad de los jóvenes entre 1800 y principios del siglo XX, con proporciones epidémicas en el norte de Europa, Norteamérica y Asia del Norte [2]. Sir Edward Mellanby (1919) demostró que esta enfermedad era debida a una deficiencia nutricional y se podía mejorar con suplementos de aceite de hígado de bacalao. McCollum (1922) demostró que el factor terapéutico en este aceite era una nueva vitamina, la vitamina D [3,4]. Por su parte, Huldshinsky y sus compañeros de trabajo (1919) también demostraron que el raquitismo podía ser tratado con la luz ultravioleta (UV). Así mismo, Steenbock (1923) demostró que la luz UV inducía la formación de vitamina D en las porciones grasas de los alimentos y en la piel, y mediante la irradiación de alimentos, logró proporcionar los medios por los cuales el raquitismo podría dejar de ser un problema médico importante.
Todos estos trabajos permitieron que los químicos aislaran e identificaran la estructura de la vitamina D entre 1919 y 1924, lo que llevó finalmente a la síntesis química de grandes cantidades de ella [3,4] y su disponibilidad para el tratamiento farmacológico. En la figura 1 se ilustran las causas y posibles consecuencias de la deficiencia de vitamina D.
 
 
Publicado en Editorial
A la mayoría de las personas a las que se les menciona una prueba de aliento inmediatamente les viene a la mente la visión de un policía de tránsito en medio de un retén, comprobando con un instrumento si el conductor de un vehículo ha consumido bebidas alcohólicas. El conductor sospechoso debe soplar en un pequeño dispositivo manual que, al cabo de unos segundos, indica la cantidad de etanol que está circulando en su sangre. Esta visión es real pero sólo es una de las múltiples aplicaciones de las pruebas de aliento. El aliento, como objeto de análisis, similar a la sangre o la orina, no es nuevo: desde los tiempos de Hipócrates, los médicos han sabido que el aroma de la respiración humana puede proporcionar pistas para el diagnóstico de múltiples enfermedades. El buen clínico conoce el olor dulce y afrutado de la acetona en el aliento de pacientes con diabetes mellitus no controlada, el olor a humedad y a pescado en pacientes con enfermedad hepática avanzada, el olor a orina fermentada característico de las enfermedades renales terminales y, el hedor pútrido de un absceso pulmonar. La diferencia de aquellos médicos y los de hoy es el instrumento que tienen para leer el aliento: el olfato, finamente entrenado, en los primeros y los instrumentos, de alta tecnología y excelente desempeño analítico, en los segundos.
 
En relación con la incorporación de las pruebas basadas en muestras de aliento al laboratorio clínico convencional es un paso que se da adelante, que más temprano que tarde harán parte de la rutina de estos, como ya está aconteciendo en los laboratorios clínicos innovadores. Así como la hematología, por ejemplo, desde el hemograma, se fundamenta en el análisis de los componentes celulares de la sangre, los eritrocitos, los leucocitos y las plaquetas, en estado de normalidad o de enfermedad, a partir de muestras de sangre venosa, y la química sanguínea se fundamenta en la determinación de los componentes químicos presentes, en estado de normalidad o de enfermedad, en el suero sanguíneo u otros fluidos orgánicos, como el líquido cefalorraquídeo o la saliva, las pruebas de aliento se fundamentan en la identificación de componentes químicos presentes, en estado de normalidad o de enfermedad, en muestras de aire (aliento) procedente de los alveolos pulmonares.
 
 
Publicado en Editorial
Los avances en el control global de la tuberculosis en los últimos 15 años han sido destacados. Se estima que entre el 2000 y el 2014 se han salvado cuarenta y tres millones de personas utilizando diagnósticos y tratamientos efectivos para esta enfermedad. Para el 2011 los objetivos de desarrollo del milenio planteados para el año 2015 se alcanzaron al detener y reversar la tendencia creciente de la incidencia de tuberculosis y probablemente se alcance el objetivo de disminuir en un 50% las muertes con respecto a 1990, puesto que para el 2011 esta cifra estaba en el 41% [1].
A pesar de lo alentador de estas cifras, en el 2014 se enfermaron de tuberculosis 9.600.000 personas y sigue siendo la enfermedad infecciosa con mayor mortalidad en el mundo en conjunto con el síndrome de inmunodeficiencia adquirida (SIDA), con un total de 1.500.000 de muertos para el 2014 [1]. Es necesario tener en cuenta que la tuberculosis es una enfermedad asociada a la pobreza y a la inequidad, puesto que más del 90% de la carga de la enfermedad está en los países y las poblaciones más pobres. De hecho, los países más desarrollados han disminuido dramáticamente su carga de tuberculosis solo con mejorar el nivel de vida de su población y todo lo que esto conlleva, junto con el fortalecimiento de las actividades de diagnóstico y tratamiento.
Desde el 2016 la Organización Mundial de la Salud (OMS) plantea el objetivo de eliminar la tuberculosis, lo cual significa para el 2030, respecto a los niveles del 2015, disminuir la mortalidad en un 90% y el número de casos en un 80% y eliminar los costos catastróficos familiares que conlleva un paciente con tuberculosis [2]. Para alcanzar estos objetivos indudablemente se necesitará solucionar las deficiencias y limitaciones actuales que se tienen para diagnosticar pacientes y tratarlos; además, corregir las carencias en la financiación, no sólo de los programas de control sino también de la investigación necesaria para desarrollar nuevas alternativas para la prevención, el diagnóstico y el tratamiento.
En la última década los desarrollos en el diagnóstico y el tratamiento han tenido cambios como nunca antes en la historia del control de la enfermedad. En métodos diagnósticos es donde se observa un cambio radical en los paradigmas; la detección microscópica del bacilo, desarrollada hace más de 100 años, está siendo reemplazada en muchos países por nuevas tecnologías más sensibles, aunque no menos costosas, como es el caso del Xpert MTB/Rif® (Cepheid, California, Estados Unidos). Desde el 2011 esta técnica ha sido recomendada por la OMS como la primera opción de diagnóstico en varias condiciones clínicas. A pesar de su amplio uso actual, todavía tiene limitaciones en relación a las instalaciones que se necesitan y, particularmente, en cuanto al costo, el cual está todavía lejos de las posibilidades de muchos programas de control de la enfermedad.
Un desarrollo largamente esperado y que apenas hasta ahora se comienza a vislumbrar como posible, es el desarrollo de métodos que permitan hacer un diagnóstico de tuberculosis con el paciente presente, salvando una de las barreras más importantes de acceso al diagnóstico. Estos métodos, conocidos como POC (del inglés, point of care), permiten detectar biomarcadores propios de la enfermedad en líquidos corporales al lado del paciente. Este tipo de pruebas, como lo presenta el artículo de Jaramillo-Grajales y colaboradores en este número de Medicina & Laboratorio, basadas en tecnologías como los sensores piezoeléctricos, tienen la potencialidad de cumplir las premisas de rapidez y bajo costo de una nueva prueba diagnóstica de tuberculosis, necesarias para cumplir con los objetivos del plan Fin de la Tuberculosis de la OMS [2].
El reto entonces actual radica en que los nuevos medicamentos y las tecnologías diagnosticas que se desarrollen estén al alcance de los pacientes que realmente las necesitan y sean utilizadas eficientemente. Solo así, lo que ofrece el desarrollo científico como soluciones de salud y, en este caso, para el diagnóstico de la tuberculosis, puede tener el mayor impacto para eliminar la enfermedad en el futuro próximo.
 
 
Publicado en Editorial