23 Junio 2017
Iniciar sesión Registro

Login

Usuario
Password *
Recordarme

Crear una cuenta

Los campos marcados con un asterisco (*) son obligatorios.
Nombre
Usuario
Password *
Verificar password *
Email *
Verificar email *
Captcha *
Usted esta aqui: Usted está aquí:Medicina & Laboratorio>Otros artículos>Edimeco - Mostrando artículos por etiqueta: editorial

Debido al gran número de casos nuevos de tuberculosis, la emergencia de cepas resistente y las comorbilidades que comprometen la función del sistema inmune [1], esta condición patológica tiene cada vez mayor impacto en el ámbito global. A pesar de las múltiples investigaciones, la complejidad del problema y los impactos sociales y económicos hacen de la tuberculosis una enfermedad que se considera devastadora. Según la Organización Mundial de la Salud (OMS) se estima que una cuarta parte de la población mundial tiene tuberculosis latente; término aplicado para las personas infectadas por Mycobacterium tuberculosis que aún no han enfermado ni pueden transmitir la infección. La tuberculosis, durante muchos años, y también según las estadísticas de la OMS, está dentro de las diez primeras causas de muerte en el mundo [2]. Si se contrasta con otras enfermedades infecciosas, también devastadoras, como la diarrea y las enfermedades respiratorias, que pueden ser originadas por múltiples agentes etiológicos, la tuberculosis es la enfermedad más importante causada por un único agente etiológico.

La infección usualmente comienza por el tracto respiratorio, donde las bacterias inhaladas pueden ser fagocitadas por los macrófagos residentes del alvéolo, los cuales son los responsables de activar los mecanismos tempranos de la respuesta innata [3]. Esta respuesta compromete otros tipos de células como las dendríticas y los monocitos, reclutados de la corriente sanguínea, e incluso subpoblaciones de NK [4,5] y neutrófilos [6,7]. Las interacciones iniciales entre la micobacteria y las células hospederas fagocíticas han sido consideradas como eventos capitales en las fases ulteriores de la respuesta inmune [8,9]. Por ello, dadas las restricciones para acceder de manera expedita a muestras de pulmón, estas interacciones han sido estudiadas, por ejemplo, en nuestro caso, utilizando fagocitos obtenidos principalmente de sangre periférica, promonocitos humanos [10-13] y macrófagos esplénicos tanto humanos[14,15] como múridos [16].
Nuestras observaciones han hecho evidentes varias diferencias entre los fagocitos mononucleares de los pacientes con tuberculosis y los individuos sanos. Una de las más notorias consiste en que los monocitos de los pacientes, cuando son infectados in vitro con Mycobacterium tuberculosis H37Rv o tratados con derivado proteico purificado (PPD), una fracción de ellos muere con evidentes alteraciones en la membrana celular y otra con daño mitocondrial, exposición de la fosfatidilserina, activación de caspasas y daño en el ADN. En el caso de los monocitos de los controles sanos se observa fundamentalmente muerte con daño mitocondrial y una escasa proporción de células con daño en la membrana [11,12].
 
 
Publicado en Editorial
La determinación de la ferritina sérica es la prueba central en el estudio del metabolismo de hierro y una de las pruebas más solicitadas al laboratorio clínico [1]. La determinación de la ferritina sérica no solamente es de gran utilidad en el estudio y clasificación de las anemias, especialmente en el caso de la ferropenia, con o sin anemia [2], razón por la cual se solicita en la mayoría de las veces, sino que es un excelente indicador de la salud, debido a que se comporta como un reactante de fase aguda [3] [4] [5] [6], en particular frente a las enfermedades inflamatorias, infecciosas y neoplásicas, con o sin anemia asociada y como parte integral de enfermedades con sobrecarga de hierro tanto adquiridas como el síndrome metabólico [7] y la mayoría de las hepatopatías, como la alcohólica [8] [9] o las no alcohólicas entre las cuales se incluyen la producida por el virus de la hepatitis B [10] y por el virus de la hepatitis C [11], y como genéticas entre las cuales se incluye, entre otras, la hemocromatosis hereditaria [12].
 
Ampliar las indicaciones de la determinación de la ferritina sérica más allá del estudio de la deficiencia de hierro, es un gran avance clínico si se tiene en cuenta que cuando hay hiperferretinemia, definida de acuerdo con el estudio HEIRS (del inglés, Hemochromatosis and Iron Overload Screening), como un nivel de ferritina sérica por encima de 200 μg/L en mujeres y por encima 300 μg/L en hombres [13], esta puede ser el punto de partida para el diagnóstico y manejo de múltiples enfermedades, tanto adquiridas como hereditarias, y el punto de partida de enfermedades como la cirrosis [14], el cáncer de hígado [15] y la diabetes mellitus [16], entre otras muchas manifestaciones clínicas, particularmente cuando la hiperferritinemia está asociada con sobrecarga de hierro, de ahí la importancia de incorporar la determinación de la ferritina sérica en la evaluación general de los pacientes, no necesariamente en aquellos con síndromes anémicos como se ha expresado haciendo alusión a la utilización tradicional de esta prueba [1].
 
 
Publicado en Editorial
Los conocimientos médicos, moleculares y de laboratorio cambian al tenor de las nuevas ciencias médicas, investigativas e informáticas; estas últimas, crecientes en la clínica, la genómica y la proteómica, entre otras, son enriquecidas permanentemente por la introducción de términos y conceptos, pero, en especial, por la cualificación de funciones y señales. Bajo esta dialéctica del conocimiento se desarrollan nuevas tendencias en la biología celular, la epigenética y la hormonología.
 
Este potencial de conocimiento, moderadamente ignoto durante la vida antenatal, no es menos importante y cautivador, dado que cuenta con la influencia silenciosa de receptores, factores y la misma expresión tisular, so pena de que aún después del nacimiento una pequeña fracción del saber hormonal que acompaña al niño en su primera infancia permanezca camuflada por influencias ambientales, maternas o fisiológicas. Tras esta complejidad de acciones ha venido madurando el conocimiento de la hormona antimülleriana (AMH).
 
El concepto de la función hormonal —de todo nuestro interés—, que suele depender, entre otras, de acciones endocrinas, paracrinas y autocrinas, conforma una frontera del conocimiento que, en la mayoría de las veces, toma años por desarrollarse. En lo particular, desde la descripción de Alfred Jost en 1947, pasando luego por el gen SRY y el receptor de andrógenos, el papel de la hormona antimülleriana es ahora más amable, al verla como un trazador de la función testicular en la etapa fetal, la infancia y buena parte de la pubertad.
 
El conocimiento, y especialmente la etiología de un estado hipogonádico en los varones prepúberes es difícil de calificar desde el punto de vista funcional y, más aún, difícil de predecir antes de llegar a la edad merecedora de un Tanner de desarrollo genital 2 (testículos de 4 mL o más de volumen), a menos que se cuente con un defecto anatómico sugestivo de ello, un cariotipo compatible o una histología determinante. A estos antecedentes, que bien podemos calificar como específicos, se le suma el factor distractor con la pausa fisiológica del despertar puberal, ventana de silencio clínico y hormonal que todo individuo tiene por recorrer en sus primeros 8 a 10 años de vida.
 
 
Publicado en Editorial
La identificación de marcadores apropiados para evaluar la reserva ovárica permaneció en investigación durante muchos años, hasta que, recientemente, la concentración sérica de la hormona antimülleriana fue reconocida como el método de mayor exactitud respecto a los tradicionalmente utilizados. Esta hormona es una glicoproteína homodímerica de 140 kD, identificada por primera vez en 1940, cuando se comprobó su secreción por las células de Sertoli en los fetos de sexo masculino y su principal actividad, la promoción de la regresión de los conductos de Müller. Entretanto, no fue sino hasta 1981 que fue relatada por primera vez su producción por las células de la granulosa de los folículos primarios, los folículos preantrales y los pequeños folículos antrales (hasta 7 mm de diámetro).
 
A pesar de estos hallazgos, las investigaciones sobre el papel biológico y la utilidad clínica de la hormona antimülleriana solo se concretaron en los años 2000, a partir del desarrollo de estuches comerciales para las dosificaciones de este marcador. Actualmente, la medición de la hormona antimülleriana hace parte de la evaluación rutinaria de algunas especialidades, entre ellas la endocrinología ginecológica, la oncología ginecológica y la medicina reproductiva, entre otras, con diferentes utilidades clínicas en la mujer, las cuales se relatan brevemente a continuación y serán ampliadas en el módulo “La clínica y el laboratorio” del presente número de MEDICINA & LABORATORIO.
 
Evaluación de la reserva ovárica funcional en reproducción asistida Esta es la indicación mejor establecida para la medición de la hormona antimülleriana. El término «reserva ovárica funcional», recientemente empleado en la reproducción asistida, hace referencia al número medio de folículos reclutados hasta el estado preovulatorio luego del estímulo con la hormona folículo estimulante (FSH) exógena, lo que pone a disposición ovocitos viables para los procedimientos de fertilización; mientras que la «reserva ovárica verdadera» corresponde al patrimonio estimado de folículos remanentes en un momento dado de la vida reproductiva de la mujer.
 
Un gran número de estudios ha confirmado la superioridad de los niveles de la hormona antimülleriana, obtenidos en el segundo o tercer día de la estimulación ovárica controlada, para la predicción del número de ovocitos captados para la fecundación in vitro (FIV), en comparación con la edad, los niveles de la FSH, el estradiol y la inhibina B, usados tradicionalmente
con este objetivo.
 
 
 
 
Publicado en Editorial
Los enfoques para la reducción del riesgo cardiovascular, tanto en la prevención primaria como en la secundaria, han incluido, tradicionalmente, cambios del comportamiento, por ejemplo, en la dieta [1], la actividad física [2] y dejar de fumar [3], al igual que mejoras en la gestión de los factores de riesgo, por ejemplo, mediante el control de la diabetes [4], de la hipertensión arterial [5] y de los lípidos [6]. No obstante lo anterior, las enfermedades cardiovasculares en general, incluidas las afecciones del corazón, del cerebro y de los vasos sanguíneos, representan la principal causa de muerte a nivel mundial que, de acuerdo con la Organización Mundial de la Salud (OMS), corresponden a más de 17.500.000 de muertes cada año, entre ellas, 7.400.000 por ataques cardíacos y 6.700.000 por ictus isquémico [7].
Además de estas medidas convencionales para la prevención primaria y secundaria de las enfermedades cardiovasculares, se ha utilizado la antiagregación plaquetaria con aspirina, en el primer caso [8], y con terapia dual, compuesta por aspirina combinada con un inhibidor del receptor plaquetario P2Y12, en el segundo [9-14].
Cómo sucede con frecuencia, cuando se encuentra una solución que funciona frente a un problema, como lo son las enfermedades cardiovasculares y sus desenlaces tromboembólicos, aparece un nuevo inconveniente que, en el caso de los antiagregantes plaquetarios, se expresa como resistencia a los medicamentos utilizados y lleva al paciente a quedar expuesto a desenlaces aterotrombóticos, en muchos casos fatales. Es así como la resistencia a la aspirina, descrita en 1990 [15], presenta una prevalencia que oscila entre el 0,4% [16] y el 56,8% [17], la cual es explicable, en gran parte, en función de los criterios que la definen, los métodos utilizados, la población estudiada y las comorbilidades de los pacientes analizados, entre otras circunstancias. Del otro lado, la resistencia a los inhibidores del receptor plaquetario P2Y12, en particular al clopidogrel, el medicamento más utilizado de este grupo, fue descrita en 2002 [18] y presenta una prevalencia que oscila entre el 6% [19] y el 44% [20], que es explicable, en gran parte, por las mismas circunstancias antes citadas para la aspirina.
Con el desarrollo tecnológico en las dos últimas décadas, relacionado con la actividad plaquetaria, en particular la agregación plaquetaria [21], y las pruebas sucedáneas como la agregagometría de impedancia, el PFA-100 (del inglés, Platelet Funtion Analizer-100; Siemens Healthcare Diagnostics, Inc., Deerfield, Illinois, Estados Unidos) y el VerifyNow®, además de otras como la citometría de flujo y la tromboelastografía, hoy es posible seguir mediante pruebas de laboratorio la antiagregación plaquetaria tanto con aspirina como con los inhibidores del receptor plaquetario P2Y12.
Publicado en Editorial
“La medicina es la ciencia de la incertidumbre y el arte de la probabilidad” sir William Osler, padre de la medicina interna
 
La fascinante historia de las plaquetas, aquellos pequeños fragmentos celulares que se desprenden del citoplasma de los megacariocitos, se remonta a los siglos XVII y XVIII [1]; no obstante, lo que hoy representan en el contexto de la salud y la enfermedad se inicia cuando sir William Osler (1849-1919), el padre de la medicina interna, las describe por primera vez en el año 1874 [2] y cuando Giulio Bizzozero (1846-1901) las caracteriza, en 1881, como un nuevo elemento forme de la sangre [3].
Con el correr del tiempo, y a partir de los primeros años del siglo xx, las plaquetas se fueron posicionando como un parámetro más para incluir en el hemograma y, desde el punto de vista clínico, para definir y caracterizar algunas entidades hematológicas relacionadas con su recuento, como la púrpura trombocitopénica idiopática, hoy conocida como trombocitopenia autoinmune [4] y llamada, originalmente, enfermedad de Werlhof, que fue descrita en 1735 [5], muchísimos años antes de que se descubriesen las plaquetas y su papel en la hemostasia; al igual que aquellas asociadas a su morfología y funcionamiento, como el síndrome de Bernard-Soulier [6] y la trombastenia de Glanzmann [7], entre otras.
 
El desarrollo tecnológico relacionado con las plaquetas en la primera mitad del siglo XX se limitó a su recuento manual con cámaras desarrolladas para ese fin [8], y al tiempo de sangría [9] como única prueba de la función plaquetaria por muchos años; esta última aún ofertada en algunos laboratorios clínicos a pesar de ser una prueba obsoleta de acuerdo a lo definido claramente por el CAP (del inglés, College of American Pathology) y la ASCP (del inglés, American Society for Clinical Pathology) [10]. Todo lo anterior es suficiente para entender por qué el papel de las plaquetas fue considerado, por muchos años, como secundario.
 
Dos inventos revolucionaron la hematología, en general, y en el hemogramalos parámetros plaquetarios, en particular:
 
• El primero se desarrolló en 1953 y es conocido como principio de Coulter, el cual se define como un método que utiliza un campo eléctrico para contar y dimensionar partículas que se encuentran en suspensión en el líquido conductor, como reza en su patente [11], y que hoy se aplica en todos los contadores electrónicos de hematología y en las citometrías de flujo. Este principio revolucionó la hematología en general y, en el caso particular de las plaquetas, no solo mejoró su recuento, que antes se hacía por métodos manuales, sino que introdujo nuevos parámetros plaquetarios de utilidad clínica en el hemograma de rutina, como el volumen medio plaquetario, el ancho de distribución de las plaquetas, el plaquetocrito y el índice de plaquetas inmaduras o plaquetas reticuladas [12].
 
 
Publicado en Editorial
Si de por sí la condición de cetoacidosis diabética consiste en una estado clínico de gravedad, lo es aún más en los niños, en los que reconocer esta entidad se vuelve todo un reto para el clínico desde su identificación hasta el tratamiento, el cual no sólo consiste en lograr un estado metabólico adecuado, sino en evitar las complicaciones que derivan de ésta.
La diabetes mellitus afecta a gran parte de la población mundial. Según datos de los Centros para el Control y la Prevención de Enfermedades (CDC), para el año 2010, alrededor de 215.000 americanos menores de 20 años tenían diabetes [1]. La cetoacidosis es la primera manifestación de la enfermedad hasta en un tercio de los pacientes con diabetes mellitus tipo 1; lo mismo que ocurre para los pacientes con diabetes mellitus tipo 2 en un 5% al 25% [2].
La cetoacidosis diabética tiene una mortalidad menor del 1%; sin embargo, es la primera causa de mortalidad y morbilidad en niños relacionada con la diabetes mellitus [3], con una incidencia de déficit neurológico secundario a edema cerebral mayor del 26%, incluso con alteración de la memoria por la condición de cetoacidosis diabética per se aún sin edema cerebral [4,5].
Aunque la triada clínica clásica de la cetoacidosis diabética consiste en poliuria, polidipsia y pérdida de peso, se debe sospechar esta entidad en todo paciente que curse con taquipnea y alteración en el nivel de consciencia, ya que la clínica en la población pediátrica especialmente en los lactantes puede ser muy atípica [6].
La causa metabólica de esta entidad parte del déficit absoluto o relativo de la insulina, lo que genera un incremento significativo de las hormonas contrarreguladoras con hiperglucemia secundaria [6,7], la cual se perpetúa aún más por la deshidratación.
Es fundamental conocer las bases fisiopatológicas de esta crisis hiperglucémica aguda para dirigir el tratamiento, donde se parte desde un estado de acidosis metabólica y cetosis sumado a deshidratación, lo que implica brindar una adecuada hidratación e insulinoterapia dirigida, no sólo a lograr una meta glucémica, sino con el objetivo de inhibir la cetogénesis.
Se debe hacer una búsqueda clínica activa del posible factor desencadenante de la crisis hiperglucémica, el cual hasta en un 30% de los casos puede ser debida a una infección asociada [8]; además, considerar diagnósticos diferenciales de acuerdo a la clínica de cada paciente, en los cuales se debe tener presente otras causas de enuresis secundaria, de dolor abdominal, de taquipnea, de alteraciones en el nivel de consciencia y de posibles intoxicaciones por salicilatos, metanol, etilenglicol y paraldehído [9].
 
 
Publicado en Editorial
Más allá de la habilitación y la certificación de los laboratorios clínicos como prestadores de servicios de salud con un sistema de gestión de calidad establecido, la búsqueda de las acreditaciones internacionales que avalen, respalden y soporten la competencia técnica de los laboratorios clínicos se ha convertido en una herramienta que, adicional a la obtención de un certificado, ha permitido el mejoramiento continuo. Esto, gracias a que los sistemas de acreditación establecen pautas específicas para la estandarización y el control de todas las fases de la prestación de los servicios de los laboratorios, en donde se incluyen aquellas más susceptibles al error humano, como la fase preanalítica.
Los servicios de habilitación de los laboratorios clínicos, al avalarlos como prestadores de servicios de salud en el territorio colombiano, establecen los requisitos mínimos que deben cumplir para su funcionamiento con énfasis en la capacidad técnico-administrativa, la suficiencia patrimonial y financiera, la capacidad tecnológica y científica, el recurso humano, las instalaciones físicas, la dotación y el mantenimiento, la gestión de medicamentos y dispositivos, los procesos prioritarios asistenciales, la gestión de riesgos y la seguridad del paciente, entre otros [1]. A su vez, los servicios de certificación, como la ISO 9001, a pesar de no ser específicos de los laboratorios clínicos, permiten la estructuración de un sistema de gestión de la calidad efectivo, cuya decisión estratégica de implementación ayuda a mejorar el desempeño y el desarrollo sostenible de las instituciones [2].
Luego de establecer un sistema de gestión de la calidad fortalecido se requiere mejorar y avalar la competencia técnica de los laboratorios clínicos a partir de una evaluación más rigurosa de su quehacer, por lo que la acreditación se convierte en una oportunidad invaluable para el mejoramiento de los mismos. Entre los entes de acreditación, específicos de los laboratorios clínicos, se destacan la Organización Internacional de Normalización (ISO), con su norma NTC-ISO 15189 [3], y el Colegio Americano de Patólogos (CAP), con su programa de acreditación internacional [4].
La NTC-ISO 15189, en su numeral 5.4. Procedimientos preanalíticos, hace referencia específica al manejo de la información de los pacientes y los usuarios, la información de la solicitud requerida y los procesos de toma y manipulación de la muestra primaria, transporte, preparación y almacenamiento previos al análisis [3], lo que brinda las pautas básicas para que los laboratorios clínicos estandaricen y controlen todos los aspectos relacionados con la toma de muestra. Incluso, en esta norma se describen los lineamientos de la orden médica y el uso y la recolección de los datos de los pacientes y usuarios, por lo que el alcance de su aplicación, de forma rigurosa y metódica por parte de los laboratorios, contribuye a disminuir las tasas de error en la fase preanalítica.
 
 
 
Publicado en Editorial
Lunes, 06 Febrero 2017 10:30

Hipoglicemia en pediatría

La identificación, investigación y manejo de la hipoglicemia en la infancia y el periodo perinatal continúan siendo una emergencia clínica debido a que la falla en la identificación oportuna puede conducir a un daño neurológico e incluso la muerte. Los avances en biología molecular y las técnicas diagnósticas han ayudado a comprender los mecanismos implicados en la homeostasis del metabolismo de la glucosa y, de esta manera, tener una mejor aproximación clínica del paciente pediátrico con hipoglicemia.
En este número de la revista MEDICINA & LABORATORIO se presenta una revisión sobre el enfoque diagnóstico de la hipoglicemia en pediatría como paso inicial de la educación médica continua para actualizar al lector sobre los avances en la identificación y caracterización adecuada de las causas subyacentes.
No obstante, establecer las causas de hipoglicemia es el punto de inicio necesario para definir y diseñar un plan de manejo apropiado que prevenga las complicaciones secundarias al daño neuronal por el bajo aporte de glucosa.
Es importante tener presente que la evaluación y el manejo de la hipoglicemia en pediatría presenta particularidades propias. En niños, la hipoglicemia persistente casi siempre se debe a defectos congénitos o adquiridos en la regulación de la secreción de insulina, deficiencia del cortisol o la hormona de crecimiento o defectos en el metabolismo de la glucosa, el glucógeno y los ácidos grasos. En las primeras 48 horas de vida distinguir recién nacidos con hipoglicemia persistente de aquellos con hipoglicemia transicional puede ser difícil. De igual forma, los primeros meses de vida representan el periodo más vulnerable para el desarrollo de discapacidad cognitiva. Estas particularidades requieren ser precisadas y tenidas en cuenta al momento del diagnóstico para ser lo más oportunos posible y disminuir el impacto permanente que generan los bajos niveles de glucosa en el tejido cerebral en desarrollo.
 
 
Publicado en Editorial
La tosferina es un enfermedad infectocontagiosa causada por un tipo de bacteria llamada Bordetella pertussis, la cual puede ser grave y letal si no se trata a tiempo. La mayoría de los casos fatales ocurren en pacientes menores de un año de edad y el 90% se produce en menores de seis meses, siendo ésta la gran población en riesgo para desarrollar tosferina maligna.
 
La introducción de la vacuna en la década de los cincuenta y sesenta disminuyó de manera importante la morbilidad y mortalidad de la enfermedad en la población infantil en países industrializados. Sin embargo, a pesar de la extensión de la vacunación, se ha visto un incremento de su incidencia en las últimas dos décadas. Según la Organización Mundial de la Salud (OMS) existe una alta carga de tosferina en los países en desarrollo, convirtiéndola en una de las principales causas de muertes prevenibles por vacunas en el mundo. Así mismo, la OMS estima una ocurrencia de cincuenta millones de casos y 300.000 fallecimientos anuales, con una letalidad del 4% en los países en desarrollo.
Por su parte, Colombia no está exenta de este mismo contexto ya que, aunque a partir de 1993 la cobertura de la vacunación con DPT aumentó en un 53% y en los últimos cinco años se ha mantenido en un 80%, en los últimos reportes del año 2011-2012 se evidencian nuevos brotes de tosferina atípicos en grupos poblacionales diferentes a los menores de un año, lo cual enciende una alerta en todos los actores de la gestión de política en salud de nuestro país que propenda en una mejor vigilancia, la ampliación de la cobertura a otros grupos poblacionales y el diagnóstico de la enfermedad.
Publicado en Editorial