23 Junio 2017
Iniciar sesión Registro

Login

Usuario
Password *
Recordarme

Crear una cuenta

Los campos marcados con un asterisco (*) son obligatorios.
Nombre
Usuario
Password *
Verificar password *
Email *
Verificar email *
Captcha *
Usted esta aqui: Usted está aquí:Medicina & Laboratorio>Otros artículos>Edimeco - Mostrando artículos por etiqueta: editorial
La identificación de marcadores apropiados para evaluar la reserva ovárica permaneció en investigación durante muchos años, hasta que, recientemente, la concentración sérica de la hormona antimülleriana fue reconocida como el método de mayor exactitud respecto a los tradicionalmente utilizados. Esta hormona es una glicoproteína homodímerica de 140 kD, identificada por primera vez en 1940, cuando se comprobó su secreción por las células de Sertoli en los fetos de sexo masculino y su principal actividad, la promoción de la regresión de los conductos de Müller. Entretanto, no fue sino hasta 1981 que fue relatada por primera vez su producción por las células de la granulosa de los folículos primarios, los folículos preantrales y los pequeños folículos antrales (hasta 7 mm de diámetro).
 
A pesar de estos hallazgos, las investigaciones sobre el papel biológico y la utilidad clínica de la hormona antimülleriana solo se concretaron en los años 2000, a partir del desarrollo de estuches comerciales para las dosificaciones de este marcador. Actualmente, la medición de la hormona antimülleriana hace parte de la evaluación rutinaria de algunas especialidades, entre ellas la endocrinología ginecológica, la oncología ginecológica y la medicina reproductiva, entre otras, con diferentes utilidades clínicas en la mujer, las cuales se relatan brevemente a continuación y serán ampliadas en el módulo “La clínica y el laboratorio” del presente número de MEDICINA & LABORATORIO.
 
Evaluación de la reserva ovárica funcional en reproducción asistida Esta es la indicación mejor establecida para la medición de la hormona antimülleriana. El término «reserva ovárica funcional», recientemente empleado en la reproducción asistida, hace referencia al número medio de folículos reclutados hasta el estado preovulatorio luego del estímulo con la hormona folículo estimulante (FSH) exógena, lo que pone a disposición ovocitos viables para los procedimientos de fertilización; mientras que la «reserva ovárica verdadera» corresponde al patrimonio estimado de folículos remanentes en un momento dado de la vida reproductiva de la mujer.
 
Un gran número de estudios ha confirmado la superioridad de los niveles de la hormona antimülleriana, obtenidos en el segundo o tercer día de la estimulación ovárica controlada, para la predicción del número de ovocitos captados para la fecundación in vitro (FIV), en comparación con la edad, los niveles de la FSH, el estradiol y la inhibina B, usados tradicionalmente
con este objetivo.
 
 
 
 
Publicado en Editorial
Los enfoques para la reducción del riesgo cardiovascular, tanto en la prevención primaria como en la secundaria, han incluido, tradicionalmente, cambios del comportamiento, por ejemplo, en la dieta [1], la actividad física [2] y dejar de fumar [3], al igual que mejoras en la gestión de los factores de riesgo, por ejemplo, mediante el control de la diabetes [4], de la hipertensión arterial [5] y de los lípidos [6]. No obstante lo anterior, las enfermedades cardiovasculares en general, incluidas las afecciones del corazón, del cerebro y de los vasos sanguíneos, representan la principal causa de muerte a nivel mundial que, de acuerdo con la Organización Mundial de la Salud (OMS), corresponden a más de 17.500.000 de muertes cada año, entre ellas, 7.400.000 por ataques cardíacos y 6.700.000 por ictus isquémico [7].
Además de estas medidas convencionales para la prevención primaria y secundaria de las enfermedades cardiovasculares, se ha utilizado la antiagregación plaquetaria con aspirina, en el primer caso [8], y con terapia dual, compuesta por aspirina combinada con un inhibidor del receptor plaquetario P2Y12, en el segundo [9-14].
Cómo sucede con frecuencia, cuando se encuentra una solución que funciona frente a un problema, como lo son las enfermedades cardiovasculares y sus desenlaces tromboembólicos, aparece un nuevo inconveniente que, en el caso de los antiagregantes plaquetarios, se expresa como resistencia a los medicamentos utilizados y lleva al paciente a quedar expuesto a desenlaces aterotrombóticos, en muchos casos fatales. Es así como la resistencia a la aspirina, descrita en 1990 [15], presenta una prevalencia que oscila entre el 0,4% [16] y el 56,8% [17], la cual es explicable, en gran parte, en función de los criterios que la definen, los métodos utilizados, la población estudiada y las comorbilidades de los pacientes analizados, entre otras circunstancias. Del otro lado, la resistencia a los inhibidores del receptor plaquetario P2Y12, en particular al clopidogrel, el medicamento más utilizado de este grupo, fue descrita en 2002 [18] y presenta una prevalencia que oscila entre el 6% [19] y el 44% [20], que es explicable, en gran parte, por las mismas circunstancias antes citadas para la aspirina.
Con el desarrollo tecnológico en las dos últimas décadas, relacionado con la actividad plaquetaria, en particular la agregación plaquetaria [21], y las pruebas sucedáneas como la agregagometría de impedancia, el PFA-100 (del inglés, Platelet Funtion Analizer-100; Siemens Healthcare Diagnostics, Inc., Deerfield, Illinois, Estados Unidos) y el VerifyNow®, además de otras como la citometría de flujo y la tromboelastografía, hoy es posible seguir mediante pruebas de laboratorio la antiagregación plaquetaria tanto con aspirina como con los inhibidores del receptor plaquetario P2Y12.
Publicado en Editorial
“La medicina es la ciencia de la incertidumbre y el arte de la probabilidad” sir William Osler, padre de la medicina interna
 
La fascinante historia de las plaquetas, aquellos pequeños fragmentos celulares que se desprenden del citoplasma de los megacariocitos, se remonta a los siglos XVII y XVIII [1]; no obstante, lo que hoy representan en el contexto de la salud y la enfermedad se inicia cuando sir William Osler (1849-1919), el padre de la medicina interna, las describe por primera vez en el año 1874 [2] y cuando Giulio Bizzozero (1846-1901) las caracteriza, en 1881, como un nuevo elemento forme de la sangre [3].
Con el correr del tiempo, y a partir de los primeros años del siglo xx, las plaquetas se fueron posicionando como un parámetro más para incluir en el hemograma y, desde el punto de vista clínico, para definir y caracterizar algunas entidades hematológicas relacionadas con su recuento, como la púrpura trombocitopénica idiopática, hoy conocida como trombocitopenia autoinmune [4] y llamada, originalmente, enfermedad de Werlhof, que fue descrita en 1735 [5], muchísimos años antes de que se descubriesen las plaquetas y su papel en la hemostasia; al igual que aquellas asociadas a su morfología y funcionamiento, como el síndrome de Bernard-Soulier [6] y la trombastenia de Glanzmann [7], entre otras.
 
El desarrollo tecnológico relacionado con las plaquetas en la primera mitad del siglo XX se limitó a su recuento manual con cámaras desarrolladas para ese fin [8], y al tiempo de sangría [9] como única prueba de la función plaquetaria por muchos años; esta última aún ofertada en algunos laboratorios clínicos a pesar de ser una prueba obsoleta de acuerdo a lo definido claramente por el CAP (del inglés, College of American Pathology) y la ASCP (del inglés, American Society for Clinical Pathology) [10]. Todo lo anterior es suficiente para entender por qué el papel de las plaquetas fue considerado, por muchos años, como secundario.
 
Dos inventos revolucionaron la hematología, en general, y en el hemogramalos parámetros plaquetarios, en particular:
 
• El primero se desarrolló en 1953 y es conocido como principio de Coulter, el cual se define como un método que utiliza un campo eléctrico para contar y dimensionar partículas que se encuentran en suspensión en el líquido conductor, como reza en su patente [11], y que hoy se aplica en todos los contadores electrónicos de hematología y en las citometrías de flujo. Este principio revolucionó la hematología en general y, en el caso particular de las plaquetas, no solo mejoró su recuento, que antes se hacía por métodos manuales, sino que introdujo nuevos parámetros plaquetarios de utilidad clínica en el hemograma de rutina, como el volumen medio plaquetario, el ancho de distribución de las plaquetas, el plaquetocrito y el índice de plaquetas inmaduras o plaquetas reticuladas [12].
 
 
Publicado en Editorial
Si de por sí la condición de cetoacidosis diabética consiste en una estado clínico de gravedad, lo es aún más en los niños, en los que reconocer esta entidad se vuelve todo un reto para el clínico desde su identificación hasta el tratamiento, el cual no sólo consiste en lograr un estado metabólico adecuado, sino en evitar las complicaciones que derivan de ésta.
La diabetes mellitus afecta a gran parte de la población mundial. Según datos de los Centros para el Control y la Prevención de Enfermedades (CDC), para el año 2010, alrededor de 215.000 americanos menores de 20 años tenían diabetes [1]. La cetoacidosis es la primera manifestación de la enfermedad hasta en un tercio de los pacientes con diabetes mellitus tipo 1; lo mismo que ocurre para los pacientes con diabetes mellitus tipo 2 en un 5% al 25% [2].
La cetoacidosis diabética tiene una mortalidad menor del 1%; sin embargo, es la primera causa de mortalidad y morbilidad en niños relacionada con la diabetes mellitus [3], con una incidencia de déficit neurológico secundario a edema cerebral mayor del 26%, incluso con alteración de la memoria por la condición de cetoacidosis diabética per se aún sin edema cerebral [4,5].
Aunque la triada clínica clásica de la cetoacidosis diabética consiste en poliuria, polidipsia y pérdida de peso, se debe sospechar esta entidad en todo paciente que curse con taquipnea y alteración en el nivel de consciencia, ya que la clínica en la población pediátrica especialmente en los lactantes puede ser muy atípica [6].
La causa metabólica de esta entidad parte del déficit absoluto o relativo de la insulina, lo que genera un incremento significativo de las hormonas contrarreguladoras con hiperglucemia secundaria [6,7], la cual se perpetúa aún más por la deshidratación.
Es fundamental conocer las bases fisiopatológicas de esta crisis hiperglucémica aguda para dirigir el tratamiento, donde se parte desde un estado de acidosis metabólica y cetosis sumado a deshidratación, lo que implica brindar una adecuada hidratación e insulinoterapia dirigida, no sólo a lograr una meta glucémica, sino con el objetivo de inhibir la cetogénesis.
Se debe hacer una búsqueda clínica activa del posible factor desencadenante de la crisis hiperglucémica, el cual hasta en un 30% de los casos puede ser debida a una infección asociada [8]; además, considerar diagnósticos diferenciales de acuerdo a la clínica de cada paciente, en los cuales se debe tener presente otras causas de enuresis secundaria, de dolor abdominal, de taquipnea, de alteraciones en el nivel de consciencia y de posibles intoxicaciones por salicilatos, metanol, etilenglicol y paraldehído [9].
 
 
Publicado en Editorial
Más allá de la habilitación y la certificación de los laboratorios clínicos como prestadores de servicios de salud con un sistema de gestión de calidad establecido, la búsqueda de las acreditaciones internacionales que avalen, respalden y soporten la competencia técnica de los laboratorios clínicos se ha convertido en una herramienta que, adicional a la obtención de un certificado, ha permitido el mejoramiento continuo. Esto, gracias a que los sistemas de acreditación establecen pautas específicas para la estandarización y el control de todas las fases de la prestación de los servicios de los laboratorios, en donde se incluyen aquellas más susceptibles al error humano, como la fase preanalítica.
Los servicios de habilitación de los laboratorios clínicos, al avalarlos como prestadores de servicios de salud en el territorio colombiano, establecen los requisitos mínimos que deben cumplir para su funcionamiento con énfasis en la capacidad técnico-administrativa, la suficiencia patrimonial y financiera, la capacidad tecnológica y científica, el recurso humano, las instalaciones físicas, la dotación y el mantenimiento, la gestión de medicamentos y dispositivos, los procesos prioritarios asistenciales, la gestión de riesgos y la seguridad del paciente, entre otros [1]. A su vez, los servicios de certificación, como la ISO 9001, a pesar de no ser específicos de los laboratorios clínicos, permiten la estructuración de un sistema de gestión de la calidad efectivo, cuya decisión estratégica de implementación ayuda a mejorar el desempeño y el desarrollo sostenible de las instituciones [2].
Luego de establecer un sistema de gestión de la calidad fortalecido se requiere mejorar y avalar la competencia técnica de los laboratorios clínicos a partir de una evaluación más rigurosa de su quehacer, por lo que la acreditación se convierte en una oportunidad invaluable para el mejoramiento de los mismos. Entre los entes de acreditación, específicos de los laboratorios clínicos, se destacan la Organización Internacional de Normalización (ISO), con su norma NTC-ISO 15189 [3], y el Colegio Americano de Patólogos (CAP), con su programa de acreditación internacional [4].
La NTC-ISO 15189, en su numeral 5.4. Procedimientos preanalíticos, hace referencia específica al manejo de la información de los pacientes y los usuarios, la información de la solicitud requerida y los procesos de toma y manipulación de la muestra primaria, transporte, preparación y almacenamiento previos al análisis [3], lo que brinda las pautas básicas para que los laboratorios clínicos estandaricen y controlen todos los aspectos relacionados con la toma de muestra. Incluso, en esta norma se describen los lineamientos de la orden médica y el uso y la recolección de los datos de los pacientes y usuarios, por lo que el alcance de su aplicación, de forma rigurosa y metódica por parte de los laboratorios, contribuye a disminuir las tasas de error en la fase preanalítica.
 
 
 
Publicado en Editorial
Lunes, 06 Febrero 2017 10:30

Hipoglicemia en pediatría

La identificación, investigación y manejo de la hipoglicemia en la infancia y el periodo perinatal continúan siendo una emergencia clínica debido a que la falla en la identificación oportuna puede conducir a un daño neurológico e incluso la muerte. Los avances en biología molecular y las técnicas diagnósticas han ayudado a comprender los mecanismos implicados en la homeostasis del metabolismo de la glucosa y, de esta manera, tener una mejor aproximación clínica del paciente pediátrico con hipoglicemia.
En este número de la revista MEDICINA & LABORATORIO se presenta una revisión sobre el enfoque diagnóstico de la hipoglicemia en pediatría como paso inicial de la educación médica continua para actualizar al lector sobre los avances en la identificación y caracterización adecuada de las causas subyacentes.
No obstante, establecer las causas de hipoglicemia es el punto de inicio necesario para definir y diseñar un plan de manejo apropiado que prevenga las complicaciones secundarias al daño neuronal por el bajo aporte de glucosa.
Es importante tener presente que la evaluación y el manejo de la hipoglicemia en pediatría presenta particularidades propias. En niños, la hipoglicemia persistente casi siempre se debe a defectos congénitos o adquiridos en la regulación de la secreción de insulina, deficiencia del cortisol o la hormona de crecimiento o defectos en el metabolismo de la glucosa, el glucógeno y los ácidos grasos. En las primeras 48 horas de vida distinguir recién nacidos con hipoglicemia persistente de aquellos con hipoglicemia transicional puede ser difícil. De igual forma, los primeros meses de vida representan el periodo más vulnerable para el desarrollo de discapacidad cognitiva. Estas particularidades requieren ser precisadas y tenidas en cuenta al momento del diagnóstico para ser lo más oportunos posible y disminuir el impacto permanente que generan los bajos niveles de glucosa en el tejido cerebral en desarrollo.
 
 
Publicado en Editorial
La tosferina es un enfermedad infectocontagiosa causada por un tipo de bacteria llamada Bordetella pertussis, la cual puede ser grave y letal si no se trata a tiempo. La mayoría de los casos fatales ocurren en pacientes menores de un año de edad y el 90% se produce en menores de seis meses, siendo ésta la gran población en riesgo para desarrollar tosferina maligna.
 
La introducción de la vacuna en la década de los cincuenta y sesenta disminuyó de manera importante la morbilidad y mortalidad de la enfermedad en la población infantil en países industrializados. Sin embargo, a pesar de la extensión de la vacunación, se ha visto un incremento de su incidencia en las últimas dos décadas. Según la Organización Mundial de la Salud (OMS) existe una alta carga de tosferina en los países en desarrollo, convirtiéndola en una de las principales causas de muertes prevenibles por vacunas en el mundo. Así mismo, la OMS estima una ocurrencia de cincuenta millones de casos y 300.000 fallecimientos anuales, con una letalidad del 4% en los países en desarrollo.
Por su parte, Colombia no está exenta de este mismo contexto ya que, aunque a partir de 1993 la cobertura de la vacunación con DPT aumentó en un 53% y en los últimos cinco años se ha mantenido en un 80%, en los últimos reportes del año 2011-2012 se evidencian nuevos brotes de tosferina atípicos en grupos poblacionales diferentes a los menores de un año, lo cual enciende una alerta en todos los actores de la gestión de política en salud de nuestro país que propenda en una mejor vigilancia, la ampliación de la cobertura a otros grupos poblacionales y el diagnóstico de la enfermedad.
Publicado en Editorial
La Hematología es esa "ciencia roja" llena de células de diferentes tamaños, colores y sin sabores, porque, ya lo confirmarán algunos colegas, que amargo y doloroso es encontrar una célula neoplásica en el extendido de sangre periférica de un paciente. Pero realmente ¿estamos conscientes los profesionales que trabajamos en esta área clínica de la presencia de estas células? y ¿por qué el temor de tantos, el respeto de algunos y la indiferencia de otros por conocer, estudiar y poner ojos y corazón en esa estructura observada a través del microscopio? De allí la importancia del compromiso y la dedicación en nuestra labor al servicio de la comunidad.
Entrando entonces a ese aún enigmático mundo de las neoplasias hematológicas podemos encontrar que existe, según la clasificación de la Organización Mundial de la Salud (OMS), una enorme variedad y que, a partir del descubrimiento de diferentes alteraciones genéticas y moleculares se está avanzando para alcanzar la predicción del comportamiento clínico, pronóstico y el tratamiento de estas entidades. El esquema de clasificación de la OMS parte primero del linaje celular maligno: linfoide, mieloide, histiocítico/dendrítico y mastocítico, y los diferencia de acuerdo con una mezcla interesante de las características morfológicas, el inmunofenotipo, la genética, la biología molecular y los síndromes clínicos relacionados.
 
La nueva clasificación de la OMS presentada este año (2016), elaborada gracias al consenso entre hemato-oncólogos, patólogos, hematólogos y genetistas, incluye los cambios de las neoplasias hematológicas actuales, como la adición de un número limitado de nuevas entidades provisionales, esclareciendo el diagnóstico y tratamiento en las primeras etapas; además, refina los criterios diagnósticos, moleculares, la citogenética y su correlación clínica.
 
En la actualidad, algunas neoplasias hematológicas aún son incurables, una de ellas es el mieloma múltiple, una enfermedad maligna, sistémica, que resulta de la proliferación clonal de células plasmáticas derivadas de los linfocitos B, en la cual hay producción anómala de una proteína M en el suero, la orina o ambas. Esta entidad es la neoplasia hematológica más frecuente después del linfoma no Hodgkin y, según la OMS, representa el 1% de todas las neoplasias y el 10% al 15% de las neoplasias hematológicas. 
 
Publicado en Editorial
Resistencia a la aspirina: llegó el momento de detectarla y de personalizar cada tratamiento
Aspirin resistance: It is time to detect it and to customize each treatment
«Estudios recientes han encontrado que entre el 5% y más del 40% de las personas que toman aspirina son resistentes a la aspirina o no responden a ella. Esto significa que la aspirina no inhibe la coagulación de su sangre, como se supone que debería hacerlo. A. Pollack. New York Times. Nueva York, julio 20 de 2004.
Para la comunidad científica es una nueva noticia que las enfermedades cardiovasculares, incluidas las afecciones del corazón, del cerebro y de los vasos sanguíneos representan a nivel mundial la principal causa de muerte que, de acuerdo con la Organización Mundial de la Salud, son responsables de más de 17.500.000 de muertes cada año: entre ellas, 7.400.000 por ataques cardíacos y 6.700.000 por ictus isquémico [1]. A nivel mundial se estima que el 1% de la población puede presentar un evento cardiovascular o cerebrovascular por año, de los que cerca del 50% se presentan en pacientes con enfermedad vascular preexistente [2, 3] y muchísimos de los cuales se pudieron haber prevenido con medidas tan simples como la antiagregación plaquetaria. Colombia no es ajena a esta problemática: la principal causa de morbimortalidad está relacionada con complicaciones cardiovasculares, con una tasa de mortalidad estimada para 2008 de 124,2 y 122,9 por 100.000 hombres y mujeres, respectivamente [4] y un aumento del 2,4% por año, constituyéndose, por lo tanto, en un problema prioritario de salud pública [5]. Sumado a lo anterior y, lo más grave, es que en el país no existe la cultura de la antiagregación plaquetaria [6], como sí existe en países como Estados Unidos, en donde se consumen diariamente más de setenta millones de dosis de aspirina como prevención de eventos trombóticos [7].
 
 
Publicado en Editorial
Lunes, 08 Agosto 2016 15:23

Vitamina D: una hormona poderosa

La vitamina D representa uno de los principales factores determinantes para el desarrollo de la vida en la tierra y para la evolución humana. Aproximadamente el 10% al 20% de los requerimiento de vitamina D de un organismo humano se puede obtener a través de la dieta y aproximadamente el 90% del total de la vitamina D necesaria tiene que ser fotosintetizada en la piel a través de la acción del sol (luz ultravioleta B (UV-B)) [1].
 
El raquitismo por deficiencia de vitamina D fue la enfermedad de los jóvenes entre 1800 y principios del siglo XX, con proporciones epidémicas en el norte de Europa, Norteamérica y Asia del Norte [2]. Sir Edward Mellanby (1919) demostró que esta enfermedad era debida a una deficiencia nutricional y se podía mejorar con suplementos de aceite de hígado de bacalao. McCollum (1922) demostró que el factor terapéutico en este aceite era una nueva vitamina, la vitamina D [3,4]. Por su parte, Huldshinsky y sus compañeros de trabajo (1919) también demostraron que el raquitismo podía ser tratado con la luz ultravioleta (UV). Así mismo, Steenbock (1923) demostró que la luz UV inducía la formación de vitamina D en las porciones grasas de los alimentos y en la piel, y mediante la irradiación de alimentos, logró proporcionar los medios por los cuales el raquitismo podría dejar de ser un problema médico importante.
Todos estos trabajos permitieron que los químicos aislaran e identificaran la estructura de la vitamina D entre 1919 y 1924, lo que llevó finalmente a la síntesis química de grandes cantidades de ella [3,4] y su disponibilidad para el tratamiento farmacológico. En la figura 1 se ilustran las causas y posibles consecuencias de la deficiencia de vitamina D.
 
 
Publicado en Editorial