Responsable: Dr. Raúl de Miguel





Bacteria-infecting Viruses Inspire Creation of Hybrid Antibodies

                                         Vincent A. Fischetti; Assaf Raz; Anna Serrano et al                        

                                                    Laboratory of Bacterial Pathogenesis and Immunology
                                                               Laboratory of Molecular Genetics and Immunology, 
                                                                            The Rockefeller University, New York,  

                                                                          PNAS - April 2017


The cell wall of Gram-positive bacteria contains abundant surface-exposed carbohydrate molecules that are highly conserved within and often across species. The potential therapeutic usefulness of high-affinity antibodies to cell wall carbohydrates is unquestioned, however obtaining such antibodies is challenging due to the poor overall immunogenicity of these bacterial targets. Autolysins and phage lysins are peptidoglycan hydrolases, enzymes that have evolved over a billion years to degrade bacterial cell wall. Such wall hydrolases are modular enzymes, composed of discrete domains for high-affinity binding to cell wall carbohydrates and cleavage activity. In this study, we demonstrate that binding domains from autolysins and lysins can be fused to the Fc region of human IgG, creating a fully functional homodimer (or "lysibody") with high-affinity binding and specificity for carbohydrate determinants on the bacterial surface. Furthermore, we demonstrate that this process is reproducible with three different binding domains specific to methicillin-resistant Staphylococcus aureus (MRSA). Cell-bound lysibodies induced the fixation of complement on the bacterial surface, promoted phagocytosis by macrophages and neutrophils, and protected mice from MRSA infection in two model systems. The lysibody approach could be used to target a range of difficult-to-treat pathogenic bacteria, given that cell wall hydrolases are ubiquitous in nature.

It seems humans share a common enemy with some viruses: bacteria. Viruses invade bacterial cells with generally the same agenda that bacteria have when invading the human body - wipe out host cells and multiply. Borrowing a page from the playbook of bacteria-infecting viruses, called bacteriophages, could help researchers enhance the human immune system to better attack the toughest bacterial species.
Bacteriophages have unique molecules that recognize and target specific carbohydrate molecules on the cell surface of bacteria, but the human immune system is ignorant of these molecules. We have co-opted these molecules, and we've put them to work helping the human immune system fight off microbial pathogens..

These viruses then use lysins, dubbed "molecular snippers" and his team, to poke holes in the cell surface of the bacterium after latching on to cell surface carbohydrate molecules. Antibodies produced by the human immune system are similar in structure and practice a similar method, but alas they are unable to identify bacterial carbohydrate molecules.

Both antibodies and lysins have two discrete components..They both have a part that binds their respective target, but whereas the second component of lysins cuts the bacterial cell wall, in antibodies it coordinates an immune response.

Researchers replaced the parts of human antibodies where their anti-bacterial approach fell short with the advantages of lysins, a switch made possible thanks to the two components sharing similar structure. This made it possible for us to mix and match, combining the viral piece responsible for latching onto a carbohydrate with the part of the antibody that tells immune cells how to respond.

The new "best of both worlds" antibody they created was labeled a lysibody, and the researchers ventured next to test lysibodies in a mice model of methicillin-resistant Staphylococcus aureus, commonly known as MRSA, a bacterial species infamous for being resistant to the harshest antibiotic treatments, earning the name of "superbug."

The mice studies were successful; the experimental lysibodies identified and targeted carbohydrates on the cell surface of MRSA bacteria as well as other strains of S. aureus and even other types of bacteria.

It may be possible to use not just lysins, but any molecule with a high affinity toward a target on any pathogen -- be it virus, parasite, or fungus -- to create hybrid antibodies. This approach could make it possible to develop a new class of immune boosting therapies for infectious diseases

Antibiotic resistance is an ever-increasing problem; for certain pathogens, few treatment options remain. Vaccines and therapeutic antibodies represent important alternatives to antibiotics, yet despite extensive effort no approved vaccine is available for Staphylococcus aureus. Although wall carbohydrates are ideal immunotherapeutic targets due to their abundance and high level of conservation, their poor immunogenicity compared with conventional protein targets complicates the production of effective antibodies. The approach presented here fuses the high-affinity binding domains from bacteriophage lysins and autolysins that recognize specific cell wall carbohydrate epitopes to IgG Fc, creating effective therapeutic antibodies, or lysibodies. This approach is generalizable, allowing production of antibodies to poorly immunogenic carbohydrate epitopes of many Gram-positive pathogens. Lysibodies thus represent a broad class of anti-infectives.



DEBATE: ADHDFecha: 4/11/2017



Most everyone is familiar with acronym ADHD. It stands for Attention Deficit Hyperactivity Disorder. It's characterized by a difficulty in paying attention and staying focused, hyperactivity, constant movement, poor impulse control and sometimes difficulty learning. The statistics on ADHD show that it's problem for at least 1 in 20 people under the age of 18. Of that number roughly two-thirds report that their symptoms persisted in adulthood. ADHD normally presents before the age of 7 years old, however due to the negative stereotypes sometimes associated with it, many children are just labeled as behavioral problems or "difficult."

It's been the subject of some controversy since there are people, even education and medical professionals, who believe it's not actually a physical brain disorder, but rather a problem of bad behavior and lackluster parenting.

Dra Martine Hoogman (Radboud University Medical Centre in the Netherlands):new research revealed that patients who had been diagnosed with ADHD had different brain structure and smaller brain volume than those who did not have ADHD. The study involved MRI scans of more than 3, 200 people, some with an ADHD diagnosis and some with no neurological issues. The scans showed differences in five separate areas of the brain, along with reduced brain volume overall. There is physical evidence for considering ADHD to be a brain disorder. people with ADHD have differences in their brain structure and therefore suggest that ADHD is a disorder of the brain.  Earlier studies have investigated the correlation of brain volume and ADHD, they were small studies and were not conclusive., the large sample size of this study makes the results much more accurate.
Dr. Jonathan Posner (Columbia University):It is the largest study of its kind and well powered to detect small effect sizes. Large sample sizes are particularly important in the study of ADHD because of the heterogeneity of the disorder both in etiology and clinical manifestation. This study represents an important contribution by providing robust evidence to support the notion of ADHD as a brain disorder with substantial effects on the volumes of subcortical nuclei.


                                                                         Journal The Lancet Phychiatry - 2017




MISCELANEAS BREVES - 185Fecha: 4/11/2017



                                                            Tyler Perrachione, John Gabrieli et al
                                            Boston University, Sargent College, MIT and Massachusetts General Hospital

                                                                            Journal Neuron - December 2016

Dyslexia,is a disorder that impacts the ability to read well, comprehend written materials and even to spell and write properly. New research may have found the root of dyslexia in the brain,this new information might lead to better treatment.
There is a process in the brain called rapid neural adaptation and it goes on constantly in response to sensory cues in our environment. Whether it's the sound of a song on the radio, a familiar voice, a taste of something new or a the feeling of our hand touching a rough surface, the brain processes all this input via rapid neural adaptation..
A research team looked at study volunteers without dyslexia who were asked to pair spoken words with images on a screen while undergoing a functional MRI scan. When all the words were spoken by the same voice, brain activity showed an initial spike, but then stayed constant. When the second round was each word being spoken by a different voice, brain activity, which is evidence of rapid neural adaptation, spiked with each new and unfamiliar voice. The brain was working to adapt to the voice differences in pitch and tone. When the same task was given to study participants with dyslexia, their brains were almost in a constant state of activity. This increased activity showed that the brain of someone with dyslexia has to work harder to process the same input that the brain of a non-dyslexic person can easily parse. The differences in brain activity were especially noticeable in children between the ages of 6 and 9, who were just learning to read. In that group there was no adaptation at all to repeated words. Expanding their experiments beyond spoken words, the team tried the same task but this time with pictures, written words and faces. Again, those with dyslexia had poor rapid neural adaptation to this stimuli as well. The results point to a paradox that has been puzzling researchers for decades.  While those with dyslexia have trouble reading,  there is no one specific part of the brain that processes just reading ability. Many areas of the brain are involved in the ability to read, so dyslexia must involve more than one part of the brain. The problem is likely across the spectrum stimuli to the brain, be it pictures, sounds, words or even odors and the sense of touch. The team thinks that how people learn to read might be the problem. It's truly one of the most complicated tasks the brain has to master. There's almost nothing we learn that's as complicated as reading. That's because learning to read is mentally cumbersome. The human brain did not evolve to read-literacy has been commonplace only in the last two centuries-so the brain must repurpose regions that evolved for very different ends. And the evolutionary newness of reading may leave the brain without a backup plan.





MISCELANEAS BREVES - 184Fecha: 4/11/2017


Autoimmune Diseases Are Triggered By Infection - But How?


                                                                                           Professor Tobias Derfuss
                                                                                                 University of Basel

                                                                                            Journal PNAS - Dec 2016


A new study  was focused on the possibility that immune cells encounter an error during an infection in the body. The theory? The immune system confuses protein structures from pathogens with the body's own proteins of structural similarities.
Infections are acting as triggers for autoimmune reactions, which happens when immune cells recognize self cells as foreign, as if they were pathogenic cells instead of human cells, .immune cells, B cells specifically, recognized and extracted influenza virus proteins from the cell surface of virally-infected cells, they were also extracting small amounts of neighboring membrane proteins. These proteins, called autoantigens, were taken from cell membranes in the central nervous system.
The B cells activate other immune cells, like T cells, to fight the influenza virus after they extracted the cell surface proteins. However, in addition to an immune response designed to target influenza, the B cells also triggered an autoimmune reaction against the self membrane proteins.
Because of the uptake of autoantigens, an immune response ensued causing autoimmune inflammation in the brain in the genetically modified mice models used in the study. This is how a viral infection could trigger the activation of autoimmune T cells due to a mistake made by B cells while they uptake nearby proteins. Researchers involved believe that the same mechanism causes brain inflammation in humans, too.
The next step would be to examine whether similar errors occur in protein uptake by human B cells,and also clarify whether a viral infection in an animal can, under certain circumstances, lead to autoimmune inflammation in the brain."







Pequeñas cantidades de alcohol. Si o No?

Anya Topiwala, DPhil. (clinical lecturer, psychiatry, University of Oxford, U.K)
Tim Stockwell, Ph.D.(director Center for Addictions Research, University of Victoria, British Columbia, Canada);

                                                                                                                           June 6, 2017 BMJ




Existe una idea popular: que beber en moderación es bueno para el corazón.
Muchos estudios han encontrado que las personas que beben de forma moderada tienden a tener unas tasas más bajas de enfermedad cardiaca que los bebedores empedernidos y que los abstemios.

Tim Stockwell: Las personas que consumen alcohol incluso en niveles moderados podrían observar que sus habilidades mentales decaen con mayor rapidez a medida que envejecen, sugiere un nuevo estudio. Los investigadores encontraron que los que bebían alcohol con regularidad mostraban un mayor encogimiento cerebral que los abstemios en la vejez. También perdieron más "fluidez" lingüística, una medida de las habilidades de memoria y pensamiento. Los efectos se observaron incluso entre las personas que bebían de forma "moderada", unas cuatro a siete copas por semana.
Los hallazgos no demuestran que el alcohol fuera el responsable. Pero las evidencias indican que podría existir una alta posibilidad de que un consumo moderado de alcohol no es tan saludable como a muchos les gusta pensar.
En la investigación que afirma " las personas que beben de forma moderada tienden a tener unas tasas más bajas de enfermedad cardiaca que los bebedores empedernidos y que los abstemios", existen errores críticos, la definición de "abstemio" con frecuencia crea problemas. En muchos estudios, se incluyeron a ex bebedores que probablemente dejaran de beber por motivos de salud, y no se consideró si las personas que siguieron bebiendo, a medida que envejecían,  estaban en mejor estado general de salud.

Anya Topiwala: realizamos un estudio,  550 adultos británicos, con edad promedio al inicio de 43 años, se evaluaron a lo largo de los 30 años corridos, reportando su salud, hábitos, estilo de vida aproximadamente cada 5 años y en cada revisión se realizaron pruebas estándar de memoria y otras habilidades mentales. Hacia el final del estudio, se sometieron a RMN del cerebro
El estudio encontró que, en general, las personas que consumían alcohol con regularidad mostraban una mayor atrofia en una región del cerebro llamada hipocampo, frente a los que habían sido bebedores ocasionales de forma constante o abstemios. El tamaño del hipocampo se vincula con la memoria, La atrofia en esa región del cerebro es uno de los cambios tempranos que se observan en la enfermedad de Alzheimer, pero la atrofia del hipocampo puede tener otros orígenes. .Estos hallazgos, en realidad, no demuestran que los bebedores se enfrentan a un riesgo más alto de demencia, pero inducen a pensar en una relación con el alcohol.
El estudio  incluyó a personas que bebían en promedio de 14 a 21 "unidades" de alcohol cada semana. Eso equivale a cuatro a seis pintas de cerveza o  cinco a siete copas de vino, por semana..
Los bebedores moderados y  empedernidos mostraron un declive más rápido en la fluidez lingüística a lo largo de los 30 años, una reducción entre 14% y 17% frente a los abstemios. La fluidez lingüística se midió mediante una prueba en que se solicita a las personas que mencionen que puedan en un minuto todas las palabras que comiencen por una letra determinada. En esta prueba no hubo evidencias de que cantidades, aún leves, de alcohol lograran performance similar a los pacientes con abstinencia.
El estudio encontró que los hábitos de consumo de alcohol de las personas no se vinculaban con su rendimiento en otras pruebas de agudeza mental, incluyendo la memoria a corto plazo.
Resultó sorprendente, los hallazgos sobre el tamaño del hipocampo..Una posibilidad es que el hipocampo podría encogerse antes de que se presenten los problemas con la memoria a corto plazo y otras funciones mentales.

El Reino Unido en 2016  cambió sus directrices sobre los límites "seguros" de alcohol, basándose en evidencias que vinculan el consumo moderado de alcohol con ciertos tipos de cáncer. Se aconseja a los hombres y a las mujeres no beber más de 14 unidades por semana (cinco copas de vino).
Los Estados Unidos son más liberales. Se aconseja: en mujeres no consumir más de una bebida "estándar" al día, los hombres pueden tomar hasta dos bebidas al día. Encontramos asociaciones nocivas con varias medidas cerebrales a esos niveles de consumo de alcohol dentro de las directrices de EE. UU..Mi opinión personal es que las personas en EU deberían sentir menos confianza en el alcohol  y reducir su consumo..









GEOBACTERFecha: 2/10/2017





                          Gemma Reguera, Rachel B. Pollina, Julie S. Nicoll and Derek Lovley
                                Department of Microbiology, University of Massachusetts, Amherst
                                                               Journal of Bacteriology - 2017


Geobacter is a remarkable genus of bacteria. They were the first organisms found to be able to oxidize organic compounds and metals into carbon dioxide. In other words, these bacteria use metals to "breathe" in the same way that we use oxygen.
The first Geobacter specimen was identified in 1987 by Derek Lovley. The bacteria were isolated from sediment in Washington D.C.'s Potomac River. Since then, we humans have been working to use Geobacter for our own selfish benefit (because that's what we do best).
Here are some fun facts about Geobacter and some of the ways we use Geobacter.
I'll start you off with the basics. Geobacter species are anaerobic, rod-shaped, Gram-negative bacteria that produce flagella and pili.

The first fun fact is that much of the magnetite that is associated with ancient iron deposits was probably produced by Geobacter. That's because Geobacter reduces Fe(III) to magnetite (Fe3O4). In fact, Geobacter often uses Fe(III) as an electron acceptor, but what happens when the Fe(III) runs out? No problem, Geobacter can form a multispecies aggregate to help generate energy. When the Fe(II) runs out, the Fe(III)-reducing bacteria form syntrophic associations with bacteria that can accept electrons that would normally be transferred to Fe(III). This concept was also demonstrated in an experiment with ethanol and sodium fumarate.
In this case, two species of Geobacter cooperated to metabolize ethanol and sodium fumarate. One
of the species, G. metallireducens, metabolized the ethanol to produce an excess of electrons. These electrons were sent over to G. sulfurreducens with nanowires that grew between and linked the
bacterial cells. These electrons allowed G. sulfurreducens to break down the sodium fumarate.
Geobacter can also oxidize petroleum products, making these bacteria especially useful for cleaning up water and soil that is polluted with oil. Since Geobacter also oxidizes metals, these little guys are also great at cleaning up sites that are contaminated with radioactive metals.
Another fun fact -nanowires! Some Geobacter species make nanowires composed of proteins with
metal-like conductivity. As the name suggests, nanowires are only 3 to 5 nanometers wide - that's 10,000 times smaller than the width of a human hair! The nanowires can also grow to be some 20 nanometers long - more than 10 times as long as the bacterial cell. Because of these nanowires, G. metallireducens can be attached to an electrode to produce an electric current. The nanowires conduct electricity and could potentially be used as a sustainable electronic material. Microbial nanowires could be easily mass-produced at low cost. This is compared to manmade conductive materials that require expensive and toxic reagents. According to Geobacter guru Derek Lovley, "microbial nanowires therefore offer an unprecedented potential for developing novel materials, electronic devices and sensors for diverse applications with a new environmentally friendly technology.This is an important advance in microbial nanowire technology."
The nanowires made by G. sulfurreducens may actually play double-duty - there's evidence that in
addition to conducting electric current, they have a structural role in biofilm formation. Researchers grew the bacteria on a coverslip and gave them fumarate as an energy source - the bacteria don't have to use nanowires to get energy from fumarate. Despite this, bacteria that couldn't produce pili didn't grow as well. The group found that the pili help the bacteria to agglutinate, which helps them to form a biofilm. They measured the optical density of cultures, and found that cells that lacked the genes for producing pili did not agglutinate. If they complemented this mutant by expressing the pilin genes from a plasmid, the cells agglutinated.
It's been demonstrated that in addition to serving as electric conduits for electron transfer to Fe(III) oxides and long-range electron transfer across anode biofilms in G. sulfurreducens fuel cells, the G. sulfurreducens pili also are required for maximum biofilm growth even when electron transfer to an electron-accepting surface is not required. This is an important consideration because the overall rate of electron transfer to an electron-accepting surface is dependent upon the number of metabolically active cells that can stack on the surface. High rates of electron transfer to an electron accepting surface require not only the electronic capabilities of the pili but also their structural attributes that permit cells to stack at high densities on a given surface. These considerations make it clear that further evaluation of the contributions of pili and other outer cell components to the biofilm structure is essential in order to better understand, and perhaps optimize, electron transfer to electron-accepting surfaces






MISCELANEAS BREVES - 183Fecha: 2/10/2017


Seeing What Stress Does to the Brain


                                                                                   Sumantra Chattarji

National Centre for Biological Sciences and the Institute for Stem Cell Biology and Regenerative Medicine - Bangalore

When a person undergoes a stressful event, the effects often last beyond the event itself. Whether it's a traumatic loss like the death of a parent or child, a violent event or the rigors of combat, the resulting stress can last for years. It's not a well-understood mechanism in the brain. While many people can experience multiple stressful events and be fine, others might only have one instance of stress and still feel repercussions for years. Some people appear to become resistant to stress such as those who work in stressful jobs like police officers, firefighters and other jobs that involve danger. Post-Traumatic Stress Disorder (PTSD) is considered a mental illness, new research shows that there is a definite physical component in the brain. The architecture of the brain can be altered from a single event.
Electrical activity in the brain, specifically in the amygdala, occurs after a stressful event, but is often delayed as much as ten days after the event occurs. The molecule involved is the N-Methyl-D-Aspartate Receptor (NMDA-R), an ion channel protein on nerve cells known to be heavily involved in the brain's processing of memory.
What exactly is the amygdala? It's a small bundle of nerve cells in the brain located deep within the temporal lobe. It's responsible for some of the brain's major functions, including memory development, emotional reactions and decision-making. Anything that impacts these nerve cells will naturally show up in the behavior of a person who has undergone trauma, The effect of trauma takes about 10 days to show up. Experiments with lab rats who had been stressed showed no immediate changes in the amygdala, but ten days on from the stress the rats began exhibiting anxiety behaviors, this is applicable to PTSD. This delayed effect after a single episode of stress was reminiscent of what happens in PTSD patients. The amygdala is hyperactive in PTSD patients. But no one knows as of now, what is going on in there. There are changes, but at a microscopic level. The stress actually seems to have re-routed nerve signals and created new synapses, which up until now had not been observed.  The study specifically looked at this region in the brain after a delay. Had they stopped when no immediate changes were seen, such as a day or two after the animals had undergone stress, the alterations in the molecular structure would not have been found. When was able to turn off production of the NMDA-R protein, the damage did not occur. It's hoped that this research will lead to finding a treatment window, during which this protein can be blocked. Hopefully if a way can be found to do that, the changes which produced the PTSD effects can be prevented





MISCELANEAS BREVES - 182Fecha: 2/10/2017



What Pregnancy Does to the Brain?

                                                                                                     Elseline Hoekzema

         Study  begun at Autonomous University of Barcelona and completed at Leiden University (Netherlands)

                                                                        Published: Journal Nature Neuroscience.



New mothers, and some that have been at it awhile, will agree that becoming a mother was a life-changing experience. In hundreds of ways, once a woman becomes a mother, almost everything changes. New research however points to demonstrable brain changes in women after they have given birth and these changes persist for years,.changes in the physical size and structure of the brain.

The study was conducted with 25 women and 19 of their male partners. Before giving birth they underwent high-resolution MRI scans. As a comparision group, 20 women and 17 of their male partners who had never had children and were not planning on it during the study period underwent the same scans.  
After giving birth the scans were repeated and the new moms showed a loss in volume of grey matter in areas of the brain associated with social cognition. This loss of brain volume was not necessarily a loss of function, but might be an example of the "pruning" of neural networks into more efficient synapses, a process which happens as adolescents mature as well. It was significant that this area of the brain that changed was the region involved in recognizing how others around us feel and that these changes might be the brain's way of adapting to the challenge of motherhood. It was noticed in the study that the new mothers had slightly lower scores in word learning tasks after giving birth, but the difference was not statistically significant and could have been due to factors like fatigue or sleep disturbances. These changes appear to persist for years as well. The mothers in this study were followed for a period of two years and based solely on volume of grey matter, a computer algorithm could correctly identify the brain of a woman who had given birth versus one from a woman who had not.
These changes were in proportion to the levels of bonding the moms had with their babies. Those women with the highest amount of overall brain volume changes also showed the highest level of maternal bonding. The brain areas that change during pregnancy coincide in part with those areas in a woman's brain that exhibit the strongest response to her child in the period after the birth. Another finding was that certain measures mother-child bonding could be predicted on the basis of the structural changes in the grey matter of the brain."
In view of the heavy hormonal changes that happen in pregnancy, that these changes would impact brain structure and size since during puberty similar levels of hormonal upheaval are taking place and the brain changes immensely during that period as well. The unparalleled changes in a woman's hormone levels during pregnancy would lead to changes in brain structure, In adolescence, these changes could - at least partially - reflect a selective fine-tuning of connections into a more specialized and efficient neural network."There are many examples in animals that pregnancy and birth produce significant brain changes, some that are lifelong depending on the species, not much human study had been done up until now.  .






Cardiovascular benefits associated with higher dietary K+ vs. lower dietary Na+: evidence from population and mechanistic studies


                                                                              Alicia McDonough

                                                 Am. J. of Physiology-Endocrinology and Metabolism - 2017


The World Health Organization ranks hypertension the leading global risk factor for disease,

specifically, cardiovascular disease. Blood pressure (BP) is higher in Westernized populations consuming Na+-rich processed foods than in isolated societies consuming K+-rich natural foods. Evidence suggests that lowering dietary Na+ is particularly beneficial in hypertensive individuals who consume a high-Na+ diet. Nonetheless, numerous population studies demonstrate a relationship between higher dietary K+, estimated from urinary excretion or dietary recall, and lower BP, regardless of Na+ intake.
Interventional studies with K+ supplementation suggest that it provides a direct benefit; K+ may also
be a marker for other beneficial components of a "natural" diet. Recent studies in rodent models
indicate mechanisms for the K+ benefit: the distal tubule Na+ Cl-  cotransporter (NCC) controls Na+ delivery downstream to the collecting duct, where Na+reabsorbed by epithelial Na+ channels drives K+ secretion and excretion through K+ channels in the same region. High dietary K+ provokes a decrease in NCC activity to drive more K+ secretion (and Na+ excretion, analogous to the actions of a thiazide diuretic) whether Na+ intake is high or low; low dietary K+ provokes an increase in NCC activity and Na+ retention, also independent of dietary Na+. Together, the findings suggest that public health efforts directed toward increasing consumption of K+-rich natural foods
would reduce BP and, thus, cardiovascular and kidney disease
How is potassium involved in the relationship between dietary sodium and blood pressure? Population studies showed that dietary potassium could lower blood pressure independently of sodium intake, and interventional studies confirmed this connection by showing that potassium supplementation directly benefitted healthy blood pressure. Some studies showed that the body uses sodium to regulate potassium levels in the blood. When dietary potassium is high, kidneys excrete more salt and water, which increases potassium excretion, eating a high potassium diet is like taking a diuretic.
A typical Western diet is high in sodium and low in potassium, virtually the opposite of what our leaner, more heart healthy, and more primitive ancestors ate. The increasing consumption of potassium-rich foods will lower blood pressure.

Now, the question that everyone is asking: how much potassium do I need to eat every day to be healthy? It is recommended at least 4.7 grams per day. According to the study's results, this amount of potassium has the ability to lower blood pressure, balance sodium intake, and reduce risk of kidney stones and bone loss.

High blood pressure affects billions of people across the globe, and researchers estimate that it is responsible for half of all stroke deaths and heart attack deaths.







Depression Has a Deadly Influence on Heart Disease

                                                                              Dr. Heidi May

Study presented at the 66th Annual Scientific Session of the American College of Cardiology in Washington, D.C


Researchers have determined that depression is the strongest predictor that death will occur in the first decade after a heart disease diagnosis. Patients with coronary heart disease who also experience depression are roughly twice as likely to die when compared with heart disease patients who are not diagnosed with depression.
The study shows that it doesn't matter if depression emerges in the short term or a few years down the road, it's a risk factor that needs to be assessed. Patients with coronary disease need to be continuously screened for depression, and if found to be depressed, they need to receive adequate treatment and continued follow-up.
The researchers focused on patients diagnosed with stable angina or unstable angina, or heart attack. All of those conditions result from an impaired flow of blood carrying oxygen to the heart, which usually happens because plaque builds up in the arteries of the heart. Coronary heart disease is an umbrella term for these disorders, when taken together they are the most common form of heart disease, responsible for the deaths of around 370,000 people in the U.S. every year.
It's known that heart disease and depression are linked together, with both increasing the likelihood of the other. This study has shown how devastating the long term impacts of this relationship are. The majority of studies evaluating depression following a heart disease event have occurred within 30 days of the event, the study sought to determine if the risk of all-cause mortality associated with depression varies with time between the diagnosis of heart disease and a follow-up depression diagnosis, 25,000 patients that were followed for an average of ten years after coronary heart disease diagnosis. About 15 percent of patients were subsequently diagnosed with depression (a larger segment when compared to the general population, which experiences depression at a rate of seven to ten percent), 3,646 people in the study had a follow-up diagnosis of depression; half of those patients died while the study was ongoing. In the 20,491 people that did not receive A diagnosis of depression, 38 percent died. The bottom line: after a heart disease diagnosis, people that were depressed were twice as likely to die compared to those that were not. The researchers confirmed the data after correcting for other diseases, age, gender, risk factors, medications, heart attack or chest pain, and follow-up complications.
Depression remained the strongest predictor of death in this group of patients. Clinicians need to pay attention to the things their patients are expressing, in terms of both physical symptoms as well as emotional and nonverbal factors.







Bright Lights and Screen Time Can Change the Brain                 

                                                                American Academy of Pediatrics (AAP)
                                                                Seattle Children's Research Institute
                                                                Society for Neuroscience


There is a great deal of debate surrounding the issue of young children and "screen time." It can't be overlooked that children today are heavily exposed to television, video games, computers and smartphones. And it's starting younger and younger as the technology evolves.
The American Academy of Pediatrics (AAP) issued guidelines in 1999 that advised no child under the age of 2 should have any screen time, including television. As gadgets like iPads and other tablets came into everyday use, this limit was hard for families to manage.
In the fall of 2016, the AAP revised their guidelines, saying that children under 18 months old should still have no screens, except for video chatting, since that can keep working parents connected to their children. In addition, children aged 2-5 are capable of getting some skills from certain apps and computer games, but the pediatricians still believe it should be limited to one hour a day and even then, parents and caregivers should be alongside children as they play.
A new study addressed the issue of the lights and sounds that are often part of screen use. Scientists recently completed work in lab mice to see how the sensory stimulation of lights and sound, similar to what happens in games, apps and children's television programs, would affect the brain and possibly behavior. They reported their findings at the November 2016 meeting of the Society for Neuroscience. Their results showed that after being exposed to certain sensory stimuli, the brains of the mice showed "profound" abnormalities and their behavior was significantly changed as well. Most of the mice exhibited behavioral changes that were quite similar to those exhibited in in attention-deficit/hyperactivity disorder.
In terms of stimulation and the brain, the kind of stimulation matters just as much as the amount. There are many developmental toys that have lights and sound and can help the brain develop, but too much or the wrong kind of sensory input has negative consequences in terms of brain development. While it's difficult to exactly mimic the kind of screen time children get in a lab full of mice, the team decided to use flashing lights and audio from the television shows. For six hours a day, the mice were exposed to a constant stream of stimulation, both visual and audio. The exposure started when the mice were 10 days old and lasted for six weeks. After that, the mouse brains were examined. They found dramatic changes everywhere in the brain. Mice that had been stimulated had fewer newborn nerve cells in the hippocampus, a brain structure important for learning and memory, than unstimulated mice." Behavior was an issue was well. The mice that had been exposed to the lights and noise were distinctly more active than the mice that had not been exposed, they had trouble remembering where their food was, and recognizing objects they had previously encountered. In addition they exhibited risky behaviors, going into open areas in the cages that mice normally would be intimidated by.
It wasn't the first go round on this kind of research for the team in Seattle. In 2012 they showed similar results in another research study and the most recent work replicates those findings in addition to providing more details about the behavioral changes in the mice exposed to this kind of stimulation.
While it remains to be seen if this research translates to human children, it's important to be aware of what young children are exposed to in terms of sensory stimulation.




MISCELANEAS BREVES - 181Fecha: 1/9/2017




                                                             José Luis Nieva, Jesús Pérez-Gil, Antonio Cruz,

                                 Departamento de Bioquímica y Biología Molecular I de la Universidad Complutense de Madrid

                                                                            Scientific Reports (2016)



El VIH (virus de la inmunodeficiencia humana) está envuelto por una membrana que se fusiona con las capas externas de las células que infecta. Esto permite que penetre su material genético y que las células sanas se reprogramen para fabricar más virus y extender la infección.. En este proceso, las proteínas de la cubierta del VIH juegan un papel fundamental, al ser capaces tanto de reconocer las células a las que van a atacar los virus (los linfocitos T) como de desencadenar su entrada en la célula, mediante la fusión de las diferentes membranas.
Se ha tratado de comprender cómo se produce esa fusión de las membranas, estudiando la cubierta del virus y sus proteínas, la alteración de las propiedades de la membrana del VIH puede ser una estrategia para detener o dificultar la infección  En el proceso de fusión de esa membrana intervienen ciertos componentes lipídicos muy particulares, que el propio virus selecciona de entre cientos de moléculas y que van integrados en las partículas virales;  también tiene su papel la presencia de nanodominios en la  membrana del virus, una mezcla de pequeñas regiones viscosas y rígidas que forman una estructura muy fina y muy susceptible a la fusión. Esta estructura prepara a la cubierta del virus para que se una a la nueva célula que quiere infectar, en un proceso dirigido por las proteínas. No obstante, si a esta estructura casi perfecta se unen ciertos compuestos que pueden alterarla, se puede bloquear la capacidad del VIH para inyectar su material genético.





MISCELANEAS BREVES - 180Fecha: 1/9/2017


What Happens in the Brain When You Tell a Lie

                                                                      Dr Tali Sharot - Dr. Neil Garrett 
                                                             Department of Experimental Psychology                                                                                                             University College London

Eventually, it gets easier for people to lie. It's a case of practice making perfect, but recent research on how the biology of the brain actually changes is something not shown before.

Once a person becomes used to telling lies that are "self-serving" or can lead to some sort of gain or advantage, there are detectable changes in the brain and these changes can predict the likelihood of the deceptive behavior continuing.

The brain scans showed that when participants told their first lie, the amygdala, which is the brain region associated with emotion, showed increased activity. As the volunteers continued the task, and the lies grew in significance and complexity the activity first shown in the amygdala declined. The most surprising part of the research was that that as the lies grew, and the activity in the amygdala lessened, the team could use the data to accurately predict which participants would continue to lie in future tasks.

When we lie for personal gain, our amygdala produces a negative feeling that limits the extent to which we are prepared to lie. However, this response fades as we continue to lie, and the more it falls the bigger our lies become. This may lead to a 'slippery slope' where small acts of dishonesty escalate into more significant lies.

The possible connection to becoming desensitized to violence by explaining, It is likely the brain's blunted response to repeated acts of dishonesty reflects a reduced emotional response to these acts. This is in line with suggestions that our amygdala signals aversion to acts that we consider wrong or immoral. We only tested dishonesty in this experiment, but the same principle may also apply to escalations in other actions such as risk taking or violent behavior.






Blood transfusion


                                                                NICE (National Institute for Health and Care Excellence)


Quality standard
Published: 15 December 2016


Quality statements Quality statements

Statement 1 People with iron-deficiency anaemia who are having surgery are offered iron supplementation before and after surgery.

Statement 2 Adults who are having surgery and expected to have moderate blood loss are offered tranexamic acid.

Statement 3 People are clinically reassessed and have their haemoglobin levels checked after each unit of red blood cells they receive, unless they are bleeding or are on a chronic transfusion programme.

Statement 4 People who may need or who have had a transfusion are given verbal and written information about blood transfusion.

Quality statement 1: Iron supplementation

Quality statement

People with iron-deficiency anaemia who are having surgery are offered iron supplementation before and after surgery.


Preoperative anaemia is associated with increased postoperative morbidity and mortality, and with increased transfusion needs. Treating iron deficiency with iron supplements can reduce the need for blood transfusion. This avoids serious risks associated with blood transfusion, for example infection, fluid overload and incorrect blood transfusions being given. It may also reduce the length of hospital stays and the cost to the NHS. Depending on the circumstances, the cause of the iron deficiency should be investigated before or after surgery.

Quality measures

a) Evidence of local arrangements to ensure that people with iron-deficiency anaemia who are having surgery are offered iron supplementation before surgery.

b) Evidence of local arrangements to ensure that people with iron-deficiency anaemia are offered iron supplementation after surgery.


a) Proportion of people with iron-deficiency anaemia who are having surgery and receive iron supplementation before surgery.

Numerator - the number in the denominator who receive iron supplementation before surgery.
Denominator - the number of people with iron-deficiency anaemia who are having surgery.

b) Proportion of people with iron-deficiency anaemia who receive iron supplementation after surgery.

Numerator - the number in the denominator who receive iron supplementation.
Denominator - the number of people with iron-deficiency anaemia who have had surgery.


Blood transfusion rates associated with surgery.

What the quality statement means for different audiences

Service providers (primary and secondary care services) ensure that systems are in place to offer iron supplementation before and after surgery to people with iron-deficiency anaemia.

Healthcare professionals (doctors, nurses and blood transfusion specialists) offer iron supplementation before and after surgery to people with iron-deficiency anaemia.

Commissioners (clinical commissioning groups) commission services that offer iron supplementation before and after surgery for people with iron-deficiency anaemia.

P eople who are having an operation and have anaemia caused by a lack of iron y a lack of ironshould be offered iron (usually as tablets) before and after the operation

Definitions of terms used in this quality statement

Iron supplementation Iron supplementation

People should have their haemoglobin levels checked at least 2weeks before surgery, if possible and necessary for the procedure they are having. If they have iron-deficiency anaemia, they should be offered iron supplementation. Oral iron should be offered initially, and started at least 2weeks before surgery. If oral iron is not appropriate, intravenous iron should be offered.

Quality statement 2:  Tranexamic acid for adults

Quality statement

Adults who are having surgery and are expected to have moderate blood loss are offered tranexamic acid.


Tranexamic acid can reduce the need for blood transfusion in adults having surgery. This avoids serious risks associated with blood transfusion, for example infection, fluid overload and incorrect blood transfusions being given. It may also reduce the length of hospital stays and the cost to the NHS.

Quality measures


Evidence of local arrangements to ensure that adults who are having surgery and are expected to have moderate blood loss are offered tranexamic acid.


Proportion of adults who are having surgery and are expected to have moderate blood loss who receive tranexamic acid.

Numerator - the number of adults in the denominator who receive tranexamic acid.
Denominator - the number of adults who are having surgery and are expected to have moderate blood loss.


Blood transfusion rates associated with surgery.

What the quality statement means for different audiences

Service pro viders(secondary care services) ensure that systems are in place to offer tranexamic acid to adults who are having surgery and are expected to have moderate blood loss.

Healthcare professionals (doctors, nurses and blood transfusion specialists) offer tranexamic acid to adults who are having surgery and are expected to have moderate blood loss.

Commissioners (clinical commissioning groups) commission services that offer tranexamic acid to adults who are having surgery and are expected to have moderate blood loss.

 Adults who are expected to lose more than half a litre of blood during an operation offered tranexamic acid. This helps blood to clot better and reduces blood loss during surgery.

Definitions of terms used in this quality statement

Moder Moderate blood loss ate blood loss

Adults who are expected to have blood loss greater than 500ml during surgery, as recorded on the World Health Organization surgical safety checklist.

 Quality statement 3: Reassessment after red blood cell transfusions

Quality statement

People are clinically reassessed and have their haemoglobin levels checked after each unit of red blood cells they receive, unless they are bleeding or are on a chronic transfusion programme.


Clinical reassessment and measurement of haemoglobin levels after each unit of red blood cells transfused helps healthcare professionals to decide whether further transfusions are needed. This helps avoid the serious risks associated with red blood cell transfusions, for example infection, fluid overload and incorrect blood transfusions being given. It may also reduce the length of hospital stays and the cost to the NHS. For children and for adults with low body weight, red blood cell transfusion volumes should be calculated based on body weight.

Quality measures


a) Evidence of local arrangements to ensure that people are clinically reassessed after each unit of red blood cells they receive, unless they are bleeding or are on a chronic transfusion programme.

b) Evidence of local arrangements to ensure that people have their haemoglobin levels checked after each unit of red blood cells they receive, unless they are bleeding or are on a chronic transfusion programme.


a) Proportion of red blood cell transfusions where a clinical reassessment of the person is carried out after each unit of blood transfused, unless they are bleeding or on a chronic transfusion programme.

Numerator - the number in the denominator where a clinical reassessment is carried out after each unit of blood transfused.
Denominator - the number of red blood cell transfusions in people who are not bleeding or on a chronic transfusion programme.

b) Proportion of red blood cell transfusions where the haemoglobin level of the person is checked after each unit of blood transfused, unless they are bleeding or on a chronic transfusion programme.

Numerator - the number in the denominator where the haemoglobin level of the person is checked after each unit of blood transfused.
Denominator - the number of red blood cell transfusions in people who are not bleeding or on a chronic transfusion programme.

Outcome Outcome

Incidence of serious adverse events after red blood cell transfusion.

What the quality statement means for different audiences

Service providers (secondary care services) ensure that systems are in place to clinically reassess people and check their haemoglobin levels after each unit of red blood cells transfused, unless they are bleeding or on a chronic transfusion programme.

Healthcare professionals (doctors, nurses and blood transfusion specialists) clinically reassess people and check their haemoglobin levels after each unit of red blood cells transfused, unless they are bleeding or on a chronic transfusion programme.

Commissioners(clinical commissioning groups) commission services that clinically reassess people and check their haemoglobin levels after each unit of blood transfused, unless they are bleeding or on a chronic transfusion programme.

Peoplewho ha ve a red blood cell transfusion ansfusionhave an assessment and their haemoglobin levels checked after the transfusion to see if they need another one, unless they are bleeding or need regular blood transfusions.

Definitions of terms used in this quality statement

This includes:

  • Asking the person if their anaemia symptoms have resolved
  • Asking the person about any new symptoms that might indicate an adverse response to transfusion (such as circulatory overload)
  • Reviewing the vital signs taken before, during and after the transfusion
  • Any further clinical assessment that could be needed.

Quality statement 4: Patient information

Quality statement

People who may need or who have had a blood transfusion are given verbal and written information about blood transfusion.


It is important that people fully understand the benefits and risks of a blood transfusion, so they can give informed consent. Discussing the alternatives, and knowing that they cannot donate blood after a blood transfusion, helps people to decide if they want one. However, some blood transfusions are not planned and are carried out in an emergency. In these cases information should be given after the transfusion, including advice about the implications of the transfusion. Helping people to understand the process and its implications can improve their experience of receiving a blood transfusion.

Quality measures


Evidence of local arrangements to ensure that people who may need or who have had a blood transfusion are given verbal and written information about blood transfusion.


a) Proportion of people who may need a blood transfusion who are given verbal and written information about blood transfusion.

Numerator - the number in the denominator who are given verbal and written information about blood transfusion.
Denominator - the number of people who may need a blood transfusion.

b) Proportion of people who have had a blood transfusion who are given verbal and written information about blood transfusion.

Numerator - the number in the denominator who are given verbal and written information about blood transfusion.
Denominator - the number of people who have had a blood transfusion.


Patient satisfaction with information they are given about blood transfusion.

What the quality statement means for different audiences

Service providers (secondary care services) ensure that systems are in place to give verbal and written information about blood transfusion to people who may need or who have had a blood transfusion.

Healthcare professionals (doctors, nurses and blood transfusion specialists) give verbal and written information about blood transfusion to people who may need or who have had a blood transfusion.

Commissioners (clinical commissioning groups) commission services that give verbal and written information about blood transfusion to people who may need or who have had a blood transfusion.

 People  who may need  a blood transfusion, or who have had one unexpectedly  (for example, xample, because of serious bleeding during an operation, have information about blood transfusion explained to them verbally and in writing.

Definitions of terms used in this quality statement

People  who may need a blood transfusion

People who have had a blood sample taken and sent to the blood transfusion laboratory for grouping and/or antibody screening.

 Verbal and written information should cover:

  • The reason for the transfusion
  • The risks and benefits
  • The transfusion process
  • Any transfusion needs specific to them
  • Any alternatives that are available, and how they might reduce their need for a transfusion
  • That they are no longer eligible to donate blood.


About this quality standard

NICE quality standards describe high-priority areas for quality improvement in a defined care or service area. Each standard consists of a prioritised set of specific, concise and measurable statements. NICE quality standards draw on existing NICE or NICE-accredited guidance that provides an underpinning, comprehensive set of recommendations, and are designed to support the measurement of improvement.

See quality standard advisory committees on the website for details of standing committee2 members who advised on this quality standard. Information about the topic experts invited to join the standing members is available on thequality standard's webpage.

This quality standard has been incorporated into the NICE pathway on blood transfusion.

NICE has produced aquality standard service improvement template to help providers make an initial assessment of their service compared with a selection of quality statements. This tool is updated monthly to include new quality standards.

NICE produces guidance, standards and information on commissioning and providing high-quality healthcare, social care, and public health services. We have agreements to provide certain NICE services to Wales, Scotland and Northern Ireland. Decisions on how NICE guidance and other products apply in those countries are made by ministers in the Welsh government, Scottish government, and Northern Ireland Executive. NICE guidance or other products may include references to organisations or people responsible for commissioning or providing care that may be relevant only to England.

Improving outcomes

This quality standard is expected to contribute to improvements in the following outcomes:

  • Reduction in inappropriate or unnecessary blood transfusions
  • Adverse events associated with blood transfusion
  • Mortality after blood transfusion.

Supporting organisations

Many organisations share NICE's commitment to quality improvement using evidence-based guidance. The following supporting organisations have recognised the benefit of the quality standard in improving care for patients, carers, service users and members of the public. They have agreed to work with NICE to ensure that those commissioning or providing services are made aware of and encouraged to use the quality standard.

  • NHS Blood and Transplant
  • Royal College of Physicians
      • UK Transfusion Laboratory Collaborative




MISCELANEAS BREVES - 179Fecha: 5/8/2017


 Where Depression Lives in the Brain

                          Professor Edmund Rolls (Warwick)
                          Professor Jianfeng Feng (Warwick and from Fudan University - Shanghai)
                          Dr Wei Cheng (Fudan University - Shanghai)


Feeling down? It's all in your head but now researchers know where. Depression is often associated with a stigma that those who suffer from it just are not trying hard enough. Especially if a person is depressed but there has been no traumatic event in their lives. Many would say that it's not real, that patients need to "get over it" and just choose to feel better, but with the recent findings, there might be more understanding of the illness that can be so crippling.

A study pinpoints a specific area of the brain that is affected by depression. The lateral orbitofrontal cortex is the part of the brain that regulates non-reward. The brain is highly efficient in processing tasks that produce a reward and humans quickly learn to repeat actions that produce a reward. However, when the brain doesn't signal a reward, that leads to feelings of loss and sadness.  The lateral orbitofrontal cortex is implicated in this process. It's also the same part of the brain that regulates the sense of self and personal worth, so there's a connection to the lack of a reward and the feelings of low self-esteem that depressed patients often experience. The study also showed that depressed patients have reduced connectivity in the reward brain area (which is in the medial orbitofrontal region) when it interacts with the parts of the brain that store memories. This is possibly the mechanism that keeps depressed patients from remembering happier times. This loss of connectivity to better times results in the depression lingering.
 The study recruiting over 1000 participants in China who agreed to have high precision MRIs. These scans looked closely at the connections in both the medial and lateral oribitofrontal cortex and that is where the researchers found the activitiy associated with depression. Being able to see this kind of connectivity in the brain could lead to new treatments for patients.
These new discoveries could be a breakthrough in treating depression, by getting to the root cause of the illness, and helping depressed people to stop focusing on negative thoughts. Medial reward and lateral non-reward orbitofrontal cortex circuits change in opposite directions in depression.





MISCELANEAS BREVES - 178Fecha: 5/8/2017



Actividad Neuronal Temprana al Nacer; Esencial para el Cerebro

                                                   Fernanda Rodriguez-Tomos; Carlos G. Briz; Marta Nieto y col
                                                                                  Neuron - january 2016


Millones de fibras conectan una mitad y otra del cerebro de mamíferos. Juntas forman el cuerpo calloso y transmiten información esencial para que los dos hemisferios cerebrales puedan comunicarse entre sí. Si este cableado no se forma bien durante el desarrollo postnatal, los hemisferios funcionarán de manera descoordinada, provocará la pérdida de las funciones superiores del cerebro y enfermedades mentales con origen en el desarrollo.
La actividad neuronal durante los primeros días tras el nacimiento, orquestada por la expresión de Cux1 ( proteína que influye en la diferenciación neuronal), es esencial para que esta autopista de información se forme correctamente. La expresión de Cux1 es un factor de transcripción que especifica el subtipo de neurona en el que se convertirán ciertas células del cerebro, influye en la actividad de la neurona en el cerebro en desarrollo, controla, en última instancia, la formación de las conexiones  Por primera vez, un factor de transcripción y la actividad neuronal postnatal se han relacionado con la formación de una estructura cerebral tan importante como es el cuerpo calloso..
Cuando los científicos inactivaron el gen Cux1 en embriones de ratón, las neuronas dejaban de expresar en sus membranas canales de potasio Kv1. El resultado era una actividad eléctrica anormal. Como consecuencia, la neurona era incapaz de formar la conexión a través del cuerpo calloso. En el cerebro adulto, cada neurona tiene su actividad característica, un código que le sirve para comunicarse con otras células del circuito, durante el proceso de formación del circuito, cada neurona contiene información que determina con quién va a ser capaz de conectarse.
El estudio ha demostrado que si se recupera la función de estas proteínas tras el nacimiento, el cerebro es capaz de reconectarse correctamente. Durante un tiempo limitado, después del nacimiento, es posible restaurar las conexiones perdidas. 
Esto sugiere que podría haber esperanza de recuperación en condiciones patológicas humanas relacionadas con una incorrecta formación del cuerpo calloso o una pérdida de conexiones neuronales de otros tipos.






Interpretación Estudios del Hierro.

                                                                  Alison U Kelly, Stephen T McSorley, Prinesh Patel

                                                                                                   BMJ - 2017

                                                                  Resumen y comentario objetivo: Dra. Marta Papponetti



Presentación de un caso

Una mujer de 63 años visita a su médico con el antecedente de 3 meses de fatiga y dolores articulares generalizados. Su historial médico es poco significativo y no reporta ningún estrés, infección o pérdida de peso recientes. No hay anormalidades en el examen clínico. La hemoglobina, la creatinina y los electrolitos, enzimas hepáticas, glucemia, marcadores inflamatorios y pruebas de la función tiroidea son normales. Se solicitaron además, ferritina, hierro, transferrina y saturación de transferrina.


El médico solicita estudios de hierro para:

* Descartar la posibilidad de sobrecarga de hierro y detectar la       hemocromatosis.
* Investigar la deficiencia de hierro.
* Para controlar la respuesta al tratamiento.

Razones para los estudios de hierro

Investigación de:

# Sobrecarga de hierro (hemocromatosis).

    • En etapas tempranas puede ser asintomática o presentarse con síntomas vagos como fatiga, debilidad o artralgias generalizadas.

    • Las manifestaciones posteriores podrían ser la alteración de las enzimas hepáticas, cirrosis, disfunción eréctil, artritis o cardiomiopatía.

     • Sospecha de sobredosis de hierro/toxicidad.

# Deficiencia de hierro

    • Investigar la etiología de la hemoglobina baja

    • Síntomas de anemia (letargo, disnea, palpitaciones, palidez, cefalea, glositis atrófica, queilosis angular. Sospecha de sangrado evidente u oculto en varones y en mujeres post menopáusicas (úlcera péptica)

    • Menorragia

    • Malabsorción de hierro─por ej., investigación de pérdida de peso no intencional o diarrea crónica, o secundaria a condiciones existentes como la enfermedad celíaca.

    • Anemia en el embarazo (aumenta la demanda de hierro).

   • Investigación por bajo crecimiento infantil-

    • Distinción de las reservas bajas de hierro de la deficiencia funcional de hierro, por ej., en la enfermedad renal crónica,

 Respuesta al tratamiento médico

   • Monitoreo de los pacientes que requieren transfusiones o venesecciones repetidas.

    • Seguimiento de la respuesta a los quelantes de hierro.

    • Evaluación de la respuesta a la terapia con hierro


Las pruebas convencionales de laboratorio sobre el estado del hierro suelen denominarse "estudios de hierro". Estos incluyen:  ferritina sérica, hierro, transferrina o capacidad total de fijación de hierro (TIBC) y saturación de transferrina.
El hierro es un componente clave de la hemoglobina en los glóbulos rojos, la mioglobina (músculo), metaloproteínas y enzimas.
El hierro es esencial para la captación del oxígeno, su liberación en los tejidos, la utilización del oxígeno por las células musculares y la producción de energía mitocondrial.
El cuerpo masculino adulto contiene 3-5 g de hierro. Menos del 0,1% de las reservas totales del hierro corporal circulan en el plasma.
El Fe3+de la dieta se reduce a Fe2+ y es transportado en el enterocito por el transportador de metales divalentes DMT1. El hierro es exportado a través de la membrana basolateral de la proteína ferroportina 1 exportadora de hierro o almacenado como ferritina.
El hierro ligado a la transferrina se une al receptor 1 al de la transferrina  (TFR1) y es tomado por la célula vía la endocitosis mediada por receptores. La expresión de TFR1 está regulada localmente por las demandas celulares de hierro, a través de la unión de las proteínas reguladoras del hierro. Los eritrocitos viejos o dañados son removidos de la circulación por los macrófagos esplénicos.
El hierro se elimina del hem por la hemoxigenasa 1 y es almacenado como ferritina o liberado a la circulación. La regulación de la liberación del hierro a nivel sistémico está regulada por la hormona peptídica hepcidina (producida predominantemente por los hepatocitos) y tiene un efecto inhibidor sobre la liberación de hierro de las células y la absorción de hierro de la dieta. La expresión está controlada por vías de señalización complejas.

Estudios de hierro

♦ Ferritina─es la forma de almacenamiento intracelular del hierro. Una cantidad muy pequeña se encuentra en el suero. En la inflamación, la enfermedad hepática y las enfermedades malignas, los niveles de ferritina pueden aumentar porque en estos pacientes la ferritina puede aparecer falsamente elevada o normal, cuando en realidad las reservas son bajas.

♦ Hierro sérico─se refiere a los iones férricos (Fe3+) unidos a la transferrina sérica. La concentración sérica de hierro es muy variable y está afectada por la ingesta dietética de hierro, la inflamación y la  infección.

♦ Transferrina─ es la principal proteína de transporte del hierro en el plasma. Aumenta en la deficiencia de hierro para maximizar la utilización del hierro disponible. La TIBC es una prueba alternativa a la transferrina; refleja la disponibilidad de sitios de unión al hierro en la transferrina. Los valores aumentan en la deficiencia de hierro y disminuyen en la sobrecarga de hierro. Algunos laboratorios miden el hierro insaturado (UIBC) y calculan la TIBC agregando del hierro sérico al UIBC.

♦ Saturación de transferrina─se calcula a partir del hierro sérico y las mediciones de la TIBC o la transferrina. Típicamente, la transferrina está 30% saturada con hierro. La saturación de transferrina aumenta en la sobrecarga de hierro y cae en la deficiencia de hierro, pero no refleja cuantitativamente el aumento del hierro sérico debido a que la ingesta dietética de hierro puede provocar un aumento de la saturación de la transferrina.



 La sobrecarga de hierro típicamente produce una ferritina y saturación de transferrina elevadas.

 La deficiencia de hierro se evalúa mejor utilizando la ferritina sérica, que es baja en ausencia de inflamación.

 Los niveles de ferritina pueden elevarse por procesos inflamatorios y puede enmascarar la deficiencia de hierro.



Interpretación de Estudios

La interpretación de los estudios de hierro puede ser difícil debido a las dificultades afectan a casi todos los marcadores del estado del hierro. Sin embargo, los estudios de hierro desempeñan un papel importante en la evaluación clínica. Aunque si bien los intervalos de referencia se citan, pueden variar según el laboratorio y deben ser confirmados localmente.

Sobrecarga de hierro

Las pruebas de sobrecarga de hierro (aumento de las reservas totales de hierro corporal con o sin disfunción orgánica) pueden estar causadas por ciertas características como las enumeradas en el cuadro precedente. La sobrecarga primaria de hierro incluye: mutaciones heredadas en los genes reguladores del hierro (causando síndromes de sobrecarga de hierro, como la hemocromatosis). La sobrecarga secundaria de hierro se asocia con otras condiciones, como se puede ver en el siguiente cuadro.

Causas de sobrecarga de hierro


  • Mutaciones heredadas en los genes reguladores de hierro (por ej., hemocromatosis)


  • Transfusión sanguínea repetida (por ej., beta talasemia, anemia de células falciformes).
  • Anemias por carga de hierro (por ej., beta talasemia, anemias sideroblásticas, anemia hemolítica crónica, anemia aplásica).
  • Hierro y suplementos que contienen hiero (enteral y parenteral).
  • Porfiria cutánea tarda (acumulación hepática de hierro)

La hemocromatosis hereditaria (enfermedad genética autosómica recesiva causada por la mutación del gen HFE) es la causa heredada común de la sobrecarga de hierro. El polimorfismo homocigota de C282Y afecta a 1 de cada 200 personas descendientes de europeos del norte y representa más del 80% de los casos reconocidos. La penetración clínica varía ampliamente (1%-28% de los homocigotas C282Y en estudios poblacionales).
En un grupo no seleccionado de la población, la ferritina sérica aumentó (>200 μg/l en mujeres premenopúsicas >300 μg/l para los hombres y las mujeres posmenopáusicas) y la saturación de transferrina fue hallada en más del 50% de los homocigotas C282Y, con una sensibilidad del 90% en los hombres y 75% en las mujeres.
Las técnicas para evaluar la sobrecarga de hierro incluyen  biopsia hepática, resonancia magnética y susceptometría mediante el dispositivo superconductor de interferencia cuántica (SQUID, siglas en inglés), un método no invasivo que mide la cantidad de magnetización in vivo causada por el hierro hepático. Las indicaciones para estas pruebas pueden incluir la hiperferritinemia marcada (>1.000 μg/l) o la evaluación adicional cuando el diagnóstico de sobrecarga de hierro despierta dudas. Estos métodos no están ampliamente disponibles y son generalmente solicitados por especialistas.

Consejos sobre solicitudes e interpretación

♦ Solicitar conjuntamente la ferritina sérica y la saturación de transferrina para evaluar la sobrecarga de hierro, junto con la hemoglobina para Identificar la anemia y apoyar las decisiones terapéuticas (por ej., la sangría).

♦ Si la única anomalía bioquímica hallada es la saturación de transferrina elevada o el resultado está en el límite, se debe repetir la prueba en ayunas para eliminar un aumento causado por el hierro de la dieta.

♦ Si la saturación de transferrina está persistentemente elevada, se puede hacer el análisis de los genes HFE, con asesoramiento previo a la prueba.

♦ En los homocigotas C282Y, la saturación de transferrina es el primer parámetro bioquímico en subir. La ferritina sérica puede ser normal en las primeras etapas de la enfermedad, pero posteriormente, los pacientes desarrollan sobrecarga de hierro clínicamente significativa (disfunción orgánica con o sin síntomas).
En las guías de los establecimientos se ha propuesto el monitoreo anual de la ferritina sérica. Si se desarrolla hiperferritinemia o la ferritina asciende progresivamente y en el establecimiento se carece de protocolos locales definidos, considerar la derivación del paciente para continuar la evaluación.

♦ La ingestión de hierro terapéutico (incluyendo el hierro que contienen los multivitamínicos) puede elevar la saturación de transferrina a niveles que alcanzan el 100%, y en base a su experiencia clínica, los autores recomiendan esperar 4 semanas después del cese del tratamiento, antes de solicitar hierro sérico, la transferrina/TIBC, y la saturación de transferrina.

♦ EL contenido elevado de hierro, transferrina, saturación de transferrina y ferritina puede verse en la lesión hepática aguda debido a la fuga de los contenidos intracelulares, y puede dar la impresión incorrecta de sobrecarga de hierro.

Investigando la deficiencia de hierro

Definiciones de la deficiencia de hierro de la OMS (2001)

  • Ferritina <15 μg/l
  • Saturación de transferrina <16%
  • Aumento de la hemoglobina de 1 g/dl después de 2 meses de suplementación con hierro (los valores varían según la etnia y el embarazo)
  • La anemia se define si hay hemoglobina <120 g/l en mujeres y es <130 g/l en los hombres (≥15 años de edad).

La ferritina sérica baja (<15 μg/l) proporciona evidencia absoluta de deficiencia de hierro.
La deficiencia de hierro puede resultar de:

1.   ingesta inadecuada de hierro

2.   absorción inadecuada

3.   pérdida de hierro por sangrado, ya sea evidente u oculto una combinación de ambas.

La prevalencia varía según la región y a menudo baja utilizando la anemia como indicador indirecto.
Una cuarta forma de deficiencia de hierro es la funcional. En estos pacientes hay suficientes reservas de hierro pero no se utilizan adecuadamente. La deficiencia funcional de hierro puede ocurrir en pacientes con enfermedades infecciosas crónicas, inflamatorias o malignas. Las citocinas inflamatorias aumentan la síntesis de la proteína hepcidina reguladora del hierro. La hepcidina disminuye la absorción del hierro del tracto gastrointestinal e impide la movilización del hierro de los macrófagos y los hepatocitos. Por ejemplo, en ciertos pacientes, como aquellos con enfermedad renal crónica, la ferritina por debajo de los valores de referencia indica el almacenamiento deficiente de hierro; Sin embargo, los valores normales o elevados no pueden excluir la deficiencia funcional de hierro. Un estudio retrospectivo con resultados de más de 20.000 pacientes halló que en los pacientes con proteína C reactiva >10 mg/l, la ferritina sérica aumenta y la transferrina y el hierro séricos disminuyen.

El diagnóstico de deficiencia funcional de hierro en pacientes con una condición inflamatoria puede ser útil para guiar las Investigaciones y el tratamiento (por ej., suplementos de hierro), particularmente cuando el paciente tiene anemia sintomática o se sospecha una pérdida de sangre oculta. Sin embargo, esto es problemático pues no existe un marcador bioquímico único confiable y ampliamente disponible de la deficiencia funcional de hierro. El British Committee for Standards in Haematology recomienda la determinación del porcentaje de eritrocitos hipocrómicos (% HRC) como la mejor variable establecida para el diagnóstico de deficiencia de hierro funcional.
Para el diagnóstico de deficiencia de hierro por enfermedad renal se recomienda el %HRC (>6%) siempre que la muestra pueda ser procesada dentro de las 6 horas. Sin embargo, esto podría estar impedido por la disponibilidad de los servicios del laboratorio. Una alternativa es el contenido de hemoglobina de los reticulocitos (<29 pg).
Como marcadores de la deficiencia funcional de hierro se han propuesto la protoporfirina de zinc de los eritrocitos, el receptor de transferrina soluble y la relación receptor de transferrina soluble/log ferritina pero no están ampliamente disponibles y el receptor de transferrina soluble está sujeto a dificultades con la estandarización entre laboratorios. Son de uso limitado para el clínico general. La medición de la hepcidina como herramienta de diagnóstico está restringida a la investigación actual. No obstante, la armonización de los ensayos y la validación en el contexto clínico están en curso.

Puntos importantes a tener en cuenta al interpretar los estudios de h en el contexto de la deficiencia de hierro

♦ Es mejor investigar la sospecha de anemia por deficiencia de hierro utilizando ferritina sérica. La deficiencia de hierro se confirma por un nivel de ferritina por debajo del intervalo de referencia.

 El hierro sérico bajo no puede interpretarse aisladamente porque puede estar presente en la infección, la inflamación y la malignidad así como la deficiencia de hierro. Si la ferritina sérica es normal o elevada y la saturación de transferrina está por debajo de su respectivo valor de referencia se recomienda medir la proteína C reactiva.

♦ La saturación de transferrina <16% es poco específica, ya que el embarazo, el uso de anticonceptivos orales y las enfermedades crónicas dan lugar a una saturación de transferrina baja sin deficiencia de hierro.

♦ En general, se debe evitar hacer estudios de hierro en aquellos pacientes con enfermedad inflamatoria o cuando la proteína C reactiva es >10 mg/l. Para los pacientes con condiciones inflamatorias crónicas, la interpretación debe hacerse con cautela y discutir los resultados con el especialista tratante de la condición, o con hematología si hay dudas.



La ferritina sérica baja (<15 μg/l) proporciona evidencia absoluta de deficiencia de hierro


Seguimiento de la respuesta al tratamiento

Comúnmente, las determinaciones seriadas de ferritina sérica se solicitan para monitorear el estado del hierro en pacientes que están recibiendo intervenciones para tratar la deficiencia de hierro o prevenir la sobrecarga ─por ejemplo, sangría o quelación de hierro. La medición del hierro elegida depende de la situación clínica.
Se recomienda monitorear la ferritina en aquellos pacientes con hemocromatosis sometidos a sangría para disminuir el hierro hasta que la ferritina sea <50 μg/l, para posteriormente mantener su valor entre 50 y 100 μg/l. Los estudios de hierro permiten guiar el tratamiento con hierro intravenoso.
En la enfermedad renal crónica, la concentración sérica de ferritina <100 μg/l en pacientes no dializados o <200 μg/l en pacientes en hemodiálisis crónica se asocia con una probabilidad elevada de deficiencia de hierro y una respuesta potencialmente buena al tratamiento con hierro intravenoso. La respuesta a la terapia oral con hierro en la anemia ferropénica por lo general se puede confirmar mediante el seguimiento del aumento de la hemoglobina, y no es rutinariamente necesario volver a verificar los estudios de hierro.


Resultados en la paciente presentada

Los resultados en la paciente mostraron:

  • Ferritina 682 μg/l (rango normal 15-200)
  • Hierro 34 nmol/l (10-30)
  • Transferrina 2,0 mg/l (2-3,5)
  • Saturación de transferrina 68% (25-45)

Valores compatibles con sobrecarga de hierro.
Después de discutir las pruebas genéticas, la paciente dio su consentimiento para el análisis de genes HFE. Se halló la mutación homocigótica C282Y, confirmando el diagnóstico de Enfermedad Hereditaria Hemocromatosis.
Fue remitida a un especialista para la evaluación y tratamiento mediante sangrías.








Best Practices for Monitoring Cardiac Troponin in Detecting Myocardial Injury


                                                                                                      Moderator: Fred S. Apple

                                                                                            Clinical Chemistry 2017;63:37-44


* Dr. Allan S. Jaffe (department of Cardiology and Departament of Laboratory, Mayo Clinic, Rochester,MN)

* Dr. Scott Sharkey (senior consulting cardiologist, Minneapolis Heart Institute and chief Medical Minneapolis Heart Foundation)

* Dr. Peter Kavsak (Associate professor al McMaster University, Hamilton, Ontario,Canada)

* Dr Michael C. Kontos (Associate professor and medical director of the Coronary Intensive Care University of Virginia)

* Dra Amy K. Saenger (Associate professor department Laboratory Medicine,University of Minnesota, Minneapolis)

* Dr.Stephen Smith (Emergency Physician al Hennepin County Medical Center)


Should all medical center have a uniform serial order set to assist in ruling in/out AMI?
Should a single cardiac troponin order be available?
What would your ideal serial set (timing)be?


Allan S. Jaffe: Medical Center would benefit from developing consistent, uniform serial orders to rule in/out  AMI. These serial orders should be to by emergency medicine, cardiology, internal medicine and laboratory medicine. Given that we do not have hs-cTn assays available in US, the best timing is still 0 (presentation), 3 and 6 h. Because many patients present late, the vast majority of rule in/out and risk stratification action is likely to occur within 3 h of de onset. Single cardiac troponin orders with the current contemporary assays are rarely  of use but may have a role if one is interested  in estimating  infarct size. What should discourage, however, is the idea that one should start to rule in/out  AMI and then truncate that procedure . In essence, when you start such a procedure it implies that there is at least some reasonable possibility that acute ischemic heart disease is present

Scott Sharkey: Cardiac troponin testing should be standardized throughout the US and preferably internationally, and single troponin testing should be allowed. Admission (0), 3 and 6 h serial orders are preferred. Timing should be from admission and not from symptom onset, as it is too bad to make a determination when symptoms began in many patients and would make timing difficult.

Peter Kavsak: Having a standard serial orders set would be an ideal situation. However, this is often difficult to achieve . In our hospital network , it was only through collaboration between emergency medicine, internal medicine, laboratory medicine and cardiology that we were able to go to standard serial order set in the emergency department  and this was only possible  when we transitioned  to h-cTn assay. Presently, the laboratory does not place any  restriction  on cardiac troponin testing. We have  observed  a number of emergency department patients do not have a second cardiac troponin order, so clinically a single cardiac troponin result  is being used. Currently, with an h-cTn assay we have adopted a 0 and 3 h protocol, with interest from emergency medicine to shorten this time frame further.

Michael C. Kontos:  The optimal order pathway/order set should include  2-3 samples, with the second sample collected 2-3 h after de first (depending on assay) and the third one after 6 h after the first. The third sample should be an optional one that is based on risk (i.c. low-risk patient based standard scoring scheme would have 2 samples, while intermediate-risk 3 samples). Our current pathway allows this ability to check specific samples and 0-3 , and 6 h set. Although much has  been made of using a single sample for patients who present hours after symptom onset. I believe this can be confounded an inaccurate history, in which the symptoms have been waxing/waning and the patient presents acutely due to substantially worsening symptoms, A single sample should be limited to those who have been symptom free for 2-3 h. Not asked in the question is what the optimal reporting should be. For patients having serial samples, the absolute change between the 2 values should be reported, highlighting those values that exceed the recommended value defining significant change for the assay. We implemented this approximately 1-2 years ago, and it has decreased the degree of confusion in trying to determine if the patient has acute coronary syndrome.

Amy K. Saenger : I think that standardized chest pain protocol with defined serial draws be implemented within a medical center/health system. Ultimately this would provide measurable results in terms of optimizing patient care and outcomes. In my experience, streamlining the phlebotomy draws in the order set helps substantially. In the emergency department the clinician only has to order the chest pain protocol and all of the subsequent
timed cardiac troponin samples are automatically queued and ordered behind the scenes. This eliminates error related to missed orders and/or forgetting to draw the cardiac troponin samples at the specific times. A standard timed collection also helps define what a clinically significant   'rise and/or fall" of cardiac troponin is in a given AMI population because variation calculations require fairly stringent collection protocols. One challenge is adhering to the American Heart Association, College of American Cardiology Non-ST Elevation-ACS (AHA/ACCNSTE-ACS) guidelines, which state that clinical laboratory reports should indicate whether a clinically significant acute change in cardiac troponin has occurred, specific to the assay  used. While a uniform 20% the change or 3 SD of the baseline cardiac troponin concentration is recommended to define a clinically significant change, in reality we do not know for certain if this are the most accurate values for each assay, nor is this information defined in the manufacturer's  package insert. Ideally a clinical study would probe and define an appropriate change of value using the same set of patient samples and adjudicated based on  the h-cTn as the gold standard. Without this information it is unrealistic to expect clinical laboratories to broadly implement reporting deltas. I would not completely limit ordering cardiac troponin  as a serial order set, although one could argue that only serial order sets (not single troponin orders) should be available in the emergency department. Cardiac troponin is also used for risk stratification in other non ACS populations. An ideal serial order set would be 0,3 and 6 h based on contemporary cardiac troponin assays. I have reservations about a baseline and 1 h sample providing relevant information regarding an acute serial change in h-cTn unless the phlebotomy collection timing is very strict and turnaround time for results is rapid. Limits around the timing of collections should be defined and implemented based on the efficiency and logistics of the clinical practice.

Stephen Smith:  Yes, there should be some flexibility in select cases. For instance, there are times when it is beneficial to get a second cardiac troponin measurements  very soon after the first. In such a case, strict adherence to an every 3 o 4 h schedule could delay diagnosis. In some patients with acute coronary occlusion, the electrocardiogram (ECG) is not normal but also no diagnostic of ischemia, and the first cardiac troponin  is below the limit of detection (LoD) or < 99th percentile. These patients frequently have delayed diagnosis and by the time the second cardiac troponin result returns it may be 4 h after presentation in the emergency department (e.g., the first cardiac  troponin is drawn at 30 min after arrival, is resulted at 60 min and is "negative" ; the second is drawn at 3,5 h after presentation and resulted at 4 h). By this time, the infarct is complete. In occasional cases in which the first cardiac troponin result  (0 h) is negative, it is beneficial to check a 1 h to be certain that cardiac troponin is not rising rapidly. There are studies using 0 an 1 h or 0 and 2 h hs-cTn to "rule in" MI, but they have not been promoted for contemporary cardiac troponin assays, which are the only cardiac troponin methods currently available in the US. I would not promote every 1 h contemporary cardiac troponin for rule out MI. There is only anecdotal data in such an approach to rapid rule in MI, but I believe it may be important in select cases. A single cardiac troponin should be available to patients for whom AMI is secondary concern. It is important for patients who need to be admitted to the hospital for 1 condition, but also need to be screened for myocardial injury. A single cardiac troponinis also very useful  for low risk patients with prolonged chest pain who will be discharged. For them, any subsequent order in a set will be automatically cancelled when the patient is not longer in the hospital and available for blood sampling. Clinical orders would be as follows. For a usal patient and when using contemporary cardiac troponin assay: 0,3,6,9 h; revised when using hs-cTn to 0,1,3,6 h or 0,2,6 h depending on the assay. For high risk patient and using contemporary cardiac troponin assay: 0,1,2,3,6,9 h; revised when using an hs-cTn assay to: 0,1,2,3,6 h                                                



MISCELANEAS BREVES - 177Fecha: 1/7/2017


Análisis de sangre para predecir recaída de pacientes con cáncer

                                             Bert Vogelstein (Universidad Johns Hopkins - EU)
                                             Eliza Hall          (Investigaciones Médicas de Victoria-Australia)
                                             Peter Gibbs       (Instituto Waltzer)

                                                                 Science Translational Medicine - Julio 2016


En un estudio con una técnica llamada biopsia líquida, analizaron la sangre de 230 personas que habían sido sometidas a cirugías de cáncer de colon, se descubrió la capacidad de predecir la probabilidad de que sus tumores se regeneraran. Los resultados, demuestran que las biopsias líquidas pueden distinguir entre los supervivientes de cáncer que tienen altas probabilidades de curarse y los que tienen un gran riesgo de sufrir una recaída.
En las biopsias tradicionales, un trozo de tumor es extraído y llevado al laboratorio para análisis. En cambio, una biopsia líquida emplea máquinas de secuenciación genética para rastrear la sangre del paciente en busca de diminutos fragmentos de ADN mutado.  liberados por las células tumorales moribundas y permiten identificar cánceres que de otra forma resultan invisibles para el diagnóstico médico. Esta información podría ayudar a los pacientes con cáncer de colon de fase II. En esta fase, los tumores están bastante avanzados pero aún no han generado metástasis, por lo que los cirujanos pueden curar al 80% de los pacientes al extraer sus tumores, pero algunos restos pueden quedarse atrás, lo que significa que algunos pacientes sufrirán su regeneración. Antes de las biopsias líquidas no existía ninguna herramienta precisa para determinar quién se había curado y quién recibiría sesiones adicionales de quimioterapia para eliminar las células cancerígenas restantes.
El estudio intenta averiguar si las biopsias líquidas podrían realizar esa predicción. Se extrajo sangre repetidamente de los pacientes de cáncer de colon mientras se sometían al tratamiento y después los siguieron durante dos años. Ni los pacientes ni sus médicos fueron informados de los resultados. Se encontraron que el 79% de los pacientes cuya sangre aún alojaba ADN tumoral después de la cirugía finalmente recayó, frente a tan sólo el 9,8% de los que dieron negativo en la prueba. Eso significa que podría emplearse la prueba para determinar quién necesita urgentemente más tratamiento. Al mismo tiempo, un resultado negativo tranquilizaría a un paciente al indicarle que tiene unas probabilidades del 90% de curarse.
Hasta ahora, falta en las investigaciones de biopsia líquida, grandes estudios controlados que demuestren que los datos que proporciona son precisos y útiles.


                                                        Science Translational Medicine - Julio 2016

Fuente: MIT







Complicaciones del Paciente Quemado

                                                                    Dr. Carlos Enrique De Los Santos González

                                 Libro: Guía Básica para Tratamiento del Paciente Quemado (Capítulo13)


Las quemaduras son aquellas lesiones producidas en los tejidos por acción del calor en sus diferentes formas, energía térmica  transmitida por radiación, productos químicos o contacto eléctrico. Los mecanismos de producción más frecuentes en nuestro medio son : las llamas y los líquidos calientes, principalmente son lesiones de la piel, pero a veces afectan a órganos profundos (pulmones, corazones, riñones, etc.)


Tras una quemadura, se producen en el organismo una serie de mecanismos fisiológicos, condicionado por su gasto metabólico elevado, proporcional a la magnitud de la lesión que conducirán a un daño patológico:

La quemadura aumenta la permeabilidad. capilar de la zona quemada y de las áreas vecinas. Hay un  trastorno en la microcirculación con paso de líquidos, iones y proteínas del espacio intravascular al intersticial formándose un edema, que se ve favorecido por  liberación de sustancias vasoactivas de la escara, quemadura y zonas adyacentes.

En condiciones normales evaporamos el  2´8 % agua. Se multiplica por 10 en las quemaduras debido a la pérdida del estrato dermoepìdérmico.


A) Hematológicas:
1/ Se produce una gran hemólisis: Un 20 % SCQ destruye 15 % GR.
2/ Hemoglobinemia + Hemoglobinuria (40-50 % SCQ).
3/ Aumento de Bilirrubina a 5-10 Mg./dl.
4/ Anemia resistente a tratamiento, no hemoterápico.
B) Alteraciones de la coagulación:
1/ Se produce una hipercoagulabilidad sin CID.
2/ La actividad de la protrombina está  Normal ó disminuida.
3/ ↑ Actividad plaquetaria: lo que se traduce en la producción de  microtrombos.
4/ ↓ Antitrombina III (inhibidor coagulación): Trombosis.
C) Alteraciones cardiovasculares:
1/ Hipovolemia con disminución del Gasto cardiaco, además se ve favorecido por:                          a)Edema (por secuestro de plasma en el espacio intersticial).
b)Aumento de la evaporación.
2/ Factor depresor de la contractilidad: favoreciendo la disminución del gasto cardiaco(GC). 
3/ Liberación de catecolaminas: ↑ RVP y Postcarga.
4/ Alteración de la perfusión tisular: Hipoxia tisular.
D) Alteraciones Renales:
1/ Insuficiencia prerrenal con oliguria.
E) Infección:
1/ Contaminación endógena de la quemadura: Aproximadamente el 7080 la infección procede del mismo quemado : Flora: rectal, nasal, fondos de saco folículos polisebáceos. Contaminación cruzada: 20-30 %.
2/ Herida por quemadura: la  escara. es en sí el sustrato idóneo para la proliferación bacteriana
3/ Otros: venotomías, punciones, cateterismo, escarotomías, apertura de síndromes. compartimentales. Todas ellas favorecen la infección
F) En paciente con inmunodeficiencias: Sí Inmunodeficiencia adquirida postquemadura debido a:
1/ Inhibición quimiotaxis y fagocitosis:
2/ Endotoxinas bacterianas.                   
3/ Prostaglandinas.
4/ Corticoides endógenos.
5/ Citoquinas.                   
6/ Inmunocomplejos                
7/ Neuropépticos.


Las quemaduras mayores usualmente se acompañan de complicaciones que pueden afectar cualquier órgano de la economía. El trastorno circulatorio en fase de reanimación y en fase de sepsis es una catástrofe mayúscula que influencia toda la fisiología del paciente. De alguna forma y con variaciones en su presentación, se ven envueltos en las complicaciones los sistemas neuroendocrinos, metabólicos, inmunológicos y de coagulación. Responsables de estas complicaciones entre otros, son aquellos mediadores farmacológicos de respuesta inflamatoria liberados a la circulación. Algunos de estos son útiles para la homeostasis circulatoria, defensas del huésped y cicatrización de la herida, sin embargo, en algún punto de la evolución de la quemadura pueden contribuir al desarrollo de fallo multiorgánico (FMO).

                         Complicaciones Generales o Sistémicas



Debido a:




Distrés respiratorio del  adulto

Edema Pulmonar

Infecciones por:

Broncoaspiración o acumulación de secreciones, atelectasias

Vía hematógena

Embolia pulmonar, lesiones por inhalación,  


Insuficiencia Respiratoria e hipoxia

Por inhalación

de humo tóxico

[Lesión Inhalatoria]

Obstrucción de vías aéreas

Inhalación de

gases irritantes

Edema de glotis

Intoxicación por monóxido de carbono

El CO se une a la Hb formando carboxihemoglobina (COHb)

Hipoxia y alta probabilidad de muerte

Afectación de vías aéreas inferiores

Inspirar productos tóxicos de la combustión incompleta contenidos en el humo



Insuficiencia respiratoria progresiva


Lesiones agudas de la mucosa gástrica

Ulceras gastroduodenales

Ulceras de Curling

Intensa respuesta hipermetabolica

Liberación de catecolaminas y corticoides

Hemorragia digestiva severa


Síndrome Arteria Mesentérica Superior (SAMS)


Encamamiento prolongado

Translocación Bacteriana

Retarda alimentación enteral

Colecistitis acalculosa





Íleo paralítico

Trastornos hidroelectrolíticos

Deglución de humo o gases tóxicos,

Fenómeno de translocación bacteriana

Síndrome de   O'Gilby


Elevación de Transaminasas

Aumento de fosfatasa alcalina



TPT elevado

Alteraciones Hemodinámicas

Reducción del Gasto cardiáco

deficiencia calórica

aumento del metabolismo

Congestión centrolobulilar

fallo hepático



Isuficiencia  Cardiaca congestiva


Aumento del gasto cardiaco


Quemaduras eléctricas

Quemaduras por Rayos

taquicardia supraventricular

arritmias ventriculares

Trombosis venosas

Alteración de los factores de coagulación

tromboembolismo pulmonar


Insuficiencia renal

Shock hipovolémico


Insuficiencia renal crónica

litiasis renal

Infecciones de vías urinarias

Sonda Urinaria




Hemólisis masiva


fallo renal




Destrucción de GR

Hipoactividad  GB

Hipoflujo de 02




Diversas causas




y articulares




Inmovilizaciones y posiciones viciosas,

Cicatrices patológicas

Pérdida de fuerza Muscular

Pérdida de función

Cutáneas en áreas diferentes a las quemaduras

Ulceras por presión

El paciente está expuesto a decúbitos prolongados sobre determinadas regiones



El desarrollo y gravedad de las complicaciones, están en proporción directa a la magnitud de la quemadura. Existe riesgo de complicaciones hasta tanto no está definitivamente cerrada la herida. Las iatrogenias son causas importantes de complicaciones, estas pueden presentarse por reacciones adversas de medicamentos o tratamientos; las complicaciones, cuando se presentan, aumentan el estrés del paciente.

Complicaciones Cardíacas

La hipovolemia por shock post-quemadura es la responsable de la reducción del gasto cardíaco presente en la fase temprana de la injuria. La reanimación con fluidos adecuada y oportuna, mejora la disfunción cardíaca, sin embargo, la reposición de volumen per se, no es suficiente para retornar el gasto cardíaco a los niveles de normalidad en las primeras horas del shock post-quemadura. En los pacientes con más de 70% de SCQ, ocasionalmente se presenta insuficiencia ventricular izquierda en ausencia de edema pulmonar, este evento, usualmente es fatal. Puede ocurrir insuficiencia cardíaca congestiva en el curso de la reanimación en las primeras 24 horas, pero ocurre con mayor frecuencia varios días después durante la etapa de redistribución de líquido desde el espacio intersticial hacia el espacio intravascular, este fenómeno ocurre entre 3 a 7 días postquemadura.

En pacientes con enfermedades cardíacas isquémicas preexistentes, este fenómeno precipita el edema pulmonar. La disfunción miocárdica observada en la fase temprana del shock postquemadura o en la fase tardía del shock séptico, se debe a la presencia en circulación de un factor de depresión del miocardio. Este factor es una glicoproteína tóxica producida por el páncreas durante el proceso de isquemia que este sufre debido a la hipovolemia que acompaña al shock pos-quemadura.

La piel quemada también produce otras glicoproteínas tóxicas que reducen la contractibilidad miocárdica. En la fase de hipermetabolismo, el níquel endógeno se encuentra aumentado hasta 4 veces su valor normal, este puede producir vasoconstricción coronaria e isquemia miocárdica. Las arritmias en forma de contracción atrial prematura, ventricular prematura, taquicardias supra ventriculares y las arritmias ventriculares, son raras en las primeras horas, excepto en quemaduras eléctricas, si se presentan tempranamente durante la evolución pueden estar asociadas a hipokalemia. El uso de digitálicos y diuréticos puede precipitar arritmias. Cuando se presentan arritmias tardíamente en el curso de una quemadura, estas sugieren infarto miocárdico silente o miocarditis en un paciente séptico. La endocarditis es una complicación tardía y se presenta con fiebre de origen desconocido, taquicardia, soplo cardíaco e hipertensión.

Complicaciones Hepáticas

Las hepatopatías agudas en quemaduras no están plenamente entendidas. Los niveles elevados de transaminasas, fosfatasa alcalina, hiperbilirrubinemia, hipoalbuminemia y el tiempo de tromboplastina son indicadores de disfunción hepática. El 50% de los pacientes pueden presentar algún trastorno hepático en el curso de su lesión, incluso tan temprano como en las primeras 24 horas. Existen cambios fisiopatológicos que contribuyen a la disfunción hepática, estos son:

  • Disfunciones hemodinámicas, como aumento del gasto cardíaco, aumento de la viscosidad sanguínea y vasoconstricción esplácnica que lleva a hipoperfusión e isquemia del hígado.
  • La reducción ulterior del gasto cardíaco conlleva a congestión centrolobular por sobre hidratación lo que produce hepatomegalía congestiva central.
  • Proceso catabólico que predomina en el caso de quemaduras masivas, puede causar daño al parénquima hepático.
  • Uso de drogas con efectos colestásicos, como serían la oleandromicina eritromicina, hormonas anabólicas, clorpromacina, transfusiones sanguíneas, agentes anestésicos y toxinas producidas por las quemaduras mismas.

La disfunción hepática de la fase tardía de la quemadura, aparece como hepatitis de causa no aclarada. Las posibles causas incluyen hepatitis viral transmitida por productos séricos, por degeneración grasa y por mecanismos relacionados a infecciones. La hiperbilirrubinemia y la elevación de la fosfatasa alcalina, usualmente son hallazgos de hepatitis reactiva no específica o colestasis intrahépatica benigna. La hiperbilirrubinemia presente en estadios sépticos es de mal pronóstico. Una vez se estabiliza el paciente, esta disfunción hepática remite a la normalidad.

Para evitar la disfunción hepática pos-quemadura o para su tratamiento una vez presente, a de ejercerse énfasis, en mantener la perfusión hepática, debridamiento temprano de la escara y administración salvadora de esteroides en casos severos. El trifosfato de adenosina, el ATP - MgC12, hormona de crecimiento y la glucosa son utilizadas para restablecer la función reticuloendotelial del hígado. Aunque la incidencia de hepatitis es baja, puede considerarse el uso profiláctico de Gammaglobulina hiperinmune.

Complicaciones Gastrointestinales

Cualquier lesión externa es capaz de producir complicaciones del tubo digestivo, los pacientes con quemaduras mayores tampoco están exentos de estos eventos. Entre estos podemos contar la colecistitis acalculosa, pancreatitis (que por lo general se relaciona a úlcera penetrante, alcoholismo, sepsis, síndrome de coagulación intra vascular diseminada y úlcera del tubo digestivo). La úlcera aguda por estrés, gástrica y duodenal (úlcera de Curling), que en el pasado fue una complicación frecuente y temida, hoy es una complicación rara, gracias al control eficaz que se obtiene mediante la administración profiláctica de antiácidos y bloqueadores H2, pHmetría gástrica seriada y medidas de confort para reducir el estrés.

Las hemorragias por esta causa son poco frecuentes. La dilatación aguda del colon puede ocurrir en pacientes quemados que desarrollan sepsis. Se ha identificado fenómeno de necrosis focal con ulceración aguda del colon en quemados graves, particularmente en crisis de hipotensión. Algunas de estas lesiones atraviesan por todas las capas de la pared del colon hasta la serosa, sin embargo, la perforación libre es muy rara. Al parecer, las úlceras superficiales curan cuando se corrige el problema de base, ejemplo la isquemia por hipoflujo, estrés, íleo por desbalance hidroelectrolítico o infección. En algunas necropsias se revela distorsión de la arquitectura mural, indicativo de cicatrización de lesiones en diversas etapas.

Si la dilatación del colon alcanza proporciones significativas, está indicada la colonoscopía fibróptica y la colocación de tubo rectal. Si esta dilatación no se resuelve por medios conservadores o sí se demuestra necrosis importante de la mucosa, está indicada la intervención quirúrgica descompresiva. En el pasado reciente, también se ha observado necrosis del intestino delgado de longitud variable, en pacientes con alimentación enteral hiperosmolar. Estas lesiones se presentan clínicamente como íleo acompañado de síntomas de abdomen agudo. La resección de intestino necrótico y el restablecimiento de la continuidad es obligatoria. En pacientes con signos y síntomas dudosos de un proceso intra abdominal agudo y con hallazgos no concluyentes por métodos no invasivos, el lavado peritoneal puede ser útil para determinar la posibilidad de laparotomía. Los resultados de un lavado peritóneal positivo (más de 500 glóbulos blancos por mm3, más de 100,000 glóbulos rojos por mm3 y una tinción de Gram que revele microorganismos), determina la presencia de perforación intestinal y colecistitis acalculosa con 94% de precisión.

Fallo Multiorgánico (FMO)

El FMO es una de las principales causas de mortalidad en pacientes quemados, se desarrolla en el 28 a 48% de los pacientes severamente quemados y su mortalidad es mayor de 90% en la mayoría de los centros de quemados.
En la génesis y desarrollo del FMO del quemado intervienen 4 causas principales, estas son: Quemaduras extensas, Lesión Inhalatoria, Shock Hipovolémico Severo y Sepsis.
El FMO es un síndrome en el cual una injuria severa a la economía lesiona diferentes órganos tales como pulmones, hígado, intestino y riñón, en este orden. El fallo hemático y cardiovascular es usualmente manifestación tardía del FMO. Las alteraciones del Sistema Nervioso Central pueden ser tempranas o tardías indistintamente, esto varía, dependiendo de la causa de base o de patologías preexistentes a la injuria. El fallo renal puede presentarse de primero en pacientes con enfermedad renal intrínseca o en aquello sometidos a periodos prolongados de shock hipovolémico, fallo hepático en pacientes con cirrosis o fallo cardíaco por enfermedad miocárdica de base.

La causa de FMO radica en procesos que cursan con daño tisular severo o con una gran respuesta inflamatoria como son quemaduras, trauma mecánico, infección, shock y pancreatitis, entre otras. En cuanto a la fisiopatología del FMO existen 4 hipótesis que se traslapan unas con otras:

  • Hipótesis infecciosa - No todos los FMO, aunque la gran mayoría tienen un origen infeccioso. Se sabe que los agentes infecciosos y sus metabolitos (exotoxinas), estimulan la producción de citokinas y otros mediadores inflamatorios que son responsables directos de daños a órganos.
  • Hipótesis Macrófagos-Citokinas- El estímulo y activación prolongada de macrófagos resulta en formación y liberación excesiva de citokinas y otros productos mediante un efecto de cascada que involucra la inmunidad humoral y celular ejerciendo daños locales y sistémicos. Estos mediadores son factor necrotizante tumoral (TNF), interleukina-1 (IL-1), interleukina-6 (IL-6) e interferon gamma.
  • Hipótesis Micro circulatoria- La injuria a órganos está estrechamente relaciona da a la isquemia por hipoflujo que puedan sufrir, además a la lesión endotelial por cualquier causa y a formación de micro agregantes. De igual forma, el fenómeno de re-perfusión parece contribuir al daño tisular debido a la presencia de enzimas que producen sustancias oxidantes como la xantina-oxidasa, productora de peróxido, oxígeno reducido y uratos a partir de lipoxantinas en presencia de oxígeno. Clínicamente la formación de microagregantes puede diagnosticarse por los niveles bajos de CPAR (proporción de agregación de plaquetas circulantes). La isquemia tisular con muerte celular puede ser medida por el espectro de enzimas cardíacas (CPK, LDH y GOT), Li. Ao y colegas, sugieren que la observación dinámica de CPAR y el espectro de enzimas cardíacas podrían ser indicadores y parámetros de monitorización del FMO.
  • Hipótesis Intestinal- El intestino es el órgano más susceptible al síndrome isquémico - reperfusión, por lo que el daño necesario para aumentar la permeabilidad de la mucosa intestinal es mínimo y en consecuencia se produce translocación bacteriana (pérdida de la función de barrera del intestino, que conlleva a la diseminación hematógena, vía porta, de bacterias y (endotoxinas).

El tratamiento consiste en prevenir los eventos predisponentes de FMO: buena reanimación, buen control de infección, buen soporte nutricional y oportunas intervenciones quirúrgicas con remoción de tejido quemado e injerto, evitarán esta complicación en buen número de pacientes. En la actualidad se dispone de anticuerpos antitoxinas, anti TNF, bloqueadores competitivos de IL-1 y agentes antioxidantes.

Complicaciones Renales

En el pasado, la insuficiencia renal por necrosis tubular aguda, por déficit en la reanimación fue una complicación frecuente y letal. Con la reanimación vigorosa temprana, la insuficiencia renal oligúrica, se ha convertido en una rareza. Igualmente la profilaxis contra una potencial nefropatía pigmentaria ha llevado a la reducción de insuficiencia renal en presencia de mioglobinuria y hemoglobinuria. Sin embargo, la insuficiencia renal establecida sigue siendo causa de mortalidad y morbilidad significativas.

La exposición a un sin número de agentes terapéuticos, potencialmente puede interferir con la función renal y producir nefropatía. Ejemplo de esto, son drogas nefrotóxicas como aminoglucósidos, penicilina, cefalosporinas, amphotericina, furosemida y tiázidicos, los AINES, nitrato de plata y terapia de reanimación con salino hipertónico. En la IRA asociada a sepsis, esta interfiere con el volumen sanguíneo efectivo circulante y perfusión renal produciendo azotenia prerenal. Si la circulación no puede ser restablecida por terapia antimicrobiana adecuada y expansores plasmáticos, la necrosis tubular aguda secundaria a isquemia sobreviene rápidamente.

El tratamiento de la insuficiencia renal en el periodo pos-quemadura incluye:

  1. Suplementos calóricos y proteicos que reduzcan el estado catabólico, disminuyendo de esta forma los productos nitrogenados (urea) y estabilización de electrolitos.
  2. Diálisis o ultrafiltrado lento, que puede ser hemofiltración arteriovenosa continua, hemodiálisis intermitente o diálisis peritoneal. La diálisis, en cualquiera de sus variantes es de mal pronóstico en un paciente quemado por demás con estado hipermetabólico e hiperdinámico máximo.

Infecciones y Complicaciones Sépticas

Las infecciones sépticas pueden provenir no solo de la herida, sino de otros órganos, como reflejo del compromiso inmunológico post-quemadura. Con la reducción de sepsis secundaria a la infección de la herida, otros órganos han surgido como fuente principal de infección y estos, hoy en día, constituyen la causa principal de muerte del paciente quemado.

Neumonías- El pulmón es en la actualidad el lugar de origen más común de infecciones en el paciente quemado. En los últimos años la neumonía nosocomial ha estado presente en más de 50% de las infecciones y es considerada la primera causa de muerte en quemaduras graves. Como resultado de la reducción de sepsis invasiva de la herida, el tipo de neumonía ha cambiado de hematógena a aerotransportada y bronconeumonía.

En el paciente quemado, al igual que pacientes en estado critico y en el escenario de una unidad de cuidados intensivos, la bronconeumonía suele ser por Estafilococos aureus y bacterias Gram negativas oportunistas. La atelectasia puede preceder esta complicación y el proceso neumónico instalarse relativamente temprano en el periodo post-quemadura (5 días) en comparación con el inicio de neumonía hematógena.

Es imprescindible el cultivo de las secreciones bronquiales. La antibioterapia se inicia en base a los patrones de resistencia y sensibilidad de la flora residente común en la unidad y se ajusta a los resultados del antibiograma. Determinación por microscanner permite tener estos patrones en 28 horas. La neumonía hematógena suele comenzar en una etapa relativamente tardía de la quemadura (2 a 3 semanas) en forma de capilaritis por diseminación hematógena de microorganismos desde un foco remoto. Entre las fuentes frecuentes de neumonía hematógena están la herida infectada, la flebitis supurada y la proliferación de abscesos viscerales ocultos.

Tromboflebitis Supurada

Puede ocurrir en cualquier vena canalizada sea central o periférica. Es una fuente frecuente de sepsis y ocurre hasta en el 5% de los pacientes con quemaduras mayores. Se relaciona con el uso de catéteres intravenosos, en especial si se colocan mediante técnicas de flebotomía, y su frecuencia aumenta cuando la canalización venosa es prolongada. El foco de infección suele localizarse en el sitio de la punta del catéter, lo que produce lesión endotelial y formación de un coagulo de fibrina, cuya red aloja las bacterias presentes en sangre. En más de la mitad de los pacientes infectados no se encuentran signos o síntomas y la aparición de una sepsis inexplicable o neumonía hematógena deben llevar a una rápida evaluación de las venas canalizadas con flujometría ultrasónica Doppler.

Si se confirma oclusión de una vena periférica, éste vaso debe explorarse en busca de material purulento que será removido quirúrgicamente acompañada de antibioterapia sistémica adecuada

Insuficiencia Adrenal

La sepsis, el shock severo y los estados prolongados de estímulos que promueven liberación de catecoláminas, llevan a la insuficiencia suprarrenal hemorrágica masiva y a necrosis de la glándula. El cuadro clínico más frecuentemente observado es el colapso vascular, cianosis acompañada de dolor y sensibilidad abdominal, eosionofilia, hipercalcemia, hiponatremia y trastornos metabólicos de glucosa. El tratamiento es la administraciónde esteroides y medidas generales de sostén.









Aspirin Therapy Not As Effective As Previously Thought

                                                                                    American Heart Association
                                                                              Published in the journal PLOS One -April  2017


How effective is aspirin for treating peripheral vascular disease, really?

A large-scale meta-analysis introduces the idea that aspirin could be not very effective at all, potentially even harmful. More experiments are necessary to make a definitive statement on the efficacy of aspirin for treating peripheral vascular disease (PVD) and other heart conditions.
PVD consists of blood vessel maladies outside of those in the heart and brain - arteries that carry blood to the limbs, stomach, and kidneys. Two forms of PVD determine a range of possible symptoms; functional PVD involves no physical damage to the blood vessels and is characterized by fluctuating muscle spasms, and organic PVD describes structural changes to blood vessels, causing inflammation and tissue damage. Overall PVD is accompanied by a reduction in blood flow, affecting more than eight million people in the United States.
Aspirin is a classic example of a common drug used to treat heart and blood vessel conditions, like PVD. This drug prevents blood clots from forming, subsequently reducing the risk of adverse cardiac events. However, aspirin's mechanism of action can backfire, sometimes increasing a person's risk of hemorrhagic stroke or internal bleeding.

Anthony A Bavry (MD, Cardiologist): many PVD patients may not be deriving the benefits from aspirin that they expect to be getting.

The University of Florida study: a meta-analysis of 11 aspirin therapy trials including more than six thousand PVD patients participating in studies. Statistics gleaned from the 11 trials  showed that aspirin had no significant effect on death rates and incidents of stroke, heart attack, or major cardiac events.

Ahmed N. Mahmoud (MD): Aspirin might not be a miracle drug for certain patients. We need to reconsider the evidence, and see who benefits from aspirin therapy and who does not.



MISCELANEAS BREVES - 176Fecha: 4/6/2017



Suplementación de hierro en lactantes y niños

                                                                                                                           OMS - 2016


Se estima que más de 300 millones de preescolares y niños en edad escolar en todo el mundo padecen de anemia, se supone que al menos la mitad de estos casos son atribuibles a la deficiencia de hierro. Los niños son particularmente vulnerables a la anemia por deficiencia de hierro debido a sus mayores necesidades en los períodos de crecimiento rápido, en los primeros cinco años de vida. Esta deficiencia puede ser resultado de una ingesta inadecuada o absorción de hierro en la dieta, el aumento de requerimiento en períodos de crecimiento o en las pérdidas durante la menstruación en las niñas adolescentes, o infección por helmintos intestinales (esquistosomiasis o anquilostomiasis) en áreas endémicas de estos parásitos. Otras causas importantes que también pueden conducir a la anemia incluyen infecciones (malaria, tuberculosis, VIH), deficiencias nutricionales (vitaminas: ácido fólico, B , A y C), condiciones genéticas, hemoglobinopatías (enfermedad de células falciformes, talasemia) y la enfermedad renal crónica.
La OMS, en un documento reciente, recomienda la suplementación diaria de hierro en lactantes y niños como una intervención de salud pública para la prevención de la anemia y deficiencia de hierro.
De acuerdo a esta guía de la OMS y las organizaciones que participan en el diseño, implementación y ampliación de los programas de prevención y control de la anemia el hierro es un nutriente esencial para el desarrollo y el crecimiento celular en los sistemas inmunológico y neuronal, así como en la regulación del metabolismo energético y el ejercicio. Por lo tanto, expresa la importancia de la administración de suplementos de hierro al día en lactantes y niños (durante tres meses consecutivos en un año), especialmente en las zonas donde la prevalencia de la anemia es del 40 por ciento o superior. Las dosis diarias para niños de 6-23 meses deben ser: 10-12,5 mg, de 24-59 meses (30 mg), y en los niños mayores de 60 meses (30-60 mg).

Según los expertos que participarón, estos regímenes se deben llevar a cabo en conjunción con la prevención, el diagnóstico y tratamiento de la malaria en zonas endémicas.







The world is changing - are we ready?


                                                                                            Allan S. Jaffe

                                                                                           JIFCC, July2016, Vol: 27; Number:3


It is clear that there is an ongoing revolution in medi­cine as cost and regulatory pressures begin to inter­sect with our clinical responsibilities for the care of patients. In the past, particularly in the area of in vi­tro diagnostics, all that was required for approval for clinical use of biomarkers was an analytically robust measuring system, a reasonable analytic validation, a modicum of clinical validation and resources to mar­ket the testing. It was then often left to clinicians to figure out how and where any particular assay hap­pened to fit. Publications indicating a rationale or enthusiasm for those markers were often more than was necessary to get clinicians to utilize these assays. From the point of view of developers this was a very facile process that was lucrative because even if an assay failed to work it took a large amount of time and multiple test runs for the field to understand the difficulties.

Our present environment challenges this previous paradigm. We have now progressed to the point where assays can no longer be used without some understanding of their clinical utility (1,2). Thus, clini­cal validation has become an essential part of assay validation in addition to a reasonable analytic vali­dation of the accuracy of the assay. Unfortunately, or fortunately, as the case may be, it used to be that a speculative utilization plan was ad­equate. One would argue that a given new marker probably should work based on interest­ing data about the biomarker. Often, the incre­mental prognostic value of the marker could be shown, which was a way of acknowledging that the marker was capable of identifying some­thing that had important pathophysiologic rela­tionship. However, it is no longer adequate to show incremental prognostic risk stratification. Knowing that a patient is at higher or lower risk than originally thought is often not helpful clini­cally. If one is high risk, knowing he/she is at still higher risk often does not result in a change in therapeutic response (2). And if the marker suggests the patient is at lower than low risk, are we willing to not treat as we had intended. Often that is now what occurs (2).

It now is deemed important and this author would suggest correct that the proper use of a given biomarker requires an answer to what one might do to respond to any given marker value and the efficacy of that response should be understood. Specifically, one needs to under­stand whether or not one has a specific action to implement in response to a given elevation of a biomarker. Absent that information, even if there are prognostic implications, the uptake in the use of the biomarker is unlikely to be ex­tensive because in a cost sensitive environment having actionable data that informs clinicians about something important about his or her patient has become important criteria for test implementation. This is the evolving nature of the biomarker field. Thus, one ought to be cyni­cal about using biomarkers when one does not know what to do in response to the data. High sensitivity troponin is a good example of this. We have exciting information about the possi­ble utility of this marker and many are ready to implement this long before there is robust clini­cal validation of how one might proceed to use the data associated with the applications (2,3). This has the potential to put patients at risk be­cause although most often the suggestions for use are reasonable, that does not always mean they are correct, nor does it imply that they are generically or consistently cost effective. Therefore, the bar is much higher today than it was in the past.

Thus, we take the opportunity in this addition of the Journal to review the analytic and clinical substrate for some attractive biomarkers. Some such as natriuretic peptides have already been approved for clinical use for a variety of indica­tions but not necessarily the ones we will dis­cuss. Similarly, high sensitivity troponin is in use throughout much of the world save the United States and is being used to great advantage. However, the ability to implement their use in an optimal manner that will improve patients care has been problematic. Indeed, some of the algorithms proposed have been criticized because of an inadequate data substrate (4,5). In addition, we will discuss new more novel markers as well, both analytically and clinically. These markers have potential to substantially improve our ability to triage patients who have heart failure in particularly. They carry tremen­dous promise because of the way in which they interdigitate with the pathophysiology of heart failure.

However, in order to use these markers intelli­gently, one must understand the analytic issues related to the assays. There are often problem areas or areas of that are unknown to clinicians where eventually refinements are very likely to change our understanding of their clinic use. It is one thing to speculate how they might work and another to prove it. As indicated above, we are in a time when proving value and not just speculating about it is the mantra. From that perspective the articles included on na­triuretic peptides, ST2 and Glaectin-3 are of particular importance. The articles on the use of these markers and how to implement high sensitivity cardiac troponin begin to probe what is necessary from the evidence base and from the implementation perspective before we can initiate specific interventions based of the re­sults from these assays. Some will require more clinical data predominately to define action­able information that tells clinicians what to do as opposed to simply recapitulating the idea of increased risk. On the other hand, some as­says such as high sensitivity troponin have an adequate data sense to start implementation but it is the steps to optimize operationalization that are key. That does not mean that all the an­swers are in or that there are no controversies. That is far from the case. However, as when one starts a new major paradigm, coordination of those efforts become key and how we coordi­nate these efforts such that all members of the care teams responsible for patients are pulling together to implement this successfully is not clear. This desperately needs to be emphasized, followed, appreciated, and finally in the interest of patient care.

Finally, there are new insights into some of the older markers whose use we understand but they could influence markedly our ability to uti­lize these markers in a way that will intelligently allow for appropriate utilizing and improvements in patient care. What is critical to appreciate about all of these articles is that they present the state-of-the-art as it is today and that state-of-the-art no longer recapitulates what it used to be. It is a new era with new metrics that as you read the articles in this themed issue, you will be clearly sensitized to.



1. Hlatky MA; Greenland P; Arnett DK; Ballantyne CM; Criqui MH; Elkind MS; Go AS; Harrell FE Jr; Hong Y; How­ard BV; Howard VJ; Hsue PY; Kramer CM; McConnell JP; Normand SL; O'Donnell CJ; Smith SC Jr; Wilson PW; American Heart Association Expert Panel on Subclini­cal Atherosclerotic Diseases and Emerging Risk Factors and the Stroke Council. Criteria for Evaluation of Novel Markers of Cardiovascular Risk: A Scientific Statement from the American Heart Association. Circulation 2009; 119:2408-16,

2. Miller, WL and Jaffe, AS. Biomarkers in heart failure: the importance of inconvenient details. ESC heart failure 2016; 3:3-10.

3. Korley FK, Jaffe AS. Preparing the United States for High-Sensitivity Cardiac Troponin Assays. J Am Coll Car­diol 2013;61:1753-1758.

4. Jaffe AS. TRAPID or Trapped? Annals of Emergen­cy Medicine. 2016; annemergmed.2016.01.009.

5. Jaffe AS, Apple FS, Mebazaa A, Vodovar N. Unraveling N-Terminal Pro-B-Type natriuretic peptide: Another piece to a very complex puzzle in heart failure patients. Clin Chem 2015; 61:1016-1018



MISCELANEAS BREVES - 175Fecha: 1/5/2017



Dormir en un lugar desconocido

                                                                                                            Robert Preidt
                                                                                                         Brown University

                                                                                                 Current Biology.- April 2016 


Muchas personas duermen mal en su primera noche en un hotel u otro lugar diferente al habitual. Cuando uno duerme en un lugar nuevo, una parte del cerebro permanece alerta ante los peligros potenciales,
Se midió la actividad cerebral de 35 personas durante dos noches mientras dormían en un laboratorio del sueño, con una semana de diferencia.En todos los participantes, en la primera noche, una red particular del hemisferio izquierdo del cerebro mostró una mayor actividad que en el hemisferio derecho durante una fase del sueño llamada sueño de ondas lentas..Cuando se reprodujeron sonidos en el oído derecho de los participantes para estimular el hemisferio izquierdo del cerebro, eran más propensos a despertarse y a estar alertas al despertar que si los sonidos se reproducían en el oído izquierdo para estimular el hemisferio derecho. Debido a que solo midieron la primera fase del sueño de ondas lentas, no se sabe si la red neuronal izquierda permanece atenta toda la noche o si trabaja por turnos con el lado derecho a una hora más tarde de la madrugada.
En la segunda noche en el laboratorio del sueño, no hubo diferencias significativas en la actividad entre los hemisferios izquierdo y derecho del cerebro, ni siquiera en la red que se activó la primera noche.
En el día, esa red neuronal tiende a seguir funcionando cuando el cerebro por lo demás está bastante desactivado.,







Calcio en las arterias coronarias de jóvenes

                                                                                                       Dr Jeffrey Carr

                                                                  Profesor de radiología y medicina cardiovascular
                                                                  Universidad de Vanderbilt, Nashville, Tennessee

                                                                                                     Dr. Philip Greenlan
                                                                 Profesor de Medicina Preventiva   
                                                                 Universidad de Northwestern, Chicago

                                                                                                     Dr. Byron Lee,
                                                                Profesor de medicina, especialista en arritmias
                                                                Universidad de California, San Francisco


Dr. Jeffrey Carr :Los adultos jóvenes con cantidad de placa calcificada en las arterias están en riesgo de un ataque cardiaco. Personas que tenían de 32 a 46 años, con placa calcificada (aterosclerosis o endurecimiento de las arterias) puede multiplicar por cinco las probabilidades de una enfermedad cardiaca letal o no letal a lo largo de los 12 años siguientes, la enfermedad cardiaca en realidad comienza en la adolescencia y  adultez temprana. En un trabajo reciente realizamos TC, que pueden detectar esos bloqueos potencialmente letales, a más de 3,000 participantes con una edad promedio de 40 años. Con pequeña cantidad de placa el riesgo de ataque cardiaco aumentó a lo largo de la próxima década en un 10 por ciento, independientemente de otros factores de riesgo..No es la idea que todo el mundo debe correr a hacerse una TC,.pero las personas con señales de advertencia de enfermedad cardiaca a una edad temprana (hipertensión, colesterol alto, sobrepeso o tabaquismo) podrían pensar en una TC para ver si tienen un riesgo muy alto.
En el trabajo se recolectaron datos sobre más de 3,000 hombres y mujeres que participaron en el estudio (Desarrollo del riesgo de la arteria coronaria en los adultos jóvenes de EE. UU - JAMA Cardilogy Feb 2017).
Esos adultos jóvenes y de mediana edad se sometieron a TC y se les siguió durante más de 12 años.
Un 30 por ciento mostraron alguna cantidad de calcificación. Durante los 12 años, 57 pacientes tuvieron un ataque cardiaco letal o no letal, o algún otro problema del corazón, o murieron de enfermedad cardiaca y 108 participantes sufrieron un ACV, insuficiencia cardiaca o problemas circulatorios.
Tras tomar en cuenta otros factores de riesgo y tratamientos, las personas con cualquier placa calificada presentaron un aumento de cinco veces en el riesgo de problemas cardiovasculares. un aumento de tres veces en el riesgo de ataque cardiaco o ACV, Independientemente de que haya mucha o poca calcificación, la sola presencia de placas es una señal de que hay una enfermedad de la arteria coronaria avanzada.  



Dr. Philip Greenlan:. Creo positiva la propuesta pero pienso que todavía no existen suficientes evidencias como para recomendar evaluaciones de rutina. Recomiendo evaluar a los pacientes con factores de riesgo conocidos y abordar cualquier hallazgo anómalo. El hecho de que puedan ocurrir bloqueos en las arterias de adultos tan jóvenes refuerza la necesidad de que personas de una edad mucho menor (como los adolescentes y la gente en la veintena y la treintena) sigan unos hábitos de ejercicio y alimentación saludables y no fumen.

Asociación Americana del Corazón (American Heart Association): la placa está conformada por colesterol, sustancias grasas, productos de desecho de las células, calcio y fibrina (un material coagulante en la sangre),.la aparición de calcificación temprana depende de muchos factores, como la genética, la dieta y el estilo de vida. No se sabe cómo eliminar la placa. Pero vivir con un estilo de vida saludable para el corazón podría ayudar.

Dr. Byron Lee: el estudio refuerza la idea de que la enfermedad en las arterias coronarias comienza pronto, mucho antes de que en realidad ocurra un ataque cardiaco. Incluso los pacientes sin síntomas podrían tener un mayor riesgo de ataque cardiaco, accidente cerebrovascular (ACV) y muerte, por ello siempre que debería impulsarles a reducir los factores de riesgo que pueden ser controlados, eso significa reducir la presión arterial, el colesterol, mantener un peso sano, no fumar y comer una dieta saludable..Los pacientes jóvenes y sanos que debieran medicarse y no han decidido si tomar una estatina o no para reducir el colesterol quizá deban pensar en una TC cardiaca para ver si el proceso de enfermedad en las arterias coronarias ya ha comenzado.



MISCELANEAS BREVES - 174Fecha: 8/4/2017



Timing in Treatment of Stroke

                                                                        Dr. Jeffrey Saver
                                                     Director of the UCLA Comprehensive Stroke Center 

                                        Journal of the American Medical Association - October 2016

When someone has a heart attack, the saying is "Time is muscle." Getting appropriate care as soon as possible is crucial. It's the same with a stroke. Most strokes are the result of a clot that cuts off the supply of blood to the brain. In strokes, it's "Time is brain" because the sooner treatment is given, the better the outcome.
One of the main treatments for stroke is the removal of a clot with a device called a stent retriever that grabs hold of a blood clot and draws it out of the body. Current wisdom is that this procedure must be done within six hours of the stroke. A new study shows that there is a bit more time than what most would think, is still beneficial for up to 7.3 hours post onset. Extending the time window for therapy will let us help more patients, including patients who were not able to get to a hospital right away because the stroke started while they were asleep or made them unable to call for help.
Time is still important, however and the team stressed that knowing the signs of stroke and seeking emergency help immediately is key. The study involving a total of 1,287 people, showed that these devices improved outcomes for people who had large artery strokes, where the blockage occurs in a major blood vessel
Every six minutes treatment is not administered the risk of a permanent disability goes up by 1%. In the US out of the approximately 15 million stroke cases per year, about 5 million of them will result in permanent disability for the patient
While not every patient is treated with a stent retriever and not every patient is given clot busting drug therapy, the study did show that patients treated with retrievers plus standard medical therapy were less likely to be disabled three months after surgery than people who only received medical therapy.
Looking at the outcomes, of course patients treated within two hours had the best results but even those who did not receive treatment until almost 8 hours after the stroke still benefitted from the dual therapy approach, although at a lower rate.






 La hiperuricemia como marcador pronóstico de enfermedad cardiovascular en pacientes hipertensos y diabéticos


                                                                                             Vicente Lahera

                                                                      Departamento de Fisiología, Facultad de Medicina,
                                                                     Universidad Complutense de Madrid, Madrid, Espa˜na

Clin Investig Arterioscler. 2016;28(5):225---226


El ácido úrico es el producto final del metabolismo de las purinas, que forman parte de los nucleótidos y de los ácidos nucleicos. El ácido úrico se forma en el hígado, el músculo .y el intestino a partir de la xantina, mediante la acción de la xantina oxidasa. Los inhibidores de dicha enzima como alopurinol y febuxostat se utilizan para el tratamiento de la hiperuricemia.

La síntesis de ácido úrico se acompaña de una elevada formación de radicales libres de oxígeno como consecuencia de la transformación de hipoxantina en xantina, y de xantinaen ácido úrico. En situaciones de hipoxia y cuando existe isquemia tisular, se produce un aumento de la degradación de nucleótidos de adenina, lo que determina una mayor síntesis de hipoxantina y de xantina. Esto sucede, probablemente, porque la deficiencia de oxígeno limita la síntesis mitocondrial de ATP a partir de ADP. El ADP y el adenosín monofostato (AMP) no utilizados en la síntesis mitocondrial de ATP pueden ser catabolizados por la vía degradativa de los nucleótidos purínicos hacia la síntesis de ácido úrico.

La mayor parte del ácido úrico plasmático es filtrado por el riñón y el 90% sufre reabsorción tubular proximal a través del transportador aniónico URAT1, que es el lugar de acción de algunos fármacos uricosúricos, como probenecid, benzbromarona y losartán. Una pequeña parte del ácido úrico filtrado sufre secreción tubular a través de la bomba transportadora MRP41. El ácido también se elimina por las heces.

El rango normal de concentración plasmática de ácido úrico es 2-6 mg/dl, considerándose niveles elevados por encima de 7 mg/dl en varones y 6,5 mg/dl  en mujeres.

Aunque muchos pacientes con niveles  elevados de ácido úrico permanecen asintomáticos, la hiperuricemia puede dar lugar a un espectro clínico variable: artritis gotosa aguda debida a la precipitación de cristales de urato monosódico en las articulaciones, gota tofácea debida a la precipitación de los cristales en la piel y el tejido subcutáneo, nefrolitiasis úrica, nefropatía aguda por ácido úrico debida a la precipitación intratubulares de y nefropatía crónica por ácido úrico debida al depósito de cristales de urato en el intersticio medular, produciendo fibrosis intersticial.

Hace más de 60 a˜nos se reconoció que muchos pacientes con cardiopatía isquémica presentaban un aumento de la concentración sérica de uratos, aunque previamente ya existía conocimiento de que la hiperuricemia era frecuente en pacientes con obesidad, enfermedad renal, aterosclerosis o hipertensión arterial. Sin embargo, durante años existió una falta de acuerdo sobre la hiperuricemia como factor de riesgo cardiovascular independiente para la cardiopatía isquémica. El estudio de Framingham no pudo demostrar este aspecto, mientras que la encuesta NHANES III evidenció que con uricemias mayores de 7,0 mg/dl tenían un riesgo relativo de enfermedad coronaria y cerebrovascular de 2,2 y de 1,5, respectivamente. Por ello, actualmente se considera que la hiperuricemia es un importante factor de riesgo independiente para el desarrollo de enfermedades cardiovasculares y renales, especialmente en pacientes hipertensos y diabéticos. Se han propuesto diversos mecanismos fisiopatológicos por los que la hiperuricemia puede favorecer la morbimortalidad por enfermedad coronaria.

Se ha demostrado que la hiperuricemia se asocia a un estado de estrés oxidativo que produce disfunción endotelial, aumenta la oxidación de las LDL y promueve un estado inflamatorio, por lo que contribuye al desarrollo de aterosclerosis y su complicación trombótica. Además, la hiperuricemia se asocia a activación del sistema reninaangiotensina lo que contribuye, no solo a potenciar el proceso aterosclerótico, sino que contribuye al da˜no cardiovascular y renal asociado a la hipertensión y la diabetes.

El aumento de 1 mg/dl de ácido úrico en una persona con enfermedad coronaria se asocia a un aumento del 12% en la mortalidad. Además, se ha demostrado una relación entre hiperuricemia e hipertensión, específicamente en el desarrollo temprano de esta. Los pacientes con hiperuricemia tienen 10 veces más probabilidades de ser hipertensos que individuos normouricémicos. A su vez los hipertensos también presentan un riesgo mayor de padecer gota y, de hecho, la incidencia de gota es 3 veces superior en la población hipertensa que en los sujetos normotensos.

La asociación entre hiperuricemia e hipertensión esencial sugiere la existencia de daño vascular, y diversas evidencias apoyan este concepto. Pacientes con hiperuricemia, pero no los normouricémicos, presentan un aumento de las resistencias vasculares renales, y de manera inversa con el flujo sanguíneo renal. Se ha demostrado que la microalbuminuria produce daño vascular, en este sentido se ha documentado una relación directa entre la microalbuminuria y las concentraciones séricas de uratos. Los pacientes con las uricemias más elevadas presentan una afectación vascular renal y sistémica más evidente. La alteración hemodinámica renal precede a la alteración del metabolismo del ácido úrico en los pacientes con nefropatía familiar asociada a hiperuricemia. Por tanto, es muy probable que un aumento de la concentración sérica de uratos refleje un compromiso vascular renal.

La asociación clínica entre diabetes y obesidad con hiperuricemia y gota es conocida desde hace tiempo. Tradicionalmente se ha explicado la presencia de la hiperuricemia en el síndrome metabólico como resultado de la resistencia a la insulina y el hiperinsulinismo resultante. La insulina reduce la excreción renal de ácido úrico, esto ha llevado a suponer que la hiperuricemia podría considerarse un epifenómeno del síndrome metabólico. Sin embargo, existen evidencias que apoyan que la hiperuricemia precede a la aparición del síndrome metabólico o la diabetes, y que puede ser un marcador del riesgo de estas. Un estudio realizado sobre la base de datos del NHANES III determinaba que la prevalencia de síndrome metabólico aumentaba en relación directa con los niveles séricos de ácido úrico, incluso después de ajustar por sexo, edad, ingesta de alcohol, índice de masa corporal y diabetes. En un subanálisis del estudio LIFE se comprobó que, en pacientes con HTA e hipertrofia ventricular izquierda, el incremento progresivo de los niveles séricos de ácido úrico se acompañaban de aumento paralelo del riesgo de aparición de diabetes.

Un trabajo presentado por Purnimaa y Abd El-Aala , llevado a cabo en la ciudad de Wadi-Al Dawasir (Arabia Saudita), muestra  en una muestra aleatorizada que incluyó 250 pacientes (174 casos y 76 controles). Cincuenta y dos pacientes eran solo hipertensos, 57 diabéticos, y 65 pacientes eran a la vez diabéticos e hipertensos. El objetivo fue analizar el posible papel pronóstico de los niveles elevados de ácido úrico para el desarrollo de enfermedad cardiovascular. Este estudio es el primero de este tipo que se desarrolla en esta región de Arabia Saudita y ha permitido, en esta comunidad, determinar el papel de la hiperuricemia en el desarrollo de la enfermedad coronaria. El estudio demostró una asociación significativa entre la concentración plasmática de ácido úrico con el colesterol total, los triglicéridos y la concentración de LDL, por lo que los autores concluyen la importancia de la prevención y la detección precoz de la hiperuricemia, especialmente en pacientes hipertensos y en diabéticos.


Bibliografía recomendada


1. Alderman MH, Cohen H, Madhavan S, Kivlighn S. Serum uric acid and cardiovascular events in successfully treated hypertensive patients. Hypertension. 1999;34:144---50.

2. Fessel WJ. High uric acid as an indicator of cardiovascular disease. Independence from obesity. Am J Med. 1980;68:401---4.

3. Gertler MM, Garn SM, Levine SA. Serum uric acid in relation to age and physique in health and in coronary heart disease. Ann Intern Med. Newest ANSI Codes In PDF1951;34:1421---31.

4. Lippi G, Montagnana M, Franchini M, Favaloro EJ, Targher G. The paradoxical relationship between serum uric acid and cardiovascular disease. Clin Chim Acta. 2008;392:1---8.

5. Puig JG, Martínez MA. Hyperuricemia, gout and the metabolic syndrome. Curr Opin Rheumatol. 2008;20:187---91.







Efectos sobre las pruebas de laboratorio


                                                                              Dr. Lisandro Denaday
Bioquímico - Hospital Italiano de Buenos Aires

                                                          Monografia presentada en Capítulo Bioquímico - SATI




La utilización de soluciones intravenosas es una práctica muy frecuente en medicina aguda. A pesar de ello, no hay un consenso establecido con el que los médicos puedan guiarse a la hora de decidir cuál es la solución más adecuada para prescribir a cada paciente en particular, sino que sólo existen algunas recomendaciones basadas en la opinión de expertos o en evidencia clínica de baja calidad. Esto lleva a que la práctica clínica se determine en gran medida por la preferencia del equipo médico a cargo del paciente, con marcada variación regional (1) aún en un mismo país, basada en protocolos institucionales, disponibilidad, costo y comercialización (2).

El origen de la fluidoterapia se remonta a casi 200 años atrás, cuando Lewnis describió los efectos de la administración intravenosa de una solución salina alcalina para el tratamiento de pacientes afectados por la pandemia de cólera (1).

La indicación de la administración de fluidos puede obedecer distintas razones, como la reposición de pérdidas insensibles de volumen, vía de administración de medicación o electrolitos, la corrección de la hipovolemia intravascular y el aumento del gasto cardíaco o en la reanimación del paciente en shock (3).

La administración de fluidos, vasopresores e inotrópicos y la transfusión de glóbulos rojos son las intervenciones terapéuticas disponibles para alcanzar los objetivos hemodinámicos durante la reanimación (4). El líquido de reanimación más adecuado para reponer la pérdida masiva de sangre es la sangre entera. Esto fue muy considerado en los años 60, cuando había pocas alternativas de tratamiento, pero perdió popularidad cuando los proveedores comenzaron a separar la sangre en sus componentes, en un esfuerzo para maximizar el uso de una fuente limitada (5). Considerada durante mucho tiempo como el Gold Standard en la reanimación con fluidos, la infusión de unidades de glóbulos rojos tiene varios inconvenientes: la transfusión de sangre incita una respuesta inflamatoria en el receptor, tiene la capacidad de transmitir infecciones, debe mantenerse refrigerada, tiene una vida útil de aproximadamente 42 días y el suministro es limitado, dependiendo de los donantes (6). Además, es importante enfatizar que muchos pacientes pueden ser completamente reanimados sólo recibiendo a tiempo el tipo correcto y la cantidad adecuada de fluidos intravenosos (4). Esto ha dado lugar a una gran expansión en el uso de soluciones no sanguíneas.

Es sabido que evitar o corregir la hipovolemia es un requisito esencial, teniendo en cuenta que la falta de prescripción de líquido intravenoso adecuado puede colocar a un paciente en riesgo de desarrollar una lesión tisular secundaria a la hipoperfusión y la optimización intravascular mejora los resultados (7). Sin embargo, hay evidencias de que el tipo y la dosis del fluido utilizado pueden afectar la evolución del paciente (1) ya que la infusión excesiva de fluidos que conduce a sobrecarga de sodio, cloruro y agua se reconoce como una de las principales causas de morbilidad y un factor que contribuye a aumentar el tiempo de permanencia hospitalaria, la insuficiencia de órganos y mortalidad. Algunos especialistas reconocen el problema y plantean la necesidad de una mejor educación, aunque carecen de consenso sobre los enfoques óptimos para el reemplazo de líquidos y electrolitos (7).

Los resultados de las pruebas de laboratorio son la resultante de la sumatoria del cuadro fisiopatológico de base y los tratamientos médicos instaurados. La administración de fluidos intravenosos puede influir en los resultados de laboratorio, ya sea por los efectos fisiológicos o adversos que las mismas producen en el paciente como por dilución o contaminación. Esto hace que los bioquímicos y técnicos que procesamos las muestras de estos pacientes debamos considerar esas alternativas.

Esta revisión bibliográfica pretende resumir las principales características de las soluciones más utilizadas, sus críticas más reconocidas y cómo repercuten en las pruebas de laboratorio, de manera de facilitar la interpretación de los resultados.


Se seleccionaron artículos en inglés y en español de la base de datos PubMed. Las palabras claves utilizadas fueron: resuscitation fluids, crystalloids y colloids.


Tipos de fluidos: cristaloides y coloides

La solución ideal para terapia de fluidos debe producir un aumento predecible y sostenido del volumen intravascular, tener una composición química lo más cercana posible a la del fluido extracelular, metabolizarse y excretarse completamente sin acumulación en los tejidos, no producir efectos adversos y ser rentable. Actualmente, no existe una solución como tal disponible para uso clínico (1).

Las soluciones de reanimación se clasifican en general en soluciones cristaloides y coloidales.

Los cristaloides son soluciones acuosas que contienen minerales y / o sales de ácidos orgánicos (3) o azúcares de bajo peso molecular que se disuelven completamente en agua y pasan libremente entre los compartimentos intravascular e intersticial (7). La mayoría contiene concentraciones de sodio y cloruro que determinan la tonicidad del fluido.
Difieren en la composición electrolítica, el pH, la osmolaridad y el efecto sobre el estado ácido base y se pueden dividir en soluciones balanceadas y no balanceadas, basándose en su similitud con el plasma. Entre las soluciones cristaloides no balanceadas se encuentran la solución fisiológica (NaCl 0.9%), las soluciones de dextrosa y las soluciones de bicarbonato de sodio, mientras que la solución Ringer Lactato, la solución de Hartmann y Plasma-Lyte son ejemplos de soluciones cristaloides balanceadas (3). Si bien su composición química se aproxima a la composición del líquido extracelular, ninguna de estas soluciones es verdaderamente balanceada o fisiológica.

Las soluciones cristaloides más utilizadas y sus propiedades se describen en la tabla 1.

Las soluciones coloidales son suspensiones de moléculas de elevado peso molecular que, dependiendo de su tamaño, su estructura y la permeabilidad de los capilares del paciente (7), son relativamente incapaces de atravesar la membrana capilar semipermeable sana (1), permanecen en gran medida en el espacio intravascular y, por lo tanto, generan una presión oncótica (3).

Las macromoléculas que constituyen los coloides pueden estar compuestas por una base de proteínas o carbohidratos. A excepción de las soluciones de albúmina humana y otros hemoderivados, el resto de los coloides disponibles son de origen semisintético. Entre estos últimos se encuentran los hidroxietil almidones, las gelatinas y los dextranos (3).

La presión oncótica generada por un coloide está determinada principalmente por el peso molecular (PM) y la concentración de las partículas. En general, las moléculas más grandes tardan más en ser metabolizadas y tienen una duración de acción más larga, especialmente si sus metabolitos son también activos osmóticamente. Las moléculas menores que el umbral glomerular de 60 kDa se excretan en la orina, siempre que la función renal esté conservada, y son también más permeables a través de la pared capilar (3).

Todos los coloides se transportan en una solución cristaloide, comúnmente a base de NaCl, aunque también se dispone de coloides balanceados (3).

Los coloides más utilizados y sus propiedades se describen en la tabla 2.









































































































































































































Los defensores de soluciones coloidales (1) han argumentado que los coloides son más eficaces en la expansión del volumen porque permanecen dentro del espacio intravascular y mantienen la presión oncótica. El efecto ahorrador de volumen de los coloides, en comparación con los cristaloides, se considera una ventaja y se describe convencionalmente en una relación 1:3 de coloides a cristaloides para mantener el volumen intravascular. Sin embargo, los cristaloides son baratos y están ampliamente disponibles por lo que tienen un papel establecido, aunque no probado, como fluidos de

reanimación de primera línea(1).

Ninguna medida fisiológica o bioquímica refleja adecuadamente la necesidad de implementar una terapia de fluidos o la respuesta a la misma en la enfermedad aguda. Sin embargo, la hipotensión sistólica y particularmente la oliguria se utilizan ampliamente como factores desencadenantes para decidir un aporte de fluidos, que oscila entre 200 y 1.000 ml de cristaloide o coloide para un paciente adulto (1).

La administración de grandes cantidades de fluidos intravenosos en el período perioperatorio es una práctica clínica común. Aunque la carga de fluidos ayuda a expandir el espacio intravascular, mejorar la perfusión de órganos y la oxigenación tisular, el exceso de líquido también puede aumentar el riesgo de algunas complicaciones perioperatorias (8).

En ensayos de estrategias liberales en la administración de fluidos versus estrategias restrictivas dirigidas a objetivos según las necesidades fisiológicas individuales del paciente, estas últimas se asociaron con mejores resultados y una morbilidad reducida (9). Se ha observado una mayor incidencia de neumonía y edema pulmonar en aquellos pacientes sometidos a estrategias liberales, así como mayor tiempo para recuperar la función intestinal y una internación más prolongada (8).

El laboratorio de análisis clínicos, y en particular el laboratorio de urgencias, puede hacer aportes muy importantes en el monitoreo del balance de fluidos, principalmente mediante la evaluación del equilibrio hidroelectrolítico y del estado ácido base. Desde el punto de vista de las alteraciones iónicas, los trastornos del sodio y el potasio suelen ser los más relevantes teniendo en cuenta que sus desviaciones pueden poner en riesgo la vida del paciente (10). La concentración de sodio en orina refleja la perfusión renal y un valor bajo (<20 mmol / L) indica una hipoperfusión renal (7).

La expansión de la volemia con cualquier solución intravenosa produce una hemodilución que genera una caída del hematocrito, entre otros parámetros. Es importante tener en cuenta este aspecto a fin de no confundirlo con una hemorragia, sobre todo durante intervenciones quirúrgicas.

Dado que muchas soluciones no contienen potasio ni calcio en su composición, es frecuente observar una caída en los valores plasmáticos de dichos iones. Por otro lado, la ausencia de bases buffer en las soluciones hace que, al menos en una primera instancia, se produzca acidosis metabólica con disminución del pH, pCO2, bicarbonato y exceso de bases.

Finalmente, se debe tener en cuenta la composición de cada solución (Tablas 1 y 2) de manera de comprender ciertos resultados, como pueden ser la hipernatremia e hipercloremia en el caso de la administración de solución fisiológica, la hiperglucemia en el caso de administración de dextrosa o el aumento del lactato, si fuera la solución Ringer lactato el fluido en cuestión (11).

A continuación se profundizará con más detalle en cada una de las soluciones más utilizadas

Soluciones cristaloides

Solución fisiológica 

El cloruro de sodio es la solución cristaloide más comúnmente utilizada a nivel mundial. El término solución salina normal o solución fisiológica se cree que proviene de los estudios de lisis de glóbulos rojos realizados por el fisiólogo holandés Hartog Hamburger a fines del siglo XIX, quien comparando los puntos de congelación de sueros de distintas especies animales, incluido el hombre, concluyó que la sangre de la mayoría de los animales de sangre caliente es isotónica con una solución de NaCl al 0,9% (12).

Después de la infusión, aproximadamente el 60% del volumen se difunde desde el espacio intravascular hacia el compartimento intersticial a los 20 minutos de la administración. Esta difusión es aún más rápida en condiciones asociadas con disfunción endotelial, particularmente en condiciones de inflamación como la sepsis y luego de cirugías o traumas (1) (3).

La solución fisiológica o solución salina normal es ligeramente hipertónica y tiene cantidades iguales de Na+ y Cl-, lo que la hace hipernatrémica y muy hiperclorémica en relación con el plasma, además de carecer de capacidad buffer. Así, la infusión de grandes volúmenes conducirá a hipernatremia con sobrecarga hídrica y a acidosis metabólica hiperclorémica. De acuerdo con el modelo tradicional de Henderson-Hasselbach, se trata de una acidosis dilucional debida a una disminución de la concentración de bicarbonato, mientras que el modelo fisicoquímico de Stewart argumenta que la razón de la acidosis metabólica es la infusión del ion fuerte Cl- (13). Más allá de cuál sea la explicación más adecuada, probablemente una combinación de ambas, estudios en ratas han demostrado que la acidosis hiperclorémica genera un estado proinflamatorio y se asocia con un aumento en la morbilidad y mortalidad (14) (15).

Por otro lado, estudios en animales y voluntarios sanos muestran una asociación entre hipercloremia y vasoconstricción renal con disminución del filtrado glomerular (7) (1) (3) (9) (16) y aumento de los valores de creatinina sérica, mientras que el uso de soluciones balanceadas restringidas en Cl- ha reducido la incidencia de insuficiencia renal aguda y la necesidad de terapias de reemplazo renal. Es por esto que en aquellas poblaciones susceptibles de desarrollar insuficiencia renal, debería considerarse el uso de soluciones cristaloides balanceadas en lugar de solución fisiológica cuando sea posible (9).

Teniendo en cuenta lo antes descripto, quienes ser beneficiarían con la administración de solución fisiológica son aquellos pacientes con propensión a desarrollar hiponatremia, hipocloremia y alcalosis metabólica, como se observa casos de vómitos persistentes severos o drenaje gástrico (9).

Soluciones balanceadas: Ringer Lactato, Hartmann, Plasma-Lyte y Esterofundina

La primera solución cristaloide balanceada fue la solución de Ringer y posteriormente surgió una versión ligeramente modificada, la solución de Hartmann (1).

Las soluciones más modernas como Plasma-Lyte y Esterofundina contienen concentraciones de electrolitos que se asemejan más al plasma en comparación con las primeras (3).

Dado que el anión bicarbonato es inestable en soluciones almacenadas en recipientes plásticos, las soluciones balanceadas contienen aniones alternativos como lactato, acetato, gluconato o malato (1), que son metabolizados en el hígado con producción de bicarbonato (17).

Sin embargo, el efecto alcalinizante que producen estas soluciones sería previo a la síntesis de bicarbonato. A pH 7.40, estos aniones se encuentran completamente disociados y, por lo tanto, pueden considerarse iones fuertes desde el punto de vista del modelo fisicoquímico de Stewart (17). El lactato es metabolizado en el hígado mediante el Ciclo de Cori, el acetato y el malato son incorporados al Ciclo de Krebs, mientras que el gluconato es principalmente eliminado en orina.  La retención del sodio exógeno infundido y la eliminación de estos aniones produce un aumento de la diferencia de los iones fuertes, con aumento de bicarbonato (18) y elevación del pH. Es por esto que la administración excesiva de soluciones balanceadas puede resultar en hiperlactatemia transitoria y alcalosis metabólica (1).

Además de ser fuente de bicarbonato, la presencia de estos aniones metabolizables permite reducir la concentración de cloruro, evitando así la acidosis metabólica asociada. Por otro lado, las soluciones salinas equilibradas no reducen el flujo de la arteria renal y la perfusión cortical renal observada después de la infusión de solución fisiológica (16).

Dada la mayor complejidad de estas soluciones, se debe tener en cuenta que la adición de calcio en algunas preparaciones puede generar microtrombos en caso de coadministración con unidades de glóbulos rojos que contienen citrato (1).

Tanto la solución Ringer Lactato como la solución de Hartmann son ligeramente hipotónicas respecto al plasma, lo que afectaría la distribución de fluidos pudiendo conducir a la formación de edema cerebral y aumento de la diuresis, ambas situaciones con implicancias clínicas de consideración. Iniciativas comerciales como Plasma-Lyte y Esterofundina, han surgido con la intención de minimizar las diferencias en la tonicidad y la composición iónica entre el plasma y el fluido infundido (9) (16).

Considerando la preocupación con respecto al exceso de sodio y cloruro asociado con la solución fisiológica, las soluciones balanceadas son cada vez más recomendadas como fluidos de primera línea en pacientes sometidos a cirugía, pacientes con traumatismo, cetoacidosis diabética o quemaduras (1).

Aunque la literatura actual apoya el uso de cristaloides balanceados cuando sea posible y en particular en pacientes en los que la solución fisiológica puede causar efectos adversos (19), no hay un estudio que compare los diferentes cristaloides balanceados entre sí, por lo que no existe consenso sobre una única solución preferida (9).

Soluciones de dextrosa

Las soluciones de dextrosa contienen glucosa (d-glucosa o dextrosa) disuelta en agua o en cloruro de sodio. Existen presentaciones con distinta concentración de glucosa y NaCl.

La solución de glucosa al 5 % suele utilizarse para proporcionar glucosa y agua libre en condiciones de hipoglucemia o deshidratación hipertónica (3). Es frecuente que estas soluciones se administren con adición de potasio, de manera de evitar un estado de hipokalemia producto de la liberación de insulina secundaria al aumento de la glucemia.

La glucosa se metaboliza en el organismo, permitiendo que el agua se distribuya a través de todos los compartimentos del organismo, diluyendo los electrolitos y disminuyendo la presión osmótica del compartimento extracelular. Este desequilibrio entre las presiones osmóticas de los compartimentos extracelular e intracelular determina el ingreso de agua a las células (20). Se trata por lo tanto de una solución hipotónica que puede producir hiponatremia y edema celular por intoxicación acuosa (21), siendo los ancianos en particular una población de riesgo. Estas soluciones no son apropiadas para reanimación o terapia de reposición de volumen, excepto en condiciones de déficit de agua libre significativo como en el caso de la diabetes insípida (7).

La administración de soluciones de dextrosa debe realizarse considerando lo demostrado por Van den Berghe et al. (22) sobre la reducción de la morbilidad y la mortalidad al mantener los niveles de glucosa por debajo de 110 mg/dL.

Soluciones de bicarbonato de sodio  

El bicarbonato de sodio intravenoso está disponible en diferentes presentaciones que varían en su concentración y se utiliza en situaciones especiales, como amortiguador del exceso de iones de hidrógeno en casos de acidosis metabólica (3).

La alcalinización repentina de un paciente en acidosis metabólica debe hacer sospechar la administración de bicarbonato de sodio. Se pueden observar aumentos considerables del pH, exceso de base y bicarbonato, acompañado de un incremento en los valores de sodio debido a su alto contenido. También es posible observar una alcalinización de la orina en casos donde se supera el umbral renal de bicarbonato y se produce bicarbonaturia.

Soluciones coloidales 

Solución de albúmina humana 

La albúmina es la proteína más abundante en plasma humano, representando entre el 50% y el 60% del contenido proteico. Con un peso molecular de 66 a 68 kDa, tiene una excreción renal insignificante en glomérulos intactos y aporta el 80% de la presión oncótica (3).

La solución de albúmina humana (Human Albumin Solution, HAS) se obtiene a partir de plasma humano criodepletado. Sus propiedades fisicoquímicas -altamente soluble en agua, con elevada carga negativa, resistente a la desnaturalización a temperaturas y pH extremos- facilitan la separación y el tratamiento, que incluye un proceso de pasteurización para prevenir la transmisión de virus (3).

Los productos disponibles para uso terapéutico pueden ser isooncóticos (Albúmina al 4% -5%) o hiperoncóticos (Albúmina al 20%) (3). Se considera que la albúmina humana al 4 - 5% en solución salina es la solución coloidal de referencia (1).

Es una solución costosa para producir y distribuir y su disponibilidad es limitada en países subdesarrollados, resultando el aspecto económico un limitante importante para su uso (9).

La albúmina humana se usa comúnmente en situaciones en las que existe la necesidad de atraer o mantener volumen en el espacio intravascular sin carga adicional de sal o volumen, como en casos de cirrosis hepática o síndrome nefrótico o después de una paracentesis de gran volumen (3). La solución de albúmina al 5% conduce a 80% de expansión inicial del volumen, mientras que la solución al 25% es hiperoncótica y conduce a un aumento del 200% al 400% en 30 minutos.

La hipoalbuminemia es común en una amplia gama de estados de enfermedad aguda y crónica. La infusión regular aumentará el nivel de albúmina sérica a menos que haya una de pérdida de proteínas considerable. En estados de disfunción endotelial y/o fuga capilar, como puede ser el caso de un paciente séptico, cantidades significativas de albúmina pueden entrar en el espacio intersticial y contribuir a la formación edema tisular (3).

La razón detrás de la utilización de albúmina y otros coloides es impulsada por la hipótesis teórica de que los coloides conducen a una mejor expansión del volumen intravascular en comparación con los cristaloides. Sin embrago, aunque los coloides producen un incremento transitorio mayor en el volumen intravascular, no se ha demostrado que esto se traduzca en una mejoría en los resultados de mortalidad (9).

El estudio SAFE (Saline versus Albumin Fluid Evaluation), un ensayo para examinar la seguridad de la albúmina en 6997 adultos en la unidad de terapia intensiva (UTI), evaluó el efecto de la reanimación con albúmina al 4%, en comparación con solución fisiológica, sobre la tasa de muerte a los 28 días. El estudio no mostró ninguna diferencia significativa entre la albúmina y la solución fisiológica con respecto a la tasa de muerte o el desarrollo de falla orgánica (1).

Los análisis adicionales del estudio SAFE aportaron nuevos conocimientos sobre la reanimación con fluidos entre los pacientes en la UTI. La reanimación con albúmina se asoció con un aumento significativo en la tasa de muerte a los 2 años entre los pacientes con lesión cerebral traumática. Este resultado se ha atribuido al aumento de la presión intracraneal, particularmente durante la primera semana después de la lesión.

La reanimación con albúmina se asoció con una disminución en el riesgo de mortalidad a los 28 días en pacientes con sepsis grave, lo que sugiere un beneficio potencial pero no comprobado (1).

No se observó diferencia significativa en la evaluación de los parámetros hemodinámicos, como la presión arterial media o la frecuencia cardíaca, entre los grupos tratados con albúmina y con solución fisiológica, aunque el uso de albúmina se asoció con un aumento significativo pero clínicamente pequeño en la presión venosa central. La relación entre los volúmenes de albúmina y los volúmenes de solución fisiológica administrados para alcanzar los mismos resultados fue de 1:1.4 (1).

Las observaciones de estos estudios desafían los conceptos preestablecidos sobre la eficacia de la albúmina y su papel como una solución de reanimación. En la enfermedad aguda, parece que los efectos hemodinámicos y los efectos sobre los resultados centrados en el paciente de la albúmina son en gran parte equivalentes a los de la solución fisiológica. Aún queda por determinar si ciertos tipos de pacientes, en especial aquellos con sepsis severa, pueden ser particularmente beneficiados por el tratamiento con solución de albúmina (1).

Un metanálisis basado en comparaciones del riesgo de mortalidad de los fluidos de reanimación entre sí, sugiere que la albúmina es superior a otros coloides, mientras que algunos estudios destacan sus beneficios sobre la solución fisiológica pero no así sobre los cristaloides balanceados (9).

Por el momento, considerando la falta de consenso, las recomendaciones actuales no pueden respaldar el uso generalizado de la reanimación con albúmina, teniendo en cuenta sus costos y la falta de beneficios probados (9).

Hidroxietil almidón 

Varios estudios clínicos han confirmado que, al igual que las soluciones de albúmina, los coloides semisintéticos proporcionan una mayor repleción de fluidos intravasculares que los cristaloides y requieren menos administración de catecolaminas para mejorar los parámetros hemodinámicos (16).

Las soluciones de hidroxietil almidón (Hydroxyethyl Starch, HES) son los coloides semisintéticos más utilizados, particularmente en Europa (1).

Los hidroxietil almidones son derivados del polímero de glucosa amilopectina, obtenido a partir de fuentes naturales de almidón, tales como el maíz, el sorgo y la papa (3) (9).

Para evitar una rápida hidrólisis por α-amilasas en plasma y para aumentar el efecto oncótico, las soluciones de almidón experimentan ciertas modificaciones en las que se produce una hidroxilación en las posiciones C2 y C6. El grado de hidroxilación, también conocido como sustitución molar, se indica como una relación del número promedio de residuos de hidroxietilo por subunidad de glucosa y se expresa con un número entre 0 y 1. Cuanto más alto es el grado de sustitución molar, mayor es la resistencia y la vida media plasmática. Además, la hidroxilación en C2 confiere más resistencia a α-amilasas que en C6 (3).

Un alto grado de sustitución de las moléculas de glucosa protege contra la hidrólisis por amilasas inespecíficas en la sangre, prolongando así la expansión intravascular, pero esta acción aumenta el potencial del hidroxietil almidón para acumularse en los tejidos reticuloendoteliales, tales como piel, hígado y riñón, entro otros tejidos (1). El depósito se produce rápidamente luego de la infusión y puede llegar a durar varios años (23).

Las soluciones de hidroxietil almidones se caracterizan fisicoquímicamente por su concentración, peso molecular medio y grado de sustitución molar, por ejemplo, HES 6% 130/0.4, respectivamente. Hay una gama de soluciones de hidroxietil almidón con propiedades diferentes. Tradicionalmente se clasifican como almidones de alto (450-670 kDa), medio (130-200 kDa) y bajo (70 kDa) peso molecular. Sin embargo, para un peso molecular medio dado, habrá una gama de partículas de tamaño y peso molecular presentes. Más relevante que el peso molecular es la clasificación según la sustitución molar, que afecta a la vida media plasmática.

La depuración de las soluciones de HES depende de su PM. Los almidones menores de 60 kDa sufren rápida excreción renal. Las moléculas más grandes se dividen en fragmentos más pequeños por acción de α-amilasas y se excretan en la bilis o se depositan en los tejidos. La acumulación de HES en el sistema reticuloendotelial está implicada en eventos adversos y toxicidad (3).

En este sentido, desde la introducción de los coloides semisintéticos y debido a una serie de pruebas publicadas en las últimas décadas, ha surgido la preocupación sobre su nefrotoxicidad. Gran parte de la controversia se ha centrado en los hidroxietil almidones, teniendo como agravante el descubrimiento de que muchos de los datos originales publicados por Joachim Boldt mostrando los resultados beneficiosos de HES fueron falsificados, lo que resultó en la posterior retracción de estos estudios (9) (16).

Una revisión Cochrane de ensayos clínicos controlados aleatorizados no encontró evidencia de que los coloides sean superiores a los cristaloides isotónicos o hipertónicos como tratamiento para la reposición de volumen intravascular en pacientes críticamente enfermos. Además, los autores concluyen que teniendo en cuenta el mayor costo de los coloides sobre los cristaloides, su uso en la práctica clínica es difícil de justificar (24).  Tampoco existe ninguna ventaja fisiológica particular de HES sobre el resto de las soluciones coloidales (3).

Varios de estos ensayos clínicos que compararon HES con Ringer Acetato, Ringer Lactato y NaCl al 0,9% han observado aumentos en la creatinina sérica y una mayor necesidad de terapia de reemplazo renal en los grupos asignados a HES (3). En un ensayo ciego, aleatorizado y controlado en el que participaron 800 pacientes con sepsis grave en la UTI, investigadores escandinavos informaron que el uso de HES al 6% (130 / 0.42), en comparación con Ringer Acetato, se asoció con un aumento significativo en la tasa de la mortalidad a los 90 días y un significativo aumento relativo del 35% en la tasa de terapia de reemplazo renal (1).

En otro estudio, llamado Crystalloid versus Hydroxyethyl Starch Trial (CHEST), en el que participaron 7000 adultos en la UTI y donde compararon HES al 6% (130 / 0.4) con solución fisiológica, no se halló diferencia significativa en la tasa de mortalidad a los 90 días. Sin embargo, el uso de HES se asoció con un aumento significativo del 21% relativo en la tasa de terapia de reemplazo renal (1).

Tanto el estudio escandinavo como CHEST no mostraron diferencias significativas en los parámetros de reanimación hemodinámica alcanzados a corto plazo, aparte de los aumentos transitorios en la presión venosa central y los menores requerimientos de vasopresor con HES en CHEST. La relación de volúmenes observada de HES a cristaloides en estos ensayos fue de aproximadamente 1:1.3, lo cual es consistente con la relación de albúmina a solución fisiológica informada en el estudio SAFE y en otros ensayos de HES (1).

Tres metanálisis recientes de Zarychanski et al., Serpa Neto et al., y Rochwerg et al. apoyan la conclusión de que el uso de HES no reduce la mortalidad en comparación con otros fluidos de reanimación (9).

Se observan reducciones significativas del factor VIII y del factor de von Willebrand después de la infusión de dextranos, gelatinas y HES, siendo HES y dextranos de alto peso molecular los que tienen  mayor efecto sobre la hemostasia (3) (16). El uso de HES, en particular las preparaciones de alto peso molecular, se asocia con cambios en las mediciones viscoelásticas, reflejados en las técnicas de tromboelastografía (TEG) y tromboelastometría rotacional (ROTEM), que son utilizadas para valorar la formación del coágulo, la dinámica de su formación, la estabilidad del mismo y alteraciones en la fibrinólisis (25), aunque las consecuencias clínicas de estos efectos no han sido determinadas (1).

La infusión de HES provoca una elevación ocasional de los niveles de amilasa sérica. Si bien esto no tiene implicancia clínica, puede interferir con el diagnóstico de pancreatitis aguda (3).

Los hidroxietil almidones fueron los coloides más ampliamente prescritos, pero el uso está ahora restringido en varios países a partir de las evidencias de su nefrotoxicidad (3). Las soluciones utilizadas actualmente tienen concentraciones reducidas (6%) con un peso molecular de 130 kDa y relaciones de sustitución molar de 0,38 a 0,45. Están disponibles en varios tipos de soluciones cristaloides portadoras. Se utilizan principalmente para la expansión del volumen intravascular agudo durante la cirugía, como fluido de reanimación de primera línea en los escenarios militares, y en pacientes en la UTI (1).


Las gelatinas se obtienen a partir de la hidrólisis del colágeno de huesos de ganado. Debido a su tamaño relativamente pequeño, son rápidamente excretadas por los riñones de modo que la vida media plasmática es relativamente corta, de aproximadamente 2,5 horas.

Gelofusina y Geloplasma, dos presentaciones comerciales, contienen gelatina tratada por succinilación, lo que resulta en cadenas polipeptídicas estiradas y negativamente cargadas de hasta 30 kDa. La Gelofusina está disponible en una solución de NaCl, aunque con un contenido de NaCl inferior al 0,9%.  Geloplasma es un coloide equilibrado con un disolvente similar a Ringer Lactato. Poligelina, otro tipo de presentación, se crea a partir de gelatinas entrecruzadas con urea y también está disponible en una solución equilibrada (3).

Los datos observacionales recientes sugieren que la gelatina puede estar asociada con el desarrollo de nefrotoxicidad similar a la observada con HES. Sin embargo, esto no se ha demostrado en los ensayo clínicos realizados hasta mediados de 2015 (1) (3).

El principal uso de las gelatinas, las cuales no están autorizadas en todo el mundo, es para la expansión aguda del volumen intravascular, pero su duración es más corta que la de la albúmina o los almidones (3).


Los dextranos son polímeros de carbohidratos grandes y complejos. Se sintetizan a partir de sacarosa por la cepa B-512F de Leuconostoc mesenteroides a través de las acciones de la enzima glucosiltransferasa. Los pesos moleculares generados son altamente variables. Un proceso de hidrólisis ácida y fraccionamiento con etanol permite la separación de las moléculas más pequeñas (3) (26).

Haciendo referencia al PM medio, están disponibles comercialmente dextrano 40 kDa y dextrano 70 kDa, los cuales tienen varias diferencias entre sí. El dextrano 40 se disuelve normalmente en NaCl al 0,9%, mientras que el dextrano 70 está disponible en dextrosa al 5% y NaCl al 0,9%. En el dextrano 40, la mayoría de las moléculas son lo suficientemente pequeñas como para ser filtradas por los riñones, causando diuresis osmótica, o transportadas al espacio intersticial. En consecuencia, la vida media plasmática es mucho más corta, aunque algunas moléculas de PM más alto pueden persistir durante varios días. Los componentes de mayor peso del dextrano 70 se metabolizan lentamente por dextranasas reticuloendoteliales y pueden estar presentes durante varias semanas. Su excreción renal es muy limitada.

Los dextranos tienen un efecto anticoagulante a través de la inhibición de plaquetas, acciones profibrinolíticas y disminución de los niveles de factor VIII. Este efecto es más pronunciado para el dextrano 70, con el que se han reportado complicaciones hemorrágicas significativas. Los dextranos también pueden interferir en las pruebas de compatibilidad cruzada de la sangre.

A pesar de las ventajas teóricas de mejorar el flujo sanguíneo a través de la reducción de la viscosidad y la anticoagulación, los dextranos no tienen otra indicación específica aparte de la expansión aguda de la volemia (3). En la actualidad, su uso ha sido reemplazado en gran parte por otras soluciones semisintéticas (1).

Con respecto a los coloides en general, se han reportado reacciones anafilácticas con todas las clases, siendo más frecuentes con gelatinas y almidones y raro con la albúmina. Sin embargo, una revisión sistemática concluyó que no había pruebas de que un coloide fuera más seguro que otro (3).

En resumen, las crecientes preocupaciones acerca de la seguridad, especialmente en relación con los coloides semisintéticos, y la falta de superioridad clínica consistente de los coloides, sugieren que su aplicación debe ser minimizada. Los cristaloides, menos costosos, deben ser las soluciones de elección, mientras queda por confirmar el beneficio potencial de la utilización de albúmina en pacientes con shock séptico (16). 


La selección del tipo y las dosis de las soluciones intravenosas utilizadas en fluidoterapia debe evaluarse con la misma precaución que en el caso de cualquier otro fármaco intravenoso, con el objetivo de maximizar la eficacia y minimizar la toxicidad iatrogénica.

Lejos de ser soluciones que sólo afectan los parámetros hemodinámicos, los fluidos administrados producen efectos fisiológicos que se ven reflejados en algunas pruebas bioquímicas, además de ser factores pre-analíticos que el laboratorio debe considerar cuando la muestra es obtenida por la vía de perfusión.

El laboratorio de urgencias hospitalario permanentemente procesa muestras de pacientes que reciben fluidoterapia. Hacer una correcta interpretación de los resultados implica conocer la composición de las soluciones administradas y los efectos que éstas producen, así como reconocer situaciones pre-analíticas que pueden alterar los resultados, de manera de poder asegurar la calidad de la información emiti






Myburgh JA, Mythen MG. Resuscitation Fluids. Critical Care Medicine. 2013 Septiembre; 369(13): p. 1243-51.


Finfer, Simon; Liu, Bette; Taylor, Colman; Bellomo, Rinaldo; Billot, Laurent; Cook, Deborah; Du, Bin; McAsthur, Colin; Myburgh, John. Resuscitation fluid use in critically ill adults: an international cross-sectional study in 391 intensive care units. Critical Care. 2010; 14(5).


Varrier M, Ostermann M. Fluid Composition and Clinical Effects. Critical Care the Clinics. 2015; 31.


Corrêa TD, Lima Rocha L, Souza Pessoa CM, Silva E, Cesar de Assuncao M. Fluid therapy for septic shock resuscitation: which fluid should be used? Einstein (São Paulo). 2015 Marzo; 13(3).


Naren T, Royse A, Reade M. Review of fluid resuscitation and massive transfusion protocols from a military perspective. ADF Health. 2011; 12(1).


Curran R. EMS WORLD. [Online].; 2010 [cited 2017 Enero 23. Available from:   HYPERLINK "" .


Powell-Tuck, Jeremy; Gosling, Peter; Lobo, Dileep N; Allison, Simon P; Carlson, Gordon L; Gore, Marcus; Lewington, Andrew J; Pearse, Rupert M; Mythen, Monty G. British Consensus Guidelines on Intravenous Fluid Therapy for Adult Surgical Patients. 2011..


Corcoran , Rhodes E, Clarke , Myles PS, Ho KM. Perioperative Fluid Management Strategies in Major Surgery: A Stratified Meta-Analysis. Anesthesia & Analgesia. 2012 Marzo; 114(3).


Lira A, Pinsky MR. Choices in fluid type and volume during resuscitation: impact on patient outcomes. Annals of Intensive Care. 2014; 4(1).


Ceballos Guerrero , Fernández-Cañadas Sánchez JM, de la Cal Ramírez , Muñoz Guillén. ALTERACIONES DE LOS ELECTROLITOS EN URGENCIAS Madrid: Sociedad Española de Medicina de Urgencias y Emergencias; 2014.


Hadimioglu, Necmiye; Saadawy, Iman; Saglam, Tayyup; Ertug, Zeki; Dinckan, Ayhan. The Effect of Different Crystalloid Solutions on Acid-Base Balance and Early Kidney Function After Kidney Transplantation. Anesthesia & Analgesia. 2008 Julio; 107(1).


Awad S, Allison SP, Lobo DN. The history of 0.9% saline. Clinical Nutrition. 2008 Diciembre; 27.


Langer T, Ferrari M, Zazzeron L, Gattinoni L, Caironi P. Effects of intravenous solutions on acid-base equilibrium: from crystalloids to colloids and blood components. Anaesthesiology Intensive Therapy. 2014 Octubre; 46(5).


Kellum JA, Song M, Almasri E. Hyperchloremic Acidosis Increases Circulating Inflammatory Molecules in Experimental Sepsis. C

MISCELANEAS BREVES - 173Fecha: 1/3/2017



Trastornos Metabólicos Neonatales

                                                                         Fejerman, Fernandez, Alvarez.
                                                                       Ed Panamericana. 3er ed. Pag.293.


La encefalopatía debida a la deficiencia de sulfito oxidasa es un trastorno neurometabólico, poco común, caracterizado por convulsiones neonatales y encefalopatía progresiva.

Las convulsiones neonatales o en la infancia temprana suelen ser marcadoras de enfermedad neurológica y obligan a varios estudios diagnósticos. La presencia de sulfitos en orina orienta en forma rápida a esta patología que si bien tiene una
prevalencia  desconocida es una enfermedad poco común.

Los síntomas suelen aparecer durante la primera semana después del nacimiento con dificultades en la alimentación, vómitos y convulsiones difíciles de controlar.
El déficit aislado de sulfito oxidasa está causado por una mutación en el gen SUOX. Este gen codifica la enzima sulfito oxidasa, que cataliza la transformación de sulfito a sulfato, un proceso esencial para el catabolismo de los aminoácidos que contienen azufre. El déficit de CoMo causado por mutaciones en los genes MOCS1MOCS2 o MOCS3 también conduce al déficit de sulfito oxidasa. Estos genes codifican las enzimas de la ruta biosintética del CoMo. 

Hay un ensayo sencillo mediante una tira reactiva para sulfito en una muestra reciente de orina, pero puede dar falsos positivos y resultados negativos.
Se aprecia hipouricemia en la forma de déficit de CoMo de la enfermedad.
Otra información bioquímica complemetaria consiste en la detección de niveles bajos de homocisteína plasmática.

El diagnóstico se confirma mediante el cultivo de fibroblastos de la piel evidenciando ausencia de sulfito oxidasa y/o actividad del CoMo en los cultivos.

Esta patologia tiene como diagnosticos diferenciales la encefalopatía hipóxico-isquémica neonatal y la hiperexplexia que debe ser descartado.




1-     Vademecum Metabolicum. Diagnosis and Treatment of Inborn Errors of Metabolism. J. Zschocke, G. F. Hoffman. Editorial Schattauer, 3rd Ed.

2-     Atlas of metabolic diseases .Williams Nyham Bruce A. Bashop and Pinar Ocand. 2 edition. Pag 81-93.


3-     Physicians guide to de laboratory diagnosis of metabolic diseases.  Nenad Blau Spinger. 2do ed. pag 246-249







To Anticoagulate or Not? - Surgery and Medication

                                                                   John U. Doherty
                                          Chair of the writing committee - American College of Cardiology

                                  Journal of the American College of Cardiology.-Dec 2016


For individuals with irregular heartbeats and a prescription for anticoagulation medicine, a decision must be made before surgery on whether the patient should continue their medication. Anticoagulants, which make the blood thinner, could cause dangerous bleeding during surgery. But without the medication, a patient could be at a higher risk for blood clots and even stroke.
If a patient has an irregular heartbeat due to a condition unrelated to a heart valve, understandably known as "nonvalvular atrial fibrillation," and they also require a surgical procedure for some reason, doctors have to make a tough decision  
As opposed to valvular atrial fibrillation, which includes patients with mitral stenosis or artificial heart valves, nonvalvular atrial fibrillation patients are at a high risk of blood clots and stroke. The difference is so key to the characteristics of each condition that a 2015 study focused solely on defining the two types of atrial fibrillation declared that "[scientists] should no longer consider the classification of [atrial fibrillation] as "valvular" (or not) for the purpose of defining the aetiology of the arrhythmia, but for the determination of a different risk of thromboembolic events and the need for a specific antithrombotic strategy."
From the American College of Cardiology, researchers came up with a new "decision pathway document" to combat the risk of bleeding during surgery with a patient on anticoagulants and the risk of developing a blood clot for patients not on anticoagulants. For a patient in this situation, many specialists are involved in the decision-making process. And as in any case where there are many cooks in the kitchen, sometimes the best solution can be hard to determine. All these specialists possess valuable knowledge; however, they have differing perspectives, which can make the decision-making process complex. With this new decision pathway, physicians will be able to make better-informed decisions, and this will contribute to improved patient outcomes."
First, the new document addresses whether a patient should be taking anticoagulant medication in general, before surgery is even considered. This decision is made by assessing overall thrombotic risk of the individual patient. Then, based on the balance of risks between overall thrombotic risk and hemorrhage during surgery, doctors can decide if a patient should or should not continue anticoagulant medication during the surgical process.
The document also discusses how and when a patient should be taken off of anticoagulant medications based on what specific drug they have been prescribed (vitamin K antagonists, direct-acting oral anticoagulants). There are also guidelines for "bridging" a patient before, during, and after surgery, if this approach appears to be appropriate. "Bridging" entails temporarily stopping administration of oral medication and replacing it with either an injection or an IV drip.
Lastly, the document addresses how and when the patient should continue with their original anticoagulant medication after surgery. With the multitude of factors considered in the writing of this "antithrombotic strategy" and considering the hundreds of thousands of individuals with nonvalvular atrial fibrillation undergoing surgery every year, this new document will be an invaluable new guide for cardiologists.






Pediatric Coagulation Disorder

                                                                                  Vilmarie Rodriguez, Deepti Warad

                                                Division of Pediatric Hematology-Oncology, Mayo Clinic Children's Center,
                                                               Mayo Clinic Comprehensive Hemophilia Center, Mayo Clinic, Rochester, MN.

                                                           Pediatrics in Review Jul 2016, 37 (7) e25-e28



Hemostasis in the pediatric patient evolves as the child grows and matures, and normal adult laboratory values are not often the norm for a child. This article provides a summary of the pathophysiology of hemostasis (eg, bleeding and thrombosis disorders) and reviews the basic principles of history and physical findings to provide the primary care practitioner with the necessary tools for initial evaluation of a pediatric patient with a suspected coagulation disorder. A basic understanding of when to test a patient for a coagulation disorder or make a proper referral to a pediatric hematologist will result in optimal care.

Evaluation of a Bleeding Disorder

History and Physical Examination

The best screening test for a bleeding disorder is a comprehensive history and physical examination. (1)(2)(3) The primary hindrance to finding such disorders is a lack of surgical challenges or trauma in the pediatric age group that can provide additional clues toward the diagnosis. Mild bleeding symptoms, such as epistaxis and easy bruising, are relatively common in children. The patient's age, gender, and developmental stage are important to consider when evaluating a possible bleeding disorder. The different components of the coagulation system are constantly evolving, and concentrations of coagulation proteins in the pediatric patient might not reach adult reference values until adolescence or adulthood. (4)(5)(6)(7) Easy bruising is a common finding in children between ages 1 and 10 years, more frequently over bony prominences such as the forehead, knees, and shins. Nonaccidental trauma is always a concern for any clinician involved in pediatric care and should be considered in children with unexplained or excessive bleeding symptoms. Any type of bleeding in a non-mobile child should be considered to be a bleeding disorder or a result of nonaccidental trauma.

Factors to consider when evaluating a bleeding disorder are the age of the patient at the time of the first episode; the site, frequency, and extent of the bleeding; personal history of recurrent unprovoked or spontaneous bleeding; bleeding after surgical or procedural interventions; family history of bleeding; and heavy menstrual bleeding in girls. Bleeding symptoms from primary hemostatic defects such as abnormalities of platelets are characterized by easy bruising or petechiae, mucosal bleeding, and bleeding after trauma. Defects of secondary hemostasis such as coagulation factor deficiencies cause delayed bleeding after surgery, trauma, deep lacerations, and depending on the degree of coagulation factor deficiency, bleeding into joints, muscles, and soft tissues. During the neonatal period, oozing from the umbilical stump, prolonged oozing from heel stick or venipuncture sites, prolonged bleeding from circumcision, large cephalohematoma, and caput succedaneum without a traumatic birth history suggest a congenital bleeding disorder. Intracranial hemorrhage in a near-term or term neonate should raise concern about a potential congenital bleeding disorder.

Other medical disorders that can cause easy bruising or bleeding should be considered. Ehlers-Danlos syndrome is a disorder of collagen, and patients typically present with hyperextensible joints and easy/prominent ecchymosis. Hemangiomas and hereditary hemorrhagic telangiectasias are vascular disorders that can present with bleeding symptoms, particularly in the airway and gastrointestinal tract.

A detailed history of medications, nonprescription supplements, and complementary medications should be documented in the history. Some of these can cause acquired coagulation abnormalities, including aspirin, nonsteroidal anti-inflammatory drugs, and Ginkgo biloba extract.

Initial Laboratory Evaluation

The initial laboratory evaluation of a child with a suspected bleeding disorder should include a complete blood cell (CBC) count, peripheral blood smear, prothrombin time (PT), activated partial thromboplastin time (aPTT), fibrinogen, thrombin time, von Willebrand antigen and activity (vWF activity or ristocetin cofactor activity), FVIII, and factor IX (FIX). The CBC count and peripheral blood smear complement each other. They not only provide diagnostic evidence of quantitative platelet disorders but can also assist in the evaluation of white cell and platelet morphology that can offer clues toward the diagnosis of congenital platelet disorders (eg, Döhle bodies in white cells and large platelets in May-Hegglin anomaly) or confirm the diagnosis of a malignant disorder such as leukemia. Morphologic evaluation of red cells can exclude disorders such as a microangiopathic process that can lead to fragmented red blood cells and thrombocytopenia (eg, hemolytic-uremic syndrome/thrombotic thrombocytopenia purpura).

Prolongation of PT and aPTT in an asymptomatic child may be due to several factors. A common cause of prolonged clotting times is error in obtaining an adequate amount of blood or delay in processing the blood samples. Lupus anticoagulants (LA) are often present in children after viral infections and can prolong phospholipid-dependent assays such as PT and aPTT without any bleeding consequences. LA cause thrombosis most commonly in patients with autoimmune disorder. In rare instances, LA can cause acquired prothrombin deficiency. Table 1 summarizes the differential diagnosis based on abnormalities of different coagulation assays.


Table 1.

Summary of Tests, Associated Abnormalities, and Differential Diagnosis

Laboratory Finding

Differential Diagnosis

PT abnormal, aPTT normal

FVII deficiency

aPTT abnormal, PT normal

FVIII, FIX, FXI, FXII deficiency; high-molecular weight kininogen, prekallikrein, or kallikrein deficiency; severe vWD; heparin effect

PT and aPTT abnormal

FI, FII, FV, combined FV/FVIII, or FX deficiency or vitamin K coagulation factor deficiency

No abnormalities in PT and aPTT

Consider FXIII, FVIII, or FIX (mild deficiencies)*; fibrinolytic disorders (α-2 antiplasmin deficiency, plasminogen activator inhibitor deficiency); platelet function disorders

PT and aPTT prolonged with prolonged TT

Afibrinogenemia, dysfibrinogenemia, DIC, heparin effect

PT and aPTT prolonged with normal TT

Liver disease; vitamin K deficiency; FII, FV, FX deficiency; DIC; lupus anticoagulant; warfarin effect

Platelet count low

Idiopathic thrombocytopenic purpura, hereditary platelet disorder, bone marrow failure syndrome

Platelet function analysis(abnormal platelet function analysis)

vWD, platelet disorder (hereditary or acquired)

  • *Interlaboratory assay variation; refer to institutional clotting times assay sensitivities for lower limit of detection of factor activities.
  • aPTT=activated partial thromboplastin time, DIC=disseminated intravascular coagulation, F=factor, PT=prothrombin time, TT=thrombin time, vWD=von Willebrand disease.

Nonaccidental Trauma

If bleeding or bruising raises concern for nonaccidental trauma, careful history, physical examination, and detailed description of physical findings are warranted. Bruises in areas less prone to trauma, such as the face, ears, neck, upper arms, trunk, hands, genitalia, buttocks, and anterior and medial thighs, as well as the pattern of bruises (eg, hand marks, bite marks, object marks, bruises in clusters, or large cumulative bruises) should raise concern for child abuse. Laboratory evaluations need to be undertaken but with the understanding that the presence of a bleeding disorder or coagulation abnormality does not rule out abuse or nonaccidental trauma as an explanation for recurrent bruising or bleeding. If the history and physical findings disclose or provide a clear explanation for the easy bruising or bleeding, a bleeding disorder evaluation might not be needed. However, in the absence of a clear explanation or findings on physical examination such as petechiae or bruising in areas of pressure to the skin (eg, bruising on the chest in areas where infant's seat fasteners-belts are applied or areas of clothing pressure), evaluation for a bleeding disorder should be considered. If the child presents with intracranial hemorrhage, a disseminated intravascular coagulation (DIC) panel (d-dimer and fibrinogen) in addition to the previously mentioned coagulation laboratory tests should be obtained. If any of these tests yield abnormal results, clinicians should consider further testing. A consultation with a pediatric hematologist can facilitate interpretation and management recommendations.

Inherited Bleeding Disorders

Incidence and Characteristics

Hemophilia A and B are X-linked recessive disorders characterized by deficiencies of coagulation FVIII and FIX, respectively. Hemophilia A affects 1 in 5,000 males and hemophilia B affects 1 in 30,000 males, with an equal ethnic distribution. Hemophilia C (FXI deficiency) affects both genders and is typically more common in Ashkenazi Jews. Because about 30% of hemophilias can develop as spontaneous mutations, the lack of family history does not rule out this disorder. FVIII and FIX should be measured in any male infant with suspected hemophilia. FVIII concentrations are similar in infants and adults, but FIX concentrations are lower in newborns, rising to adult values after age 6 months. Mild-to-moderate hemophilia B cannot be diagnosed in the neonate and assessment of FIX must be repeated at or after age 6 months to confirm the diagnosis.

The severity of hemophilia is based upon the concentrations of FVIII and FIX. Severe hemophilia is characterized by a less than 1% plasma factor level. Bleeding episodes are frequent and often spontaneous in the absence of trauma. Spontaneous joint hemorrhages, also known as hemarthroses, are characteristic of this severe bleeding disorder. Moderate hemophilia (factor levels 1%-5%) typically presents with bleeding symptoms (hematomas, mucosal bleeding) after minor trauma; spontaneous bleeding such as hemarthrosis is not as frequent as in severe hemophilia unless precipitated by trauma. Mild hemophilia (factor levels 5%-40%) typically manifests bleeding symptoms with surgery or significant trauma.

Females can be symptomatic carriers of hemophilia. They can also present with hemophilia by inactivation of the normal X chromosome via lyonization, homozygous recessive hemophilia status, and Turner syndrome (45XO). Diagnosis of hemophilia requires a complete history and pedigree of the family, measurement of FVIII and FIX, and genetic testing (DNA analysis of FVIII [26 exons] and FIX [8 exons]). Prenatal DNA-based diagnosis of hemophilia can be undertaken via chorionic villus sampling at 10 to 12 weeks of gestational age.


Most of the care for patients with hemophilia is performed at home, which is why patient education and counseling constitute a substantial part of the management. Parents and older children are taught how to infuse factor concentrates intravenously. Some young children, particularly with severe hemophilia, require the use of central venous access devices (eg, implanted catheters) to facilitate factor infusion. The standard of care for patients with severe or moderate hemophilia who have recurrent bleeding episodes is prophylactic factor infusion to prevent spontaneous hemorrhages, especially into the joints. Hemarthrosis can cause degenerative joint disease that affects mobility and function. Hemophilia care also requires on-demand therapy (factor infusion to treat any acute bleeding) or infusion of factor before a physical activity or sport that can potentially lead to muscle or joint bleeding. The combination of these treatment strategies prevents degenerative joint disease, improves quality of life, and allows children to develop a healthy musculoskeletal system as they mature into young adults. Unfortunately, before the 1980s, many patients with hemophilia received their therapy with plasma-derived products and some developed human immunodeficiency virus or hepatitis B and C infections. With the advent of DNA recombinant factor products and purified factor concentrate technology, the viral transmission of these diseases was halted. New longer-acting products with longer half-lives are approved by the US Food and Drug Administration (FDA) and are available commercially, facilitating less frequent factor concentrate infusions compared to the traditional FVIII and IX concentrates.

Children who have severe hemophilia are not only at risk for repetitive bleeding into joints ("target joints"), pain, decreased range of motion, and degenerative joint disease, but they can also develop intracranial hemorrhage with trauma if factor therapy is not administered immediately. Moreover, these children can develop inhibitors (antibodies) that render coagulation factor concentrates ineffective. Therapy to eradicate these types of antibodies requires prolonged and higher doses of factor concentrates, also known as immune therapy. These antibodies are measured by the Bethesda assay. One Bethesda unit per milliliter inhibits or neutralizes FVIII or FIX by 50% rolex replica italia. Children with severe disease require specialized care by a hematologist for comprehensive bleeding treatment management guidance. Patients who have inhibitors and acute hemorrhage require the use of FVIII or FIX bypassing agents (eg, recombinant FVII, prothrombin complex concentrates).

The goal of replacement therapy in those who have hemophilia during an acute bleeding episode is to raise the concentration of the involved plasma factor to the desired level for hemostasis based on the type and severity of the bleeding. Patients with minor hemorrhages or hemarthrosis can be treated with the goal of achieving at least 20% to 40% of FVIII or FIX activity (Table 2). More severe bleeding, such as intracranial hemorrhage, should be treated to correct the factor level to 100% activity (Table 2).

Table 2.

Treatment Recommendations for Hemophilia A and B

Type of Bleeding

Desired Plasma Factor Level

Initial Dose of FVIII*(IU/kg)

Initial Dose of FIX*(IU/kg)

Duration of Therapy

Mild: Hemarthrosis, superficial hematoma, oropharyngeal bleeding




1-2 days

Major: Central nervous system trauma, surgery, gastrointestinal bleeding, retroperitoneal bleeding

80%-100% (for at least initial 72 hours; >50% thereafter)



At least 10-14 days

·                         Each unit of FVIII per kilogram of weight infused increases the plasma factor level by 2% and each unit of FIX per kilogram of weight increases the plasma factor level by 1%. Slight variations can be encountered in the expected increment level of factor plasma activity level among the different commercially available products. FVIII=factor VIII, FIX=factor IX.


Patients with mild hemophilia A may respond to desmopressin (DDAVP; 1-deamino-8-D-arginine vasopressin). DDAVP is a synthetic analog of arginine vasopressin that induces vWF and FVIII release from the endothelium. Minor bleeding or mucosal bleeding can be treated with this agent in patients who demonstrate response to therapy (elevation of FVIII and vWF from baseline). Mucosal bleeding can also be treated with antifibrinolytics such as tranexamic acid and ε-aminocaproic acid. Both medications inhibit the conversion of plasminogen to plasmin, thereby inhibiting lysis of a fibrin clot.

von Willebrand Disease


von Willebrand disease (vWD) is the most common bleeding disorder, affecting nearly 1% of the population. vWF is a plasma GP that is composed of low-, intermediate-, and high-molecular weight multimers. vWF binds to platelets through GPIb-IX-V and GPIIb-IIIa on the surface of the platelets, promoting platelet adhesion and aggregation, respectively, at the injured vascular endothelium. vWF also serves as a carrier for FVIII in the circulation.

The majority of vWD diagnoses are type 1 variant (nearly 80%), which involves a quantitative defect in vWF and is generally associated with mild bleeding symptoms. About 20% of vWD diagnoses are type 2. Type 2A vWD results from qualitative deficiency of large-molecular weight multimers, resulting in defective platelet adhesion to the injured endothelium. Type 2B vWD is characterized by increased affinity of the vWF to GPIb, causing platelet clearance and resulting in thrombocytopenia in some patients. Type 2N vWD results in defective binding of vWF to FVIII, thereby lowering FVIII concentrations, and can be misdiagnosed as hemophilia. Type 3 vWD is associated with the absence of vWF and is characterized by severe bleeding (Table 3).


Table 3.

Types of von Willebrand Disease



Laboratory and Clinical Findings

Type 1


Quantitative decrease in vWF, good response to DDAVP

Type 2


Qualitative defects in vWF

Type 2A


Large- and intermediate-size multimers absent, multimer assembly defective, may respond to DDAVP

Type 2B


Large multimers absent, increased affinity of vWF to GPIb-IX-V to platelets, DDAVP contraindicated

Type 2M


Decreased platelet-dependent function

Type 2N


Defective binding to FVIII

Type 3


Severe bleeding, need vWF concentrate

  • AD=autosomal dominant, AR=autosomal recessive, DDAVP=desmopressin, F=factor, GP=glycoprotein, vWD=von Willebrand disease, vWF=von Willebrand factor.


Screening tests for vWD include patient history for mucocutaneous bleeding such as epistaxis or gingival bleeding and excessive bleeding with menstruation as well as a family history for bleeding complications associated with surgery, dental extractions, or postpartum. Initial tests should include CBC count to assess for anemia resulting from bleeding and thrombocytopenia, PT, and aPTT. The platelet function analysis (PFA) is an in vitro test that complements the diagnostic evaluation of vWD if it yields abnormal results (refer to section on Platelet Disorders). von Willebrand antigen, von Willebrand activity or ristocetin cofactor activity, FVIII, multimer analysis, and blood type help in the initial diagnosis and classification of vWD. Individuals with blood group O typically have lower levels of vWF and activity in contrast to other blood group types (∼40%-50%). Patients with vWD have abnormal PFA closure time results and low vWF, normal PT, and prolonged aPTT, depending on the level of diminished FVIII activity. Type 2B vWD can be diagnosed by measuring low-dose ristocetin-induced platelet aggregation.


Treatment depends on the type of vWD and bleeding severity. DDAVP is an option for those with type 1 and some type 2A vWD. A DDAVP "challenge" or infusion must be performed initially to measure the response after administration, assessed by an increase in FVIII, vWF antigen, and vWF activity or ristocetin cofactor activity. The dose of DDAVP is 0.3 μg/kg intravenously, with some recommending a maximum dose of 20 μg. A nasal form is also available, which is convenient to administer for minor bleeding or in emergency situations when patients do not have ready access to a medical facility. Both nasal and intravenous DDAVP can be administered every 12 to 24 hours, although caution should be exercised due to tachyphylaxis (decreased response if frequent and repetitive use) and the possibility of hyponatremia with potential risk for seizures, especially in infants and young children. Other adverse effects are headaches, facial flushing, and tachycardia, but these are transient. In females with vWD and menorrhagia, DDAVP in addition to antifibrinolytics can be used to control bleeding. Oral contraceptives/hormonal therapy also can be considered to control heavy menstrual periods.

Therapy with DDAVP is contraindicated in other subtypes of type 2 vWD, such as type 2B due to worsening thrombocytopenia and type 3 due to lack of response related to near absence of vWF. Factor concentrates and antifibrinolytics are used to treat bleeding episodes. Several commercial brands of vWF concentrates, which contain a higher proportion of vWF, are designed specifically to treat these disorders.

Platelet Disorders

Congenital platelet disorders can affect platelet numbers, function, or both. The typical clinical manifestations are excessive mucocutaneous bleeding, such as easy bruising, palpable ecchymosis or purpura, excessive bleeding following surgical or dental procedures, or bleeding due to trauma.


Platelet disorders are heterogeneous, and the diagnosis involves a repertoire of testing that can frequently be performed under the guidance of a pediatric hematologist and a specialized coagulation laboratory. The diversity of defects encompasses abnormalities of platelet adhesion, activation, aggregation, secretion, and signal transduction. Laboratory testing of platelet function abnormalities involves morphology, electron microscopy, flow cytometry, and platelet function studies.

Bleeding time is another test used to assess platelet function, although it has largely been abandoned by most laboratories for assessment of bleeding disorders. The test involves using a sphygmomanometer inflated to 40 mm Hg around the upper arm and making a 5-mm deep incision on the flexor surface of the arm. The time for cessation of bleeding is used to calculate bleeding time. The primary disadvantage of the test is the operator and interpretation variability. Results depend on room temperature, skin thickness, and patient cooperation. Bleeding time has been proven to lack utility in screening presurgical patients for a bleeding disorder in the absence of bleeding history or the assessment of platelet dysfunction in those who have mild thrombocytopenia (platelets <100,000 × 109/L). Finally, the test can create anxiety for children.

PFA measures platelet adhesion, activation, and aggregation (primary hemostasis). The analyzer uses cartridges coated with platelet agonists such as collagen/epinephrine and collagen/ADP to measure closure times. A citrated blood sample is passed through the cartridges at high shear rate to simulate in vivo blood flow in the small capillaries. Platelets adhere to the cartridge membranes and occlude a small aperture centered in each membrane. The time, in seconds, for blood to occlude the aperture is referred to as closure time. A normal collagen/epinephrine closure time excludes the presence of a significant platelet function defect. If collagen/epinephrine closure time is prolonged and the collagen/ADP time is normal, aspirin-induced platelet dysfunction is the most likely cause. Prolongation of both tests may indicate anemia, thrombocytopenia, or a platelet function defect other

than aspirin (eg, congenital platelet function disorders, vWD, platelet dysfunction due to uremia). Table 4 summarizes some of the common congenital platelet disorders.


Table 4.

Congenital Platelet Disorders

Nonsyndromic Congenital Platelet Disorders


Gene (Chromosome)

Preferred Nongenetic Laboratory Tests

Important Features

Bernard-Soulier syndrome



Blood smear

Giant platelets



GP9 (3q21)


Glanzmann thrombasthenia



Blood smear

Normal platelets on morphology



Congenital amegakaryocytic thrombocytopenia


MPL (1p34)


Megakaryocytic aplasia

Familial platelet disorder and predisposition to AML




MDS/AML risk

Gray platelet syndrome




Myelofibrosis and splenomegaly

  • AD=autosomal dominant, AML=acute myeloid leukemia, AR=autosomal recessive, BM Bx=bone marrow biopsy, EM=electron microscopy, Flow=flow cytometry, LTA=light transmission platelet aggregation, MDS=myelodysplastic syndrome.

Specific Disorders

Bernard-Soulier syndrome (BSS) is an autosomal recessive platelet function disorder that impairs platelet adhesion to vWF. The disorder is characterized by complete deficiency or lack of GPIb-IX-V receptor. Typical findings include prolonged PFA closure times, thrombocytopenia, and large platelets. Platelet aggregation response to ristocetin is important for diagnosis. Ristocetin is an antibiotic that causes vWF to bind to the platelet receptor GPIb-IX-V, inducing platelet aggregation in vitro. Due to deficiency or absence of the GPIb-IX-V receptor in BSS, platelet aggregation analysis shows absent or markedly reduced platelet aggregation to ristocetin. Aggregation to other agonists such ADP, epinephrine, and collagen is normal or reduced proportionally to the thrombocytopenia.

Glanzmann thrombasthenia is a rare autosomal recessive congenital disorder characterized by severe mucocutaneous bleeding. Platelet aggregation studies demonstrate absent or markedly impaired platelet aggregation to all agonists except ristocetin due to defects in the platelet receptor GPIIb-IIIa that binds to fibrinogen.

Disorders of platelet secretion and signal transduction comprise a diverse and complex group of disorders that involve impaired response to agonist stimulation and secretion of granule contents, which leads to impaired platelet aggregation response to ADP and epinephrine with or without impairment of responses to other agonists. Some of these disorders are delta storage pool disease and congenital defects in signal transduction due to platelet surface agonist receptor abnormalities. Other disorders of platelets result from abnormal platelet granule stores (storage pool deficiency or grey platelet syndrome), defects in platelet structural proteins (MYH9-related disorders such as May-Hegglin platelet disorder and X-linked thrombocytopenia), and disorders of platelet procoagulant activity (Scott syndrome). A pediatric hematologist should be consulted for appropriate evaluation and management of these conditions.


The bleeding management of patients affected with platelet disorders primarily focuses on preventing major and minor bleeding complications. Platelet transfusions are reserved for those with severe bleeding manifestations not controlled by conventional therapies, such as antifibrinolytics or DDAVP. Females with menorrhagia and congenital platelet disorder can be treated with oral contraceptive pills (OCPs) and antifibrinolytic therapy. Intrauterine devices are another option to reduce menstrual blood loss, especially if employed as a method to prevent pregnancy. Other therapies, such as recombinant FVII, are typically used for serious bleeding in patients who have severe congenital platelet disorders and in those patients who do not respond to platelet transfusions due to isoimmunization.

Rare Bleeding Disorders

Inherited deficiencies of other coagulation factors are less common than the previously described bleeding disorders and are described as rare bleeding disorders (RBDs). The RBDs are inherited quantitative or qualitative deficiencies of factors (fibrinogen [FI], FII, FV, FVII, FX, FXI, FXIII), combined FV and FVIII deficiency, congenital deficiency of vitamin K-dependent factors (VKCFD) with underlying defects in activation (γ-carboxylation) (FII, FVII, FIX, FX), and disorders of fibrinolysis (eg, PAI-1 deficiency, α2-antiplasmin deficiency). Diagnosis is challenging because of the rarity of the disorders, variable clinical presentations, and sometimes the lack of family history.

RBDs may present in infancy or later in childhood. The most common manifestation is mucocutaneous bleeding. Bleeding manifestations of some of the disorders are peculiar; others have clinical manifestations similar to other disorders. The bleeding of FI deficiency (afibrinogenemia) may be similar to that seen with moderate-to-severe hemophilia. Umbilical cord bleeding and mucosal bleeding are more characteristic of FI deficiency. Severe FII deficiency presents early in childhood with mucosal and musculoskeletal bleeding and intracranial hemorrhage. Serious bleeding, such as umbilical cord bleeding, hemorrhagic ovarian cysts, hemoperitoneum during ovulation, and hemarthrosis, are more common in FII deficiency than in other RBDs. FX and FXIII deficiencies are characterized by early onset of bleeding such as intracranial and umbilical cord bleeding. Umbilical cord bleeding is characteristic of FXIII deficiency, and usually bleeding symptoms are delayed because the role of FXIII is stabilization of the fibrin clot. Children affected with VKCFD present in early childhood with serious bleeding events, including intracranial hemorrhages.

Other factor deficiencies are not associated with clinical bleeding symptoms, such as FXII, prekallikrein, and high-molecular weight kininogen deficiencies. These disorders can cause prolongation of the aPTT. In addition, primary collagen and vascular disorders can mimic a bleeding disorder.

Disorders of fibrinolysis are characterized by delayed bleeding after a hemostatic challenge, such as dental extractions, trauma, or surgery. Menorrhagia is a common bleeding manifestation in disorders of fibrinolysis such as PAI-1 deficiency and α2-antiplasmin deficiency. Therapy is directed toward prevention of bleeding with the use of antifibrinolytic agents such as ε-aminocaproic or tranexamic acid.

Acquired Bleeding Disorders

Acquired bleeding disorders typically are related to an underlying disease process. Liver disease can cause coagulopathy due to impaired hepatic synthetic capability. Chronic renal disease can cause abnormal platelet function associated with uremia. Intestinal malabsorption or chronic antibiotic therapy can cause vitamin K deficiency and consequently lead to VKCFD.

DIC is a consumptive coagulopathy characterized by intravascular activation of coagulation that leads to unregulated thrombosis and secondary fibrinolysis or inhibited fibrinolysis. Clinical manifestations involve thrombosis or bleeding, but the most frequently observed are bleeding, petechiae, and purpura related to consumption of platelets and coagulation proteins within the microvasculature. Among the common precipitating factors are sepsis through bacterial endotoxin release and activation/deposition of fibrin through the microvasculature, malignancy, and severe burns. Therapy primarily involves treating the underlying process and supportive care. The use of blood products (plasma, platelet concentrate) is not routinely indicated for abnormal laboratory findings but should be used to treat active bleeding. Asymptomatic patients at risk for bleeding complications, such as following surgery or invasive procedures, should be treated with replacement therapy. Anticoagulation might be indicated in patients with DIC who develop limb- or life-threatening arterial thrombotic events, purpura fulminans, or venous thromboembolism.

Hemorrhagic disease of the newborn is caused by vitamin K deficiency related to medications ingested by the mother that impair vitamin K metabolism or to the lack of vitamin K administration at birth. (8) The latter is becoming of increasing concern due to parental refusal of vitamin K administration based on personal or religious beliefs. Vitamin K deficiency due to maternal drug ingestion, such as anticonvulsants or warfarin, typically manifests in the first 24 hours after birth. Classic vitamin K deficiency presents during the first postnatal week with gastrointestinal bleeding, intracranial hemorrhage, bruising, and bleeding following circumcision. Exclusively breastfed infants are at higher risk due to marginal vitamin K content in human milk. Late vitamin K deficiency occurs between ages 2 and 12 weeks. Risk factors include exclusive breastfeeding, failure to receive vitamin K at birth, and disorders causing malabsorption such as cystic fibrosis.

Laboratory evaluation in vitamin K deficiency reveals prolonged PT and aPTT (if severe), with normal platelets and fibrinogen. The diagnosis can also be established by measurement of undercarboxylated prothrombin (PIVKA-II), which is released in the early stages of vitamin K deficiency. Vitamin K should be administered immediately to infants who are bleeding. The safest and most efficacious mode of replacement is subcutaneous administration; the intravenous route has been associated with rare anaphylactic reactions. Subcutaneous or intravenous administration can correct PT within 4 hours. Oral vitamin K can be given if absorption is not impaired, but correction of clotting times can take up to 8 hours after this route of administration. Fresh frozen plasma should be administered in addition to vitamin K if there is clinical evidence of bleeding. The American Academy of Pediatrics recommends that all term infants receive 1.0 mg of intramuscular vitamin K at birth (0.3 mg for infants weighing <1,000 g; 0.5 mg for infants weighing >1,000 g and less than 32 weeks' gestational age) as a preventive measure.


You can see in:  Pediatrics in Review Jul 2016, 37 (7) e25-e28





MISCELANEAS BREVES - 172Fecha: 2/2/2017


Mirar televisión en exceso incrementa el riesgo de mortalidad

                               Revisión sistemática y meta-análisis - American Journal of Epidemiology 2016

El sedentarismo se ha ganado un lugar destacado como factor de riesgo conductual para el desarrollo de enfermedades crónicas. Dentro de este comportamiento, la actividad más sedentaria y más común en el mundo entero es la visualización de la televisión, que impacta directamente en: incremento del peso, la obesidad, diabetes tipo II, resistencia a la insulina, cánceres de colon y endometrio, y los biomarcadores de riesgo cardiovascular.
En los últimos años se han publicado numerosos estudios epidemiológicos sobre el vínculo entre mirar televisión y todas las causas de mortalidad, pero las conclusiones han sido inconsistentes. Una revisión sistemática y meta-análisis: "Association Between Television Viewing Time and All-Cause Mortality: A Meta-Analysis of Cohort Studies", realizada por expertos chinos, halló que ver televisión de forma prolongada se asocia con un mayor riesgo de mortalidad por cualquier causa en la población general. 
Esta investigación realizó búsquedas bibliográficas en MEDLINE y EMBASE hasta marzo de 2015 sobre el tiempo dedicado a este hábito sedentario y las causas de muerte. De 2.578 citas identificadas mediante la estrategia de búsqueda, 10 estudios de cohorte (61.494 muertes entre 647.475 individuos) cumplieron los criterios de inclusión. Y, concretamente, según el resultado del meta-análisis, comparando las personas que están en la categoría más alta de mirar televisión con aquellas de nivel más bajo, el riesgo de mortalidad por cualquier causa se incrementó en un 33%. El meta-análisis revela mayor peligro en aquellos que lo hacen más de cuatro horas por día. 






Resistencia antimicrobiana

                   Hilary D. Marston, Dennis M. Dixon, M. Knisely, Tara N. Palmore,Anthony S. Fauci. 

                                                                                JAMA Sept 2016; Vol 316, Number 11  

                                                              Resumen y comentario objetivo: Dra. Marta Papponetti


Los antibióticos han revolucionado la práctica de la medicina lo que permite avances en todo el espectro de la medicina clínica, incluyendo la mayor seguridad de los partos, procedimientos quirúrgicos, trasplante de órganos y regímenes de quimioterapia miel ablativa. Sin embargo, la resistencia a los antimicrobianos (RAM) amenaza con obstaculizar e incluso revertir algunos de estos avances. La RAM es responsable de un sin número de muertes y elevados costos económicos. El efecto de la RAM en muchos países puede ser calculado pero su efecto global es difícil de cuantificar, ya que los datos epidemiológicos son escasos en muchas áreas del mundo.

Sin embargo, los datos conocidos representan una preocupación considerable. En este sentido, la reciente aparición de factores de resistencia global que emanan de EE. UU. (Klebsiella pneumoniae resistente al carbapenem), India (bacterias con el gen blaNDM-1mediado por plásmido que confiere resistencia a los carbapenems) y en otros lugares (el gen mcr-1 de E. coli mediado por plásmidos que confiere resistencia a la colistina, descrito originalmente en China) demuestra la naturaleza generalizada del problema y la importancia de mejorar la vigilancia mundial. La importancia de la RAM para la salud humana es clara. En esta Comunicación Especial los autores revisan los factores asociados a la RAM (y los esfuerzos para mitigarla), sus mecanismos de influencia en la práctica clínica y la respuesta de las investigaciones biomédicas a este desafío.

La resistencia a los antimicrobianos (RAM) es responsable de un sin número de muertes y elevados costos económicos.

► Objetivo

Identificar los factores asociados a la RAM, la epidemiología actual de los organismos resistentes importantes y las posibles soluciones al problema.

► Fuentes de datos, selección de estudios y datos de síntesis

Se consultaron PubMed (2000-2016), NIH Reporter y la base de datos de para buscar artículos y entradas relacionadas con RAM, centrándose en la epidemiología, los efectos clínicos de la RAM, el descubrimiento de fármacos nuevos para el tratamiento de las infecciones bacterianas resistentes a los antimicrobianos y estrategias no farmacológicas para eliminar o modificar las bacterias con RAM. Además de los artículos y entradas hallados, se revisaron los informes seleccionados de políticas de salud, y los informes y documentos de las guías para la salud pública. De 217 artículos, bases de datos e informes identificados, 103 fueron seleccionados para su revisión.

► Resultados

EL incremento de la RAM ha sido impulsado por un conjunto diverso de factores, incluyendo la prescripción y venta inapropiada de antibióticos, el uso de antibióticos fuera del sector de salud y factores genéticos intrínsecos de las bacterias. El problema se ha agravado con la escasez de incentivos económicos para el desarrollo de nuevos productos farmacéuticos. Una serie de preocupaciones sobre la RAM específica, incluyendo los organismos gran-negativos resistentes al carbapenem y la colistina, representan un desafío clínico. Los enfoques alternativos para enfrentar el tratamiento de la RAM son los métodos de identificación del fármaco antibacteriano y las estrategias que neutralizan los factores de virulencia.

► Factores asociados a la RAM y respuestas clave


Para abordar adecuadamente la amenaza planteada por la RAM es importante comprender los factores que impulsan su aparición. Por ejemplo, los ciclos de replicación bacteriana permiten la aparición de mutaciones de novo: Una sola bacteria S. aureuspuede replicar a través de 10 generaciones en menos de 12 horas, dando lugar a 1 millón de descendientes. Cada ciclo de replicación ofrece la oportunidad para la mutación, lo que permite la aparición de factores genéticos que contribuyen a la RAM. Aunque hoy en día las mutaciones de novo pueden causar problemas nuevos, hay factores de resistencia que ocurren naturalmente y parecen preceder a la era de los antibióticos.

Las muestras de permafrost del Yukón han mostrado la presencia de bacterias con mutaciones de resistencia que datan de 30.000 años antes del descubrimiento de los factores de resistencia a la penicilina. También se han identificado factores de resistencia en las muestras extraídas de un ecosistema de cuevas fue estuvo aislado durante más de 4 millones de años. Por otra parte, el análisis filogenético de las ß lactamasas (enzimas que tornan ineficaces  a los antibióticos símil penicilina) indica que ya existían hace 1 mil millones a 2 mil millones de años.

Aunque los factores de resistencia que ocurren naturalmente contribuyen a la RAM, el uso de antibióticos favorece la selección y su aparición; Por lo tanto, la actividad humana representa un papel importante en la evolución de la RAM, por ejemplo, el uso agrícola de antibióticos para promover el crecimiento de los animales. En EE. UU., el uso de antibióticos en los animales para su alimentación representa el 80% de todos los antibióticos consumidos. La Food and Drug Administration (FDA) estima que el 74% de estos antibióticos se administra con el alimento, un método habitual para promover el crecimiento del animal y no para tratar o prevenir la infección. Por otra parte, en EE. UU. el 62% de los antibióticos usados en animales está representado por compuestos "de importancia médica", es decir, son importantes para el tratamiento de las enfermedades humanas. Los antibióticos utilizados en el 38% restante pueden influir en la salud humana. Por ejemplo, la bacitracina comúnmente se utiliza en los seres humanos por vía tópica y no se administra en forma sistémica como se hace en los animales. A pesar de que la influencia directa de este tipo de prácticas en la salud humana es difícil de cuantificar, los informes sobre la transmisión de bacterias resistentes por el contacto entre animales y seres humanos, y el consumo de productos animales, continúa produciendo.

Por otra parte, se ha demostrado una asociación entre el consumo de antibióticos por los animales y la existencia de organismos comensales resistentes a las mismas clases de antibióticos en los seres humanos. También hay informes de patógenos resistentes a los antibióticos que pasan de los seres humanos a los animales. La influencia potencial del uso agrícola de antibióticos en la salud humana ha dado lugar a una serie de respuestas, como las políticas en Europa que prohíben la utilización de los antibióticos para el crecimiento de los animales, las guías de la FDA que fomentan evitar el uso de antibióticos y el suministro voluntario de carne libre de antibióticos por los proveedores de alimentos. Por otra parte, recientemente la FDA publicó su Final Rule on Antimicrobial Animal Drug Sales and Distribution Reporting, donde requiere que los productores de medicamentos veterinarios con actividad antimicrobiana envíen informes anuales sobre la cantidad que se vende, para mejorar la transparencia de su uso.

El uso de antibióticos en los seres humanos también contribuye a la aparición de RAM. Con un gran esfuerzo se ha abordado el uso inapropiado de los antibióticos en los hospitales, que incluye la aplicación de programas para el manejo de los antibióticos. Estos programas incluyen la colaboración entre los especialistas en enfermedades infecciosas y los farmacéuticos capacitados para la administración de antimicrobianos, apoyados por expertos en el manejo de antibióticos. Los programas buscan optimizar la selección de antibióticos y reducir el uso inadecuado de los antibióticos de amplio espectro. (lo que influye en la presión selectiva sobre las bacterias y promueve la aparición de RAM).

En general, los programas de administración de antibióticos están facultados para que las autoridades hospitalarias restrinjan los formularios y requieran la autorización previa de los antimicrobianos restringidos, o exijan auditorías de recetas teniendo en cuenta los antecedentes prescriptivos de quienes indican los antibióticos. Aunque la aplicación de los programas para la administración de antimicrobianos en el hospital ha sido hasta ahora limitada, recientemente la Joint Commission (el organismo de acreditación primaria para los hospitales) aprobó una norma para la administración de antimicrobianos estándar en los servicios de atención de la salud, que puede fomentar su uso.

Aunque los estudios y programas individuales han demostrado la importancia potencial de la administración de antimicrobianos en los hospitales, la implementación y aceptación limitada sigue obstaculizando un cambio sostenible. Sin embargo, el uso de antibióticos para los pacientes hospitalizados representa solo el 38,5% del total de  los antibióticos vendidos. Un análisis reciente reveló que el 12,6% de las consultas ambulatorias en EE. UU. resultó en la prescripción de un antibiótico, y el 30% de esas recetas pudo haber sido inapropiado. La venta directa al consumidor agrava el problema del uso inadecuado en muchas áreas del mundo. Fuera de EE. UU. y Europa, tales compras representan casi un quinto de todo el uso de antibióticos, dependiendo del lugar. En todo el mundo, los antibióticos dispensados directamente al consumidor son más propensos a ser seleccionados en forma inapropiada, tomados en dosis inferiores a los estándares de atención, o ambos. Todos estos factores contribuyen a la aparición de RAM.

En países como Bélgica y Francia, las campañas de educación pública han tenido una influencia positiva en la prescripción inadecuada. Por ejemplo, una campaña nacional de medios de comunicación en Bélgica coincidió con una reducción del 36% en las prescripciones de antibióticos durante 7 años (aunque es probable que también hayan contribuido otros factores). En otros países incluyendo EE. UU. se han puesto en marcha campañas de educación como Centers for Disease Control and Prevention's [CDC's] "Get Smart About Antibiotics Week" (Alerta sobre los antibióticos semanales de los CDC") o el Medicines With the Red Line, en India.

Es importante destacar que estos programas todavía son relativamente nuevos y no hay pruebas concluyentes sobre su eficacia. Los esfuerzos dirigidos a los médicos de atención primaria también pueden cambiar la práctica: un ensayo clínico aleatorizado reciente de intervenciones conductuales (por ej., listas para comparar los niveles de prescripción inadecuada entre pares) demostró disminuciones estadísticamente significativas en la prescripción inapropiada. Del mismo modo, un grupo de estudios aleatorizados en los que los investigadores ofrecieron un módulo educativo y de retroalimentación personalizada, diseñado para reducir las recetas de antibióticos de amplio espectro para las infecciones de las vías respiratorias agudas en niños, los sitios de intervención demostraron una disminución del 12,5% en las recetas de esos fármacos versus un descenso del 5,8% en el grupo control.

Mientras que el comportamiento humano contribuye a la RAM, otro esfuerzo humano ─la innovación en la investigación─proporciona un medio para responder, por ejemplo, con el desarrollo de nuevos antibióticos. El ritmo al que se han introducido antibióticos nuevos ha disminuido considerablemente. Por ejemplo, entre 1983 y 1987, la FDA aprobó 16 antibióticos mientras que solo 2 fueron aprobados entre 2008 y 2012 y, desde fines de 2012 se aprobó un total de 5 antimicrobianos nuevos. Esta desaceleración no es exclusiva de los antibióticos; también se han observado tendencias similares para los medicamentos cardiovasculares y otros agentes. Sin embargo, ciertas características del mercado de los antibióticos probablemente dificultan la inversión de la industria farmacéutica para el desarrollo de medicamentos nuevos.

La duración limitada del tratamiento, los precios relativamente bajos por dosis, el potencial para la rápida aparición de resistencia (lo que resulta en una permanencia incierta en el mercado), y las disposiciones para la administración de antimicrobianos que limitan el acceso a los nuevos compuestos pueden reducir las perspectivas de ingresos de los agentes antimicrobianos nuevos. Los ensayos clínicos de candidatos terapéuticos nuevos para las infecciones resistentes a los medicamentos plantean sus propios desafíos; por ejemplo, la incidencia de infecciones esporádicas y la probabilidad de la exposición previa a los antibióticos en los hospitales complican su inscripción en los ensayos clínicos.

El desarrollo de antibióticos para las infecciones por bacterias gram-negativas es particularmente difícil debido a la baja permeabilidad d de la pared celular de las bacterias gram-negativas, la variedad de bombas de eflujo (que activan el transporte de medicamentos fuera de la célula) y una serie de enzimas capaces de activar a todos los medicamentos β-lactámicos conocidos (por ej., penicilinas y cefalosporinas).

Las intervenciones políticas ofrecen una estrategia importante para fomentar el desarrollo de fármacos. Por ejemplo, en EE. UU., desde 2010 se han aprobado 6 fármacos antibacterianos nuevos bajo la ley "Incentivos actuales para la generación de antibióticos", que subsidia la patente de exclusividad extendida y revisión de la regulación acelerada para la calificación de los compuestos. Desde marzo de 2016 se están desarrollando clínicamente distintos medicamentos antibacterianos sistémicos para las infecciones bacterianas (con exclusión de las micobacterianas).

Sin embargo, los autores destacan que los fármacos candidatos para las infecciones gram-negativas son escasos lo que deja un vacío mayor en la discusión política. Por ejemplo, mientras se están identificando varios factores de resistencia nuevos de los gram-negativos, los fármacos con actividad contra una o más patógenos gram-negativos ESKAPE (Enterococcus faecium, S aureusK. pneumoniaeAcinetobacter baumanii, Pseudomonas aeruginosa, y especies de Enterobacter) representan solo un tercio de los antibióticos en desarrollo clínico.

Si bien es muy necesario contar con opciones de antibióticos nuevas, también hay otros enfoques que tienen un papel importante. Tanto el uso cauteloso y preciso como el acortamiento de la duración del tratamiento, pueden reducir el uso de antimicrobianos y el desarrollo de RAM. Del mismo modo, las intervenciones de salud pública, tales como el acceso a agua limpia y el saneamiento y control de las infecciones hospitalarias demostraron que pueden prevenir las infecciones bacterianas y obviar la necesidad de un cierto uso de antibióticos. Por otra parte, las vacunas pueden tener un papel útil: Laxminarayan y col. han estimado que la cobertura de vacunación contra Streptococcus pneumoniae mejoró y podría evitar 11,4 millones de días de antibióticos por año en los niños <5 años en todo el mundo.

► Mecanismos de RAM y su influencia en la práctica clínica

Si bien se cuenta con numerosas estrategias para reducir la demanda de antibióticos, la gama creciente de organismos resistentes plantea un problema inmediato para la salud humana. La mayor preocupación son los organismos y mecanismos de resistencia, como  se detallan a continuación.

► Organismos resistentes a los carbapenemes

Las β-lactamasas son una familia de enzimas RAM que hidrolizan los anillos β-lactámicos, estructuras que están presentes en los antibióticos comunes como las penicilinas, las cefalosporinas y el aztreonam. Algunos son consideradas "ß-lactamasas de espectro extendido", ya que pueden inactivar una amplia gama de antibióticos β-lactámicos. Las carbapenemasas son miembros aún más versátiles de la familia de las β-lactamasas, debido a su capacidad de hidrolizar los antibióticos carbapenémicos y β-lactámicos tradicionales, en representación de los antibióticos de espectro más amplio que están disponibles para el tratamiento de las infecciones bacterianas gram-negativas.

Aunque muchos genes de la β-lactamasa se codifican en el cromosoma bacteriano, los genes de las β-lactamasas de amplio espectro y de la carbapenemasa, que hacen que las bacterias gram-negativas sean resistentes a importantes clases de antibióticos, por lo general están mediados por plásmidos. Los plásmidos son piezas normalmente circulares de ADN que se consideran móviles, ya que pueden pasarse entre las bacterias a través de la conjugación, un proceso que conecta brevemente el citoplasma de 2 bacterias permitiendo la transferencia horizontal de genes.

Los genes de la resistencia antimicrobiana se codifican en los cromosomas bacterianos, como las bombas de eflujo multifármacos en P. aeruginosa no móvil, usualmente inmóviles, mientras que las trasportadas por plásmidos pueden diseminarse rápidamente entre las bacterias de la misma o diferente especie. Por otra parte, los plásmidos suelen llevar múltiples genes de RAM. A veces, estos genes adicionales son adquiridos a través de elementos de transposición o transposones. Los transposones son secuencias de ADN móvil que pueden integrar ya sea el cromosoma bacteriano o un plásmido, a menudo llevando genes de RAM.

Cromosómicamente, las carbapenemasas codificadas han sido reconocidas por décadas; sin embargo, solo en los últimos 15 años las carbapenemasas mediadas por plásmidos han cobrado importancia clínica. En EE. UU., por primera vez a principios de 2000 se informó que las bacterias entéricas llevan el gen de la carbapenemasa de K. pneumoniae(blaKPC). Esas bacterias se diseminaron en los centros de salud de los estados del noreste y luego en Israel. Dentro de la década, la variante blaKPC y varias carbapenemasas adicionales mediadas por plásmidos fueron identificadas en otras regiones del mundo, por lo general en las bacterias gran-negativas asociadas al cuidado de la salud. Pronto se hizo evidente que las infecciones por estos organismos multirresistentes se asociaban con tasas de mortalidad del 40% al 80%.

Las bacterias conteniendo la metalo-β-lactamasa Nueva Delhi (NDM-1) fueron identificadas en la India en 2009 rápidamente se convirtieron en endémicas en todo el sur de Asia y países balcánicos. En la actualidad, el gen blaNDM-1 ha sido implicado en infecciones nosocomiales y brotes en cada contiene habitado. Las bacterias que contienen el gen blaNDM-1 están tan difundidas en el subcontinente indio que se han cultivado en el agua de las alcantarillas, en los recién nacidos en hospitales y en infecciones adquiridas en la comunidad. El gen blaNDM-1 ha sido identificado en una amplia gama de bacterias gran-negativas, aparte de la flora entérica, incluyendo Acinetobacter y Pseudomonas.

La familia OXA-48 es una de las primeras carbapenemasas transportadas por plásmido aparecidas en 2001 y durante los últimos 15 años se ha extendido por todo el mundo. En 2015, en EE. UU., los organismos portadores de estas enzimas causaron al menos 2 grupos de infecciones nosocomiales así como decenas de casos esporádicos de colonización o infección. Otras enzimas carbapenemasas clínicamente importantes incluyen la imipenemasa-1 y la Verona integrón metalo-β-lactamasa (VIM).

En EE. UU. y Europa, los aislamientos productores de carbapenemasas se han identificado principalmente en los centros de salud, con casos poco frecuentes observados en infecciones adquiridas en la comunidad. Han ocurrido varios brotes relacionados con los duodenoscopios contaminados, danto lugar a nuevos métodos para el reprocesamiento y diseño. El potencial de propagación de las cepas de bacterias adquiridas en la comunidad con plásmidos conteniendo carbapenemasa, como E. coli ST131, es una perspectiva relativa. Aunque existe poca evidencia de una amplia propagación fuera de la comunidad de Asia, el aislamiento de organismos productores de carbapenemasas en las aves salvajes y otros animales demuestra que hasta cierto punto las bacterias se han difundido desde del ámbito de los centros de salud.

En general, los organismos que producen carbapenemasas son resistentes a todos los fármacos β-lactámicos, aunque las bacterias productoras de NDM-1 pueden conservar la susceptibilidad al aztreonam. Por otra parte, estas bacterias suelen llevar al mismo tiempo otros factores de resistencia mediada por plásmidos. En tales casos, la tigeciclina, la polimixina y los aminoglucósidos suelen ser los únicos fármacos con actividad frente a estos microbios. Entre ellos, la tigeciclina tiene una eficacia limitada y su uso se ha asociado con malos resultados clínicos en infecciones graves. Así, las opciones terapéuticas son limitadas y la toxicidad de los pocos fármacos activos son en gran parte responsables de la elevada tasa de mortalidad asociada a estas infecciones.

Por lo general, las infecciones con organismos productores de carbapenemasas altamente resistentes se tratan con la combinación de antibióticos en un intento de lograr una mejor destrucción microbiana y preservar la susceptibilidad a las pocas opciones antibióticas restantes. Sin embargo, la exposición repetida y subóptima a los antibióticos y la dosificación inadecuada fomentan aún más la resistencia y pueden favorecer las infecciones por bacterias recrudescentes extremadamente resistentes a múltiples fármacos.

Las opciones de antimicrobianos más nuevos, como las combinaciones de inhibidores β-lactam y β-lactamasa ceftazidima-avibactam y ceftolozana-tazobactam son prometedoras para el tratamiento de algunos organismos productores de carbapenemasas. Su utilidad puede estar limitada por su elevado costo; la ceftazidima-avibactam carece de actividad contra las metalo ß-࣭lactamasas (por ej., NDM-1 y VIM) y se ha reportado resistencia bacteriana a la ceftazidima-avibactam entre las bacterias que contienen blaKPC.

Por lo tanto, ha aparecido una amplia colección de plásmidos conteniendo carbapenemasas con diferentes efectos en la práctica clínica. Este grupo de organismos resistentes ha sido denominado "Enterobacteriacea resistentes al carbapenem". Sin embargo, como se señaló antes, los plásmidos también suelen transportar bacterias que no son de la familia Enterobacteriaceae, y los médicos deben tener en cuenta esta posibilidad. Acinetobacter baumannii, un patógeno nosocomial común y persistente, es una bacteria más frecuentemente resistente al carbapenem que las Enterobacteriaceae.

Aunque en general, su resistencia al carbapenem está codificada cromosómicamente. A. baumannii también puede tener cepas nosocomiales con carbapenemasas mediadas por plásmidos. Las cepas nosocomiales de A. baumannii son mínimamente afectadas por la combinación de antibióticos de reciente desarrollo como ceftolozane-tazobactam, mientas que el antibiótico pipelina no parece ser una opción más efectiva, haciendo que A. baumannii siga siendo una preocupación importante en los pacientes hospitalizados.

► Organismos resistentes a la colistina

En 2015, científicos chinos identificaron un gen contenido en un plásmido que confiere resistencia a las polimixinas como la colistina. El gen, mcr-1, se ha encontrado en las cepas humanas y animales de Enterobacteriaceae y representa la primera resistencia conocida a las polimixinas mediada por plásmidos; son antibióticos de último recurso para las bacterias gram-negativas. Aunque la resistencia de las bacterias gram negativas a la colistina no es nueva, las consecuencias epidemiológicas potenciales de la propagación rápida de las especies resistentes a la colistina mediada por plásmidos es preocupante.

Desde su descubrimiento, el mcr-1 ha sido identificado en enterobacterias cultivadas en seres humanos, animales y carne, al menos en 5 continentes, incluyendo América del Norte. Como lo puso en evidencia un solo informe alemán, cuando este gen halla la manera de entrar en un organismo productor de carbapenemas altamente resistente, la resultante puede ser un organismo pan resistente, que es potencialmente intratable con cualquier agente antimicrobiano existente.

► Consecuencias del tratamiento empírico

Otros patrones de RAM tienen consecuencias graves, incluso cuando la resistencia se limita a una única clase de fármaco. La resistencia puede complicar tempranamente el tratamiento de la infección antes de conocer los resultados de los cultivos, como sucede con el tratamiento empírico de la neumonía adquirida en la comunidad o las infecciones del tracto urinario, como así para la profilaxis quirúrgica. Por ejemplo, desde hace tiempo, las fluoroquinolonas han sido usadas para la profilaxis perioperatoria en los pacientes sometidos a una biopsia transrectal de próstata.

En la última década, cada vez hay más informes sobre sepsis post procedimiento por E. coli resistente a las fluoroquinolonas, lo que ha dado lugar a nuevos procedimientos selectivos para el cultivo rectal de dichas cepas, lo que requiere una visita adicional al urólogo y pruebas microbiológicas especializadas. Alternativamente, algunos hospitales han ampliado la profilaxis quirúrgica a fármacos combinados como ceftriaxona y gentamicina que cubren a E. coli resistente a las fluoroquinolonas. Sin embargo, este enfoque puede seleccionar diferentes cepas resistentes debido a la cobertura de amplio espectro, retrasando así las consecuencias clínicas de la resistencia hasta una fecha posterior.

► El problema especial de Clostridium difficile

En EE. UU. Clostridium difficile es la principal causa de infecciones asociadas a la atención de la salud y una de las causas de las epidemias de infecciones nosocomiales. La resistencia de las bacterias a varios antibióticos permite la selección para el crecimiento excesivo en el intestino, cuando el microbioma intestinal se ve inactivado por los fármacos antibacterianos. En los hospitales, las esporas de C. difficile diseminadas por los pacientes infectados o colonizados persisten en las superficies de los objetos y pueden ser ingeridos por los pacientes que recibieron antibióticos y otras terapias. Por otra parte, la cepa BI/NAP1/027 hipervirulenta posee una mayor resistencia a las fluoroquinolonas, lo que supone una ventaja selectiva en los pacientes tratados con esa clase de antimicrobianos.

La bacteria C. difficile no suele ser invasiva. Sin embargo, estos organismos elaboran exotoxinas (toxinas A y B) que causan un daño a la mucosa colónica que lleva a la infección. La enfermedad se manifiesta como diarrea y colitis, clásicamente con seudomembranas del colon. En un estudio multicéntrico reciente, el 8% de los pacientes con infección por C. difficile desarrolló complicaciones graves, como el megacolon tóxico.

En EE. UU., la tasa de infección por C. difficile en pacientes hospitalizados casi se duplicó desde 2001 hasta 2010, alcanzado su máximo en 2011, a casi 147 casos/100.000 habitantes, y desde entonces ha disminuido ligeramente. Por el contrario, el Reino Unido ha experimentado una disminución de las tasas de infección por C difficile de más del 75% desde 2007 (de 108 a 26 casos/100.000 habitantes), probablemente atribuible a medidas preventivas exitosas, incluyendo la administración de antimicrobianos, las estrictas medidas de control de las infecciones obligatorias, la higiene ambiental para eliminar las esporas y, el análisis en el paciente de las fallas y factores precipitantes, en los casos individuales de infección por C. difficile.

Generalmente, la infección por C. difficile es tratable con agentes antimicrobianos como el metronidazol oral para la infección leve a moderada, y la vancomicina oral para la infección recurrente. La infección más grave ocurre en aproximadamente el 20% de los pacientes, lo que subraya la importancia de la prevención con antimicrobianos. Los agentes más nuevos, como la fidaxomicina tienen algo más de eficacia en el tratamiento de la infección y la prevención de las recaídas.

La enfermedad grave o fulminante que no responde a la vancomicina o la fidaxomicina puede ser tratada quirúrgicamente. El trasplante de microbiota fecal (TMF) o la transferencia de heces con un microbioma fecal sano están basadas en la evidencia y es un tratamiento muy eficaz, con tasas de éxito del 81% a 94%.La elevada eficacia del TMF se ha convertido en un método estándar y una intervención frecuentemente bienvenida para los pacientes con recaídas recurrentes o enfermedad refractaria. Una variedad de agentes preventivos para C. difficile están en ensayos clínicos, incluidas las vacunas, los anticuerpos monoclonales, los agentes terapéuticos tales como las cepas no toxigénicas (para prevenir la recurrencia) y los compuestos que se unen a las toxinas.

≈ Neisseria gonorrhoeae

Otro organismo resistente cada vez más preocupante es Neisseria gonorrhoeae. La gonorrea es la segunda enfermedad transmisible más común  en EE. UU. de notificación obligatoria (después de la enfermedad por clamidias). Recientemente, N. gonorrhoeae ha desarrollado resistencia a los antibióticos orales (por ej., azitromicina, fluoroquinolonas y la cefalosporina oral cefixima) utilizados anteriormente para tratar esta infección. En 2014, el 37% de los aislados de N. gonorrhoeae en EE. UU. era resistente al menos a 1 antibiótico. Aunque en EE. UU. en los últimos años la resistencia a la cefixima ha disminuido, también se ha producido un aumento lento e inexorable de la resistencia de N. gonorrhoeae, con opciones terapéuticas cada vez más escasas, lo que llevó a los CDC a declarar a N. gonorrhoeae resistente a los medicamentos como una de las amenazas microbianas más importantes para la salud pública.

El aumento de las tasas de resistencia a los agentes orales ha dejado a la ceftriaxona como el último tratamiento fiable para la gonorrea. Hay informes sobre resistencia a la ceftriaxona, presagiando la necesidad de aumentar las dosis y establecer nuevas combinaciones de fármacos para superar la resistencia. Las guías de tratamiento reflejan estos cambios que avanzan hacia el uso de combinaciones farmacológicas. El tratamiento de primera línea recomendado actualmente para la gonorrea en EE. UU. es la ceftriaxona más azitromicina, aún si las pruebas de ácido nucleico son negativas para Chlamydia trachomatis.

Estudios clínicos recientes han identificado combinaciones de fármacos que podrían ser utilizadas para el tratamiento de rescate de pacientes que no responden, como la azitromicina combinada con gentamicina o gemifloxacina. Aunque el tratamiento basado en la ssensibilidad de N. gonorrhoeae en pacientes individuales podría ayudar a preservar la eficacia a largo plazo del arsenal antimicrobiano restante, la detección molecular rápida de la resistencia no está disponible para este organismo. El tratamiento para N. gonorrhoeadebe iniciarse cuanto antes en el punto de atención, para asegurar la adherencia y reducir al mínimo la transmisión.

≈ Staphylococcus aureus

Durante las últimas 2 décadas, S. aureus resistente a la meticilina (SARM) ha sido una de las principales preocupaciones de salud pública. El SARM es segundo solo por C. difficilecomo causa de infecciones asociadas al cuidado de la salud. En la década de 2000, la cepa USA300 adquirida en la comunidad era la etiología predominante de las infecciones de piel y tejidos blandos en el contexto comunitario. La  resistencia a la meticilina es conferida por el gen mecA; muchos aislados de SARM también contienen ࣭ß-lactamasas y genes que confieren resistencia a la clindamicina.

Durante décadas, la vancomicina fue el único antimicrobiano disponible para la terapia intravenosa efectiva de las infecciones por SARM. Los aislados de SARM con menor sensibilidad a la vancomicina, conocidos como S. aureus vancomicina intermedia, han sido identificados con poca frecuencia en infecciones clínicas. Las cepas de S. aureusvancomicina intermedia han engrosado las paredes celulares que contienen dipéptidos de unión a la vancomicina, lo que bloquea el fármaco y provoca su disminución en el destino final. En la década de 2000, la identificación de S. aureus resistente a la vancomicina en aislados clínicos no era del todo inesperada: el gen vanA de resistencia a la vancomicina mediada por plásmidos se halla regularmente en los aislados de cepas de enterococos resistentes a la vancomicina asociados a la atención de la salud.

Por lo tanto, existe una gran oportunidad para la transferencia génica de los enterococos resistentes a la vancomicina a en pacientes o entornos en los que los organismos coexisten. Si bien esta transferencia intergénica se produce, hasta la fecha solo ha sido documentada en un puñado de casos identificados. Dada la movilidad del ADN de los plásmidos la razón por la cual las infecciones por S. aureus resistente a la vancomicina han permanecido tan poco comunes es poco clara.

Existen muchos fármacos disponibles para el tratamiento del SARM, sin embargo, son pocos los recomendados para el tratamiento de las infecciones profundas que comprometen estructuras corporales, como la endocarditis y la osteomielitis. Desde los últimos 15 años, los medicamentos nuevos como la daptomicina, el linezolid y la oritavancina ya están disponibles para el tratamiento de las infecciones graves por gram-positivos resistentes, ofreciendo alternativas a la vancomicina (en países en los que estos medicamentos nuevos de alto costo se pueden obtener). A pesar de que se ha informado la existencia de resistencia a los fármacos más recientes, todavía conservan una considerable actividad contra SARM y tienen el potencial de tratar S. aureus resistente a la vancomicina en el caso de que su generalización se convierta en un problema.

► El futuro de las investigaciones

Dado que la resistencia a los antibióticos es inevitable, los investigadores deben responder con estrategias innovadoras para identificar y desarrollar fármacos nuevos, vacunas y otras intervenciones inmunológicas profilácticas, y crear nuevos métodos terapéuticos que sean menos propensos que los antibióticos típicos a producir resistencia.

► Tecnologías para facilitar el descubrimiento y desarrollo de medicamentos

Una de las razones para el escaso número de antibióticos nuevos es que las fuentes tradicionales de estos productos han sido evaluadas cuidadosamente hasta el punto que prácticamente todos los compuestos antibacterianos prometedores ya han sido identificados. Estas fuentes incluyen los catálogos químicos utilizados por las compañías farmacéuticas y la pequeña proporción de bacterias y hongos productores de antibióticos que pueden cultivarse fácilmente. Para mejorar esta situación, los investigadores están desarrollando nuevas herramientas para identificar nuevos antibióticos de origen natural, como la plataforma iChip que facilita la detección de productos naturales de los organismos del suelo que antes no podían cultivarse, simulando su ambiente nativo.

Utilizando esta tecnología, los investigadores identificaron la teixobactina, un antibiótico que posee un mecanismo de acción nuevo. Aunque la teixobactina se encuentra todavía en las primeras etapas de desarrollo, esta experiencia sugiere que la tecnología iChip podría ser una manera eficaz de identificar nuevas clases de antibióticos. Los investigadores también están explorando otras fuentes no explotadas de productos, como los microbios marinos y las bacterias que viven en condiciones extremas. Por otra parte, se están evaluando la actividad y viabilidad de los péptidos antimicrobianos conocidos como bacteriocinas, producidos por las bacterias, para ser utilizados como productos. Aunque estos nuevos enfoques farmacológicos terapéuticos son prometedores, la búsqueda de fármacos también podría mejorarse con métodos que reflejan mejor  las condiciones fisiológicas.

► Aprovechamiento del sistema inmunológico

Se  han desarrollado con éxito vacunas capaces de prevenir la infección bacteriana, la enfermedad o ambas, evitando el problema del SARM, y han sido desarrolladas para combatir varios patógenos bacterianos. Sin embargo, el desarrollo de vacunas para los patógenos bacterianos asociados a la atención de la salud ha sido un reto, debido a la inadecuada comprensión de la correlación inmunitaria de protección, mecanismos patógenos complejos y la gran variedad de cepas y antígenos. En este sentido, varios programas de desarrollo de vacunas antiestafilocócicas han fallado en la fase 3 de los ensayos clínicos, a pesar de la promesa de los datos preclínicos y clínicos tempranos. Sin embargo, un número de vacunas propuestas para las  infecciones asociadas a la atención de la salud sigue en desarrollo clínico y, si tiene éxito, probablemente serían utilizadas en poblaciones seleccionadas de individuos en riesgo.

La infusión pasiva de anticuerpos monoclonales proporciona opciones adicionales para el tratamiento y la prevención. Se están desarrollando anticuerpos monoclonales para ser utilizados en combinación con antibióticos en pacientes gravemente enfermos con ciertas infecciones bacterianas (por ej., S. aureus y P. aeruginosa), así como para la profilaxis. La baja toxicidad y vida media larga en el suero de ciertos anticuerpos monoclonales, así como la ausencia de presión selectiva mediada por fármacos cuando convencional cuando son utilizados como antimicrobianos los convierte en opciones atractivas, especialmente para la profilaxis.

Los anticuerpos monoclonales son particularmente prometedores para las poblaciones de pacientes con respuestas subóptimas a la vacunación debido a su afectación inmunológica, senescencia inmunitaria u otras condiciones. Por otra parte, se han desarrollado anticuerpos biespecíficos que simultáneamente pueden unirse a los patógenos y activar las células T para ser utilizados contra tumores y células infectadas con virus. En el futuro, tales innovaciones podrían adaptarse para tratar las infecciones bacterianas.

Se han hecho considerables progresos en la identificación de las vías de señalización y de los receptores del sistema de inmunidad innata. Los investigadores han identificado nuevos potenciadores de la inmunidad innata que pueden ser efectivos como vacunas adyuvantes o directamente como modalidades terapéuticas. Tal mejoramiento inmunológico podría disminuir las dosis de antibiótico requeridas, la duración del tratamiento, o ambas, y de ese modo disminuir la presión selectiva que lleva a la resistencia. Algunos prospectos incluyen estrategias basadas en la inmunidad innata ampliamente activas, tales como las defensinas, la proteína bactericida/inductora de permeabilidad, los péptidos diseñados con motivos γ-core o peptidomiméticos, el complemento, los componentes de secreciones mucosas, incluyendo el surfactante y, los  mediadores que resuelven la inflamación.

► Manipulación de las comunidades microbianas para contrarrestar
las infecciones resistentes

Las diversas comunidades de microbios que habitan en el cuerpo humano (microbiota) sustentan la salud humana de muchas maneras y representan un papel fundamental
en la protección contra las enfermedades infecciosas. Los elementos de la microbiota son diversos e incluyen bacterias, hongos y virus. El potencial para manipular la microbiota con el fin de tratar la infección ya ha sido demostrado con el uso exitoso del TMF para el tratamiento de las infecciones por C. difficile. El uso de este procedimiento para descolonizar a los pacientes con organismos resistentes a múltiples fármacos es el objeto de una investigación activa. Por ejemplo, los investigadores están trabajando para traducir el potencial terapéutico del TMF en productos bioterapéuticos vivos o en fármacos compuestos de organismos vivos específicos y caracterizados.

Aunque el microbioma intestinal es el principal objetivo para la prevención y tratamiento de la infección, existe un potencial para extender este enfoque a las infecciones en otros sitios colonizados, como la piel o el aparto respiratorio. Otros tipos de conceptos bioterapéuticos vivos innovadores también están siendo explorados, como la explotación de las bacterias Bdellovibrio y Micavibrio que parasitan los patógenos gran-negativos.

Los bacteriófagos, virus que infectan y matan a las bacterias con una
elevada especificidad, también representan una herramienta prometedora para hacer frente a la RAM. Desde su descubrimiento en el año 1900, los médicos han tratado de explotar el potencial de los bacteriófagos para tratar las infecciones bacterianas. Desde principios de 1920 hasta la década de 1930, los fagos eran indicados para la infección de las heridas, la disentería, el cólera y la plaga. Con la introducción de medicamentos antibacterianos de amplio espectro, tanto en EE. UU. como en Europa Occidental, la terapia con fagos cayó en desuso, pero se siguió utilizando en Rusia y Europa del Este.

Sin embargo, la mayoría de los estudios que utilizan la terapia con fagos no fueron hechos siguiendo los estándares normativos de los ensayos clínicos modernos y plantean dudas acerca de su eficacia. Sin embargo, los resultados clínicos fueron alentadores, en particular para las infecciones supurativas resistentes a los antibióticos. La aplicación potencial de la terapia de fagos a las infecciones resistentes a los medicamentos, así como su especificidad para los patógenos, ha conducido a un resurgimiento de los esfuerzos para evaluar este enfoque en la prevención y tratamiento de las infecciones bacterianas.

Un estudio aleatorizado, doble ciego y controlado con placebo reciente sobre la terapia de fagos en los pacientes del Reino Unido con infecciones crónicas por  P. aeruginosaresistentes a los antibióticos ha demostrado un beneficio clínico significativo mientras que un ensayo clínico europeo en curso está evaluando la eficacia de la terapia de fagos para tratar las quemaduras y heridas.

También se han desarrollado y evaluado modalidades de fagos innovadoras. Las lisinas son enzimas líticas producidas por fagos que destruyen selectivamente los patógenos gram-positivos con una elevada especificidad y dispersión de biopelículas. El primer producto terapéutico de este tipo contra S. aureus comercialmente desarrollado está actualmente en la fase 1 de los ensayos clínicos. Los investigadores también están utilizando los fagos como un punto de partida para el desarrollo de productos de ingeniería que pueden modular las células bacterianas, incluyendo sus mecanismos de resistencia antibiótica y factores de virulencia.

Se están explorando otras herramientas innovadoras por su capacidad de dirigir las bacterias resistentes; se trata de sistemas que probablemente evolucionaron para proteger a las bacterias de los fagos: sistema CRISPR-CAS (clustered regularly interspaced short palindromic-CAS), capaz de editar el genoma en forma precisa. Por ejemplo, entre los enterococos, los fenotipos resistentes a múltiples fármacos parecen correlacionarse con la pérdida de los sistemas CRISPR funcionales, lo que sugiere que algunas bacterias pueden negociar su sistema de defensa CRISPR para adquirir la capacidad de rasgos de resistencia nuevos a través de una mayor transferencia horizontal de genes. Algunos investigadores han propuesto tomar ventaja de esta observación mediante el uso de fagos para liberar específicamente los sistemas CRISPR para apuntar a los genes de resistencia, asegurando que solo sean alcanzadas las cepas resistentes.

► Estrategias antivirulencia

Los factores que contribuyen a la virulencia de los patógenos─tales como las toxinas, los sistemas de adquisición de hierro, los sistemas de secreción, las vías de detección de la sensibilidad quórum, las adhesinas y la formación de biopelículas─tienen el potencial de ser explotados como nuevos objetivos terapéuticos. Tener como objetivo selectivamente a los factores de virulencia es atractivo porque esta estrategia no afecta la viabilidad de los  microbios y por lo tanto no ejerce la presión selectiva ejercida por los
antimicrobianos convencionales.

El objetivo de la terapéutica antivirulencia es reducir la patogenicidad al mismo tiempo que se permite que el huésped elimine la infección bacteriana. A este enfoque se le suma la ventaja de preservar la microbiota del huésped. Sin embargo, si la terapéutica antivirulencia llega a ser de uso clínico serán necesarios nuevos enfoques para las pruebas y modelos preclínnicos. Por ejemplo, los modelos animales de eficacia tendrán que reflejar con mayor precisión la progresión clínica de la enfermedad
y se tendrán que hacer nuevos ensayos in vitro.

► Diagnóstico

Al abordar el problema de la resistencia bacteriana, remarcar la importancia del diagnóstico rápido para la administración óptima de antibióticos no es exagerado. Aunque la espectrometría de masa ha acelerado la identificación de bacterias y hongos, esta tecnología, así como las pruebas de sensibilidad antimicrobiana, sigue dependiendo en gran medida de los cultivos. Por lo tanto, el tratamiento empírico con antibióticos de amplio espectro suele iniciarse antes de contar con el resultado del cultivo. Los requisitos para una prueba diagnóstica óptima difieren dependiendo del contexto clínico.

Al abordar el problema de la resistencia bacteriana, remarcar la importancia del diagnóstico rápido para la administración óptima de antibióticos no es exagerado. 

En un paciente hospitalizado, una prueba con una espera de la respuesta de varias horas puede ser suficiente, mientras que los pacientes ambulatorios pueden requerir una prueba sencilla en el punto de atención, la cual puede proporcionar resultados mientras el paciente espera, idealmente, menos de 30 minutos. También existen diferencias en los problemas técnicos para las muestras clínicas típicamente estériles vs. las muestras no estériles. Por ejemplo, las infecciones bacterianas del torrente sanguíneo pueden ser difíciles de detectar debido al escaso número de organismos presentes en la sangre.

Actualmente todas las pruebas aprobados por la FDA para esta indicación requieren algún cultivo antes de la identificación. Sin embargo, varias empresas están explotando nuevas tecnologías sensibles, como la tecnología por resonancia magnética, la hibridación por fluorescencia in situ y el perfil transcripcional, con el fin de detectar directamente a los patógenos de una muestra de sangre y eliminar así la necesidad de la etapa de cultivo. Por otra parte, distinguir la colonización de la infección en sitios no estériles presenta un problema técnico diferente. Por ejemplo, en las infecciones del tracto respiratorio, los  organismos detectados pueden no ser los causantes de los síntomas del paciente.

Para evitar estos problemas, los investigadores están desarrollando ensayos basados en la respuesta del huésped con expresión de firmas genéticas, lo que podría ayudar a distinguir la colonización de la infección bacteriana y viral. En algunos países, los biomarcadores como la procalcitonina se utilizan como sustitutos de la infección para apoyar el diagnóstico microbiológico; también se están explorando como herramientas para guiar la iniciación de la terapia empírica.

Los desarrollos comerciales para el diagnóstico rápido también se encuentran con problemas prácticos para la validación clínica de sus pruebas, tales como el acceso a los aislados clínicos para la validación de las pruebas. Recientemente, recursos tales como el CDC-FDA Isolate Bank y el the Antibiotic Resistance Leadership Group Virtual Repository han sido establecidos para proporcionar paneles de aislados clínicos bien caracterizados. Por otra parte, el Antibiotic Resistance Leadership Group planea desarrollar protocolos maestros para el diagnóstico, en los que se puede utilizar el mismo grupo de pacientes para validar múltiples pruebas de diagnóstico, en forma simultánea.

Nuevos enfoques para combatir la resistencia antimicrobiana

Tipo de enfoque

Ejemplos representativos

Descubrimiento de antibióticos

Nuevas maneras de identificar los antibióticos naturales


Fuentes de productos de origen natural sin explotar


Péptidos antimicrobianos


Tecnología iChip: detección de fármacos que reflejan las condiciones fisiológicas


Microbios marinos que viven en condiciones extremas


 Bacteriocinas (péptidos producidos por bacterias) con actividad bactericida

Aprovechar el sistema inmunológico



Desarrollo de antibióticos monoclonales


Productos de inmunidad innata



Vacunas contra las principales causas
de infecciones asociadas al cuidado de la salud
(por ej., Staphylococcus)


En desarrollo para infecciones graves
'por Pseudomonas y Staphylococcus


Productos que mejoran los beneficios o
suprimen las respuestas inmunes supresoras
(por ej., moléculas modulan las interacciones del receptor 4 símil Toll/lipopolisacárido)

Manippulación de comunidades microbianas

Trasplante de microbiiota fecal



Bioterapéuticos vivos






Usado para las infecciones por Clostridium difficile; en exploración para otras indicaciones


Medicamentos compuestos por organismos vivos específicos y caracterizados (por ej., por C. difficile)


Tratamiento tópico para las infecciones bacterianas en quemados

Estrategias antivirulencia



Sistemas de secreción





Formación de biopelículas


Anticuerpos antitoxina para C. difficile


Inhibidores de la secreción de sistemas que bloquean la secreción de factores de virulencia bacteriana ('por ej., para la infección por Pseudomonas)


recubrimientos de dispositivos; compuestos que inhiben el crecimiento bacteriano mediante el bloqueo de la comunicación (quorum sensing: autoinducción)

Diagnóstico rápido

Punto de atención





Dependiente de cultivo





Pruebas para distinguir las causas bacterianas y virales de la enfermedad respiratoria; pruebas rápidas para la resistencia a los medicamentos (por ej., para la gonorrea


Tecnología de resonancia magnética; perfilado transcripcional


Procalcitonina sérica que indica infección bacteriana

► Mirando hacia el futuro

Aunque los avances en la investigación biomédica son prometedores en el campo de la prevención y tratamiento de la RAM, muchas de estas tecnologías se hallan en las primeras
etapas de investigación. Mientras tanto, una acción eficaz puede reducir la difusión y mitigar los efectos negativos de las bacterias resistentes existentes en la actualidad. Los profesionales médicos y los centros de salud representan un papel importante mediante la implementación de programas de administración de antimicrobianos, reducción de la prescripción inadecuada, inmunización contra las bacterias y patógenos virales y la implementación de medidas de control de las infecciones, incluyendo el mejoramiento de la vigilancia de los microorganismos resistentes.

Los planes nacionales como President's National Strategy for Combating Antibiotic Resistant Bacteria, diseñan enfoques más amplios, planificando las contribuciones de los profesionales de la salud, investigadores biomédicos y sectores farmacéuticos y agrícolas (entre otros). También están en marcha importantes esfuerzos internacionales, supervisados por la OMS. Estos programas requieren una aplicación comprometida y concertada para poner en evidencia lo que prometen. Sin una respuesta coordinada, la edad post antibiótica presagiada por muchos es una posibilidad diferente y problemática.


1. Centers for Disease Control and Prevention. Antibiotic Resistance Threats in the United States, 2013. -report-2013/. Accessed January 12, 2016.

2. President's Council of Advisors on Science and Technology. Report to the President on combating Review of Antimicrobial Resistance Special Communication Clinical Review& Education (Reprinted) JAMA September 20, 2016 Volume 316, Number 11 1201

3. Gelband H, Miller-Petrie M, Pant S, et al. State of theWorld's Antibiotics, 2015.Washington, DC: Center for Disease Dynamics, Economics, and Policy; 2015. _worlds_antibiotics_2015#sthash.l18BFUu2.dpbs. Accessed January 6, 2016.

4. Yong D, Toleman MA, Giske CG, et al. Characterization of a new metallo-β-lactamase gene, blaNDM-1, and a novel erythromycin esterase gene carried on a unique genetic structure in Klebsiella pneumoniae sequence type 14 from India. Antimicrob Agents Chemother. 2009;53(12):5046-5054.

5. Liu YY,Wang Y,Walsh TR, et al. Emergence of plasmid-mediated colistin resistance mechanism mcr-1 in animals and human beings in China: a microbiological and molecular biological study. Lancet Infect Dis. 2016;16(2):161-168.

6. Pray L. Antibiotic resistance, mutation rates and MRSA. Nature Educ. 2008;1(1):30.

7. D'Costa VM, K




Tratamientos antibióticos sistémicos: Cuál es el riesgo de infecciones por Clostridium difficile?


                                     Vardakas KZ, Trigkidis KK, Boukouvala E, Falagas ME.

                                                   Int J Antimicrob Agents. 2016 Jul; 48(1):1-10.




La Incidencia de infección por Clostridium difficile (ICD) ha aumentado en los últimos 15 años y se asocia a un incremento en la morbimortalidad y costos del sistema de salud. El principal Factor de riesgo identificado ha sido la exposición a antibióticos, entre otros asociados como la hospitalización, la edad, la gravedad de la enfermedad de base, las enfermedades gastrointestinales y la medicación anti-ácida.
Los antibióticos más implicados en las ICD han sido la clindamicina y las cefalosporinas, y en la última década se han asociado las fluoroquinolonas a algunas cepas específicas de CD. Sin embargo, toda esta información se deriva de estudios observacionales, con un importante Riesgo de Sesgo de selección según el Tratamiento.
El objetivo de este estudio fue evaluar el Riesgo de ICD asociado al Tratamiento con monoterapia de los antibióticos más frecuentemente prescriptos (Beta lactámicos, fluoroquinolonas, aminoglucósidos, polimixinas y clindamicina) analizando la información de ensayos clínicos, aleatorizados y controlados.



Los autores realizaron la búsqueda bibliográfica en las bases de datos de PubMed, Cochrane y Scopus, incluyendo artículos entre 1990 y noviembre del 2014.



Los autores seleccionaron todos los ensayos diseñados para evaluar los resultados de pacientes que recibieran Tratamiento antibiótico para infecciones bacterianas y que reportaran información sobre el desarrollo de ICD. Excluyeron del meta-análisis los ensayos que comparaban un solo antibiótico con otra combinación de antibióticos pre-especificada, aquellos en los que la administración del antibiótico no era sistémica, si se comparaba un antibiótico versus Placebo (no antibiótico o desinfectante), y los ensayos en los que los antibióticos no eran administrados por infecciones bacterianas.
Revisaron los datos de Seguridad e incluyeron en el análisis final aquellos ensayos que reportaban casos de ICD, o en los casos que reportaban diarrea y pudieron contactar a los autores del ensayo. Excluyeron del análisis los ensayos que no fueran aleatorizados y controlados, los publicados previamente al año 1990 y aquellos escritos en idiomas distintos al inglés.



De cada ensayo, tomaron los datos de: i) el diseño (aleatorización, Ciego, asignación al Tratamiento); ii) la duración del Seguimiento (hasta 14, 28, 60 o más de 60 días); iii) la duración del Tratamiento (< de 5, 6 a 10 o > de 10 días); iv) el período (antes o después del 2002); v) la localización (por continente); vi) el Contexto clínico (infecciones hospitalarias y asociadas al sistema de salud, infecciones de la comunidad que requirieron hospitalización e infecciones de la comunidad que no requirieron hospitalización); vii) los antibióticos adicionales permitidos en el estudio; viii) la causa de la administración de antibióticos (profilaxis o Tratamiento); ix) la edad (> 65 años versus menor o igual a 65; niños versus adultos); x) el estado inmunológico del paciente; xi) el sitio de infección; xii) pacientes clínicos o quirúrgicos; xiii) el puntaje de APACHE II, u otros escores de gravedad y co-morbilidades (enfermedades gastrointestinales y medicación antiácida).



-Los autores evaluaron una pre-selección de 1894 ensayos clínicos aleatorizados y controlados delos cuales seleccionaron 1332, en 79 (5,9 %) de los cuales se reportó al menos 1 episodio de ICD (32.042 pacientes, 344 episodios de ICD).
-De los ensayos incluidos, la mayoría fueron realizados antes del año 2002 (72,2 %), enrolaron pacientes con infecciones de la comunidad (81 %) y evaluaban la Eficacia de los antibióticos para el Tratamiento de diversos tipos de infección (88,6%). 
-Sólo 1 ensayo estaba diseñado específicamente para estudiar la frecuencia de ICD luego de la administración de un Tratamiento antibiótico, y en 1 ensayo las ICD estaban dentro de los puntos de evaluación primaria. Adicionalmente, 3 estudios reportaban la búsqueda sistemática de pacientes con ICD (por análisis de todas las muestras de materia fecal en pacientes con diarrea o por estudio de los pacientes con diarrea persistente) y 4 daban una definición de ICD (principalmente test de toxina positiva en un paciente con diarrea).
-Encontraron una duración Variable del Tratamiento antibiótico, pero la mayoría estaba dentro de los 6 a 10 días (49,4 %) y la duración del Seguimiento estaba en el rango entre los 16 y 60 días (57 %). La Mediana de edad era de menos de 65 años en la mayoría de los ensayos (69,6 %). Para aquellos que ofrecían la información, la mayoría estudiaba pacientes inmunocompetentes (38 5%).
-La Distribución y la aleatorización fue descripta en 34 (43,0 %) y 39 (49,4 %) de los ensayos seleccionados y fue considerada adecuada por los autores en 19 y 30 ensayos respectivamente. Se utilizó una estrategia de doble Ciego en 36 ensayos (45,6 %).
-La frecuencia de ICD fue Variable en los ensayos incluidos (rango 0,1-9,2%), pero en general fue baja (1,24%; Intervalo de confianza [IC] 95%: 0,95-1,56%), y con una Heterogeneidad considerable entre los diferentes análisis. Fueron más frecuentes en los ensayos europeos y en segundo lugar en América; con una frecuencia de ICD en los estudios posteriores al 2002.
-La frecuencia de ICD fue levemente mayor en pacientes que recibían antibióticos para infecciones nosocomiales, seguido de pacientes hospitalizados por infecciones de la comunidad. El evento fue poco frecuente en pacientes no hospitalizados.
-De la misma manera, encontraron que el Tratamiento endovenoso se asoció a mayor cantidad de casos que la terapia antibiótica por vía oral. No encontraron diferencia en la Incidencia de ICD en los casos en los que la administración antibiótica era para Tratamiento o como profilaxis.
-Los estudios con mayor Incidencia de ICD eran aquellos que permitían el uso de antibióticos adicionales o con tratamientos prolongados a más de 10 días.
-Los casos de ICD fueron más frecuentes en los extremos de edad (Mediana mayor a 65 años o estudios que enrolaban sólo niños); así como en pacientes neutropénicos o en la pacientes médicos.
-En cuanto al meta-análisis, los autores refieren no haber encontrado Heterogeneidad en la mayoría de los análisis, o que la misma fue muy baja.
-Las cefalosporinas presentaron el mismo Riesgo de episodios de ICD que la comparación con todos los antibióticos (Riesgo relativo [RR] 1,09; IC 95%: 0,84-1,42) y con las fluoroquinolonas, penicilinas y carbapenemes juntos (RR 1,10; IC 95%: 0,84-1,44). Sin embargo, se asociaban a más episodios de ICD que las penicilinas (RR 2,36; IC 95%: 1,32-4,23) y las fluoroquinolonas (RR 2,84; IC 95%: 1,60-5,06) solas. No encontraron diferencias entre las cefalosporinas y otros antibióticos; ni entre las cefalosporinas de cuarta y de tercera generación (RR 1,06; IC 95%: 0,39-2,89) o entre las de tercera y primera/segunda generación (RR 0,47; IC 95%: 0,17-1,29).
-Los carbapenemes se asociaron a mayor frecuencia de ICD cuando se los comparó con todos los otros antibióticos (RR 2,26; IC 95%: 1,64-3,11) y con las fluorquinolonas, penicilinas y cefalosporinas juntas (RR 2,32; IC 95 %: 1,67-3,24). Presentaron mayor Riesgo de ICD que sus comparativos aún al excluir los pacientes neutropénicos (RR 2,67; IC 95%: 1,53-4,68) o las infecciones nosocomiales (RR 2,03; IC 95% 1,40-2,93) del análisis. De manera similar, se reportaron más episodios de ICD al comparar carbapenemes con fluoroquinolonas (RR 2,44; IC 95% 1,32-4,49) y con cefalosporinas solas (RR 2,24; IC 95% 1,46-3,42). La comparación entre carbapenemes y penicilinas no fue estadísticamente significativa, con menos datos disponibles para la misma (RR2,53; IC 95%: 0,87-7,41). No hubo diferencias significativas en la frecuencia de ICD con meropenem e imipenem. 
-Las fluoroquinolonas se asociaron con menos episodios de ICD que todos los otros antibióticos comparados (RR 0,52; IC 95%: 0,37-0,75) así como contra penicilinas, cefalosporinas y carbapenemes juntos (RR 0,49; IC 95%: 0,34-0,70). No encontraron Diferencia en el riesgo de ICD entre las fluoroquinolonas y las penicilinas (RR 1,34; IC 95%: 0,55-3,25).
-Las penicilinas presentaron menos episodios de ICD que todos los otros antibióticos (RR 0,48; IC 95% 0,32-0,72). 
-La clindamicina se asoció a más episodios de ICD que los antibióticos comparados (3 ensayos contra cefalosporinas y 2 contra penicilinas; RR 3,92; IC95%: 1,15-13,43).
-En cuanto a los antibióticos para gérmenes Gram positivos, 5 compararon linezolid con vancomicina, 1 linezolid con teicoplanina y 1 vancomicina con teicoplanina. No encontraron aumento del Riesgo de ICD ni con linezolid (RR 0,99; IC 95%: 0,44-2,26) ni con vancomicina (RR 1,16; IC 95%: 0,45-2,99).



Los autores concluyen que la clindamicina y los carbapenemes se asocian a un mayor Riesgo de ICD que el resto de los antibióticos.
Reconocer estos grupos antibióticos con Riesgo aumentado de ICD es importante para definir estrategias de prevención, y provee elementos para diseñar medidas de Control de infecciones y programas de des-escalamiento de antibióticos.




MISCELANEAS BREVES - 171Fecha: 3/1/2017



Monos geneticamente modificados muestran sintomas de autismo

                                                                         Dr. Zhen Liu, Dr  Zilong Qiu, Dr Qiang Sun 
                                                                                   Instituto de Neurociencias de Shanghái                                                               

                                                         Nature (2016):dói 10.1038/nature16533                                        



Un equipo científico ha logrado que un grupo de macacos cangrejeros(Chlorocebus fascicularis) modificados en el laboratorio sobreexprese el gen MECP2 asociado con el autismo en humanos, y ha comprobado que estos monos son capaces de transmitir la modificación genética a sus descendientes.
La historia empezó hace años. En 2010, mezclaron genes MECP2 humanos -asociados al autismo- con un virus inocuo, lo inyectaron en óvulos de macacos hembra. Se fecundaron, los embriones se implantaron y nacieron ocho macacos transgénicos. Cada una de las ocho crías poseían entre una y siete copias extra del gen MECP2, las copias adicionales se expresaban en el cerebro.  Las funciones cognitivas de estos pequeños primates eran normales. Un año después, los macacos mostraron cambios en su comportamiento que parecían asociados al autismo: se desplazaban en círculos dentro de su jaula y tenían problemas de interacción social, evitaban la compañía de otros individuos., si otro mono se encontraba en su camino, saltaban por encima de él o lo rodeaban para volver a su trayectoria circular original. 
Crearon una segunda generación de macacos a partir de tejido testicular de los machos transgénicos y óvulos de hembras normales. Los nuevos monos comenzaron a mostrar comportamientos asociales a los once meses de vida, demostrando que el gen había sido transmitido de los progenitores a sus crías. 

Otros expertos

Huda Zoghbi, (investigadora en la Escuela de Medicina de Baylor en Houston, en Estados Unidos), pionera en estudiar el gen MECP2 en ratones, aconseja precaución, porque este modelo no es suficiente para hacer suposiciones sobre el autismo humano. Los monos no muestran algunos síntomas de la duplicación del gen MECP2 en humanos, como convulsiones y problemas cognitivos. Esto podría deberse a que la expresión del gen en macacos es provocada por mecanismos diferentes a los de los humanos.
Limitación que los autores del estudio reconocen.  Los autores se muestran emocionados ante la posibilidad de utilizar estos primates para identificar exactamente en qué parte del cerebro causa problemas la sobreexpresión del gen 








                                                            Dra Victoria Cus

                                 Jefa servicio Anatomia Patologica - Htal Sant Joan de Deu                                                                          Barcelona  - España


Consentimiento es la manifestación de la voluntad libre y consciente válidamente emitida por una persona capaz, o por su representante autorizado, precedida de la información adecuada.
La información previa al consentimiento debe darse de palabra y por escrito, de manera que la persona que lo otorga se sienta plenamente informada y pueda dar libremente su consentimiento de palabra o por escrito, según los casos.

Debemos diferenciar lo que es verdaderamente el CI del documento en que se expresa?

El CI es un proceso de información al paciente o a su representante, explicándole, de modo comprensible,


  1. Qué es lo que se le pide.
  2. Cómo se va a llevar a cabo.
  3. Quién y cómo va a proteger sus intereses.
  4. En qué condiciones se van a conservar su muestra y/o sus datos.
  5. Cuáles son los posibles inconvenientes que se pueden derivar para él.
  6. Que tiene derecho a revocar su autorización inicial y a quién debe dirigirse para ello y para cualquier pregunta que desee hacer (art 59 Ley 14/2007).

Este proceso culmina con la firma del documento de consentimiento informado, una vez que el paciente, adecuadamente informado, autoriza la realización del proceso.

En qué procesos médicos se requiere el CI?

En muy diversos procesos médicos, que pueden estar implicados en el diagnóstico, tratamiento, obtención de datos y/o muestras biológicas destinadas a la investigación biomédica.

Para todos los procesos médicos se requiere un CI?

Para muchos procesos diagnósticos, tales como el examen físico, la obtención de muestras de sangre y orina para análisis bioquímicos de diagnóstico o control o la realización de exploraciones complementarias no invasivas, el consentimiento es tácito y se da por sobreentendido.
Pero cuando los procedimientos son más invasivos o implican riesgos potenciales o resultados inciertos o bien cuando existen alternativas, en pruebas de diagnóstico genético y en investigación, el CI se debe pedir por escrito, acompañado de una información previa suficiente (oral y escrita) y debe ser firmado por el paciente o sus representantes.
En general, se considera que es diferente ser sujeto de investigación (ensayos clínicos para nuevos procedimientos diagnósticos o tratamientos), que ceder los datos clínicos o muestras biológicas para la investigación biomédica. El primer caso puede implicar un riesgo para el paciente, mientras que en el segundo (por ejemplo, estudios genéticos) el CI se solicita por la necesidad de confidencialidad y de conocimiento por parte del dador de los resultados del estudio.

Por qué hay que solicitar un CI?

Para respetar a los pacientes como personas humanas y a sus preferencias en cuidados médicos y a fin de evitar los posibles abusos que se habían dado en determinadas investigaciones en seres humanos, se habían establecido una serie de declaraciones, como la de Nürenberg (1947), la de Derechos Humanos (1948).
La declaración de Helsinki (1964/1975/2000)
destaca que las consideraciones sobre el bienestar de los individuos participantes deben prevalecer sobre cualquier interés o beneficio colectivo de la sociedad o de la ciencia. Los principios del Informe Belmont (1978) se han generalizado como guía de conducta ética.

Cuáles son los principios bioéticos que apoyan la necesidad del CI?

Los tres primeros corresponden al Informe Belmont:

(1) Principio de autonomía

Respeto por la dignidad de la persona. Las personas deben tomar sus propias decisiones en relación con su salud. No se puede aplicar un procedimiento médico al paciente ni vulnerar su privacidad sin su consentimiento. Las personas vulnerables (con autonomía reducida) requieren una mayor protección.
Esto supone que no se puede utilizar sus datos o sus muestras biológicas sin su consentimiento y que hay que tratar datos y muestras con respeto. Los profesionales son responsables de la custodia de las muestras pero no son sus propietarios. Los datos y muestras se deben obtener y almacenar en condiciones adecuadas, con competencia profesional, explicar al paciente el proyecto que se propone hacer con sus datos y muestras y pedirle autorización, es decir, obtener su Consentimiento Informado.

(2) Principio de beneficencia

Podemos identificar cuatro niveles, de menor a mayor compromiso: no hacer el mal, evitar el mal, hacer el bien, promover el bien. Debemos tener en cuenta que el interés del paciente debe prevalecer sobre los intereses de la ciencia y de la comunidad. 

(3) Principio de justicia

 Implica un reparto equitativo de cargas y beneficios.

A estos principios podemos añadir otros:

(4) Principio de solidaridad

El fin de la investigación biomédica consiste en incrementar los conocimientos sobre enfermedades y sobre la biología del ser humano, para aplicarlos en beneficio de los enfermos en un futuro próximo. El objetivo es mejorar la capacidad de curar las enfermedades, adaptar los tratamientos a las personas y aliviar el sufrimiento.
En el caso de las enfermedades minoritarias (raras) , como las enfermedades metabólicas, el reducido número de pacientes afectos de cada una de ellas hace aún más importante la colaboración entre los pacientes y sus familiares, ya que todos esperan un tratamiento para aliviar su situación, lo que hace necesaria, casi imprescindible, la investigación para mejorar nuestro conocimiento de estas enfermedades y de su tratamiento.
El ser humano es social y todos nos beneficiamos de los conocimientos adquiridos anteriormente. Cuando un paciente se ha beneficiado de unos conocimientos, de unos medios, de un sístema, para su diagnóstico y tratamiento, se considera que tiene el deber moral de colaborar en la extensión de estos beneficios a otros, siempre que ello no le suponga ningún perjuicio.
El respeto por la autodeterminación del individuo y por su privacidad puede conjugarse con la colaboración con otros para obtener beneficios mutuos, como pueden ser el conocimiento biomédico y nuevas oportunidades de tratamiento. De todos modos, este principio presenta una marcada diferencia con los anteriores, ya que no se puede imponer.

(5) Principio de responsabilidad

El médico o investigador tiene la responsabilidad de llevar a cabo investigación para seguir en la línea de servicio a los pacientes. Pero también tiene la responsabilidad de proteger a las personas ante posibles daños si ve un peligro para ellas, aún en el caso de que lo autorice el CI que hubieran firmado.

(6) Principio de gratuidad

Las muestras biológicas, particularmente de tejido humano, no pueden venderse, pero pueden ser donadas. En todo caso, es recomendable cubrir los gastos que pueda acarrear la investigación a las familias implicadas (por ejemplo, desplazamientos, etc.).

Cómo debe ser la información que se proporciona al paciente?

La comunicación de la información es un procedimiento necesario, que requiere tiempo, dedicación, tranquilidad y un clima de confianza, por lo que es difícil de asumir en el proceso asistencial habitual. Requiere también la formación adecuada de las personas que comuniquen esta información. Se debe animar al paciente/padres o tutores a que pregunten las dudas o los aspectos que puedan no haber entendido bien. Según los casos se puede explicar en una primera entrevista y firmar el consentimiento en una segunda, después de meditar sobre ello.

Qué aspectos debe recoger el CI?

En esta tabla podemos ver los aspectos más relevantes que debe recoger todo documento de Consentimiento Informado.


En el caso de la obtención de muestras biológicas, el CI debe ser amplio o específico?

Un CI específico es el que se solicita para la obtención de datos o muestras para la realización de un proyecto de investigación determinado.
Un CI amplio se solicita para un proyecto y "proyectos relacionados" o para investigación biomédica, en general, con conservación de la muestra en un biobanco, sin limitarlo a un tipo determinado de investigación.
En el documento de CI se pueden (y deben) ofrecer alternativas, que especifiquen si se autoriza la investigación para una determinada enfermedad o bien para todas las enfermedades, para asegurar el derecho a elegir del donante.

Qué función tiene el Comité Ético de Investigación Clínica (CEIC) en relación con el CI?

La función del CEI es de importancia capital, ya que vela para que se respete la autonomía del paciente en el tema del CI, que se cumplan los requisitos de confidencialidad y que el proyecto le garantice un riesgo mínimo.
El CEI tiene potestad para decidir que un proyecto no reúne las condiciones necesarias para utilizar las muestras o datos que solicita y su decisión es vinculante. En la información que se ofrece a los pacientes el CEI es el garante de que todos los proyectos en que se vayan a utilizar sus muestras/datos se examinarán cuidadosamente, para asegurar su correcto desarrollo.

Qué problemas presenta el CI en menores o pacientes no competentes?

En los casos de menores o pacientes no competentes el CI es otorgado por terceros: sus padres o tutores.
En el caso de los menores, existe una maduración progresiva de forma que su capacidad de comprensión y de decisión autónoma va aumentando progresivamente. A medida que se va haciendo capaz de entender, hay que darle la información adecuada que pueda comprender y obtener su asentimiento. En general, se consideran tres rangos de edad: niños menores de 7 años (el CI lo dan padres o tutores), de 7-12 años (se les debe dar una explicación suficiente para que entiendan el estudio) y mayores de 12 años.
Estos últimos (cuando se considera que son suficientemente maduros pueden opinar antes) deben firmar el CI, si no tienen objeción a lo que se les ha propuesto, después de proporcionarles información comprensible. En el documento de CI se les indica que, al llegar a la mayoría de edad (si entonces son competentes), pueden ejercer su derecho de revocación (de hecho, pueden ejercerlo antes). Pero si no lo ejercen, se considerará válido el CI vigente.

En el diagnóstico de un error congénito del metabolismo (ECM), para qué procedimientos se solicita habitualmente el CI?

Dado que son enfermedades genéticas que afectan al metabolismo, su diagnóstico requiere en muchos casos un estudio de la función de la proteína, enzimática o de transporte, que está alterada debido a las mutaciones en el gen que la codifica. Para ello se requiere, en muchos casos, la obtención de biopsias de piel (para cultivo de fibroblastos), músculo u otros tejidos (por ejemplo, en enfermedades mitocondriales), previa solicitud del CI.
Una vez localizada la proteína alterada, la confirmación del diagnóstico de un ECM se realiza mediante el estudio genético, del paciente y sus padres, generalmente portadores (en enfermedades autosómicas recesivas). Este estudio se realiza, en general, en DNA extraído a partir de sangre periférica o de tejidos.
El DNA del paciente nos informa no solo de las posibles mutaciones del gen en estudio, sino también de todo el resto del genoma del paciente, con las posibles alteraciones en otros genes, que pueden ser predictivas, es decir, causantes de enfermedades del adulto y susceptibilidad a otras enfermedades, así como también del carácter de portador de las mismas.
Hay que considerar que las pruebas genéticas son para toda la vida, tienen implicaciones familiares y generacionales y pueden ser determinantes para la toma de decisiones en el diagnóstico pre natal. Además, la información genética puede ser identificativa. Por todo ello, antes de realizar un estudio genético se debe solicitar un CI.
Otros procedimientos diagnósticos que requieren en general un CI son las pruebas dinámicas, como las sobrecargas con diferentes metabolitos, para alcanzar el diagnóstico de nuevas enfermedades o el diagnóstico diferencial entre ellas (por ejemplo: el test de alopurinol en la deficiencia de OTC), o bien para demostrar la respuesta a nuevos tratamientos (por ejemplo, la prueba de sobrecarga de BH4 en la PKU).

Se utiliza el CI también para el tratamiento de los ECM?

Los ECM son enfermedades minoritarias, que se tratan en general con fármacos huerfanos, que presentan ciertas peculiaridades comparados con los medicamentos comercializados en oficinas de farmacia. Por ello se solicita, muchas veces el CI antes de la aplicación de algunos de dichos fármacos.
La misma situación es aplicable al uso de medicamento de uso compasivo, es decir, fármacos que ya están en el mercado pero que, en ciertas enfermedades, se utilizan con fines no incorporados en su ficha técnica.
Este consentimiento informado, de forma especial en el caso de fármacos huérfanos y de usos compasivos, debe asociar una explicación del facultativo que considera que es adecuado iniciar el tratamiento, ya que, con mayor frecuencia en estas situaciones, la disponibilidad de información para el paciente es limitada.

Homocistinuria clásica Galactosemias Mucopolisacaridosis Adrenoleucodistrofia ligada al cromosoma X Homocistinuria con aciduria metilmalónica (CblC) Fenilcetonuria (PKU) Fenilcetonuria (PKU) materna Deficiencia de metilen-tetrahidrofolato reductasa (MTHFR) Tirosinemia tipo 1 Enfermedad de la orina con olor a jarabe de arce o leucinosis (MSUD) Defectos del ciclo de la urea Deficiencia de serina Hiperglicinemia no cetósica (NKH) Cistinosis Lisinuria con intolerancia a proteínas (LIP) Aciduria propiónica Aciduria metilmalónica Aciduria glutárica tipo 1 Deficiencia de biotinidasa Aciduria 3-hidroxi-3-metilglutárica Deficiencia de 2-metil-3-hidroxibutiril-CoA deshidrogenasa (MHBD) Enfermedad de Canavan (Aciduria N-acetilaspártica) Aciduria mevalónica Intolerancia hereditaria a la fructosa (IHF) Deficiencia cerebral de creatina Enfermedades de los neurotransmisores Deficiencia del transportador de glucosa GLUT 1 Deficiencia de sulfito oxidasa-cofactor molibdeno Enfermedades mitocondriales Defectos de la β-oxidación Leucodistrofia metacromática (LDM) Enfermedad de Niemann-Pick C Lipofuscinosis ceroidea (LFC) Biogénesis del peroxisoma Defectos congénitos de la glicosilación (CDG) Glucogenosis Síndrome de Smith-Lemli-Opitz (SLO) Defectos del metabolismo de purinas y pirimidinas Enfermedad de Lesch-Nyhan Trimetilaminuria (TMA) Hiperfenilalaninemia moderada (HPA) Enfermedad de Menkes Gangliosidosis GM2 Xantomatosis cerebrotendinosa Deficiencia de piruvato carboxilasa (PC) Deficiencia de piruvato deshidrogenasa (PDH) Defectos de la síntesis de coenzima Q10 Defectos del metabolismo de la carnitina Enfermedad de Gaucher Enfermedad de Krabbe Enfermedad de Fabry Gangliosidosis GM1 Exostosis múltiple hereditaria (EMH) Deficiencia de succínico semialdehido deshidrogenasa (SSADH) Síndrome de Lowe Aciduria isovalérica (IVA) Metilcrotonilglicinuria (MCG) Defectos del transportador de tiamina tipo 2 Síndrome de hiperornitinemia, homocitrulinuria e hiperamonemia (HHH) Deficiencia cerebral de folato (DCF)




LITIASIS RENALFecha: 3/12/2016



Litiasis renal 

                                                                        Monica S C Morgan, Margaret S Pearle 

                                                               :                          BMJ 2016;352:i52

                                                                Traducción y resumen objetivo: Dra. Marta Papponetti




Aproximadamente 1 de cada 11 personas tiene un cálculo renal en algún momento en su vida. Más de la mitad de los portadores de un cálculo tendrá otro dentro de los 5-10 años. La elevada prevalencia y la naturaleza y recurrencia impredecibles de la enfermedad litiásica y su predominio en la edad laboral contribuyen al gran impacto que produce en el individuo, los sistemas sanitarios y la sociedad.

La enfermedad litiásica ha sido relacionada con varios trastornos sistémicos, como la hipertensión, la obesidad y la diabetes. Aunque no se ha establecido definitivamente una relación entre la causa y el efecto, la prevención de uno de estos trastornos puede afectar la ocurrencia de los otros. En consecuencia, es atractivo temer un programa dirigido a la prevención de la formación recurrente de cálculos.

Lamentablemente, la evaluación médica y los tratamientos medicamentosos y dietéticos son poco utilizados y de poca utilidad. Un estudio que utilizó una base de datos para identificar los requerimientos de 28.836 personas con alto riesgo de sufrir un episodio agudo de cálculo que motivó la visita a la sala de urgencias halló que solo el 7,4% había hecho una recolección de orina de 24 horas dentro de los 6 meses previos a la visita, lo que sugiere que la evaluación médica es poco común.

Siguiendo la guía para la práctica clínica de 2014 para la prevención de los cálculos renales recurrentes de la American Urologic Associattion (AUA), esta revisión permite una actualización de la evaluación, el tratamiento dietético y farmacológico y el seguimiento de los pacientes con cálculos renales. También tiene como objetivo alentar a los urólogos, nefrólogos y prestadores de atención primaria a que evalúen y pongan en marcha un programa médico profiláctico para los formadores de cálculos con alto riesgo de recurrencias.


La prevalencia de la litiasis renal se estima en 1-15% y la evidencia muestra que estos números van en aumento. Los datos secuenciales de Health and Nutrition Examination Survey muestran que durante las últimos 4 décadas, en EE.UU. hubo un relación lineal entre el aumento de la prevalencia y la litiasis, que varió desde el 3,2% durante 1976-80 hasta 8,8% durante 2007-10. Del mismo modo, en Japón, la incidencia anual ajustada por la edad del primer episodio de litiasis renal ascendió más del doble entre 1965 y 2005 (de 54,2/100.000 a 114,3/100.000).

Aunque los hombres tenían 2:3 veces más probabilidades que las mujeres de haber tenido cálculos renales en el pasado, la evidencia actual sugiere que esta brecha se está cerrando. El Analysis of the Nationwide Inpatient Sample (Análisis de la Muestra Nacional de Pacientes Internados) halló que en los pacientes con un diagnóstico primario de litiasis renal o ureteral, la relación hombre:mujer se redujo de 1,7:1 en 1997 a 1,3:1 en 2002. De manera similar, los datos más recientes de la National Health and Nutrition Examination Survey (NHANES) mostraron una prevalencia global del 10,6% en los hombres y de 7,1% en las mujeres. Se cree que este cambio refleja el aumento desproporcionado de la enfermedad calculosa en las mujeres.


Dados la elevada prevalencia y costo de la litiasis renal se necesitan estrategias preventivas. La prevención de la formación recurrente de cálculos implica la identificación de los factores de riesgo modificables y las medidas para corregir o mitigar su formación. Debido a que no todo el que tiene un primer cálculo volverá a sufrir la formación de otro, la evaluación inicial está dirigida a detectar a los que tienen en mayor riesgo de recurrencia. Debido a una variedad de factores genéticos, metabólicos, ambientales y dietéticos que predisponen a los individuos a desarrollar tipos específicos de cálculos renales, el cribado incluye una detallada historia clínica y dietética, los análisis de sangre y orina, el análisis de los cálculos y los estudios por imagen.

La historia clínica debe buscar condiciones asociadas a la enfermedad litiásica, como la obesidad, el hipertiroidismo, el hiperparatiroidismo primario, la acidosis tubular renal distal (ATRD), la gota, la diabetes tipo 2 y la malabsorción ggastrointestinal (resección intestinal, cirugía bariátrica, enfermedad de Crohn, colitis ulcerosa, enfermedad pancreática o, enfermedad celíaca).

El uso de fármacos asociados a la litiasis, ya sea mediante la alteración urinaria (topiramato, acetazolamida y probenecid) o por la cristalización directa de los fármacos o sus metabolitos (triamtireno, inhibidores de la efedrina y algunos inhibidores de la proteasa) se debería poder contar con alternativas. El uso excesivo de suplementos como la vitamina C y el calcio puede aumentar el riesgo de formación de cálculos.

Una historia dietética detallada puede identificar los hábitos alimenticios que causan o exacerbar la litiasis. La poca ingesta de líquidos, el consumo elevado de carne, el consumo bajo o elevado de calcio, la poca ingesta de frutas y verduras, el exceso de sodio y una dieta rica en alimentos que contienen oxalato sumados a la ingesta subóptima de calcio pueden predisponer a la formación de cálculos. Los factores ocupacionales, del medio ambiente o del estilo de vida también pueden contribuir a la pérdida de líquido o a la ingesta subóptima de líquidos.

Evaluación de cribado básico de formadores de cálculos


  • Antecedentes de cálculos: número de episodios, intervenciones quirúrgicas, composición de los cálculos.

    Antecedentes médicos: factores de riesgo, incluyendo gota, diabetes tipo 2, obesidad, condiciones de malabsorción, acidosis tubular renal distal, sarcoidosis, hiperparatiroidismo, trastornos genéticos (hiperoxaluria primaria, cistinuria, síndrome de Lesch-Nyhan, fibrosis quística, xantinuria, deficiencia de adenina fosforribosiltransferasa).

    Antecedentes alimentarios: ingesta de calcio diferente, ingesta excesiva de proteína animal o de sal, baja ingesta de líquidos, ingesta limitada de frutas y verduras.
  • Antecedentes familiares:de nefrolitiasis.

 Medicamentos: asociados con la formación de cálculos (suplementos de calcio, vitamina C, inhibidores de la anhidrasa carbónica, Inhibidores de la proteasa).


Estudios clínicos
• Imágenes: para identificar las anomalías anatómicas (riñón medular en esponja, obstrucción de la unión pieloureteral, riñón en herradura) y para evaluar la actividad metabólica (litiasis múltiple, nefrocalcinosis).

  • Análisis de sangre
    - Creatinina
    - Sodio
    - Potasio
    - Bicarbonato
    - Cloruro
    - Calcio
    - Ácido úrico
    - Opcional: hormona paratiroidea intacta si está indicado
  • Orina:
         - pH, cristales, bacterias
         - Cultivo de orina

       • Análisis de los cálculos


Análisis de sangre

Algunos análisis de sangre pueden identificar a las afecciones médicas que no han sido diagnosticadas previamente y que se asocian con la litiasis renal. La hiperuricemia puede indicar gota, con o sin hiperuricosuria, y ha sido asociada a un pH de orina bajo y cálculos de ácido úrico y oxalato de calcio. La hipopotasemia, el  bicarbonato bajo y el cloruro elevado sugieren una ATRD, lo que aumenta el riesgo de cálculos de fosfato u oxalato de calcio.

La sospecha de hiperparatiroidismo primario aparece cuando la calcemia es elevada o normal alta y puede confirmarse mediante la medición de la hormona paratiroidea intacta en el suero. La composición de los cálculos de fosfato de calcio y la nefrocalcinosis plantean la sospecha de este diagnóstico. La hormona paratiroidea elevada o normal-alta en el contexto de una calcemia eleva o normal--alta obliga a una evaluación más detallada, incluyendo imágenes paratiroideas o la derivación a un cirujano endocrino. La guía de la AUA para el manejo médico de los cálculos renales recomienda el cribado básico mediante la determinación de la creatinina, sodio, potasio, cloruro, calcio, bicarbonato y ácido úrico.

Análisis de orina

El análisis de la orina, ya sea con tiras reactivas o microscópico puede indicar la composición de los cálculos. Los pH urinarios extremos, altos o bajos, pueden implicar la presencia de cálculos de ácido úrico (pH bajo) o, cálculos de  fosfato de calcio o estruvita (pH alto). La piuria y la bacteriuria pueden indicar la infección sobreagreada de los cálculos. Ciertos cristales son patognomónicos de una composición particular de los cálculos, como los cristales tapa de ataúd, los cristales de estruvita o los cálculos hexagonales de cistina.

El conocimiento de la composición de los cálculos previos puede orientar sobre el trastorno subyacente, como el pH urinario bajo en el caso de los cálculos de ácido úrico y la cistinuria en los cálculos de cistina. Los cálculos que se componen exclusivamente de fosfato de calcio despiertan la sospecha de un trastorno anatómico o metabólico como el riñón esponjoso medular, el hiperparatiroidismo primario, la ATR distal. La composición de los cristales de oxalato de calcio es menos reveladora debido a la variedad y multiplicidad de los trastornos subyacentes.


Las imágenes radiográficas proporcionan una evaluación basal de la carga de cálculos y pueden identificar las condiciones anatómicas o médicas asociadas a la formación de los cálculos. La carga de cálculos refleja la actividad metabólica y puede orientar la intensidad de la terapia. La litiasis múltiple en la imagen inicial, incluso si es un primer episodio litiásico, representa la enfermedad litiásica recurrente. La presencia de un cálculo ramificado o en cuerno de ciervo puede ser el indicio de una causa infecciosa, mientras que la nefrocalcinosis implica una anomalía anatómica (riñón esponjoso medular) o una condición metabólica como el hiperparatiroidismo primario o la ATR distal.

Pruebas metabólicas

En los pacientes con cálculos recurrentes están indicadas las pruebas metabólicas, sobre todo en los formadores de cálculos que en el cribado inicial muestran que tienen riesgo de recurrencia, y en cualquier persona que desee una evaluación adicional. Los niños con un cálculo renal deben ser evaluados debido a su mayor incidencia de trastornos genéticos y ser sometidos a un largo período de observación durante el cual pueden formarse cálculos.

La evaluación metabólica comienza con el análisis de 1 o 2 recoolecciones de orina de 24 horas obtenidas siguiendo la dieta habitual. En la orina se mide el volumen total, pH, calcio, oxalato, ácido úrico, citrato, sodio, potasio y creatinina. Los indicadores de la ingesta de proteínas de origen animal─como el sulfato y el nitrógeno de urea en la orina, y las estimaciones de la sobresaturación urinaria─ son útiles, pero son marcadores opcionales.

A pesar de que varios laboratorios comerciales proporcionan un panel de pruebas estándar, no todos incluyen todas las pruebas recomendadas, particularmente el pH urinario. Por consiguiente, antes de elegir un laboratorio, los profesionales deben revisar el panel que utilizan. El número óptimo de muestras de orina necesarias para alcanzar la máxima sensibilidad en la detección de anormalidades urinarias es objeto de controversia; Se han recomendado 1 y 2 recolecciones de orina de 24 horas. La guía para el manejo médico de los cálculos renales de la AUA prefiere 2 recolecciones pero reconoce la falta de consenso al respecto.

Es muy importante la recolección correcta de la orina y debe ser revisada cuidadosamente con el paciente. Se sospecha que la recolección ha sido incorrecta o incompleta cuando la creatinina en orina es incompatible con el peso corporal magro del paciente, el sexo, y la masa muscular. Para las mujeres, la creatinina en  orina de 24 horas es generalmente de 15 a 20 mg/kg y para los hombres de 18 a 24 mg/kg.

Cuando se interpretan los resultados del análisis de orina de 24 horas, a pesar de que los puntos de corte que indican los límites superiores o inferiores de lo normal son útiles, los valores de los parámetros urinarios cambian continuamente, pudiendo ser más importantes los valores relativos que los números absolutos.

En el pasado, el análisis rápido de la carga de calcio se realizaba como parte de la evaluación metabólica completa, con el fin de distinguir los diversos tipos de hipercalciuria. Sin embargo, actualmente rara vez se incluye en la evaluación metabólica estándar porque el tratamiento no es específico para el tipo de hipercalciuria.





MISCELANEAS BREVES - 170Fecha: 3/12/2016



Prevención y tratamiento de las infecciones maternas perinatales


                                Recomendaciones para prevención y tratamiento de las infecciones maternas en el periparto



Las infecciones bacterianas en la época de parto representan alrededor de una décima parte de las muertes maternas a nivel mundial. 
Además del alto riesgo de mortalidad y morbilidad aguda, las mujeres que sufren infecciones periparto también son vulnerables a graves discapacidades a largo plazo, tales como el dolor pélvico crónico, obstrucción de las trompas de Falopio e infertilidad secundaria. 

Lo extremadamente grave es que estas infecciones causan anualmente aproximadamente 1 millón de muertes de recién nacidos.
En la prevención y el tratamiento de las infecciones del tracto genital durante el preparto, el parto y el período posnatal hay varios factores que se han asociado con un mayor riesgo de infecciones periparto maternas, por ejemplo, la desnutrición, la diabetes, la obesidad, la anemia severa, la vaginosis bacteriana y condiciones espontáneas o iniciadas por el proveedor durante el parto (por ejemplo, rotura prolongada de las membranas, múltiples exámenes vaginales, la extracción manual de la placenta, cesárea). 
Las recomendaciones de la OMS para la prevención y el tratamiento de las infecciones maternas periparto, incluyen orientación sobre las mejores prácticas para el uso rutinario de procedimientos menores (cómo evitar el afeitado del vello púbico y los exámenes vaginales para la evaluación del parto), el uso de agentes antisépticos para el parto vaginal y por cesárea, el uso de antibióticos como medida preventiva en situaciones donde hay es un riesgo potencial de infección: como la ruptura prematura de las membranas, líquido amniótico teñido de meconio, desgarros perineales, los procedimientos obstétricos como la eliminación manual de la placenta, parto vaginal con uso de instrumentos, episiotomía y cesárea. También incluye un enfoque en la administración de los antibióticos en la corioamnionitis y la endometritis postparto.
A nivel mundial, la intervención más común para prevenir la morbilidad y la mortalidad relacionada con la infección perinatal materna es el uso de antibióticos para la profilaxis y el tratamiento. Sin embargo, el mal uso de antibióticos para las condiciones o procedimientos obstétricos que conlleva el riesgo de infección es común en la práctica clínica. Este uso inadecuado de antibióticos entre las mujeres que dan a luz tiene implicaciones para los esfuerzos mundiales para contener la aparición de bacterias resistentes a los antibióticos. Por lo tanto, las recomendaciones se refieren tanto a la adecuada y el uso inadecuado de antibióticos para la prevención y tratamiento de infecciones periparto



MISCELANEAS BREVES - 169Fecha: 4/11/2016


Troponin Testing Reality Check

                                                                              Clinical Laboratory News - Oct 201

Two studies highlight the danger of relying entirely on cTn results to diagnose heart attacks.

Two studies on the accuracy of high-sensitivity and conventional cardiac troponin assays published in Clinical Biochemistry demonstrate what clinical laboratorians have long known: sometimes, despite the best efforts of labs, cardiac troponin results are wrong, leading to missed or inaccurate diagnoses.

1.       In an editorial,  Peter A. Kavsak, PhD, FCACB, FACB, FCCS, from McMaster University in Ontario, Canada; Amy K. Saenger, PhD, DABCC, from the University of Minnesota in Minneapolis; and Peter E. Hickman, MB, from the Australian National University in Canberra, highlighted possible reasons for the findings:

  • These included divergent results depending on the reagent lot of cardiac troponin
  • The considerable variation of the assay at the low analytical range, that occurs within and across different platforms.
  • Pre-analytical factors including mild hemolysis, and the tube and specimen type.

2.       In the second stud, researchers found that endogenous alkaline phosphatase (ALP) causes a higher result for cardiac troponin I (cTnI) in assays that use ALP as a label to generate light in the chemiluminescent immunoassay method. They suggest that the liver isoform of ALP is to blame and that the assay may deliver inaccurate results in hepatobiliary patients.








Control estricto de la glucemia para la diabetes mellitus tipo 2

                                                                            René Rodriguez-Gutierez;Victor M. Montori
                                                                              Circulation ; Qual Outcomes (2016), 9

                                                             Comentario y resumen objetivo: Dra. Marta Papponetti



La diabetes mellitus tipo 2 (DM2) es una pandemia en crecimiento y una causa líder de morbilidad y mortalidad. Después de que el estudio DCCT (Diabetes Control and Complications Trial) halló que el control glucémico estricto para obtener una hemoglobina glicosilada (HbA1c) <7% (95 mg/dl) podría prevenir o retardar la progresión de la nefropatía, la retinopatía y la neuropatía en los pacientes con DM tipo 1, un consenso extendió este concepto a los pacientes con DM2 y se estableció que la normalización de la glucemia previene las complicaciones de la DM.

Desde entonces, las guías, el mejoramiento de la calidad de las intervenciones, las medidas de calidad de la atención del paciente y la comercialización dirigida al paciente se han centrado en lograr el control estricto de la glucemia. Los expertos han hecho notar la insuficiencia de los médicos para intensificar la terapia destinada a lograr ese objetivo glucémico, la inercia clínica y la brecha en la calidad existentes actualmente.

A  medida que los grandes ensayos clínicos aleatorizados (ECA) se fueron acumulando y su seguimiento se extendió, los expertos han interpretado sus resultados como una confirmación de que el control estricto de la glucemia previene las complicaciones microvasculares de la DM2, pero que solo en algunos pacientes se pueden prevenir las complicaciones cardiovasculares y la mortalidad, y que tal vez éstos sean los pacientes con diagnóstico reciente de DM.

El conjunto de pruebas resumido en los metaanálisis de grandes ECA parece confirmar esta impresión. Esa evidencia ha contribuido a un consenso que se ve reflejado en las recomendaciones universales de las guías, los esfuerzos para mejorar la calidad y las decisiones clínicas para promover el control estricto de la glucemia (HbA1c <6,5 o 7,0%).

Sin embargo, la misma evidencia ha llevado a algunos críticos a cuestionar este consenso. Teniendo en cuenta el impacto en los pacientes, la asistencia sanitaria y la formulación de políticas, el grado en que el consenso sobre el valor del control estricto de la glucemia es consistente con el cuerpo de evidencia requiere más aclaración.

En consecuencia, los autores del presente estudio examinaron en forma sistemática la relación entre la cantidad de evidencia sobre el control glucémico en la DM2 con el concepto actual sobre el valor del control estricto de la glucemia comparado con un control menos estricto (HbA1c 7,0%-8,5%), y su efecto sobre los resultados microvasculares y macrovasculares publicados en la última década en las revistas médicas y guías de práctica clínica más importantes, y con los resultados del UKPDS (UK Prospective Diabetes Study) desde 1998 hasta 2015.

Métodos y resultados 

La evidencia mostró un impacto no significativo del control estricto de la glucemia sobre el riesgo de diálisis/trasplante renal/muerte, ceguera o neuropatía.

Se realizaron búsquedas de artículos referidos al control glucémico publicados en las principales revistas de medicina general y especializada, entre 2006 y 2015, y se identificaron las guías prácticas más recientes. Se resumió la evidencia sobre el control de la glucemia hallada en todas las revisiones sistemáticas y metaanálisis de ensayos aleatorizados actuales que midieron los resultados microvasculares y macrovasculares importantes para el paciente, y se completó un metaanálisis de las extensiones del seguimiento. Se identificaron 16 guías y 328 declaraciones.

Con el material bibliográfico seleccionado los autores hicieron un metaanálisis con los resultados importantes para los pacientes. Se seleccionaron los siguientes resultados microvasculares importantes para los pacientes: nefropatía terminal o diálisis, muerte por causa renal, ceguera y neuropatía clínica. También se incluyeron la microalbuminuria y la fotocoagulación de la retina porque a menudo son citadas como resultados microvasculares alternativos importantes para el paciente y son informados regularmente en los ECA.

El cuerpo de evidencias obtenido justifica una confianza moderada. La evidencia mostró un impacto no significativo del control estricto de la glucemia sobre el riesgo de diálisis/trasplante renal/muerte, ceguera o neuropatía.

Sin embargo, en la última década, la mayoría de los informes publicados (77%-100%) y las guías (95%) avalaron un beneficio inequívoco. Tampoco se informó un efecto significativo sobre la mortalidad global, la mortalidad cardiovascular o el accidente cerebrovascular. No obstante, entre 2006 y 2008 hubo una reducción constante del 15% del riesgo relativo de infarto de miocardio no fatal. Después del ACCORD en 2008, la mayoría de las declaraciones (47%-83%) apoyó el beneficio y solo  una minoría (21%-36%) no lo hizo.

Como resultados macrovasculares importantes para los pacientes se seleccionaron: mortalidad global, mortalidad cardiovascular, infarto de miocardio no fatal, ictus no fatal y eventos vasculares periféricos o amputaciones. Para graduar la confianza (elevada, moderada, baja o muy baja) en las estimaciones sobre el impacto del control de la glucemia en los resultados micro y macrovasculares de este cuerpo de evidencia, lo revisares trabajaron en conjunto utilizando el enfoque GRADE (Grading of Recommendations Assessment, Development, and Evaluation) teniendo en cuenta el riesgo de sesgo (calidad metodológica), el carácter directo, la coherencia, la precisión de las estimaciones y el riesgo de sesgo en la presentación de los informes.

Lo que se sabe

► El control estricto de la glucemia se considera un elemento esencial de la estrategia para prevenir las complicaciones crónicas en los pacientes DM2.

► Las recomendaciones de las guías de práctica, los programas para el mejoramiento de la calidad y la atención clínica son factores que promueven el control estricto de la glucemia.

Lo que el estudio aporta

►La evidencia acumulada en las últimas 2 décadas no muestra ningún beneficio significativo del control estricto de la glucemia en los resultados importantes para los pacientes como las complicaciones micro y macrovasculares, con excepción de una reducción del riesgo relativo del 15% de infarto de miocardio no fatal.

►A pesar de esto, la mayoría de las declaraciones y las guías avalan inequívocamente el control estricto de la glucemia para prevenir las complicaciones microvasculares, aunque los beneficios para los resultados macrovasculares fueron atenuados después de un ensayo que debió interrumpirse anticipadamente por un aumento de la mortalidad cardiovascular.

► El consenso generalizado sobre el valor del control stricto de la glucemia para evitar complicaciones en los  pacientes con DM2 necesita ser recalibrado.


Hallazgos de los autores

Aunque no se halló un impacto significativo del control estricto de la glucemia sobre los riesgos de nefropatía, retinopatía o neuropatía, importantes para el paciente, la evidencia publicada y las guías para la práctica avalan su valor para prevenir las complicaciones microvasculares. Es posible que estas declaraciones estén basadas en pruebas indirectas (es decir, en resultados alternativos importantes para el paciente como sería la microalbuminuria), lo que reduce la confianza en el valor del control glucémico.

Aunque la evidencia apoya un escepticismo cauteloso sobre el impacto del control de la glucemia en la mortalidad y los criterios de valoración cardiovascular, antes del ensayo ACCORD de 2008 ya existía un consenso similar. Desde entonces, el escepticismo reinante, si bien apropiado, pudo haber fallado en dar cuenta del beneficio aparente constante del control estricto de la glucemia sobre el riesgo de infarto de miocardio no fatal.

El uso de puntos finales compuestos que incluyen tanto los resultados importantes para el paciente como los resultados alternativos puede haber contribuido a este consenso.

El estudio UKPDS fue un estudio clave que informó una disminución significativa del riesgo de cualquier punto final compuesto relacionado con la DM a partir del control estricto de la glucemia, aunque el 85% del efecto se limita a uno de los componentes: la fotocoagulación de la retina.

Del mismo modo, los investigadores del AVANCE informaron una reducción relativa de 14% del riesgo de un resultado microvascular compuesto, con casi todos los efectos limitados a la reducción del riesgo de micro y macroalbuminuria de novo.  Estos investigadores también informaron una reducción del 65% del riesgo de nefropatía terminal, pero esto se basó en los puntos finales (20 vs. 7 eventos), lo que debilita la inferencia estadística.

El estudio ACCORD reportó beneficios tales como el retraso en la aparición de macroalbuminuria, el empeoramiento de la agudeza visual en 3 líneas, la pérdida del reflejo aquilino y de la sensibilidad al tacto suave, pero también informó una reducción no significativa del riesgo de complicaciones microvasculares importantes para el paciente.

El estudio VADT también informó la reducción del riesgo de progresión de la albuminuria, pero sin impacto significativo sobre los resultados microvasculares importantes. Este patrón persiste en los metaanálisis de estos ECA y de sus extensiones.

Así, el consenso que favorece el control de la glucemia puede reflejar estrechamente la evidencia de un beneficio del control estricto de la glucemia sobre los marcadores de microalbuminuria alternativos y la fotocoagulación de la retina.

Limitaciones y fortalezas del presente análisis

Los autores mencionan varios problemas que reducen la confianza en el presente análisis. Uno es que la revisión de las publicaciones ha estado limitada a aquellas con factores de mayor impacto, lo cual puede capturar un consenso que solo existe entre una élite de investigadores y clínicos. "Que estas declaraciones estén de acuerdo con las guías actuales fortalece nuestra creencia de que sondominantes e influyentes y no solo una franja o un punto de vista." "Nuestro enfoque en la última década (2006-2015), si bien arbitrario, ofrece una cobertura completa: después del UKPDS, antes de del ACCORD, ADVANCE y VADT; antes y después de la publicación de los respectivos informes de la extensión del ensayo y, el momento actual."

Como otros, los investigadores han excluido el estudio Kumamoto (que puso a prueba la intervención del DCCT en los pacientes con DM2) y los ensayos del UGDP (University Group Diabetes Program) que se suspendieron prematuramente debido al daño ocultado por una controversia sobre el manejo de los datos), como así los ensayos individuales, aunque sus datos fueron utilizados en algunos de los metaanálisis incluidos. Por otra parte, agregan los autores, el momento de nuestra búsqueda sistemática de los metaanálisis de ECA (2009) ofrece una cobertura completa de los principales ensayos: UKPDS, ACCORD, ADVANCE y VADT.

Hay algunas dudas respecto de homologar el UKPDS al ACCORD, el VADT o al ADVANCE porque las poblaciones son diferentes en términos de duración de la DM, objetivos glucémicos, agentes hipoglucemiantes, comorbilidades y uso de estatinas. Descritas como un apoyo a la intervención agresiva precoz para reducir las complicaciones macrovasculares, las declaraciones suelen expresar dudas acerca de la aplicabilidad del UKPDS a los pacientes de edad avanzada con comorbilidades.

Los autores sostienen que los resultados del UKPDS en particular son similares a los de los ECA más recientes en lo referente a los resultados micro y macrovasculares. Por otra parte, no se hallaron beneficios en cuanto al infarto de miocardio en ninguno de los ensayos mencionados, incluido el ACCORD. Estos hallazgos, dicen, deberían reducir la confianza en los resultados del estudio UKPDS que son diferentes de los resultados de los audemars piguet replica

"Nuestro enfoque en los resultados importantes para los pacientes puede haber introducido artificialmente la duda de que tal vez no es tan evidente cuando uno se centra en el efecto del control de la glucemia sobre los marcadores indirectos o puntos finales compuestos (por ej., cualquier complicación de la DM). Para ser válidos, los marcadores alternativos necesitan capturar todo el efecto del tratamiento sobre los resultados de interés. Por ejemplo, en el ensayo ON-TARGET el bloqueo dual de la renina-angiotensina-aldosterona previno la albuminuria pero agravólos resultados renales y la mortalidad. Las inconsistencias observadas en los ensayos de DM entre el efecto del control de la glucemia sobre los resultados alternativos y los resultados importantes para los pacientes deben hacer que confiemos menos en estos sustitutos para la toma de decisiones y que se apoyen las investigaciones más grandes y a más largo plazo.

En todos los ensayos de DM se han utilizado puntos finales compuestos lo que puede haber contribuido a empañar su interpretación. El UKPDS utilizó el punto final: "ningún punto final relacionado con la DM", que incluye 14 componentes y se redujo significativamente con el control de la glucemia en un 3,2%. Casi toda esta reducción, el 2,7%, se debió al punto final fotocoagulación retiniana, pero casi sin ningún efecto sobre el otro componente de mayor importancia para los pacientes, como la mortalidad, el derrame cerebral, las amputaciones, la ceguera o la necesidad de diálisis.

Los puntos finales compuestos con grandes gradientes de efectos terapéuticos y de importancia para los pacientes (muerte y extracción de cataratas mientras que su importancia para los pacientes fue muy diferente cuando ambas fueron incluidas en el punto final del UKPDS) no pueden ser interpretados, es decir, la afirmación de que el control glucémico reduce significativamente todas las complicaciones de la DM es potencialmente engañosa. Es plausible que la dependencia de puntos finales compuestos y alternativos haya contribuido al consenso observado.

Consecuencias para la política y la práctica

La idea de que el control estricto de la glucemia es claramente beneficioso no se sostiene a la luz de la evidencia acumulada durante la última década

Los autores comprobaron que un consenso abrumador en favor del control glucémico estricto para evitar las complicaciones microvasculares es más fuerte que lo justificado por la evidencia. Este consenso posiblemente conduce a guías e intervenciones de calidad de la atención centradas en el control de la glucemia. También sustenta la política de la Food and Drug Administration de EE.UU. para aprobar medicamentos para la DM solo sobre la base de su efecto antidiabético, sin requerir evidencia de que reduce el riesgo de complicaciones. Este consenso también ha impulsando estudios tales como el GRADE, financiado por National Institutes of Health, que comparó los fármacos amtihiperglucémicos en cuanto a su capacidad para reducir la HbA1c en lugar de su potencial para reducir el riesgo de complicaciones de la DM.

Dada la relación de incertidumbre entre el control estricto de la glucemia y los resultados de importancia para los pacientes, este consenso y sus consecuencias para la práctica, la política y la investigación merecen ser analizados.

A partir de 2015, la evidencia sugiere que puede ser necesario un punto de vista escéptico para modernizar la atención de la DM. La idea de que el control estricto de la glucemia es claramente beneficioso no se sostiene a la luz de la evidencia acumulada durante la última década, ya que esa evidencia ha sido insuficiente para confirmar esta noción.

Las contribuciones de más de 27.000 pacientes que participaron en los ECA sobre el control de la glucemia, los médicos clínicos y los investigadores que diseñaron y llevaron a cabo estos ensayos cuestionan la dependencia de la confianza en el control estricto de la glucemia, principalmente o solo en algunos casos, para prevenir las complicaciones en los pacientes con DM2. Quizás como resultado, los desarrolladores de las guías están ahora abogando por la selección menos rigurosa de los objetivos de la HbA1c para los pacientes con hipoglucemia severa, recurrente, carga de comorbilidad elevada o expectativa de vida limitada. Si se adopta este punto de vista escéptico se puede estimular la investigación para prevenir las complicaciones de la DM2.

De ningún modo se debe considerar la lista de terapias basadas en la evidencia recomendadas en las guías, tema de métricas de calidad o rutinariamente prescritas a los pacientes con DM2 para prevenir la retinopatía o la neuropatía, más allá del control de la glucemia. Los autores no han podido encontrar en ningún ensayo en curso para explorar las intervenciones que previenen las complicaciones microvasculares. En cambio, dicen los autores, "si somos escépticos, al menos hay 1 anuncio de un programa del National Institue of Health que propone utilizar ECA con el fin de reducir el riesgo cardiovascular en los adultos mayores con DM.

Cuando se mire más allá del control de la glucemia pueden surgir nuevas y emocionantes preguntas y respuestas

La moderación en las expectativas sobre el valor del control de la glucemia puede ayudar a avanzar en la individualización de los protocolos para la atención de la DM, percibida en las guías recientes, utilizando la toma de decisiones compartida para seleccionar los objetivos glucémicos y terapéuticos. Sin embargo, esto requerirá más investigaciones para aclarar las ventajas y desventajas que tienen lugar cuando se seleccionan diferentes objetivos (inferiores al punto de la hiperglucemia sintomática) y cuando se selecciona el control de la glucemia para reducir el riesgo residual de complicaciones después de implementar otras intervenciones basadas en la evidencia (por ej, infarto de miocardio no fatal), como la administración de estatinas.

El reconocimiento de la naturaleza de la evidencia también requiere revisar las estimaciones basadas en modelos del impacto económico del control estricto de la glucemia y de la moderación del exagerado apoyo a las políticas del control estricto de la glucemia con el consiguiente exceso de pruebas y tratamientos.

Cualquier moderación tendrá que ser equilibrada delicadamente con el riesgo de un caos terapéutico. Es probable que una nueva calibración cuidadosa y reflexiva promueva la confianza del paciente en los esfuerzos médicos para avanzar en pos de su mejor interés. Hoy en día, los pacientes con DM2, por lo menos en ciertas partes del mundo, parecen vivir una vida más larga con menos complicaciones. La evidencia que los autores presentan obliga a explorar otros factorespara explicar esta mejora y abordar mejor la epidemia de DM, además del control estricto de la glucemia. Cuando se mire más allá del control de la glucemia pueden surgir nuevas y emocionantes preguntas y respuestas.


1. International Diabetes Federation. International Diabetes Federation diabetes atlas. 2014;2015.
2. The Diabetes Control and Complications Trial Research Group. The effect of intensive treatment of diabetes on the development and progression of long-term complications in insulin-dependent diabetes mellitus. New Engl J Med. 1993;329:977-986.
3. Pogach L, Aron DC. Sudden acceleration of diabetes quality measures. JAMA. 2011;305:709-710. doi: 10.1001/jama.2011.153.
4. Garber AJ, Abrahamson MJ, Barzilay JI, Blonde L, Bloomgarden ZT, Bush MA, Dagogo-Jack S, Davidson MB, Einhorn D, Garvey WT, Grunberger G, Handelsman Y, Hirsch IB, Jellinger PS, McGill JB, Mechanick JI, Rosenblit PD, Umpierrez G, Davidson MH; American Association of Clinical Endocrinologists. AACE comprehensive diabetes management algorithm 2013. Endocr Pract. 2013;19:327-336.
5. American Diabetes Association. Standards of medical care in diabetes- 2007. Diabetes Care. 2007;30(suppl 1):S4-S41.
6. Phillips LS, Branch WT, Cook CB, Doyle JP, El-Kebbi IM, Gallina DL, Miller CD, Ziemer DC, Barnes CS. Clinical inertia. Ann Intern Med. 2001;135:825-834.
7. Khunti K, Wolden ML, Thorsted BL, Andersen M, Davies MJ. Clinical inertia in people with type 2 diabetes: a retrospective cohort study of more than 80,000 people. Diabetes Care. 2013;36:3411-3417. doi: 10.2337/dc13-0331.
8. Shah BR, Hux JE, Laupacis A, Zinman B, van Walraven C. Clinical inertia in response to inadequate glycemic control: do specialists differ from primary care physicians? Diabetes Care. 2005;28:600-606.
9. Ismail-Beigi F, Craven T, Banerji MA, Basile J, Calles J, Cohen RM, Cuddihy R, Cushman WC, Genuth S, Grimm RH Jr, Hamilton BP, Hoogwerf B, Karl D, Katz L, Krikorian A, O'Connor P, Pop-Busui R, Schubart U, Simmons D, Taylor H, Thomas A, Weiss D, Hramiak I; ACCORD Trial Group. Effect of intensive treatment of hyperglycaemia on microvascular outcomes in type 2 diabetes: an analysis of the ACCORD randomised trial. Lancet. 2010;376:419-430. doi: 10.1016/S0140-6736(10)60576-4.
10. UK Prospective Diabetes Study (UKPDS) Group. Intensive blood-glucose control with sulphonylureas or insulin compared with conventional treatment and risk of complications in patients with type 2 diabetes (UKPDS 33). Lancet. 1998;352:837-853.
11. UK Prospective Diabetes Study (UKPDS) Group. Effect of intensive blood-glucose control with metformin on complications in overweight patients with type 2 diabetes (UKPDS 34). Lancet. 1998;352:854-865. 12. Patel A, MacMahon S, Chalmers J, Neal B, Billot L, Woodward M, Marre M, Cooper M, Glasziou P, Grobbee D, Hamet P, Harrap S, Heller S, Liu L, Mancia G, Mogensen CE, Pan C, Poulter N, Rodgers A, Williams B, Bompoint S, de Galan BE, Joshi R, Travert F. Intensive blood glucose control and vascular outcomes in patients with type 2 diabetes. New Engl J Med. 2008;358:2560-2572.
13. Duckworth W, Abraira C, Moritz T, Reda D, Emanuele N, Reaven PD, Zieve FJ, Marks J, Davis SN, Hayward R, Warren SR, Goldman S, McCarren M, Vitek ME, Henderson WG, Huang GD; VADT Investigators. Glucose control and vascular complications in veterans with type 2 diabetes. N Engl J Med. 2009;360:129-139. doi: 10.1056/NEJMoa0808431.
14. Gerstein HC, Miller ME, Byington RP, Goff DC Jr, Bigger JT, Buse JB, Cushman WC, Genuth S, Ismail-Beigi F, Grimm RH Jr, Probstfield JL, Simons-Morton DG, Friedewald WT. Effects of intensive glucose lowering in type 2 diabetes. New Engl J Med. 2008;358:2545-2559.
15. Boussageon R, Bejan-Angoulvant T, Saadatian-Elahi M, Lafont S, Bergeonneau C, Kassaï B, Erpeldinger S, Wright JM, Gueyffier F, Cornu C. Effect of intensive glucose lowering treatment on all cause mortality, cardiovascular death, and microvascular events in type 2 diabetes: metaanálisis of randomised controlled trials. BMJ. 2011;343:d4169.
16. Hemmingsen B, Lund SS, Gluud C, Vaag A, Almdal T, Hemmingsen C, Wetterslev J. Intensive glycaemic control for patients with type 2 diabetes: systematic review with meta-analysis and trial sequential analysis of randomized clinical trials. BMJ. 2011;343:d6898.
17. Hemmingsen B, Lund SS, Gluud C, Vaag A, Almdal TP, Hemmingsen C, Wetterslev J. Targeting intensive glycaemic control versus targeting conventional glycaemic control for type 2 diabetes mellitus. Cochrane Database Syst Rev. 2013;11:CD008143.
18. Coca SG, Ismail-Beigi F, Haq N, Krumholz HM, Parikh CR. Role of intensive glucose control in development of renal end points in type 2 diabetes mellitus: systematic review and meta-analysis intensive glucose control in type 2 diabetes. Arch Intern Med. 2012;172:761-769. doi: 10.1001/archinternmed.2011.2230.
19. Kelly TN, Bazzano LA, Fonseca VA, Thethi TK, Reynolds K, He J. Systematic review: glucose control and cardiovascular disease in type 2 diabetes. Ann Intern Med. 2009;151:394-403.
20. Ray KK, Seshasai SR, Wijesuriya S, Sivakumaran R, Nethercott S, Preiss D, Erqou S, Sattar N. Effect of intensive control of glucose on cardiovascular outcomes and death in patients with diabetes mellitus: a metaanálisis of randomised controlled trials. Lancet. 2009;373:1765-1772. doi: 10.1016/S0140-6736(09)60697-8.
21. Tkác I. Effect of intensive glycemic control on cardiovascular outcomes and all-cause mortality in type 2 diabetes: overview and metaanálisis of five trials. Diabetes Res Clin Pract. 2009;86(suppl 1):S57-S62. doi: 10.1016/S0168-8227(09)70011-7.
22. Montori VM, Fernández-Balsells M. Glycemic control in type 2 diabetes: time for an evidence-based about-face? Ann Intern Med. 2009;150:803-808.
23. Callaghan BC, Little AA, Feldman EL, Hughes RA. Enhanced glucose control for preventing and treating diabetic neuropathy. Cochrane Database Syst Rev. 2012;6:CD007543.
24. Buehler AM, Cavalcanti AB, Berwanger O, Figueiro M, Laranjeira LN, Zazula AD, Kioshi B, Bugano DG, Santucci E, Sbruzzi G, Guimaraes HP, Carvalho VO, Bordin SA. Effect of tight blood glucose control versus conventional control in patients with type 2 diabetes mellitus: a systematic review with meta-analysis of randomized controlled trials. Cardiovasc Ther. 2013;31:147-160. doi: 10.1111/j.1755-5922.2011.00308.x.
25. Zhang X, Zhao J, Zhao T, Liu H. Effects of intensive glycemic control in ocular complications in patients with type 2 diabetes: a meta-analysis of randomized clinical trials. Endocrine. 2015;49:78-89. doi: 10.1007/s12020-014-0459-8.
26. American Diabetes Association. (6) Glycemic targets. Diabetes Care. 2015;38(Suppl):S33-40.
27. Diabetes TRACoGPa. General Practice Management of Type 2 Diabetes 2014-15. Victoria, Australia: The Royal Australian College of General Practitioners; 2014.
28. Garber AJ, Abrahamson MJ, Barzilay JI, Blonde L, Bloomgarden ZT, Bush MA, Dagogo-Jack S, Davidson MB, Einhorn D, Garber JR, Garvey WT, Grunberger G, Handelsman Y, Hirsch IB, Jellinger PS, McGill JB, Mechanick JI, Rosenblit PD, Umpierrez G, Davidson MH. AACE/ACE comprehensive diabetes management algorithm 2015. Endocr Pract. 2015;21:438-447. doi: 10.4158/EP15693.CS.
29. Yudkin JS, Richter B, Gale EA. Intensified glucose lowering in type 2 diabetes: time for a reappraisal. Diabetologia. 2010;53:2079-2085. doi: 10.1007/s00125-010-1864-z.
30. McCormack J, Greenhalgh T. Seeing what you want to see in randomized controlled trials: versions and perversions of UKPDS data. United Kingdom Prospective Diabetes Study. BMJ. 2000;320:1720-1723.
31. Thomson Reuters. Journal citation reports. 2014;2015. http://thomsonreuters. com/en/products-services/scholarly-scientific-research/researchmanagement-and-evaluation/journal-citation-reports.html. Accessed March 30, 2015.
32. Inzucchi SE. Clinical practice. Diagnosis of diabetes. N Engl J Med. 2012;367:542-550. doi: 10.1056/NEJMcp1103643.
33. Ohkubo Y, Kishikawa H, Araki E, Miyata T, Isami S, Motoyoshi S, Kojima Y, Furuyoshi N, Shichiri M. Intensive insulin therapy prevents the progression of diabetic microvascular complications in Japanese patients with non-insulin-dependent diabetes mellitus: a randomized prospective 6-year study. Diabetes Res Clin Pract. 1995;28:103-117.
34. Gaede P, Lund-Andersen H, Parving HH, Pedersen O. Effect of a multifactorial intervention on mortality in type 2 diabetes. N Engl J Med. 2008;358:580-591. doi: 10.1056/NEJMoa0706245.
35. Dormandy JA, Charbonnel B, Eckland DJ, Erdmann E, Massi-Benedetti M, Moules IK, Skene AM, Tan MH, Lefèbvre PJ, Murray GD, Standl E, Wilcox RG, Wilhelmsen L, Betteridge J, Birkeland K, Golay A, Heine RJ, Korányi L, Laakso M, Mokán M, Norkus A, Pirags V, Podar T, Scheen A, Scherbaum W, Schernthaner G, Schmitz O, Skrha J, Smith U, Taton J; PROactive Investigators. Secondary prevention of macrovascular events in patients with type 2 diabetes in the PROactive Study (PROspective pioglitAzone Clinical Trial In macroVascular Events): a randomised controlled trial. Lancet. 2005;366:1279-1289. doi: 10.1016/S0140-6736(05)67528-9.
36. University B. Openmeta Analyst Software. Providence, RI: Brown University; 2015.
37. Montori VM, Gandhi GY, Guyatt GH. Patient-important outcomes in diabetes-time for consensus. Lancet. 2007;370:1104-1106. doi: 10.1016/ S0140-6736(07)61489-5.
38. Guyatt GH, Oxman AD, Schünemann HJ, Tugwell P, Knottnerus A. GRADE guidelines: a new series of articles in the Journal of Clinical Epidemiology. J Clin Epidemiol. 2011;64:380-382. doi: 10.1016/j. jclinepi.2010.09.011.
39. Gandhi GY, Murad MH, Fujiyoshi A, Mullan RJ, Flynn DN, Elamin MB, Swiglo BA, Isley WL, Guyatt GH, Montori VM. Patient-important outcomes in registered diabetes trials. JAMA. 2008;299:2543-2549. doi:10.1001/jama.299.21.2543.
40. Balshem H, Helfand M, Schünemann HJ, Oxman AD, Kunz R, Brozek J, Vist GE, Falck-Ytter Y, Meerpohl J, Norris S, Guyatt GH. GRADE guidelines: 3. Rating the quality of evidence. J Clin Epidemiol. 2011;64:401-406. doi: 10.1016/j.jclinepi.2010.07.015.
41. Holman RR, Paul SK, Bethel MA, Matthews DR, Neil HA. 10-year follow- up of intensive glucose control in type 2 diabetes. N Engl J Med. 2008;359:1577-1589. doi: 10.1056/NEJMoa0806470.
42. Gerstein HC, Miller ME, Genuth S, Ismail-Beigi F, Buse JB, Goff DC Jr, Probstfield JL, Cushman WC, Ginsberg HN, Bigger JT, Grimm RH Jr, Byington RP, Rosenberg YD, Friedewald WT. Long-term effects of intensive glucose lowering on cardiovascular outcomes. New Engl J Med. 2011;364:818-828.
43. Zoungas S, Chalmers J, Neal B, Billot L, Li Q, Hirakawa Y, Arima H, Monaghan H, Joshi R, Colagiuri S, Cooper ME, Glasziou P, Grobbee D, Hamet P, Harrap S, Heller S, Lisheng L, Mancia G, Marre M, Matthews DR, Mogensen CE, Perkovic V, Poulter N, Rodgers A, Williams B, MacMahon S, Patel A, Woodward M; ADVANCE-ON Collaborative Group. Follow-up of blood-pressure lowering and glucose control in type 2 diabetes. N Engl J Med. 2014;371:1392-1406. doi: 10.1056/NEJMoa1407963.
44. Hayward RA, Reaven PD, Wiitala WL, Bahn GD, Reda DJ, Ge L, McCarren M, Duckworth WC, Emanuele NV; VADT Investigators. Follow-up of glycemic control and cardiovascular outcomes in type 2 diabetes. N Engl J Med. 2015;372:2197-2206. doi: 10.1056/NEJMoa1414266.
45. Guyatt GH, Oxman AD, Kunz R, Brozek J, Alonso-Coello P, Rind D, Devereaux PJ, Montori VM, Freyschuss B, Vist G, Jaeschke R, Williams JW Jr, Murad MH, Sinclair D, Falck-Ytter Y, Meerpohl J, Whittington C, Thorlund K, Andrews J, Schünemann HJ. GRADE guidelines 6. Rating the quality of evidence-imprecision. J Clin Epidemiol. 2011;64:1283-1293. doi: 10.1016/j.jclinepi.2011.01.012.
46. Guyatt GH, Oxman AD, Kunz R, Woodcock J, Brozek J, Helfand M, Alonso-Coello P, Glasziou P, Jaeschke R, Akl EA, Norris S, Vist G, Dahm P, Shukla VK, Higgins J, Falck-Ytter Y, Schünemann HJ; GRADE Working Group. GRADE guidelines: 7. Rating the quality of evidence-inconsistency. J Clin Epidemiol. 2011;64:1294-1302. doi: 10.1016/j.jclinepi.2011.03.017.
47. Skyler JS, Bergenstal R, Bonow RO, Buse J, Deedwania P, Gale EA, Howard BV, Kirkman MS, Kosiborod M, Reaven P, Sherwin RS; American Diabetes Association; American College of Cardiology Foundation; American Heart Association. Intensive glycemic control and the prevention of cardiovascular events: implications of the ACCORD, ADVANCE, and VA diabetes trials: a position statement of the American Diabetes Association and a scientific statement of the American College of Cardiology Foundation and the American Heart Association. Diabetes Care. 2009;32:187-192. doi: 10.2337/dc08-9026.
48. Bloomgarden ZT. Glycemic control in diabetes: a tale of three studies. Diabetes Care. 2008;31:1913-1919. doi: 10.2337/dc08-zb09. 49. Montori VM, Devereaux PJ, Adhikari NK, Burns KE, Eggert CH, Briel M, Lacchetti C, Leung TW, Darling E, Bryant DM, Bucher HC, Schünemann HJ, Meade MO, Cook DJ, Erwin PJ, Sood A, Sood R, Lo B, Thompson CA, Zhou Q, Mills E, Guyatt GH. Randomized trials stopped early for benefit: a systematic review. JAMA. 2005;294:2203-2209. doi: 10.1001/jama.294.17.2203.
50. Bassler D, Briel M, Montori VM, Lane M, Glasziou P, Zhou Q, Heels-Ansdell D, Walter SD, Guyatt GH, Flynn DN, Elamin MB, Murad MH, Abu Elnour NO, Lampropulos JF, Sood A, Mullan RJ, Erwin PJ, Bankhead CR, Perera R, Ruiz Culebro C, You JJ, Mulla SM, Kaur J, Nerenberg KA, Schünemann H, Cook DJ, Lutz K, Ribic CM, Vale N, Malaga G, Akl EA, Ferreira-Gonzalez I, Alonso-Coello P, Urrutia G, Kunz R, Bucher HC, Nordmann AJ, Raatz H, da Silva SA, Tuche F, Strahm B, Djulbegovic B, Adhikari NK, Mills EJ, Gwadry-Sridhar F, Kirpalani H, Soares HP, Karanicolas PJ, Burns KE, Vandvik PO, Coto-Yglesias F, Chrispim PP, Ramsay T; STOPIT-2 Study Group. Stopping randomized trials early for benefit and estimation of treatment effects: systematic review and meta-regression analysis. JAMA. 2010;303:1180-1187. doi: 10.1001/jama.2010.310.
51. Perkovic V, Heerspink HL, Chalmers J, Woodward M, Jun M, Li Q, MacMahon S, Cooper ME, Hamet P, Marre M, Mogensen CE, Poulter N, Mancia G, Cass A, Patel A, Zoungas S; ADVANCE Collaborative Group. Intensive glucose control improves kidney outcomes in patients with type 2 diabetes. Kidney Int. 2013;83:517-523. doi: 10.1038/ki.2012.401.
52. Inzucchi SE, Bergenstal RM, Buse JB, Diamant M, Ferrannini E, Nauck M, Peters AL, Tsapas A, Wender R, Matthews DR. Management of hyperglycemia in type 2 diabetes, 2015: a patient-centered approach: update to a position statement of the American Diabetes Association and the European Association for the Study of Diabetes. Diabetes Care. 2015;38:140-149. doi: 10.2337/dc14-2441.
53. Yudkin JS, Lipska KJ, Montori VM. The idolatry of the surrogate. BMJ. 2011;343:d7995.
54. Yudkin JS, Eggleston EM. 'Hard,' 'soft' and 'surrogate' endpoints in diabetes. J Epidemiol Community Health. 2013;67:295-297. doi: 10.1136/jech-2012-201361.
55. Mann JF, Schmieder RE, McQueen M, Dyal L, Schumacher H, Pogue J, Wang X, Maggioni A, Budaj A, Chaithiraphan S, Dickstein K, Keltai M, Metsärinne K, Oto A, Parkhomenko A, Piegas LS, Svendsen TL, Teo KK, Yusuf S; ONTARGET investigators. Renal outcomes with telmisartan, ramipril, or both, in people at high vascular risk (the ONTARGET study): a multicentre, randomised, double-blind, controlled trial. Lancet. 2008;372:547-553. doi: 10.1016/S0140-6736(08)61236-2.
56. Freemantle N, Calvert M, Wood J, Eastaugh J, Griffin C. Composite outcomes in randomized trials: greater precision but with greater uncertainty? JAMA. 2003;289:2554-2559. doi: 10.1001/jama.289.19.2554.
57. Montori VM, Permanyer-Miralda G, Ferreira-González I, Busse JW, Pacheco-Huergo V, Bryant D, Alonso J, Akl EA, Domingo-Salvany A, Mills E, Wu P, Schünemann HJ, Jaeschke R, Guyatt GH. Validity of composite end points in clinical trials. BMJ. 2005;330:594-596. doi: 10.1136/ bmj.330.7491.594.
58. Nathan DM, Buse JB, Kahn SE, Krause-Steinrauf H, Larkin ME, Staten M, Wexler D, Lachin JM; GRADE Study Research Group. Rationale and design of the glycemia reduction approaches in diabetes: a comparative effectiveness study (GRADE). Diabetes Care. 2013;36:2254-2261. doi:10.2337/dc13-0356.
59. Rodriguez-Gutierrez R, Lipska KJ, McCoy RG, Ospina NS, Ting HH, Montori VM; Hypoglycemia as a Quality Measure in Diabetes Study Group. Hypoglycemia as an indicator of good diabetes care. BMJ. 2016;352:i1084.
60. Do DV, Wang X, Vedula SS, Marrone M, Sleilati G, Hawkins BS, Frank RN. Blood pressure control for diabetic retinopathy. Cochrane Database Syst Rev. 2015;1:CD006127. doi: 10.1002/14651858.CD006127.pub2. 61. Diabetes and cardiovascular disease in older adults 2015;2015. AccessedJuly 1, 2016.
62. Rodriguez-Gutierrez R, Gionfriddo MR, Ospina NS, Maraka S, Tamhane S, Montori VM, Brito JP. Shared decision making in endocrinology: present and future directions. Lancet Diabetes Endocrinol. 2016;4:706-716. doi: 10.1016/S2213-8587(15)00468-4.
63. Mullan RJ, Montori VM, Shah ND, Christianson TJ, Bryant SC, Guyatt GH, Perestelo-Perez LI, Stroebel RJ, Yawn BP, Yapuncich V, Breslin MA, Pencille L, Smith SA. The diabetes mellitus medication choice decision aid: a randomized trial. Arch Intern Med. 2009;169:1560-1568. doi:10.1001/archinternmed.2009.293.
64. Stone NJ, Robinson JG, Lichtenstein AH, Bairey Merz CN, Blum CB, Eckel RH, Goldberg AC, Gordon D, Levy D, Lloyd-Jones DM, McBride P, Schwartz JS, Shero ST, Smith SC Jr, Watson K, Wilson PW; American College of Cardiology/American Heart Association Task Force on Practice Guidelines. 2013 ACC/AHA guideline on the treatment of blood cholesterol to reduce atherosclerotic cardiovascular risk in adults: a report of the American College of Cardiology/American Heart Association Task Force on Practice Guidelines. J Am Coll Cardiol. 2014;63(25 pt B):2889-2934. doi: 10.1016/j.jacc.2013.11.002.
65. Gray A, Raikou M, McGuire A, Fenn P, Stevens R, Cull C, Stratton I, Adler A, Holman R, Turner R. Cost effectiveness of an intensive blood glucose control policy in patients with type 2 diabetes: economic analysis alongside randomised controlled trial (UKPDS 41). United Kingdom Prospective Diabetes Study Group. BMJ. 2000;320:1373-1378.
66. Clarke PM, Gray AM, Briggs A, Stevens RJ, Matthews DR, Holman RR; UKPDS 72 United Kingdom Prospective Diabetes Study. Cost-utility analyses of intensive blood glucose and tight blood pressure control in type 2 diabetes (UKPDS 72). Diabetologia. 2005;48:868-877. doi:10.1007/s00125-005-1717-3.
67. McCoy RG, Zhang Y, Herrin J, Denton BT, Mason JE, Montori VM, Smith SA, Shah ND. Changing trends in type 2 diabetes mellitus treatment intensification, 2002-2010. Am J Manag Care. 2015;21:e288-e296.
68. Lipska KJ, Ross JS, Miao Y, Shah ND, Lee SJ, Steinman MA. Potential overtreatment of diabetes mellitus in older adults with tight glycemic control. JAMA Intern Med. 2015;175:356-362. doi: 10.1001/jamainternmed.2014.7345.
69. Centers for Disease Control and Prevention. Diabetes report card 2012;2015. Accessed July 1, 2015.
70. Jansson SP, Andersson DK, Svärdsudd K. Mortality trends in subjects with and without diabetes during 33 years of follow-up. Diabetes Care. 2010;33:551-556. doi: 10.2337/dc09-0680.
71. Lipscombe LL, Hux JE. Trends in diabetes prevalence, incidence, and mortality in Ontario, Canada 1995-2005: a population-based study. Lancet. 2007;369:750-756. doi: 10.1016/S0140-6736(07)60361-4. 72. Gregg EW, Gu Q, Cheng YJ, Narayan KM, Cowie CC. Mortality trends in men and women with diabetes, 1971 to 2000. Ann Intern Med. 2007;147:149-155.







Hiperpotasemia en adultos

                                                                      Timothy J. McDonald, Richard A. Oram, Bijay Vaidya .

                                                                                               BMJ 2015;351:h4762
                                                                Traducción y resumen: Dra. Marta Papponetti


Presentación de un caso

Una mujer de 42 años fue hospitalizada luego de un análisis de sangre realizado por el médico generalista para investigar el dolor abdominal intermitente que presentaba y que mostró una potasemia de 6,6 mEq/l (rango de referencia 3,5-5,3 mEq/l). Aparte de este dato, la paciente se encontraba bien y no tomaba ningún medicamento. Cuando arribó al servicio de emergencia, la presión arterial era 140/70 mmHg y el examen 
físico no mostraba anormalidades importantes. El electrocardiograma  ECG) era normal



Se denomina hiperpotasemia a una concentración sérica de potasio >5,3 mEq/l. Comúnmente ese clasifica en leve (5,4-6,0 mEq/l), moderada (6,1-6,5 mEq/l) o grave (>6,5 mEq/l). Se halla en el 1-2,5% de los pacientes hospitalizados y en el 0,2-0,7% de las personas de la población ≥55 años. Se asocia con mayor frecuencia a la insuficiencia renal y a algunos medicamentos causantes de hiperpotasemia.

La mayor parte del potasio corporal (98%) es intracelular mientras que una pequeña proporción se halla en el espacio extracelular. Este gradiente intracelular-extracelular es esencial para las funciones nerviosa y muscular normales. Los aumentos pequeños del potasio extracelular pueden tener efectos adversos en el corazón y los músculos esqueléticos.

La hiperpotasemia  leve suele ser asintomática pero la hiperpotasemia grave se asocia con arritmias graves y muerte súbita de origen cardíaco. Un análisis retrospectivo de >240.000 personas mostró que las personas con hiperpotasemia leve tenían un riesgo de mortalidad global dentro de las 24 horas de la medición 10 veces más elevado que las tasas basales; en las personas con hiperpotasemia  moderada a grave, (>6 mEq/l) el riesgo llegó a 30 veces más.

¿Está seguro el paciente?

Lo primordial es establecer si el paciente está en peligro inmediato ya que la hiperpotasemia puede poner en peligro la vida a través de las arritmias que provoca. Si el potasio sérico está muy elevado (>6,5 mEq/l), si ha ascendido rápidamente o hay manifestaciones clínicas de hiperpotasemia (debilidad muscular, parestesias y arritmias) es necesario evaluar al paciente cuanto antes e iniciar el monitoreo cardíaco de inmediato. En los casos de hiperpotasemia grave, es más importante implementar rápidamente el tratamiento (gluconato de calcio intravenoso, insulina e infusión de dextrosa, nebulizaciones con salbutamol o diálisis) que hacer el diagnóstico etiológico.

En la hiperpotasemia  moderada a grave (>6,0 mEq/l) se debe hacer un ECG, el cual puede mostrar bradicardia, ondas T elevadas y picudas  (>10 mm de la altura en las derivaciones precordiales o >5 mm en las derivaciones de los miembros), un intervalo PR prolongado, ausencia de ondas P y, ensanchamiento del complejo QRS. Finalmente, las ondas T pueden unirse al complejo QRS y derivar en una fibrilación ventricular.

Conceptos básicos

• La causa de la hiperpotasemia en los adultos suele ser obvia a partir de la historia del paciente: las causas más frecuentes son la lesión renal aguda, la enfermedad renal crónica y la acción de algunos medicamentos.

• La hiperpotasemia espuria es una causa frecuente de hiperpotasemia y debe ser excluida como causa etiológica.

• La hiperpotasemia grave (>6,5 mEq/l) se asocia con arritmias que amenazan la vida y debe tratarse en un servicio de urgencia, bajo monitoreo electrocardiográfico.

• Si la hiperpotasemia es moderada o grave, o su causa es poco clara, las investigaciones iniciales son el ECG y la evaluación de la función renal y del equilibrio ácido-base, la glucemia y el hemograma completo.

• Derivar a los pacientes cuando no se halla una explicación obvia de la hiperpotasemia, para una evaluación endocrinológica o renal.


Para hallar la causa de la hiperpotasemia, considerar:

• Medicamentos─habitualmente, la hiperpotasemia se asocia a la acción farmacológica, particularmente con los fármacos que se utilizan en la insuficiencia cardíaca, la hipertensión y la insuficiencia renal aguda o crónica.

• Historia de la enfermedad renal crónica y de los factores de riesgo de lesión renal aguda como la diarrea y el vómito, del consumo de fármacos como los antiinflamatorios no esteroides y, la sepsis─A menudo, los inhibidores de la enzima convertidora de angiotensina y los bloqueantes de los receptores de la angiotensina II pueden precipitar la hiperpotasemia en presencia de depleción de volumen.

• Ingesta excesiva de potasio─puede causar hiperpotasemia pero solo en pacientes con insuficiencia renal. Los alimentos ricos en potasio son los porotos blancos, las verduras de hoja verde, muchas frutas frescas, frutas secas (como los damascos), papas al horno, yogur, pescado, maníes y hongos.

• Antecedente de diabetes─la hiperpotasemia es común en la cetoacidosis diabética antes de la iniciación del tratamiento. La diabetes puede también causar acidosis tubular renal tipo 4, la cual se asocia con hiperpotasemia.

  • Antecedentes de tratamiento oncológico─considerar el síndrome de lisis.

• Antecedentes de lesión por aplastamiento, ejercicio físico extremo o hipotermia─considerar la rabdomiólisis; los pacientes pueden presentarse con dolor muscular y debilidad u orina de color rojo oscuro, o ambos.

• Transfusión de grandes volúmenes de sangre─ocasiona una carga masiva de potasio que puede provocar hiperpotasemia transitoria.ASME Code Download

• Hipotensión─en particular con fatiga, anorexia, pérdida de peso o pigmentación cutánea. Considerar la enfermedad de Addison (insuficiencia suprarrenal primaria).

• Debilidad muscular extrema en una persona joven─considerar la parálisis periódica hiperpotasémica, una condición autosómica dominante rara que se caracteriza por episodios de hiperpotasemia y debilidad muscular que pueden ser precipitados por alimentos ricos en potasio, el ejercicio el estrés, la fatiga, los cambios climáticos, ciertos contaminantes (como el humo del cigarrillo), y el ayuno.

Medicamentos importantes asociados con hiperpotasemia

Disminución de la excreción renal de potasio

  • inhibidores de la enzima convertidora de angiotensina
  • Bloqueantes de los receptores de angiotensina II
  • Espironolactona
  • Amilorida
  • Inhibidores de la renina
  • Bloqueanates ß*
  • Trimetoprima*
  • Inhibidores de la calcineurina (ciclosporina, tacrolimus)*
  • Pentamidina*
  • Heparinas

Fármacos nefrotóxicos

  • Antiinflamatorios no esteroides*

Cambios transcelulares

  • Infusiones de glucosa o deficiencia de insulina
  • Intoxicación con digoxina

Fármacos que contienen potasio

  • Suplemento de potasio
  • Laxantes como Movicol, Klean Prep y Fybogel (N. del T: laxantes osmóticos)
  • Penicilina

* También pueden producir hiperpotasemia secundaria a la acidosis tubular renal tipo 4

Examen físico

Los signos físicos de la hiperpotasemia suelen estar presentes únicamente en los casos graves pero también pueden estar enmascarados por las enfermedades asociadas que han causado la hiperpotasemia. Comprobar si hay debilidad muscular flácida, hiporreflexia tendinosa y arritmias cardiacas. La ausencia de signos clínicos no excluye la hiperpotasemia con amenaza de muerte y cambios avanzados en el ECG. La presencia de hiperpigmentación cutánea e hipotensión arterial con descenso postural debe despertar la sospecha de enfermedad de Addison como la causa de la hiperpotasemia.

Estudios de laboratorio

En la hiperpotasemia leve de causa evidente, los estudios de laboratorio se limitarán a la vigilancia de las concentraciones del potasio sérico. Sin embargo, si la hiperpotasemia es moderada a grave, o su etiología no está clara, las investigaciones básicas iniciales deben incluir un hemograma completo (para evaluar las discrasias causantes de hiperpotasemia espuria), la creatinina y la urea (función renal), el bicarbonato (alteración ácido-base) y la glucosa (diabetes).

Considerar la hiperpotasemia espuria (seudohiperpotasemia)

La hiperpotasemia espuria es común y en casos extremos representa hasta el 20% de la hiperpotasemias halladas. Un problema muy común es la contaminación del tubo de recolección del suero con el anticoagulante ácido etilendiamina tetra-acético (EDTA), porque el mismo contiene una elevada concentración de sal de potasio.

Otras causas son la venopuntura dificultosa, el tiempo prolongado del torniquete, el tiempo prolongado de tránsito hacia el laboratorio (agravado por el almacenamiento en frío), la hemólisis in vitro y la trombocitosis o la linfocitosis.

En raras ocasiones, la hiperpotasemia espuria puede ser familiar (cuando la sangre se enfría a temperatura ambiente, la membrana de los glóbulos rojos defectuosa permite una salida mayor del potasio de esas células). Si luego del análisis de una segunda muestra de sangre se sospecha hiperpotasemia, se recomienda recoger la sangre en un tubo con heparina de litio, extraída sin torniquete, y llevar inmediatamente al laboratorio.

Si se sospecha seudohiperpotasemia familiar, se debe medir la potasemia en forma secuencial, en una muestra de sangre con heparina de litio, la cual se deberá almacenar a temperatura ambiente; en la seudohiperpotasemia familiar, los niveles de potasio se elevarán in vitro a medida que pasa el tiempo de almacenamiento.

Función renal

La hiperpotasemia en el contexto de la insuficiencia renal habitualmente está asociada a otras anormalidades bioquímicas típicas como los niveles elevados de urea y creatinina y la acidosis metabólica.

Equilibrio ácido-base

La acidosis metabólica se asocia a menudo con hiperpotasemia a través de mecanismos que incluyen la retención de potasio en los túbulos renales y el desplazamiento del potasio del compartimiento intracelular al extracelular. Se puede evaluar la acidosis metabólica por el pH sanguíneo reducido o una concentración de bicarbonato sérico disminuida midiendo los gases en sangre arterial o el bicarbonato en el suero venoso.

Las causas comunes de acidosis metabólica con hiperpotasemia son:

• Insuficiencia renal─Cualquier enfermedad renal crónica o lesión renal aguda (la causa más común).

• Acidosis tubular renal tipo 4─Este grupo de enfermedades se asocia a la deficiencia relativa de mineralocorticoides o a la falta de sensibilidad a la acción de los mineralocorticoides en los túbulos renales; puede estar causada por la diabetes, algunos medicamentos (anti-inflamatorios no esteroides, trimetoprima, heparina e  inhibidores de la calcineurina), la uropatía obstructiva y la enfermedad tubulointersticial crónica, así como por formas hereditarias raras.

• Cetoacidosis diabética ─La hiperpotasemia puede presentarse con acidosis metabólica, para la cual se deben medir la glucemia y las cetonas en sangre u orina. El potasio sérico cae rápidamente después del inicio del tratamiento con insulina y la infusión de líquidos por vía intravenosa.

• Isquemia tisular y necrosis─Puede causar acidosis láctica y fuga de potasio hacia el espacio extracelular con la hiperpotasemia resultante, sobre todo si hay deterioro renal.

Cuándo se debe derivar al paciente?

La hiperpotasemia grave o la hiperpotasemia moderada con síntomas indican la derivación a un hospital de agudos en ambulancia. Los pacientes con hiperpotasemia inexplicable en curso, aunque sea leve, deben ser derivados al endocrinólogo o para la evaluación renal.

Otras investigaciones especializadas

La solicitud de estas investigaciones depende de la presentación clínica y los hallazgos físicos.

• Test corto de estimulación con ACTH─La hiperpotasemia que se acompaña de signos y síntomas de insuficiencia suprarrenal e hiponatremia, o la presencia de otra enfermedad autoinmune, obliga a investigar la insuficiencia suprarrenal primaria o enfermedad de Addison. La investigación de elección para diagnosticar o excluir esta condición es el test corto de estimulación con ACTH (hormona adrenocorticotropa). Si el paciente está muy enfermo, en la fase aguda, para identificar rápidamente el hipoadrenalismo podría ser útil un análisis de cortisol al azar; sin embargo, un resultado normal no descarta el hipoadrenalismo y cuando la sospecha clínica es elevada no se debe interrumpir el tratamiento.

  • Renina plasmática y aldosterona─Estas mediciones pueden ayudar a identificar una causa de hiperpotasemia, como la deficiencia o la falta de sensibilidad a los mineralocorticoides. La presencia de niveles bajos de aldosterona con niveles elevados de renina indica una deficiencia primaria de mineralocorticoides, como en la enfermedad de Addison. La presencia de niveles bajos de aldosterona y renina sugiere la acidosis tubular. Sin embargo, la aldosterona y la renina elevadas sugieren insensibilidad a los mineralocorticoides (también conocida como seudohipoaldosteronismo), que puede verse en algunas formas de acidosis tubular renal tipo 4.

    Creatinina cinasa sérica y mioglobina urinaria─Estos estudios pueden confirmar la sospecha de rabdomiólisis.

    Una prueba de sangre urgente en el hospital mostró la normalidad del hemograma, la función renal, el bicarbonato y los electrolitos, incluyendo la del potasio sérico (4,1 mEq/l. Esto indicó que el ascenso del potasio se debió a una hiperpotasemia espuria. Los autores analizaron los niveles del potasio sérico después de tomar una muestra de sangre que se mantuvo en la sala, a temperatura durante 6 horas. La potasemia en este caso fue 4,5, 5,3, 5,6 y 67 mEq/l, a las 0, 2, 4 y 6 horas, respectivamente. Estos resultados corresponden a una hipopotasemia espuria provocada por la salida del potasio intracelular. La paciente fue dada de alta con seguridad.


1 Pathology-Harmony-Group. Harmonisation of reference intervals (, 2011.
2 Soar J, Perkins GD, Abbas G, Alfonzo A, Barelli A, Bierens JJ, et al. European Resuscitation Council Guidelines for Resuscitation 2010 Section 8. Cardiac arrest in special circumstances: electrolyte abnormalities, poisoning, drowning, accidental For hypothermia, hyperthermia, asthma, anaphylaxis, cardiac surgery, trauma, pregnancy, electrocution. Resuscitation 2010;81:1400-33.
3 Paice B, Gray JM, McBride D, Donnelly T, Lawson DH. Hyperkalaemia in patients in hospital. BMJ 1983;286:1189-92.
4 Liamis G, Rodenburg EM, Hofman A, Zietse R, Stricker BH, Hoorn EJ. Electrolyte disorders in community subjects: prevalence and risk factors. Am J Med 2013;126:256-63.
5 Halperin ML, Kamel KS. Potassium. Lancet 1998;352:135-40.
6 Einhorn LM, Zhan M, Hsu VD, Walker LD, Moen MF, Seliger SL, et al. The frequency of hyperkalemia and its significance in chronic kidney disease. Arch Intern Med 2009;169:1156-62.
7 Acker CG, Johnson JP, Palevsky PM, Greenberg A. Hyperkalemia in hospitalized patients: causes, adequacy of treatment, and results of an attempt to improve physician compliance
with published therapy guidelines. Arch Intern Med 1998;158:917-24.
8 UK Renal Association. Clinical practice guidelines: treatment of acute hyperkalaemia in adults. 2014.
9 Slovis C, Jenkins R. ABC of clinical electrocardiography: Conditions not primarily affecting the heart. BMJ 2002;324:1320-3.
10 Perazella MA. Drug-induced hyperkalemia: old culprits and new offenders. Am J Med 2000;109:307-14.
11 Egan TJ, Klein R. Hyperkalemic familial periodic paralysis. Pediatrics 1959;24:761-73.
12 Freeman SJ, Fale AD. Muscular paralysis and ventilatory failure caused by hyperkalaemia. Br J Anaesth 1993;70:226-7.
13 Moore ML, Bailey RR. Hyperkalaemia in patients in hospital. N Z Med J 1989;102:557-8.
14 Cornes MP, Ford C, Gama R. Spurious hyperkalaemia due to EDTA contamination: common and not always easy to identify. Ann Clin Biochem 2008;45:601-3.
15 Wiederkehr MR, Moe OW. Factitious hyperkalemia. Am J Kidney Dis 2000;36:1049-53.
16 Don BR, Sebastian A, Cheitlin M, Christiansen M, Schambelan M. Pseudohyperkalemia caused by fist clenching during phlebotomy. N Engl J Med 1990;322:1290-2.
17 Verresen L, Lins RL, Neels H, De Broe ME. Effects of needle size and storage temperature on measurements of serum potassium. Clin Chem 1986;32:698-9.
18 Sevastos N, Theodossiades G, Efstathiou S, Papatheodoridis GV, Manesis E, Archimandritis AJ. Pseudohyperkalemia in serum: the phenomenon and its clinical magnitude. J Lab Clin Med 2006;147:139-44.
19 Vaidya B, Chan K, Drury J, Connolly V. A race to the lab. Lancet 2002;359:848.
20 Stewart GW, Turner EJ. The hereditary stomatocytoses and allied disorders: congenital disorders of erythrocyte membrane permeability to Na and K. Baillieres Best Pract Res
Clin Haematol 1999;12:707-27.
21 Cowley NJ, Owen A, Bion JF. Interpreting arterial blood gas results. BMJ 2013;346:f16.API Code Download









Insuficiencia de la piel
Controversias sobre su atención a largo plazo y conceptos emergentes.


                                                                                   Jeffrey M. Levine

                                                                                JAMDA (2016), 17: 666-69

                                                 Traducción y resumen objetivo: Dra. Marta Papponetti



La insuficiencia de la piel es un concepto emergente que une y aclara las tendencias actuales en la práctica clínica. Muchos estudios han asociado la ulceración aguda y crónica de la piel con la mortalidad, Sin embargo, el término insuficiencia de la piel no se ha adaptado a este fenómeno. Los prestadores que atienden heridas han reconocido desde hace tiempo la existencia de la insuficiencia de la piel, pero el uso común del término ha sido limitado debido a la confusión en cuanto a sus manifestaciones clínicas.

Para describir la observación clínica común de la ruptura de la piel en los pacientes que están por morir, se han acuñado términos tales como Úlcera Terminal de Kennedy (UTK), Cambios de la Piel al final de la Vida (SCALE, del inglés) y Terminal Trombley-Brennan Tissue Injuries (TB-TTI) (Lesión Tisular Terminal de Trombley-Brennan). Sin embargo esta nomenclatura no encaja en la evolución clínica de las heridas con características similares producidas en los pacientes que no mueren. En cambio, el término insuficiencia de la piel reúne estas observaciones clínicas en una denominación fácilmente comprensible y clínicamente precisa.

Las úlceras por presión son un problema importante en el contexto rolex replica italia post-agudo y a largo plazo. La incidencia reportada en los servicios de atención de úlceras por presión a largo plazo varía ampliamente en la literatura, oscilando entre el 3,6% y el 59,0%. La incidencia reportada en residentes en hogares de ancianos con enfermedades terminales alcanza el 54,7%.Las úlceras por presión también son un objetivo importante en los litigios por negligencia contra los hogares de ancianos, solo superados por las demandas por caídas.

Existe mucha evidencia que respalda el argumento de que el  mejoramiento de la atención deenfermería es importante para el cuidado de la piel y la prevención de las úlceras por presión, lo que ha contribuido a mejorar los resultados cutáneos, tanto en el contexto de la atención hospitalaria como en los servicios de atención a largo plazo.

Los avances basados ​​en la evidencia incluyen herramientas para evaluar los riesgos y las mejoras de las intervenciones preventivas y tecnológicas. No obstante, cada vez se reconoce más que las úlceras por presión pueden ocurrir aún cuando el riesgo es reconocido y se han implementado las intervenciones preventivas adecuadas.

El desarrollo de una úlcera por presión es un predictor significativo de mortalidad y se asocia con la insuficiencia multiorgánica

Ahora existen mejoras en las tecnologías para el soporte de la vida en cuidados intensivos y hospitales, rehabilitación y ajustes aplicados a una población que tiene un riesgo cada vez mayor, que prolongan la vida de manera efectiva y por lo tanto inutilizan la terminología que implica la mortalidad.

El desarrollo de una úlcera por presión es un predictor significativo de mortalidad y se asocia con la insuficiencia multiorgánica. Sin embargo, muchos pacientes que desarrollan úlceras por presión durante una enfermedad aguda o crónica no mueren y pueden sanarse.

El reconocimiento de que la insuficiencia de la piel es un síndrome clínico que comparte mecanismos similares con otros órganos fomenta el reconocimiento de un marco conceptual más amplio que permite considerar que algunas úlceras por presión, asociadas o no a la mortalidad, son la consecuencia inevitable de la insuficiencia de la piel. En la era de la atención sanitaria basada en los valores es necesario unificar la terminología que reconoce que la insuficiencia de la piel representa a la ulceración por presión inevitable.

¿Qué es la insuficiencia de la piel?

Langemo y Brown definieron la insuficiencia de la piel como un evento por el cual la piel y los tejidos subyacentes mueren debido a la hipoperfusión concurrente con la disfunción o insuficiencia de otros sistemas orgánicos, aunque esta no es la única definición.

Las manifestaciones clínicas de la insuficiencia de la piel varían ampliamente en la literatura médica. Algunos autores describen la insuficiencia de la piel de afecciones dermatológicas como la eritrodermia, la necrólisis tóxica epidérmica, el síndrome de Stevens-Johnson o el síndrome de la piel escaldada, sin tener en cuenta las úlceras por presión.

Otros autores reconocen la insuficiencia de la piel pero afirman que es una entidad separada de la ulceración por presión. Más aún, otros autores clasifican a las úlceras por presión directamente en la categoría de la insuficiencia orgánica múltiple que acompaña a las etapas terminales de las enfermedades y la edad avanzada. Esta confusión en la taxonomía ha dado lugar a una utilidad clínica limitada y a la aplicación poco clara del término en la práctica.


Descripción de las manifestaciones clínicas de la Insuficiencia de la piel según la literatura

Cuadro Clínico


La insuficiencia de la piel incluye enfermedades
dermatológicas como el síndrome de Steve-Johnson;
no incluye las úlceras por presión.


Irvine19 (1991),
Inamadar and Palit20 (2005)

La insuficiencia de la piel es una entidad separada
de las úlceras por presión.


White-Chu and Langemo21 (2012)

Las úlceras por presión son una manifestación
de la insuficiencia de la piel en la configuración
de la insuficiencia del sistema multiorgánico.

Witkowski and Parish22 (2000)

Para mejorar la aplicación práctica de esta definición tiene que haber una aclaración de sus mecanismos  fisiológicos, fisiopatológicos y moleculares y, una orientación en cuanto a las manifestaciones clínicas. La definición de insuficiencia de la piel debe incluir los criterios de diagnóstico que se refieren a las funciones específicas de la piel, análogos a los criterios para la insuficiencia de cualquier otro sistema orgánico.

Al definir los criterios clínicos para la insuficiencia de la piel, un punto lógico para comenzar es su función normal. Si la piel ya no realiza su función manteniendo el tono vasomotor, la temperatura corporal y el balance hídrico, y deja de proteger al cuerpo de las infecciones y los traumatismos mecánicos, entonces se puede considerar que está insuficiente. En este modelo, la UTK, los SCALE y la TB-TTI son manifestaciones de la insuficiencia de la piel debido a que el órgano ya no puede proporcionar protección contra los insultos externos, permitiendo la entrada de bacterias.

La insuficiencia de la piel puede ser responsable de la elevada tasa de ruptura en el contexto de la insuficiencia multiorgánica y las lesiones por presión inevitables cuando se han implementado las intervenciones preventivas. Al utilizarse estas observaciones en el espectro de la insuficiencia de la piel, las consecuencias de la menor calidad de la atención desaparecen y la terminología es más precisa y uniforme.

Ejemplos de casos

Caso 1

Un hombre de 68 años con diabetes mellitus tipo 2, fumador de 2 paquetes de cigarrillos por día, se presentó en la sala de emergencias por padecer tos desde hacía 3 meses, anorexia, adelgazamiento de casi 7 kilos, disnea y debilidad. Tenía como antecedentes: cáncer de próstata tratado con prostatectomía radical y radioterapia de haz externo. En la década de 1970 le diagnosticaron cáncer de pulmón de células escamosas no resecable con metástasis en el mediastino y el hígado. Otros parámetros fisiológicos incluyeron la determinación de albúmina sérica (2,1).
En la unidad de cuidados intensivos (UCI) su puntaje Braden era 14 y se llevaron a cabo medidas preventivas, incluyendo superficies de descarga con redistribución de la presión. Se lo extubó después de 8 días y se lo sometió a quimioterapia pero sufrió el empeoramiento de la anemia y pancitopenia, y continuó con anorexia. Después de 2 semanas en el hospital desarrolló una zona de color púrpura en la nalga izquierda que se calificó como una lesión tisular profunda. Fue trasladado a un centro de atención post-aguda donde se diagnosticó una lesión tisular profunda que evolucionó hasta convertirse en una escara que requirió el desbridamiento quirúrgico. El paciente murió en el hospicio 4 meses después de la presentación inicial.

Caso 2

Un hombre de 55 años con obesidad mórbida bajo tratamiento prolongado con prednisona por su enfermedad pulmonar obstructiva crónica se presentó en la sala de emergencias con perforación de colon y peritonitis séptica. Fue sometido a una laparotomía exploradora de emergencia con resección intestinal parcial, y fue internado en la  UCI donde permaneció hipotenso, en shock séptico, y tratado con agentes presores y antibióticos por vía intravenosa. Su puntaje Braden era 10 y se llevaron a cabo medidas preventivas, incluyendo las superficies de descarga con redistribución de la presión. En el día 10 de hospitalización se observó una lesión tisular profunda en la zona sacra que progresó a escara. Fue dado de alta y trasladado a un centro de rehabilitación para cuidados post-agudos después de 1 mes de estancia en el hospital, pero desarrolló una úlcera por presión en estadio 4 que requirió la atención hospitalaria y ambulatoria de la herida durante meses, incluyendo el desbridamientos quirúrgico y la terapia con presión negativa.

Caso 3

Una mujer de 87 años que sufría de demencia de Alzheimer desde hacía 8 años perdió su capacidad para comer y adelgazó 8 kg. Su apoderado "quería que se haga todo" y se insertó una gastrostomía percutánea. La paciente vivía en un hogar de ancianos y fue hospitalizada varias veces por infecciones recurrentes del tracto urinario y neumonía por aspiración. Su puntaje Braden se mantuvo entre 8 y 12 y ella fue sometida a un régimen de cambios de posición y redistribución de la presión. Después de 2 años de alimentación por sonda apareció una ruptura de la piel en el sacro y la cadera izquierda, que progresó a escaras, y murió 3 semanas más tarde.

Contexto histórico de la insuficiencia de la piel

Factores históricos en el quehacer médico han creado barreras que atentan contra un enfoque unificado e interdisciplinario de la insuficiencia de la piel. En 1859, en su libro Notes on Nursing (Notas sobre enfermería), Florence Nightingale declaró que las úlceras por presión son el resultado de un cuidado inadecuado de enfermería. El autor manifiesta que "este punto de vista es anticuado pero sigue siendo parte de nuestra cultura sobre el cuidado de la salud, y las enfermeras son en gran parte responsables de la prevención de las úlceras por presión y el cuidado básico de la piel." El tratamiento de la ulceración por presión avanzada no es comúnmente abordado por los médicos de medicina interna a excepción de las heridas infectadas, y su cuidado generalmente se delega a los cirujanos o a las subespecialidades quirúrgicas.

En el siglo XX, a dermatología se bifurca en dos especialidades, separadas y aparte de la medicina interna, y con algunas excepciones sigue siendo principalmente una práctica ambulatoria. Muchos médicos de hoy han tenido poca formación en los fundamentos del cuidado de las heridas y la estadificación de las úlceras por presión. La combinación de estos factores crea barreras que hacen que la piel no siempre esté considerada en la lista de problemas del internista o del médico de atención primaria, y parte de los profesionales la omiten de su lista de responsabilidades. A pesar de que esta omisión parece ilógica, es reforzada por la historia, la educación y la cultura de la profesión médica.

En el siglo XIX, el gran neurofisiólogo Jean Martin Charcot reconoció la existencia de un tipo específico de úlceras por presión que predice la muerte inminente, y al que denominó decubitus ominosus. Posteriormente, la nomenclatura de Charcot fue olvidada, pero el concepto que las úlceras por presión preceden a la muerte fue restablecido en el siglo XX con la UTK. La UTK proporciona una descripción sucinta de un fenómeno que casi todo el mundo ha observado a la cabecera del paciente, en el contexto del cuidado de las heridas, y a pesar de la falta de aceptación universal y la poca investigación y validación con la que se cuenta se utiliza comúnmente. Una lesión similar, la TB-TTI, fue descrita en 2012. Un reto importante para estos síndromes es la falta de un marco fisiopatológico profundamente demostrado y la observación de que algunos pacientes con heridas similares no mueren.

En un esfuerzo por mejorar el marco científico de las UTK, un panel de expertos amplió el concepto de cambios en la piel al final de la vida, denominándolo SCALE. Sin embargo, ni la UTK ni la nomenclatura SCALE son útiles para los pacientes cuyo deterioro físico lo aproxima a la muerte pero que no mueren.

Cuando los pacientes críticamente enfermos o moribundos desarrollan úlceras por presión y las intervenciones médicas y las tecnologías para el soporte de la vida dan como resultado la mejoría clínica o el mantenimiento de un estado de enfermedad crónica crítica, la precisión de los términos UTK, SCALE y TB-TTI se ve comprometida. No obstante, se refieren mecanismos similares y cobra importancia la nomenclatura que representa a todo el espectro de las observaciones clínicas. Este paradigma revisado se enmarca mejor en el contexto de la insuficiencia de la piel, que comprende decubitus ominosus, UTK, SCALE y TB-TTI como así las lesiones por presión que ocurren en pacientes críticos en quienes el deceso no se produce.

La insuficiencia de la piel es poco estudiada

Es sorprendente que se considere el estudio de la insuficiencia orgánica y sus secuelas y no se haya incluido al órgano más grande del cuerpo, a pesar de que la insuficiencia de la piel en la forma de úlceras por presión es un marcador establecido de la gravedad de la enfermedad y la muerte

La piel es un órgano multifuncional complejo cuya existencia depende íntimamente de la salud de otros órganos para mantener la oxigenación, perfusión y aporte de nutrientes. Sin embargo, existe una gran brecha en el conocimiento de la insuficiencia de la piel. Por ejemplo, la insuficiencia de la piel no se ha estudiado como parte del síndrome de disfunción multiorgánica (MODS, siglas del inglés). El MODS es una entidad definida que se produce hasta en el 14% de los pacientes internados en UCI, y es responsable de hasta el 80% de las muertes en esas unidades.

El MODS, también conocido como fallo multiorgánico, se asocia con los síndromes de sepsis, respuesta inflamatoria sistémica (SIRS) y la recientemente descrita inflamación persistente, la inmunosupresión y el síndrome catabólico. Se han desarrollado varias herramientas para cuantificar el MODS y medir los resultados clínicos y la gravedad de la enfermedad y, para predecir la mortalidad. Estos sistemas de medición tienen en cuenta las vías respiratorias, el aparato cardiovascular, hepático y renal, la coagulación y el sistema nervioso central, pero ninguno incorpora a la insuficiencia de la piel. La insuficiencia de la piel no ha sido incluida en los estudios sobre el período de recuperación post MODS. Una revisión reciente de 1.173 artículos sobre disfunción persistente o prolongada de órganos después de la sepsis grave no incluyó observaciones de la piel.

Es sorprendente, dice el autor, que se considere el estudio de la insuficiencia orgánica y sus secuelas y no se haya incluido al órgano más grande del cuerpo, a pesar de que la insuficiencia de la piel en la forma de úlceras por presión es un marcador establecido de la gravedad de la enfermedad y la muerte. Esto se debe a que no existen marcadores bioquímicos que estén fácil y universalmente disponibles para medir o cuantificar la insuficiencia de la piel, como sucede para otros sistemas de órganos.

Insuficiencia de la piel y medición de la calidad

"Nuestro nuevo sistema de pago basado en los valores obligado por la  Affordale Care Act (Ley de Asistencia Accesibla) propone desincentivos financieros para los resultados adversos que reflejan déficits en la calidad, y los cuidadores no deben ser penalizados por algo que no se puede prevenir. Los expertos señalan la necesidad de determinar las medidas de calidad para el cuidado de las heridas que reflejan adecuadamente la calidad de la atención brindada. A tal efecto, el concepto de insuficiencia de la piel cuestiona los supuestos básicos con respecto a la validez de las úlceras por presión  como medida de la calidad. Las úlceras por presión se han utilizado para medir la calidad y la percepción de la calidad de la atención a largo plazo.

La atención hospitalaria se vio involucrada con las úlceras por presión como un parámetro de la calidad  de la atención cuando los Centros de Servicios de Medicare y Medicaid introdujeron en 2008 la lista de condiciones adquiridas en el hospital, incluyendo las heridas en etapas 3 y 4. Los médicos a menudo han expresado su preocupación acerca de que las úlceras por presión pueden no reflejar el déficit de calidad de la atención, especialmente porque se ha reconocido que muchas de ellas son inevitables.

La insuficiencia de la piel encaja perfectamente en el nuevo concepto de la ulceración por presión inevitable. La evidencia muestra que frecuentemente, en el entorno de la enfermedad multiorgánica, las heridas se producen inevitablemente. Edsberg y col. señalaron la falta de literatura abocada a la evitabilidad de las úlceras por presión y su estrecha asociación con la insuficiencia múltiorgánica. Esta revisión subrayó la importancia de los factores de riesgo no modificables en la génesis de las úlceras por presión inevitables. El autor sostiene que es natural concluir que una vez que la piel ya no puede sobrevivir intacta en el contexto del estrés fisiológico y mecánico grave (es decir, factores de riesgo intrínsecos y extrínsecos no modificables) se ha llegado a su insuficiencia.

Si una úlcera por presión es el resultado inevitable de la disfunción del sistema multiorgánico, la sepsis, el SIRS o las condiciones del final de la vida útil, no es correcto atribuir ese resultado a la mala atención, cuando los prestadores han implementado las intervenciones preventivas apropiadas. Si así se hace, se daña la reputación de los servicios y los profesionales, se produce un impacto negativo en el reembolso y resulta en un problema del manejo de riesgos. Charcot creía, aunque incorrectamente, que todas las úlceras por presión eran la consecuencia inevitable de la interrupción de las fibras nerviosas.

Más de un siglo después, el estudio sobre la posibilidad de evitar las úlceras por presión todavía se encuentra en pañales, pero los datos preliminares del Office of Inspector General (OIG) muestra que hasta un 40% de estas heridas son inevitables. El informe de OIG utilizó una revisión escalonada con un algoritmo estructurado para hacer su determinación, y las úlceras por presión fueron uno de los muchos resultados clínicos estudiados.

Una vez que la terminología se unifique sería conveniente añadir la insuficiencia de la piel al ICD-10 como un diagnóstico codificado pasible de ser utilizado por los médicos. Sin embargo, se debe tener precaución por el mal uso o el uso excesivo potencial del término para reducir la responsabilidad. "La adopción del término insuficiencia de la piel será un paso positivo hacia el desarrollo de una terminología uniforme en cumplimiento de la ley Health Information Technology for Economic and Clinical Health (HITECH) Act y el Maning Use (Uso Significativo) requerido por la Health Care Reform Act." HITECH obliga al registro de salud electrónico que puede ser interoperado en todo el continuo de la atención de la salud, como un objetivo nacional crítico.

"Un vocabulario clínico común aumentará la precisión de los indicadores de calidad y el valor añadido a nuestro servicio como prestadores de la atención de las heridas. La codificación y terminología revisadas no solo tendrán en cuenta las medidas precisas de calidad sino que las definiciones comunes facilitarán los retos analíticos de la investigación clínica, como se recomienda en una revisión reciente sobre la reparación de heridas y la curación en los adultos mayores.

El futuro

La insuficiencia de la piel debe ser reconocida como un síndrome clínico ya que conjuga las observaciones que los médicos hacen con frecuencia a la cabecera del paciente. El término puede ser criticado, ya que infiere un evento dicotómico, es decir, está presente o ausente en vez de expresar una continuidad de alteraciones fisiológicas. Sin embargo, la piel es un órgano de múltiples funciones que manifiesta una serie de cambios con la edad y las enfermedades concomitantes.

El término alternativo "disfunción de la piel" puede ser demasiado vago para captar los elementos esenciales necesarios a la cabecera del paciente. Por otra parte, al utilizar el término "insuficiencia" junto a otros sistemas de órganos no se infiere un fenómeno de todo o nada sino más bien un continuo descrito y medido de acuerdo con los parámetros específicos del órgano.

Los expertos han señalado la escasez de pruebas en el área de las ulceras por presión. Una vez que la insuficiencia de la piel es reconocida como un diagnóstico legítimo, la agenda de investigación se hace más clara. La piel necesita ser incorporada a la definición del MODS, y en consecuencia se deben ajustar las escalas de medición. Es necesario explorar los mecanismos en común con otros órganos, tales como la inmunosupresión y la inflamación asociadas a la enfermedad crítica, la disfunción endotelial y el exceso de permeabilidad vascular.

Otras direcciones de investigación prometedoras son la desregulación de la homeostasis de oxígeno con una mayor producción de especies reactivas del oxígeno, el fracaso de los sistemas antioxidantes y las cuestiones sobre las fallas mitocondriales. Los objetivos deben ser la identificación de los biomarcadores de insuficiencia de la piel, los fenotipos de las personas en situación de riesgo, y los mecanismos que promueven su aparición, poniendo la mirada en el desarrollo de intervenciones para la prevención y el tratamiento.

El reconocimiento de la insuficiencia de la piel como un síndrome clínico sentará las bases para la nomenclatura común y los nuevos objetivos de la investigación. Por otra parte, actualmente se tiene una oportunidad única para colaborar en la investigación interdisciplinaria, el reconocimiento y la construcción que utilice las contribuciones provenientes de la profesión de enfermería en el cuidado de la piel.

Desde un punto de vista clínico, una clasificación más exacta del estado de una persona enferma facilitará la recolección de datos para la investigación y medición de la calidad mejorada. En una era impulsada por los datos, orientada a los resultados y basada en el valor de la atención, ha llegado el momento de trabajar mancomunadamente y crear un enfoque multidisciplinario y unificado para la insuficiencia de la piel: un fenómeno que se produce en el curso de la enfermedad aguda y crónica, así como en los pacientes que se hallan en el final de la vida.

Referencias Bibliográficas

1. Zarchi K, Martinussen T, Jemec GB. Wound healing and all-cause mortality in 958 wound patients treated in home care. Wound Repair Regen 2015;23:753e758.

2. Takahashi PY, Cha SS, Kiemele LJ. Six month mortality risk in long-term care residents with chronic ulcers. Int Wound J 2008;5:625e631.

3. Jaul E, Menczel J. A comparative, descriptive study of systemic factors and survival in elderly patients with sacral pressure ulcers. Ostomy Wound Manage 2015;61:20e26.

4. Kennedy KL. The prevalence of pressure ulcers in an intermediate care facility. Decubitus 1989;2:42e45.

5. Sibbald RG, Krasner DL, Lutz J. SCALE: Skin changes at life's end: Final consensus statement: October 1, 2009. Adv Skin Wound Care 2010;23:225e236.

6. Trombley K, Brennan MR, Thomas L, et al. Prelude to death or practice failure? Trombley-Brennan Terminal Tissue Injuries. Am J Palliat Care 2012;29:541e545.

7. Rasero L, Simonetti M, Falciani F, et al. Pressure ulcers in older adults: A prevalence study. Adv Skin Wound Care 2015;28:461e464. 8. Kang Y, Tzeng HM, Miller NA. Facility characteristics and risk of developing pressure ulcers in US nursing homes. J Nurs Care Qual 2016;31:E9eE16.

9. Levine JM, Ayello EA. MDA 3.0 Section M: Skin conditions: What the medical director needs to know. J Am Med Dir Assoc 2011;12:179e183.

10. Pieper B. Long term care/nursing homes. In: Pieper B, editor. Pressure Ulcers: Prevalence, Incidence, and Implications for the Future. 2nd ed. Washington, DC: NPUAP; 2012. p. 65e69.

11. Kayser-Jones J, Kris AE, Lim K, et al. Pressure ulcers among terminally ill nursing home residents. Res Gerontol Nurs 2008;1:214e221.

12. Stevenson DG, Spittal MJ, Studdert DM. Does litigation increase or decrease health care quality? A national study of negligence claims against nursing homes. Med Care 2013;51:430e436.

13. AHRQ. Preventing pressure ulcers in hospitals. Available at: Accessed March 20, 2016.

14. Anderson M, Finch Guthrie P, Kraft W, et al. Universal pressure ulcer prevention bundle with WOC nurse support. J Wound Ostomy Continence Nurs 2015;42:217e225.

15. de Souza DM, Santos VL, Iri HK, et al. Predictive validity of the Braden Scale for pressure ulcer risk in elderly residents of long-term care facilities. Geriatr Nurs 2010;31:95e104.

16. Edsberg LE, Langemo D, Baharestani MM, et al. Unavoidable pressure injury: State of the science and consensus outcomes. J Wound Ostomy Continence Nurs 2014;41:313e334.

17. Manzano F, Pérez-Pérez AM, Martínez-Ruiz S, et al. Hospital-acquired pressure ulcers and risk of hospital mortality in intensive care patients on mechanical ventilation. J Eval Clin Pract 2014;20:362e368.

18. Langemo DK, Brown G. Skin fails too: Acute, chronic, and end-stage skin failure. Adv Skin Wound Care 2006;19:206e212.

19. Irvine C. Skin failureea real entity: Discussion paper. J R Soc Med 1991;84:412e413.

20. Inamadar AC, Palit A. Acute skin failure: Concepts, causes, consequences and cure. Indian J Derm Venereol Leprol 2005;71:379e385.

21. White-Chu EF, Langemo D. Skin failure: Identifying and managing an underrecognized condition. Ann Long-Term Care 2012;20:28e32.

22. Witkowski JA, Parish LC. The decubitus ulcer: Skin failure and destructive behavior. Int J Dermatol 2000;39:892e898.

23. Delmore B, Cox J, Rolnitzky L, et al. Differentiating a pressure ulcer from acute skin failure in the adult critical care patient. Adv Skin Wound Care 2015;28:514e524.

24. Nightingale F. Notes on nursing: What it is, and what it is not. New York: D. Appleton and Company; 1860.

25. Levine JM, Ayello EA, Zulkowski KM, Fogel J. Pressure ulcer knowledge in medical residents: An opportunity for improvement. Adv Skin Wound Care 2012;25:115e117.

26. Levine JM. Historical notes on pressure ulcers: The decubitus ominosus of Jean- Martin Charcot. J Am Geriatr Soc 2005;53:1248e1251.

27. Olshansky K. "Kennedy terminal ulcer" and "skin failure," where are the data? J Wound Ostomy Continence Nurs 2010;37:466e467.

28. Kleiman DA, Barie PS. Survival in fully manifest multiple organ dysfunction syndrome. Surg Infect (Larchmt) 2014;15:445e449.

29. Gentile LF, Cuenca AG, Efron PA, et al. Persistent inflammation and immunosuppression: A common syndrome and new horizon for surgical intensive care. J Trauma Acute Care Surg 2012;72:1491e1501.

30. Johnson D, Mayers I. Multiple organ dysfunction syndrome: A narrative review. Can J Anesth 2001;48:502e509.

31. Le Gail JR, Klar J, Lemeshow S, et al. The logistic organ dysfunction system. JAMA 1996;276:802e810.

32. Bota DP, Melot C, Ferreira FL, et al. The Multiple Organ Dysfunction Score (MODS) versus the Sequential Organ Failure Assessment (SOFA) score in outcome prediction. Intensive Care Med 2002;28:1619e1624.

33. Philip R. Lee Institute for Health Policy Studies. ICU outcomes (mortality and length of stay) methods, data collection tool, and data. Available at: Accessed May 5, 2015.

34. Guirgis FW, Khadpe JD, Kuntz GM, et al. Persistent organ dysfunction after severe sepsis: A systematic review. J Crit Care 2014;29:320e326.

35. Jaul E, Caldoron-Margalit R. Systemic factors and mortality in elderly patients with pressure ulcers. Int Wound J 2015;12:254e259.

36. Fife C. The changing face of wound care: Measuring quality. Today's Wound Clinic 2012;6:10e14.

37. Berlowitz DR, Bezerra HQ, Brandeis GH. Are we improving the quality of nursing home care: The case of pressure ulcers. J Am Geriatr Soc 2000;48:59e62.

38. Medicare Program; Changes to the Hospital Inpatient Prospective Payment Systems and Fiscal Year 2009 Rates. Federal Register Vol. 73, No. 161, Tuesday, August 19, 2008, p. 43434. Available at:

. Accessed April 19, 2016.

39. Levine JM, Zulkowski KM. Secondary analysis of OIG pressure ulcer data, including incidence, avoidability, and level of harm. Adv Skin Wound Care 2015;28:420e428.

40. Levine JM, Humphrey S, Lebovits S, Fogel J. The unavoidable pressure ulcer: A retrospective case series. J Clin Outcomes Manag 2009;16:359e363.

41. Curry K, Kutash M, Chambers T. A prospective, descriptive study of characteristics associated with skin failure in critically ill adults. Ostomy Wound Manage 2012;58:36e43.

42. Weinberg AD, Levine JM. Clinical areas of liability in long-term care: Risk management concerns. Ann Long-Term Care 2005;13:26e32.

43. Levine JM. Historical perspective: The neurotrophic theory of skin ulceration. J Am Geriatr Soc 1992;12:1281e1283.

44. Olshansky K. Guest editorial: "Skin failure" as a cause of pressure ulcers: Accurate terminology, misnomer, or cop out? OstomyWound Manage 2012;58:6.

45. Health IT Regulations: Meaningful Use Regulations. Available at: Accessed April 19, 2016.

46. Centers for Disease Control and Prevention. Meaningful use. Available at: Accessed May 4, 2015.

47. Gould L, Abadir P, Brem H, et al. Chronic wound repair and healing in older adults: Current status and future research. J Am Geriatr Soc 2015;63:427e438.

48. Levine JM, Cioroiu M. Wound healing in the geriatric patient. Today's Wound Clinic 2013;7:14e18.

49. Black J. Pressure ulcer prevention and management: A dire need for good science. Ann Intern Med 2015;162:387e388.

50. Oakley R, Tharakan B. Vascular hyperpermeability and aging. Aging Dis 2014;5: 114e125.








El modelo cerebral de la adicción

                                                                                                    Dan L. Longo, M.D.

:                  N Engl J Med 2016; 374:363-371January 28, 2016 DOI: 10.1056/NEJMra1511480

Esta investigación ha comenzado a mostrar cómo y por qué el uso voluntario y temprano de drogas puede interactuar con factores ambientales y genéticos para dar lugar a la adicción en algunas personas pero no en otras.

Para propósitos heurísticos, hemos dividido la adicción en tres etapas que se repiten:

  • Atracones e intoxicación
  • Abstinencia y afecto negativo
  • Preocupación y anticipación (o deseo) (10)

Cada etapa se asocia con la activación de circuitos neurobiológicos específicos y con características clínicas y de comportamiento consecuentes

Etapas del Ciclo de Adicción

Los atracones e intoxicación
Todas las drogas adictivas conocidas activan regiones de recompensa en el cerebro causando un fuerte aumento en la liberación de dopamina.(11-13) A nivel del receptor, estos aumentos provocan una señal de recompensa que desencadena el aprendizaje asociativo o condicionamiento. En este tipo de aprendizaje pavloviano, las repetidas experiencias de recompensa son asociadas con los estímulos ambientales que las preceden.

Con la exposición repetida a la misma recompensa, las células dejan de disparar dopamina en respuesta a la propia recompensa y, en lugar de ello, disparan una respuesta anticipada a los estímulos condicionados (referidos como "señales") que en un sentido pueden predecir el suministro de la recompensa.(14) Este proceso implica los mismos mecanismos moleculares que fortalecen las conexiones sinápticas durante la formación del aprendizaje y la memoria. De esta manera, los estímulos ambientales que están vinculados en varias ocasiones con el uso de drogas - incluyendo entornos en los que se ha tomado una droga, personas con las que se ha tomado, y el estado mental de una persona antes de que fuera tomada - pueden llegar a provocar una respuesta condicionada con oleadas rápidas de liberación de dopamina que desencadenan ansia por la droga(20) que motivan conductas de búsqueda de drogas, y conducen a los "atracones" pesados de la droga.(21-23) Estas respuestas condicionadas se vuelven profundamente arraigadas y pueden desencadenar antojos (ansia) fuertes de una sustancia mucho tiempo después de que su uso se haya detenido (por ejemplo, debido a la encarcelación o al tratamiento) e incluso frente a las sanciones contra su uso.

Como ocurre con otros tipos de aprendizaje por motivación, cuanto mayor es el atributo de motivación asociado con una recompensa (por ejemplo un medicamento), mayor será el esfuerzo que una persona esté dispuesta a ejercer y mayores serán las consecuencias negativas que él o ella estarán dispuestos a soportar con el fin de obtenerlo.(24,25) Sin embargo, mientras que las células de dopamina dejan de disparar el consumo después de repetidas "recompensas naturales" (por ejemplo, la comida o el sexo) saciando el impulso para proseguir, las drogas adictivas pueden eludir la saciedad natural y continúan aumentando directamente los niveles de dopamina,(11,26) un factor que ayuda a explicar por qué los comportamientos compulsivos son más propensos a surgir cuando la gente usa drogas que cuando persiguen una recompensa natural.

Abstinencia y afecto negativo
Un resultado importante de los procesos fisiológicos condicionados involucrados en la adicción a las drogas es que las recompensas saludables normales y naturales pierden su antigua potencia motivacional. En una persona con adicción, los sistemas de recompensa y motivación se transforman reorientándose -a través del condicionamiento- a centrarse en la respuesta más potente de la dopamina producida por la droga y sus señales. El escenario de la persona con adicción se restringe a una de las señales y desencadena el consumo de drogas. Sin embargo, esta es sólo una de las formas en que la adicción cambia la motivación y el comportamiento.

Durante muchos años se creyó que con el tiempo las personas con adicción podrían ser más sensibles a los efectos gratificantes de las drogas y que este aumento de la sensibilidad se reflejaría  en los niveles más altos de dopamina en los circuitos cerebrales del proceso de recompensa (incluyendo el núcleo accumbens y el estriado dorsal) que los niveles en las personas que nunca han tenido una adicción a las drogas. Aunque esta teoría parecía tener sentido (plausibilidad), la investigación ha demostrado que es incorrecta.

De hecho, estudios clínicos y preclínicos han demostrado que el consumo de drogas provoca aumentos mucho menores en los niveles de dopamina en presencia de la adicción (tanto en animales como en seres humanos) que en su ausencia (es decir, en personas que nunca han usado drogas).(22,23 , 27,28) Esta versión atenuada de dopamina hace al sistema de recompensa del cerebro mucho menos sensible a la estimulación y por tanto a las recompensas(29-31) no relacionadas con las drogas y, como resultado, las personas con adicción ya no experimentan el mismo grado de euforia con una sustancia que el que tuvieron cuando empezaron a usarlo. Es por esta misma razón que las personas con adicción a menudo se convierten en menos motivadas por los estímulos cotidianos (por ejemplo, las relaciones y actividades) que habían encontrado previamente motivadoras y gratificantes. De nuevo, es importante tener en cuenta que estos cambios se convierten en profundamente arraigados y que no se pueden revertir de inmediato a través de la simple terminación del consumo de drogas (por ejemplo, la desintoxicación).

Además de reconfigurar el sistema de recompensa del cerebro, la exposición repetida a los efectos reforzadores de la dopamina de la mayoría de las drogas lleva a adaptaciones en los circuitos de la amígdala extendidos al prosencéfalo basal. Estas adaptaciones dan como resultado aumentos en la reactividad de una persona para destacar y dar lugar a la aparición de emociones negativas.(32,33) Este sistema "anti-recompensa" está alimentado por los neurotransmisores involucrados en la respuesta al estrés, como el factor liberador de corticotropina y la dinorfina, que ordinariamente ayudan a mantener la homeostasis. Sin embargo, en el cerebro adicto, el sistema anti-recompensa se vuelve hiperactivo, dando lugar a la fase altamente disfórica de la adicción a las drogas que se produce cuando los efectos directos de la droga desaparecen o la sustancia se suspende.(34)

Por lo tanto, además de la atracción directa y condicionada a las "recompensas" del consumo de drogas, hay una correspondencia intensa que los empuja mediante la motivación para escapar de las molestias asociadas con los efectos secundarios de su uso. Como resultado de estos cambios, la persona sufre transiciones de adicción a tomar drogas simplemente para sentir placer, a "drogarse" para obtener un alivio transitorio de disforia.

Las personas con adicción a menudo no pueden entender por qué se siguen tomando la sustancia cuando ya no les parece agradable. Muchos afirman que continúan para escapar de la angustia que sienten cuando no están en estado de embriaguez. Por desgracia, aunque los efectos de acción corta del aumento de los niveles de dopamina provocada por la administración de las drogas alivian temporalmente esta angustia, el resultado de los atracones repetidos es profundizar la disforia durante la retirada, lo que produce un círculo vicioso.

Preocupación y Anticipación
Los cambios que se producen en los circuitos de recompensa y emocionales del cerebro están acompañados por cambios en la función de las regiones corticales prefrontales, que están involucradas en los procesos de ejecutivos. En concreto, la baja regulación de la señalización de la dopamina que embota la sensibilidad de los circuitos de recompensa al placer también se produce en las regiones cerebrales prefrontales y en sus circuitos asociados, perjudicando seriamente los procesos ejecutivos, entre las que destacan(36):

  • Capacidad de autorregulación
  • Toma de decisiones
  • Flexibilidad en el la selección y el inicio de la acción
  • Atribución de relevancia (la asignación de valor relativo)
  • Seguimiento de error

La modulación de los circuitos de recompensa y emocionales de las regiones prefrontales se interrumpe adicionalmente por cambios neuroplásticos en la señalización glutamaérgica.(37) En las personas con adicción, la señalización alterada de la dopamina y el glutamato en las regiones prefrontales del cerebro debilita su capacidad de resistir los impulsos fuertes o de dar seguimiento a las decisiones de abandonar el consumo. Estos efectos explican por qué las personas con adicción pueden ser sinceros en su deseo e intención de dejar de usar una sustancia y, sin embargo, al mismo tiempo ser impulsivos e incapaces de seguir adelante con su decisión.

Por lo tanto, la señalización alterada en los circuitos de regulación prefrontal, junto con los cambios en los circuitos involucrados en la recompensa y en la respuesta emocional, crean un desequilibrio que es crucial tanto para el desarrollo gradual del comportamiento compulsivo en el estado de la enfermedad en adictos como en la incapacidad asociada de reducir voluntariamente el consumo de drogas teniendo un comportamiento reiterado a pesar de las consecuencias potencialmente catastróficas.

Factores biológicos y sociales que intervienen en la adicción
Sólo una minoría de las personas que usan drogas en última instancia pueden convertirse en adictos - al igual que no todo el mundo tiene el mismo riesgo para el desarrollo de otras enfermedades crónicas. La susceptibilidad es diferente porque las personas difieren en suvulnerabilidad a diversos factores genéticos, ambientales y de desarrollo. Muchos factores genéticos, ambientales y sociales contribuyen a la determinación de la susceptibilidad única de una persona para el uso de drogas, para sostener el consumo de drogas, y para someterse a los cambios progresivos en el cerebro que lo caracterizan.(38,39)

Los factores que aumentan la vulnerabilidad a la adicción incluyen:

  • Antecedentes familiares (presumiblemente a través de la heredabilidad y las prácticas de crianza de los hijos).  
  • Exposición temprana al consumo de drogas (la adolescencia es uno de los períodos de mayor vulnerabilidad).  
  • Exposición a entornos de alto riesgo (por lo general los entornos sociales estresantes con mala relación familiar y apoyos sociales, restringidas alternativas de comportamiento, entornos en los que hay fácil acceso a las drogas, las actitudes permisivas hacia el consumo de drogas, y ciertas enfermedades mentales (por ejemplo, los trastornos del estado de ánimo, trastorno por déficit de atención con hiperactividad, psicosis y trastornos de ansiedad) .(40,41)

Se estima que las características fenotípicas más graves de la adicción se desarrollan en aproximadamente el 10% de las personas expuestas a ellas.(42) Por lo tanto, aunque la exposición a largo plazo a las drogas es una condición necesaria para el desarrollo de la adicción, de ningún modo es una condición suficiente. Sin embargo, para aquellos en los que hay un progreso a la adicción, los cambios neurobiológicos son distintos y profundos.

Una comprensión más completa del modelo de enfermedad cerebral de la adicción puede ayudar a moderar algo del juicio moral unido a las conductas adictivas y promover enfoques más científicos de salud pública orientada a la prevención y al tratamiento.

Las intervenciones conductuales y médicas
Los hallazgos de la investigación neurobiológica muestran que la adicción es una enfermedad que surge poco a poco y que tiene su inicio predominantemente durante un período de riesgo en particular: la adolescencia. La adolescencia es un momento en que el cerebro, aún en desarrollo, es particularmente sensible a los efectos de las drogas, un factor que contribuye a una mayor vulnerabilidad de los adolescentes a la experimentación con drogas y a la adicción. La adolescencia es también un período de aumento de la neuroplasticidad en el que las redes neuronales subdesarrolladas necesarias para el juicio a nivel de adultos (las regiones corticales prefrontales) aún no pueden regular adecuadamente la emoción.

Los estudios también han demostrado que los niños y adolescentes con evidencia de cambios estructurales o funcionales en regiones corticales frontales o con rasgos de búsqueda de la novedad o de impulsividad están en mayor riesgo de padecer un desorden por abuso de sustancias.(43-45)

La identificación de los factores de riesgo individuales y sociales y de los signos de los primeros problemas de consumo de sustancias hacen posible adaptar las estrategias de prevención para el paciente. De acuerdo con la investigación relacionada con el modelo de enfermedad cerebral de la adicción, las intervenciones preventivas deben ser diseñadas para mejorar las habilidades sociales y mejorar la autorregulación. También son importantes la detección temprana y la intervención para la presentación prodrómica de la enfermedad mental y la provisión de oportunidades sociales para el desarrollo educativo y emocional personal.(46-49)

Cuando la prevención ha fallado y se necesita un tratamiento, la investigación basada en el modelo de la enfermedad cerebral de la adicción ha demostrado que el tratamiento médico puede ayudar a restaurar la función saludable en el circuito cerebral afectado y conducir a mejoras en el comportamiento. El sistema de salud ya tiene a su disposición varias intervenciones terapéuticas basadas en la evidencia que podrían mejorar los resultados clínicos en pacientes con trastornos por consumo de sustancias si se aplican correctamente y de forma global. Durante el tratamiento, los medicamentos pueden ayudar en la prevención de recaídas, mientras que el cerebro está sanando y las capacidades emocionales y de toma de decisiones normales están siendo restauradas.

Para los pacientes con trastorno por el uso de opioides, la terapia de mantenimiento con agonistas o agonistas parciales como la metadona o buprenorfina puede ser esencial para ayudar a controlar los síntomas de la abstinencia de opioides.(50) Los antagonistas de los opioides como lanaltrexona de liberación prolongada puede ser usada para prevenir la intoxicación por opioides.(51) La naltrexona y el acamprosato han sido eficaces en el tratamiento de los trastornos por consumo de alcohol, y otros medicamentos pueden ayudar en la recuperación de la adicción a la nicotina.(27)

El modelo de enfermedad cerebral de la adicción también ha fomentado el desarrollo de las intervenciones conductuales para ayudar a restablecer el equilibrio en los circuitos del cerebro que ha sido afectada por las sustancias.(52) Por ejemplo, las estrategias para mejorar la relevancia de las recompensas naturales saludables, tales como el contacto social o el ejercicio podría permitirle a esas recompensas competir con las propiedades motivadoras directas y adquiridas de las drogas.

Las estrategias para mitigar la reactividad al estrés y los estados emocionales negativos de una persona podrían ayudar a controlar los impulsos fuertes que engendran, y las estrategias para mejorar la función ejecutiva y la autorregulación podrían ayudar a la recuperación de los pacientes para planificar el futuro con el fin de evitar situaciones en las que son particularmente vulnerables a tomar fármacos.

Por último, las estrategias para ayudar a los pacientes que se recuperan de la adicción a cambiar su círculo de amigos y para evitar señales ambientales asociadas con las drogas puede reducir la probabilidad de que el ansia condicionada dé lugar a una recaída.


1Results from the 2013 National Survey on Drug Use and Health: summary of national findings. Rockville, MD: Substance Abuse and Mental Health Services Administration, Center for Behavioral Health Statistics and Quality, 2013.
2The health consequences of smoking - 50 years of progress.Rockville, MD: Department of Health and Human Services, 2014.
3Excessive drinking costs U.S. $223.5 billion. April 17, 2014 (
4National drug threat assessment, 2011. Washington, DC: Department of Justice, National Drug Intelligence Center, 2011.
5Busch SH, Epstein AJ, Harhay MO, et al. The effects of federal parity on substance use disorder treatment. Am J Manag Care 2014;20:76-82
Web of Science | Medline
6US Senate working to cut sentences, lower prison population. Voice of America. October 1, 2015 (
7Williams T. Police leaders join call to cut prison rosters. New York Times. October 20, 2015:A1.
8Volkow ND, Koob G. Brain disease model of addiction: why is it so controversial? Lancet Psychiatry 2015;2:677-679
9Potenza M. Perspective: behavioural addictions matter. Nature 2015;522:S62-S62
CrossRef | Web of Science | Medline
10Koob GF, Volkow ND. Neurocircuitry of addiction. Neuropsychopharmacology 2010;35:217-238
CrossRef | Web of Science | Medline
11Di Chiara G. Nucleus accumbens shell and core dopamine: differential role in behavior and addiction. Behav Brain Res 2002;137:75-114
CrossRef | Web of Science | Medline
12Koob GF. Neural mechanisms of drug reinforcement. Ann N Y Acad Sci 1992;654:171-191
CrossRef | Web of Science | Medline
13Wise RA. Dopamine and reward: the anhedonia hypothesis 30 years on. Neurotox Res 2008;14:169-183
CrossRef | Web of Science | Medline
14Schultz W. Getting formal with dopamine and reward. Neuron 2002;36:241-263
CrossRef | Web of Science | Medline
15Kauer JA, Malenka RC. Synaptic plasticity and addiction. Nat Rev Neurosci 2007;8:844-858
CrossRef | Web of Science | Medline
16Kourrich S, Calu DJ, Bonci A. Intrinsic plasticity: an emerging player in addiction. Nat Rev Neurosci 2015;16:173-184
CrossRef | Web of Science | Medline
17Wolf ME, Ferrario CR. AMPA receptor plasticity in the nucleus accumbens after repeated exposure to cocaine. Neurosci Biobehav Rev 2010;35:185-211
CrossRef | Web of Science | Medline
18De Roo M, Klauser P, Garcia PM, Poglia L, Muller D. Spine dynamics and synapse remodeling during LTP and memory processes. Prog Brain Res 2008;169:199-207
CrossRef | Web of Science | Medline
19Volkow ND, Morales M. The brain on drugs: from reward to addiction. Cell 2015;162:712-725
CrossRef | Web of Science | Medline
20Volkow ND, Wang GJ, Telang F, et al. Cocaine cues and dopamine in dorsal striatum: mechanism of craving in cocaine addiction. J Neurosci 2006;26:6583-6588
CrossRef | Web of Science | Medline
21Weiss F. Neurobiology of craving, conditioned reward and relapse. Curr Opin Pharmacol 2005;5:9-19
CrossRef | Web of Science | Medline
22Volkow ND, Wang GJ, Fowler JS, et al. Decreased striatal dopaminergic responsiveness in detoxified cocaine-dependent subjects. Nature 1997;386:830-833
CrossRef | Web of Science | Medline
23Zhang Y, Schlussman SD, Rabkin J, Butelman ER, Ho A, Kreek MJ. Chronic escalating cocaine exposure, abstinence/withdrawal, and chronic re-exposure: effects on striatal dopamine and opioid systems in C57BL/6J mice. Neuropharmacology 2013;67:259-266
CrossRef | Web of Science | Medline
24Trifilieff P, Feng B, Urizar E, et al. Increasing dopamine D2 receptor expression in the adult nucleus accumbens enhances motivation. Mol Psychiatry 2013;18:1025-1033
CrossRef | Web of Science | Medline
25Saddoris MP, Cacciapaglia F, Wightman RM, Carelli RM. Differential dopamine release dynamics in the nucleus accumbens core and shell reveal complementary signals for error prediction and incentive motivation. J Neurosci 2015;35:11572-11582
CrossRef | Web of Science | Medline
26Wise RA. Brain reward circuitry: insights from unsensed incentives. Neuron 2002;36:229-240
CrossRef | Web of Science | Medline
27Müller CA, Geisel O, Banas R, Heinz A. Current pharmacological treatment approaches for alcohol dependence. Expert Opin Pharmacother 2014;15:471-481
CrossRef | Web of Science | Medline
28Volkow ND, Tomasi D, Wang GJ, et al. Stimulant-induced dopamine increases are markedly blunted in active cocaine abusers. Mol Psychiatry 2014;19:1037-1043
CrossRef | Web of Science | Medline
29Hägele C, Schlagenhauf F, Rapp M, et al. Dimensional psychiatry: reward dysfunction and depressive mood across psychiatric disorders. Psychopharmacology (Berl) 2015;232:331-341
CrossRef | Web of Science | Medline
30Hyatt CJ, Assaf M, Muska CE, et al. Reward-related dorsal striatal activity differences between former and current cocaine dependent individuals during an interactive competitive game. PLoS One 2012;7:e34917-e34917
CrossRef | Web of Science | Medline
31Konova AB, Moeller SJ, Tomasi D, et al. Structural and behavioral correlates of abnormal encoding of money value in the sensorimotor striatum in cocaine addiction. Eur J Neurosci 2012;36:2979-2988
CrossRef | Web of Science | Medline
32Davis M, Walker DL, Miles L, Grillon C. Phasic vs sustained fear in rats and humans: role of the extended amygdala in fear vs anxiety. Neuropsychopharmacology 2010;35:105-135
CrossRef | Web of Science | Medline
33Jennings JH, Sparta DR, Stamatakis AM, et al. Distinct extended amygdala circuits for divergent motivational states. Nature 2013;496:224-228
CrossRef | Web of Science | Medline
34Koob GF, Le Moal M. Plasticity of reward neurocircuitry and the 'dark side' of drug addiction. Nat Neurosci 2005;8:1442-1444
CrossRef | Web of Science | Medline
35Kaufling J, Aston-Jones G. Persistent adaptations in afferents to ventral tegmental dopamine neurons after opiate withdrawal. J Neurosci 2015;35:10290-10303
CrossRef | Web of Science | Medline
36Goldstein RZ, Volkow ND. Dysfunction of the prefrontal cortex in addiction: neuroimaging findings and clinical implications. Nat Rev Neurosci 2011;12:652-669
CrossRef | Web of Science | Medline
37Britt JP, Bonci A. Optogenetic interrogations of the neural circuits underlying addiction. Curr Opin Neurobiol 2013;23:539-545
CrossRef | Web of Science | Medline
38Demers CH, Bogdan R, Agrawal A. The genetics, neurogenetics and pharmacogenetics of addiction. Curr Behav Neurosci Rep 2014;1:33-44
39Volkow ND, Muenke M. The genetics of addiction. Hum Genet 2012;131:773-777
CrossRef | Web of Science | Medline
40Burnett-Zeigler I, Walton MA, Ilgen M, et al. Prevalence and correlates of mental health problems and treatment among adolescents seen in primary care. J Adolesc Health 2012;50:559-564
CrossRef | Web of Science | Medline
41Stanis JJ, Andersen SL. Reducing substance use during adolescence: a translational framework for prevention. Psychopharmacology (Berl) 2014;231:1437-1453
CrossRef | Web of Science | Medline
42Warner LA, Kessler RC, Hughes M, Anthony JC, Nelson CB. Prevalence and correlates of drug use and dependence in the United States: results from the National Comorbidity Survey. Arch Gen Psychiatry 1995;52:219-229
CrossRef | Web of Science | Medline
43Castellanos-Ryan N, Rubia K, Conrod PJ. Response inhibition and reward response bias mediate the predictive relationships between impulsivity and sensation seeking and common and unique variance in conduct disorder and substance misuse. Alcohol Clin Exp Res 2011;35:140-155
CrossRef | Web of Science | Medline
44Nees F, Tzschoppe J, Patrick CJ, et al. Determinants of early alcohol use in healthy adolescents: the differential contribution of neuroimaging and psychological factors. Neuropsychopharmacology 2012;37:986-995
CrossRef | Web of Science | Medline
45Quinn PD, Harden KP. Differential changes in impulsivity and sensation seeking and the escalation of substance use from adolescence to early adulthood. Dev Psychopathol 2013;25:223-239
CrossRef | Web of Science | Medline
46Durlak JA, Weissberg RP, Dymnicki AB, Taylor RD, Schellinger KB. The impact of enhancing students' social and emotional learning: a meta-analysis of school-based universal interventions. Child Dev 2011;82:405-432
CrossRef | Web of Science | Medline
47Greenberg MT, Lippold MA. Promoting healthy outcomes among youth with multiple risks: innovative approaches. Annu Rev Public Health 2013;34:253-270
CrossRef | Web of Science | Medline
48Sandler I, Wolchik SA, Cruden G, et al. Overview of meta-analyses of the prevention of mental health, substance use, and conduct problems. Annu Rev Clin Psychol 2014;10:243-273
CrossRef | Web of Science | Medline
49Kiluk BD, Carroll KM. New developments in behavioral treatments for substance use disorders. Curr Psychiatry Rep 2013;15:420-420
CrossRef | Medline
50Bell J. Pharmacological maintenance treatments of opiate addiction. Br J Clin Pharmacol 2014;77:253-263
CrossRef | Web of Science | Medline
51Sullivan MA, Bisaga A, Mariani JJ, et al. Naltrexone treatment for opioid dependence: does its effectiveness depend on testing the blockade? Drug Alcohol Depend 2013;133:80-85
CrossRef | Web of Science | Medline
52Litten RZ, Ryan ML, Falk DE, Reilly M, Fertig JB, Koob GF. Heterogeneity of alcohol use disorder: understanding mechanisms to advance personalized treatment. Alcohol Clin Exp Res 2015;39:579-584
CrossRef | Web of Science | Medline
53Giedd JN, Blumenthal J, Jeffries NO, et al. Brain development during childhood and adolescence: a longitudinal MRI study. Nat Neurosci 1999;2:861-863
CrossRef | Web of Science | Medline
54DeJong W, Blanchette J. Case closed: research evidence on the positive public health impact of the age 21 minimum legal drinking age in the United States. J Stud Alcohol Drugs Suppl 2014;75:Suppl 17:108-115
55Report to congressional committees: mental health and substance use - employer's insurance coverage maintained or enhanced since MHPAEA, but effect of coverage on enrollees varied. Washington, DC: Government Accountability Office, 2011.
56Bevilacqua L, Goldman D. Genes and addictions. Clin Pharmacol Ther 2009;85:359-361
CrossRef | Web of Science | Medline
57Mertens JR, Weisner C, Ray GT, Fireman B, Walsh K. Hazardous drinkers and drug users in HMO primary care: prevalence, medical conditions, and costs. Alcohol Clin Exp Res 2005;29:989-998
CrossRef | Web of Science | Medline
58Weisner C, Mertens J, Parthasarathy S, Moore C, Lu Y. Integrating primary medical care with addiction treatment: a randomized controlled trial. JAMA 2001;286:1715-1723




MISCELANEAS BREVES - 168Fecha: 1/10/2016



Patrón de Dominancia Coronaria - Predictor Independiente de Muerte y Reinfarto

                                                                                    Dr. Emad Abu-Assi,

                                        Cardiopatía Isquémica y Cuidados Agudos Cardiovasculares
                                                                  Sociedad Española de Cardiología

                                                                          Rev Esp Cardiol. 2016;69: 19 -27


El patrón de dominancia coronaria (DC) ha demostrado ser un predictor independiente de muerte y reinfarto. Un concepto fundamentado por las caracteristicas morfológicas de las arterias coronarias (derecha e izquierda) que irrigan el corazón. La irrigación de la sangre al corazón es compartida entre ambas arterias (derecha e izquierda).
La DC derecha es el patrón dominante en el 85% de la población, alimentando el ventrículo y aurícula derecha, y parte del ventrículo izquierdo. La DC izquierda consiste en una variación de la anatomía del corazón que se calcula que tiene entre un 7 y un 10% de la población general. En esta condición la arteria coronaria derecha suministra sangre tan solo al ventrículo y la aurícula derechos, el ventrículo izquierdo se abastece completamente del sistema coronario izquierdo. Esto hace que ante una oclusión coronaria, el área del miocardio en riesgo sea mayor en los pacientes con Engineer Standards Download DC izquierda que aquellos con DC derecha y ello puede condicionar negativamente el curso evolutivo.
En los casos de dominancia coronaria izquierda  la mayor parte del miocardio depende fundamentalmente de las dos arterias en las que se divide la coronaria izquierda, la coronaria circunfleja y la descendente posterior; mientras que en la dominancia derecha hay un mayor reparto de la vasculatura coronaria que irriga el ventrículo izquierdo. Esto hace que el corazón reciba sangre por más vías en caso de oclusión de una de ellas..
Se estudiaron la mortalidad y los reingresos de 767 pacientes que sufrieron un infarto agudo de miocardio con elevación del segmento ST (IAMCEST) según su dominancia coronaria y que fueron tratados con intervencionismo coronario percutáneo (ICP). Se observó que los pacientes con DC izquierda pueden llegar a triplicar el riesgo de mortalidad respecto a aquellos pacientes ingresados en el mismo contexto con DC derecha. Se evidenció un mayor porcentaje de ICP fallidos y menor proporción de revascularización coronaria completa en los pacientes con DC izquierda respecto a los pacientes con DC derecha. Las complicaciones presentadas en este grupo de pacientes technical codes download continuaron tras la ICP, ya que las tasas de reinfarto agudo de miocardio según DC izquierda y DC derecha fueron del 19,7% y 8,6% respectivamente. Del mismo modo, hubo mayor proporción de muertes de origen cardiovascular entre los pacientes de DC izquierda (21,2%) frente a los de DC derecha (7,1%). También se observó una mayor disfunción ventricular izquierda en los casos de dominancia coronaria izquierda.
Estos datos ponen de api standards in pdf manifiesto la necesidad de controlar de manera más exhaustiva este grupo de pacientes con DC izquierda para evitar reingresos por nuevos infartos y muertes por causa cardiovascular.







En la piel del paciente


                                                                                                 Dr Gonzalo Casino

En el árbol de la literatura médica, dominada por la aproximación científica a la salud y la enfermedad, hay una rama vigorosa que se ocupa del estudio de la empatía. Es un retoño reciente, pero su pujanza refleja la importancia creciente del conocimiento de las emociones y las actitudes de los médicos en la calidad asistencial. La empatía clínica no es ya un adorno o un complemento, sino una competencia médica esencial y una actitud clínica imprescindible. Ser un buen médico implica no solo saber ciencia, sino también entender a las personas y saber ponerse en la piel del enfermo. En la última década, toda una avalancha de estudios ha confirmado que la empatía clínica se asocia con una mayor satisfacción del enfermo, un menor estrés del médico, menos errores y mejores resultados.

La relación con cualquier enfermo es siempre un desafío para el clínico, pero hay pacientes "difíciles" capaces de poner contra las cuerdas al médico. Cuando se presenta un enfermo agresivo, exigente, arrogante o despreciativo con el médico, la relación se torna complicada y puede conducir al fracaso. No solo la necesaria empatía puede saltar por los aires, sino que, además, en estos casos es más probable que el diagnóstico sea erróneo. Un reciente artículo publicado en BMJ  Quality and Safetty ha mostrado que, cuando un médico se enfrenta a un paciente difícil, la precisión del diagnóstico desciende de forma significativa, especialmente cuando se trata de casos complejos.

                              "Los pacientes difíciles entorpecen el razonamiento médico"

El estudio, realizado con 74 residentes de medicina interna, sugiere que los pacientes difíciles entorpecen el razonamiento médico. Esto se produce, aparentemente, porque los médicos emplean parte de sus recursos mentales en lidiar con el reto emocional que les plantean estos enfermos en vez de centrarse en procesar los hallazgos clínicos para llegar al diagnóstico. El experimento tiene la limitación de que no se realizó con enfermos reales (ni siquiera con actores), sino con casos simulados explicados en un folleto, pero ilustra la influencia de las emociones y sentimientos del médico en su relación con el paciente.

Aunque objetivamente hay pacientes problemáticos, todas las relaciones médico-paciente pueden presentar aristas y problemas. A veces, detrás de un paciente etiquetado como difícil, lo que hay en realidad es un médico falto de empatía. En un intento de comprender mejor esta situación y poder incluso cribar a los estudiantes de Medicina, se han ideado numerosas herramientas psicométricas de este atributo cognitivo. En una revisión de 2007 en la que se analizaron 36 de estas medidas, se constató que resultaban válidas para investigar la empatía, pero carecían de la suficiente validez predictiva como para descartar a un estudiante. Aunque en las pruebas de acceso a las principales facultades de Medicina de Estados Unidos se incluyen preguntas que miden la empatía de los futuros médicos, lo importante es que, más allá de la predisposición natural de cada uno, la empatía, como todos las actitudes puede y debe aprenderse.

El prestigioso Hospital Universitario de Massachusetts, asociado a la Universidad de Harvard, es uno de los pioneros en la enseñanza obligatoria de esta competencia. Un programa desarrollado por la profesora de Psiquiatría Helen Riess, ha demostrando que los médicos que hacen estos cursos son mejor valorados por sus pacientes. A algunos médicos quizá esto no les importe demasiado, pero la satisfacción del enfermo es cada vez un asunto central en medicina. Muchos hospitales utilizan ya este criterio para establecer la remuneración de los médicos.
Por mal que suene la expresión, si hay una profesión especialmente "orientada al cliente", esa es la de médico.







Armazones bioabsorbibles, regresión de la placa de ateroma, tratamiento de restauración vascular

                                                                            Dr. Davide Capodanno
                                  (Conflicto intereses: ha recibido honorarios como ponente por parte de Abbott Vascular).

                                                         Rev Española de Cardiol (2016); vol 69:91-93


El armazón vascular bioabsorbible (AVB) ABSORB (Abbott Vascular, Santa Clara, California, Estados Unidos) obtuvo la homologación de marca CE en 2011 y fue recibido por la comunidad de cardiólogos intervencionistas con altas expectativas y cierto escepticismo.
Las expectativas eran consecuencia de la perspectiva de obtener una restauración vascular plena tras la desaparición del dispositivo después de un periodo transitorio de mantenimiento de la estructura del armazón. Se prevé que, al no haber una jaula metálica (es decir, la jaula que se deja al implantar los stents metálicos farmacoactivos), se restablecerán las características del vaso sanguíneo que de otro modo se pierden, como son la pulsatilidad, la tensión cíclica y la fuerza tangencial fisiológica1. En cambio, los escépticos señalaron las numerosas dificultades técnicas y limitaciones que comportaban estos dispositivos en comparación con los stentsmetálicos farmacoactivos de la actual generación2. De hecho, el mayor perfil transversal, losstruts voluminosos y la propensión a la fractura a presiones de inflado elevadas hacen que los AVB sean un «caso especial» en los laboratorios de cardiología intervencionista.
Llegará a ser algún día el AVB un dispositivo fiable y a reemplazar a los stents metálicos farmacoactivos? Además de las mejoras técnicas, hay dos tipos de datos que es deseable obtener para respaldar este concepto. En primer lugar, debe demostrarse que el dispositivo es, cuando menos, no inferior a los stents metálicos farmacoactivos de la actual generación antes de la bioabsorción. Ciertamente, la promesa de una restauración total de la arteria coronaria a largo plazo no debería cumplirse a costa de un aumento de los fallos a corto y medio plazo. Los estudios aleatorizados recientes con un seguimiento de 1 año en pacientes con lesiones relativamente poco complicadas parecen prometedores a este respecto3456, y hay otros ensayos en marcha. En segundo lugar, ante todo debe demostrarse que el dispositivo es superior a los stents después de la bioabsorción. Este objetivo resulta más difícil de investigar en la actualidad, dado que la mayoría de los AVB implantados en todo el mundo en los últimos pocos años no han llegado aún a desaparecer, por lo que no es posible hacer valoraciones fundamentadas en el ámbito clínico. Para examinar la evidencia existente sobre la seguridad y la eficacia a largo plazo, tenemos que volver a los estudios fundamentales de registro llevados a cabo a finales de la primera década del siglo, en los que se incluyó un número muy reducido de pacientes seleccionados, pero que fueron realizados con una perspectiva de futuro, utilizando técnicas de imagen intravasculares y no invasivas de forma secuencial, lo cual permitió investigar al menos algunos objetivos de valoración indirectos a largo plazo. Actualmente, estos estudios (es decir, las cohortes A y B del estudio ABSORB) constituyen la única bola de cristal de que disponemos para vislumbrar y predecir el futuro de los AVB789.
En la cohorte A del estudio ABSORB se trataron 30 pacientes con la primera iteración del dispositivo AVB (AVB 1.0) en lesiones de novo que eran apropiadas para el tratamiento con un solo armazón de 3,0 × 12 mm o de 3,0 × 18 mm. Se dispuso de determinaciones de parámetros angiográficos en el seguimiento de 26 pacientes, y de parámetros de ecografía intravascular en 24 pacientes. Se realizaron exploraciones con tomografía de coherencia óptica en situación basal y en el seguimiento de un subgrupo de 13 pacientes. Por último, la transparencia del BVS permitió la obtención secuencial de imágenes de tomografía computarizada multicorte, no invasiva, en 18 pacientes, tanto a los 18 meses como a los 5 años, y dichos pacientes constituyen la población de estudio del análisis post-hoc de Campos et al10 publicado en Revista Española de Cardiología. En dicho estudio10, el objetivo de interés fue el volumen de ateroma, un parámetro de tipo ecográfico presentado aquí en tres variantes: a) porcentaje relativo respecto al volumen del vaso sanguíneo; b) valor absoluto estandarizado respecto a la longitud media del segmento en la población del estudio, y c)porcentaje y cambio secuencial estandarizado entre los dos momentos de valoración del estudio. Se compararon estos parámetros de valoración en los segmentos del vaso tratado donde se aplicaron armazones y en cuatro segmentos proximales de los dos vasos no tratados. En los segmentos en los que se aplicó la intervención (n = 18) no hubo ningún cambio entre los 18 meses y los 5 años en cuanto al volumen porcentual de ateroma y el volumen total de ateroma estandarizado. En cambio, se observó un aumento significativo en el volumen porcentual y absoluto del ateroma en los segmentos no tratados con intervención (n = 71 analizables de 72 elegibles para el estudio). Como resultado de ello, el cambio en el porcentaje del volumen de ateroma a los 5 años presentó diferencias significativas entre las zonas tratadas con AVB y los segmentos en los que no se realizó una intervención (-1,2 ± 7,7% frente a 2,7 ± 6,5%; p = 0,03), lo cual sugería una estabilización de la placa o incluso una regresión en los primeros y un aumento de la placa en los segundos.
Uno de los puntos fuertes del estudio de Campos et al10 es la comparación directa de segmentos tratados con AVB frente a otros sin este tratamiento en el mismo paciente. En comparación con los análisis tradicionales de comparación de grupos, este diseño de estudio utiliza un control idóneo del efecto de confusión que puede derivarse de la prevalencia no equivalente de factores proaterógenos o del uso distinto de estrategias farmacológicas destinadas a fomentar la regresión de la placa. Sin embargo, la decisión de los investigadores de comparar segmentos tratados con AVB con segmentos sin este tratamiento situados en partes proximales de vasos no tratados introdujo un cierto grado de desequilibrio que no se corrigió, como refleja el mayor volumen estandarizado del vaso (217 frente a 190 mm3) y de la luz (122 frente a 96 mm3) en el grupo de segmentos sin intervención. Los estudios de ecografía intravascular han mostrado que la placa de ateroma tiende a aparecer con mayor frecuencia en la parte proximal que en la parte distal de los vasos sanguíneos, y hay un gradiente creciente de la zona proximal a la distal1112. En el estudio de Campos et al10, en el grupo de control se analizaron con más frecuencia segmentos coronarios proximales; en consecuencia, no puede descartarse la posibilidad de que la ausencia de progresión de la placa observada en los segmentos tratados con AVB reflejara en mayor medida la localización de la lesión que un efecto real del dispositivo. Además, el porcentaje de regresión es más probable que se produzca cuando la carga coronaria es más alta, tal como se observa en los segmentos tratados con AVB incluidos en este estudio en comparación con los segmentos de comparación (49 frente a 45%). Por último, la cohorte A del ABSORB fue una población simple, con pocos factores aterógenos (es decir, diabetes o infarto de miocardio previo). Estas limitaciones ponen en cuestión las conclusiones de los autores y justifican la realización de nuevos estudios de confirmación.
La «pasivación» de la placa se ha considerado una de las promesas de mayor interés de los AVB a largo plazo13. Este efecto se ha atribuido a la conjunción de capas de neoíntima fibrosa gruesa y simétrica, la ausencia de materiales vasculares permanentes y el aumento tardío de la luz1 (Figura). La posibilidad de que el desarrollo de una neoíntima constituya un escudo para la placa subyacente se ha descrito también con los stents metálicos sin recubrimiento14. Sin embargo, a diferencia de los stents metálicos, los AVB pueden compensar la reducción de la luz inducida por la cubierta de neoíntima debido a un remodelado expansivo1415. Campos et al10 sugieren ahora otro posible mecanismo de la pasivación de la placa con el empleo de AVB, es decir, la reducción local del porcentaje de progresión de la carga de placa sobre el tratamiento farmacológico. De hecho, se ha propuesto que el everolimus reduce la formación de placa aterosclerótica y la inflamación en los modelos experimentales16. Sin embargo, la hipótesis de que el fármaco es la principal causa de la regresión observada en la placa contrasta con el concepto de que la liberación de everolimus se produce principalmente durante el primer mes tras el implante del AVB, mientras que la regresión de la placa, si la hay, se empieza a apreciar solo al cabo de un par de años. Además, no puede descartarse la posibilidad de que la regresión de la placa sea un seudofenómeno ligado a la desaparición de los struts de polímero seguida de un encogimiento del tejido conjuntivo. Aunque la forma de estudiar la evolución natural de la enfermedad coronaria con el uso de la tomografía computarizada multicorte resulta pragmática, la tomografía de coherencia óptica y la ecografía intravascular siguen siendo los métodos más exactos para establecer la contribución relativa que tienen el engrosamiento de la cubierta, la regresión de la placa y el remodelado del vaso en el efecto de pasivación producido por los AVB. Sea cual sea el mecanismo subyacente, el concepto de pasivación de la placa con los AVB, si resulta ser cierto, abriría la puerta a un drástico cambio de paradigma en la prevención de futuros eventos coronarios mediante intervenciones percutáneas. La idea de cubrir los fibroateromas que tienen una cubierta fina, induciendo la regresión de la placa y la formación de un escudo grueso de tejido de cobertura, resulta atractiva. Es importante señalar que esta hipótesis carece actualmente de una base de evidencia científica y está siendo objeto de una investigación específica con fines de prueba de concepto (NCT02171065).


Figura. Evolución natural de los dispositivos coronarios actuales con casos hipotéticos ilustrativos. Tras el implante de un stent metálico sin recubrimiento, el desarrollo de tejido de neoíntima contribuye a producir tejidos lipídicos que actúan como un escudo y a cubrir losstruts metálicos, pero esto se produce a costa de un estrechamiento de la luz. Los stentsfarmacoactivos contrarrestan la proliferación de neoíntima y la reestenosis, pero el fármaco antiproliferativo puede inducir un retraso en la cicatrización. Además, el vaso pierde sus propiedades vasomotoras a causa del enjaulado permanente producido por los struts metálicos, lo cual puede ser un desencadenante de posibles complicaciones tardías (es decir, de una neoaterosclerosis). Se sugiere que los armazones bioabsorbibles inducen el desarrollo de un tejido de neoíntima que cubre el tejido subyacente sin causar un efecto negativo en el tamaño de la luz, el cual es contrarrestado por la regresión de la placa y el remodelado expansivo.

En conclusión, sigue sin estar claro el peso que debe atribuirse a los estudios con técnicas de imagen post-hoc de las primeras series pequeñas de casos en humanos, como la cohorte A del estudio ABSORB. Los pacientes y las lesiones que se tratan en la práctica clínica diaria están menos seleccionados e incluso el dispositivo comercializado actualmente es diferente del que se utilizó en el momento del ensayo. De hecho, debe aplaudirse a los investigadores del estudio ABSORB por su compromiso trascendental y riguroso en el avance del conocimiento de las propiedades de los BVS a largo plazo. Sin embargo, la notable cantidad de datos de exploraciones de imagen obtenida contrasta con el número reducido y fragmentado de pacientes cuidadosamente escogidos de que se dispone para el seguimiento. Además, la relación entre los resultados clínicos y los parámetros indirectos de imagen intravascular de los BVS aún no se ha demostrado.
Se traducirán todos los efectos tardíos presuntos y establecidos de los BVS en un menor número de eventos isquémicos? Esta es la respuesta que los cardiólogos intervencionistas escépticos están buscando, y si las promesas de los BVS llegarán a ser realidad es un gran interrogante para los próximos años.
El tratamiento de restauración vascular es una tierra prometida en la que ahora todo parece idílico. El seguimiento a largo plazo de estudios aleatorizados grandes de comparación con los mejores stents metálicos farmacoactivos de su clase determinará si este sueño continúa o termina de forma abrupta.


1. Iqbal J, Onuma Y, Ormiston J, Abizaid A, Waksman R, Serruys P. Bioresorbable scaffolds: rationale, current status, challenges, and future. Eur Heart J. 2014;35:765-76. 
2. Tamburino C, Latib A, van Geuns RJ, Sabate M, Mehilli J, Gori T, et al. Contemporary practice and technical aspects in coronary intervention with bioresorbable scaffolds: a European perspective. EuroIntervention. 2015;11:45-52. 
3. Kimura T, Kozuma K, Tanabe K, Nakamura S, Yamane M, Muramatsu T, et al. A randomized trial evaluating everolimus-eluting Absorb bioresorbable scaffolds vs. everolimus-eluting metallic stents in patients with coronary artery disease: ABSORB Japan. Eur Heart J. 2015. [Epub ahead of print] doi: 
4. Serruys PW, Chevalier B, Dudek D, Cequier A, Carrie D, Iniguez A, et al. A bioresorbable everolimus-eluting scaffold versus a metallic everolimus-eluting stent for ischaemic heart disease caused by de-novo native coronary artery lesions (ABSORB II): an interim 1-year analysis of clinical and procedural secondary outcomes from a randomised controlled trial. Lancet. 2015;385:43-54. 
5. Ellis SG, Kareiakes DJ, Metzger DC, Caputo RP, Rizik DG, Teirstein PS, et al. Everolimus-eluting bioresorbable scaffolds for coronary artery disease. N Engl J Med. 2015 Oct 12. [Epub ahead of print] doi: 
6. Gao RL, Yang Y, Han Y, Huo Y, Chen J, Yu B, et al. Bioresorbable vascular scaffolds versus metallic stents in patients with coronary artery disease: ABSORB China trial. J Am Coll Cardiol. 2015 Oct 12. [Epub ahead of print] doi: 
7. Ormiston JA, Serruys PW, Regar E, Dudek D, Thuesen L, Webster MW, et al. A bioabsorbable everolimus-eluting coronary stent system for patients with single de-novo coronary artery lesions (ABSORB): a prospective open-label trial. Lancet. 2008;371:899-907. 
8. Simsek C, Karanasos A, Magro M, Garcia-Garcia HM, Onuma Y, Regar E, et al. Long-term invasive follow-up of the everolimus-eluting bioresorbable vascular scaffold: five-year results of multiple invasive imaging modalities. EuroIntervention. 2014. [Epub ahead of print] doi: 
9. Zhang YJ, Iqbal J, Nakatani S, Bourantas CV, Campos CM, Ishibashi Y, et al. Scaffold and edge vascular response following implantation of everolimus-eluting bioresorbable vascular scaffold: a 3-year serial optical coherence tomography study. JACC Cardiovascular Interventions. 2014;7:1361-9. 
10. Campos CM, Garcia-Garcia HM, Muramatsu T, de Araujo Gonçalves P, Onuma Y, Dudeck D. Efecto del armazón bioasorbible liberador de everolimus en la aterosclerosis coronaria. Rev Esp Cardiol. 2016;69:109-16. 
11. Wykrzykowska JJ, Mintz GS, Garcia-Garcia HM, Maehara A, Fahy M, Xu K, et al.Longitudinal distribution of plaque burden and necrotic core-rich plaques in nonculprit lesions of patients presenting with acute coronary syndromes. JACC Cardiovasc Imaging. 2012;5:S10-8. 
12. Golinvaux N, Maehara A, Mintz GS, Lansky AJ, McPherson J, Farhat N, et al. An intravascular ultrasound appraisal of atherosclerotic plaque distribution in diseased coronary arteries. Am Heart J. 2012;163:624-31. 
13. Ormiston JA, Serruys PW, Onuma Y, van Geuns RJ, de Bruyne B, Dudek D, et al. First serial assessment at 6 months and 2 years of the second generation of absorb everolimus-eluting bioresorbable vascular scaffold: a multi-imaging modality study. Circ Cardiovasc Interv. 2012;5:620-32. 
14. Bourantas CV, Serruys PW, Nakatani S, Zhang YJ, Farooq V, Diletti R, et al. Bioresorbable vascular scaffold treatment induces the formation of neointimal cap that seals the underlying plaque without compromising the luminal dimensions: a concept based on serial optical coherence tomography data. EuroIntervention. 2014. [Epub ahead of print] doi: 
15. Garcia-Garcia HM, Serruys PW, Campos C, Onuma Y. Differential impact of five coronary devices on plaque size: from the ABSORB and SPIRIT trials.Int J Cardiol. 2014;175:441-5. 
16. Mueller MA, Beutner F, Teupser D, Ceglarek U, Thiery J. Prevention of atherosclerosis by the mTOR inhibitor everolimus in LDLR-/-mice despite severe hypercholesterolemia. Atherosclerosis. 2008;198:39-48. 


MISCELANEAS BREVES - 167Fecha: 3/9/2016


Autofagia Celular, clave en la regeneración muscular en el envejecimiento

                                                  Dra Pura Muñoz-Cánoves - Dra. Marta Martínez-Vicente

                                Unidad de Biología Celular del Departamento de Ciencias Experimentales                                                                               Universidad Pompeu Fabra,

                                                         Nature(2016);doi:10.1038/nature 16187


La capacidad de regeneración del músculo esquelético depende de sus células madre, conocidas como células satélite, que se encuentran en estado de reposo (quiescencia) y se activan cuando se producen daños en los tejidos. En tejidos con poca rotación, como es el caso del músculo esquelético, este estado de quiescencia reversible es el normal durante toda la vida.
Estudios recientes han mostrado que a la edad geriátrica el estado de reposo de células madre normal es sustituido por un estado de senescencia irreversible, lo que resulta en una disminución numérica y funcional de estas células satélite, y un fallo en la regeneración de los músculos.
Los mecanismos responsables del mantenimiento de esta quiescencia, la preservación de la "bolsa" de células madre y la prevención de la senescencia durante la vida de un individuo siguen siendo desconocidos, una investigación demuestra que las células satélite en ratones jóvenes están equipadas con mecanismos protectores de control de calidad, como la autofagia, que reprimen activamente el programa de senescencia, preservando así la integridad y la aptitud de las células. Según la investigación, cuando el proceso de autofagia falla es cuando se inicia el envejecimiento, produciéndose una acumulación de proteínas y orgánulos dañados en el interior de las células madre que lleva a su senescencia y agotamiento. Los investigadores inhibieron genéticamente la autofagia en células satélite de ratones jóvenes, lo que causó la rápida entrada en senescencia de las células satélite, provocando que la regeneración muscular fuese de manera defectuosa y el restablecimiento de la autofagia revierte la senescencia y restaura las funciones regenerativas de las células satélite viejas, por lo que aquélla se revela como un elemento regulador decisivo en la muerte de células madre y, por tanto, como una posible estrategia para combatir la falta de regeneración muscular durante la sarcopenia (pérdida de masa muscular provocada por el envejecimiento y el sedentarismo).
El fallo de autofagia resulta un factor responsable de la pérdida de capacidad regenerativa de las células madre musculares en edades avanzadas los mecanismos autofagia se han encontrado también desregulados en células musculares humanas geriátricas.
Se abren las puertas a la investigación encaminada a atenuar la pérdida de capacidad regenerativa del músculo en personas de edad muy avanzada, que conferiría mayor independencia y calidad de vida a las personas ancianas".







Error médico: la tercera causa de muerte en EE.UU.

                                                             Martin A Makary, Michael Daniel research fellow 

                                                                                      BMJ 2016;35



El listado anual de las causas más frecuentes de muerte en los EEUU.  es  generadopor el Centro de Control y Prevención de Enfermedades (CDC). Se realiza utilizando los certificados de defunción que completan los médicos, directores de funerarias y médicos forenses.

El mayor limitante de estos certificados es que debe asignarse un código a la causa de muerte. Como resultado, aquellas causas de muerte no asociadas a un código, como en las que interviene el  factor humano o aquellas asociadas al sistema, no son registradas.

Actualmente se ha investigado  y descripto que factores tales como las fallas en la comunicación, los errores de diagnóstico, el  juicio pobre y la impericia pueden resultar directamente en el daño y muerte de un paciente.
En este estudio, se ha analizado la literatura científica sobre error médico (ER) para identificar su contribución a las muertes en EEUU. en relación a las causas listadas por el CDC.

Muertes por cuidado médico

El error médico ha sido definido como un acto no intencional (ya sea por omisión o comisión). También como aquel acto que no logra el resultado esperado o la falla en la acción planeada completada e intencionada (error en la ejecución). También como el uso de un plan equivocado (error de planeamiento) o la desviación de un proceso de cuidado que puede o no causar daño al paciente.

El error médico puede ocurrir a nivel individual o del sistema. La taxonomía de los errores se está expandiendo para categorizar  mejor  a los factores y eventos prevenibles. El mayor enfoque es en eventos letales prevenibles para iluminar la escala de mejoras potenciales.

El rol del error puede ser complejo. Mientras que muchos errores no son consecuentes con daño, un único error puede poner fin a la vida de alguien con una expectativa de vida larga o acelerar su muerte inminente. 

¿Qué tan grande es el problema?

El número estimado de muertes anuales causadas por error médico más frecuentemente citado, proviene de un reporte del Instituto de Medicina del año 1999. Este dato se encuentra desactualizado.  Este reporte indica una incidencia de 44.000-98.000 muertes anuales. Este número no se obtuvo de una investigación realizada por el instituto sino por un estudio de práctica médica realizado en Harvard en 1984 y otro estudio del año 1992 realizado en Utah y Colorado. En el año 1993, Leape, un investigador líder del estudio de 1984 de Harvard publicó un artículo donde argumentaba que ese número estimado era muy bajo. Allí indicaba que el 78% y no el 51% de las 18.0000 muerte.s por iatrogenia eran evitables.replica watches

Esta elevada incidencia (alrededor de 140400 muertes debido a error) ha sido evidenciada por estudios subsiguientes que sugieren que el reporte del año 1999 IOM desestima la magnitud del problema. Un reporte del año 2014 sobre muertes de pacientes internados estimó que 575.000 muertes fueron causadas por error médico entre el año 2000 y 2002, lo que se traduce en 195.000 muertes anuales.

De forma similar el departamento de salud y servicios humanos de EEUU. también examinó los registros de salud de los pacientes internados en el año 2008 y reportó 180.000 muertes a causa de ER entre los beneficiarios de Medicare solamente. Con la misma metodología, Classen et al describieron una tasa 1,13%. Si esta tasa se aplica a todas las admisiones registradas en los hospitales de EEUU en 2013 se convierten en 400.000 muertes por año por esta causa.

"210.000 a 400.000 muertes por año asociadas a errores médicos entre pacientes de hospital"

En otro estudio, Landrigan et al reportó que el 0,6% de las admisiones hospitalarias en un grupo de hospitales del Carolina del Norte durante 6 años (2002-07) resultaron en eventos adversos letales y estiman que un 63% de estos se deben a ER.

Extrapolando nacionalidades, esto datos se traducirían en 134.581 muertes de pacientes internados por año por cuidados deficientes. Ninguno de estos estudios tuvo en cuenta muertes fuera de la hospitalización, por ejemplo: error en el cuidado domiciliario por parte de enfermerías o pacientes ambulatorios.

Una revisión de la literatura realizada por James, estimó efectos adversos prevenibles utilizando un análisis ponderado y describiendo un rango de incidencia de 210.000 a 400.000 muertes por año asociadas a ER entre pacientes de hospital. Nosotros calculamos una tasa media de muertes por ER de 251.454 por año, utilizando estudios del IOM 1999 y extrapolando datos del número total de admisiones hospitalarias en EE.UU. en 2013.

Creemos que éste desestima la incidencia real de muertes por ER debido a que los estudios citados se apoyan en errores extraíbles de registros médicos de salud y solo incluyen pacientes internados.
Comparando nuestras estimaciones con los rankings del CDC se puede sugerir que el error médico es la tercera causa más común de muerte en ese.

Mejor información

El error humano es inevitable. Si bien no puede eliminarse, puede medirse el problema lo mejor posible para diseñar sistemas de seguridad que disminuyan su frecuencia, visibilidad y consecuencias.

Las estrategias para reducir muertes por error  deben incluir tres pasos:

1. Hacer los errores más visibles cuando suceden para poder interceptar sus efectos.
2. Tener las medidas de rescate cerca.
3. Seguir principios para disminuir los errores que tengan las limitaciones humanas en cuenta.

Actualmente, las muertes causadas por errores no están medidas y las discusiones sobre su prevención ocurren en foros limitados y confidenciales como puede ser el comité de análisis del hospital o una conferencia interna sobre morbilidad y mortalidad de un departamento médico. En estos espacios solo se revisan una parte de los efectos adversos detectados y las lecciones aprendidas no son transmitidas más allá del servicio o la institución.

Para lograr estadísticas en lugar de solamente pedir la causa de muerte, los certificados podrían contener un campo extra preguntando si existió una complicación a partir de los cuidados médicos que podría desencadenar en el fallecimiento.  

Una experiencia temprana  donde se preguntó a los médicos sobre una potencial causa prevenible de muerte en pacientes internados tuvo una tasa de respuesta del 89%.

Otra estrategia es que los hospitales lleven a cabo una investigación interna e independiente sobre las muertes ocurridas para determinar la potencial contribución del error humano en las mismas.

Tomar la medida de las consecuencias del cuidado médico en los resultados de los pacientes es un importante prerrequisito para crear cultura de aprendizaje a partir de nuestros errores.

Prioridades en salud

Hemos estimado que el ER es la tercera causa de mortalidad en EE.UU. y es un tema que requiere atención. El error humano que conduce a la muerte de un paciente no es una variable reconocida en  algunos países como  Inglaterra y Canadá.

Según datos de la OMS, 117 países codificaron sus estadísticas de mortalidad utilizando el sistema ICD como primer indicador del estado de salud.

El sistema de codificación ICD 10 limita la habilidad de capturar la mayoría de los tipos de error médico.  Existen pocos códigos donde se puede inferir el rol del error, por ejemplo el código de anticoagulación y el código para eventos por sobredosificación. Cuando un error médico da como resultado una muerte debe estudiarse la causa fisiológica y el problema relacionado con el cuidado del paciente.

Para lograr sistemas de salud más confiables, las mejoras en seguridad deben beneficiarse por compartir información nacional e internacional, del mismo modo que los médicos comparten información sobre investigación e innovación en, por ejemplo, enfermedad coronaria, melanoma o influenza. Los métodos científicos, comenzando con la evaluación del problema, son un punto crítico para llegar a cualquier amenaza de salud de los pacientes. El problema del error médico, no debe estar exento del método científico para su análisis







Periodontal disease and myocardial infarction

                                                                  Anders Gustafsson - Björn Klinge

                                                           PAROKRANK -Scientific network - Sweden

(Protocol was planned based upon a scientific seminar involving clinicians and clinical and basic scientist with experience from epidemiology, cardiology, periodontitis, infectious diseases, inflammatory diseases, psychiatry, atherosclerosis basic research and insurance medicine).


The hypothesis that there is a causal relationship between periodontitis and cardiovascular disease. If this hypothesis is confirmed the plan is to clarify whether elimination of periodontitis will decrease the risk for further cardiovascular events


 The connection between periodontitis and cardiovascular disease has been debated during several years. Periodontitis and cardiovascular disease are common and the latter linked to a high morbidity and mortality. Several risk factors behind cardiovascular disease are well known. Although these risk factors may explain a large proportion of cardiovascular disease there are other risk factors as well and among them chronic inflammatory diseases. Periodontitis has been discussed in this connection (1).

Periodontal disease

Is an inflammatory disease, which exists in variable severity from 5-8%)@35%) and serious (@50%) to moderate (@gingivitis (prevalence in Sweden  periodontitis. The disease engages the surroundings of the teeth, starting in marginal gingival tissues. Poor oral hygiene lead to dental plaques, which initiates an inflammatory reaction. The plaques contain micro-organisms, possibly up to 700 different species. The most important are Porphorymonas gingivalis, Actinobacillus actinomycetemcomitans and Tannerella forsythensis (2-5). Periodontitis induces an immunological defence reaction which may be strong and harmful. Periodontitis is diagnosed by clinical investigation and the diagnosis and severity can be further graded by an ortho-radial panoramic tomography. An example of serious periodontitis is shown in the figure. Available treatment is mechanical infection control supported by antibiotics and the elimination of plaques, sometimes also regenerative periodontal surgery. Such combined Research Program Periodontal disease and myocardial infarction 2 treatment may eliminate the chronic, sub-clinical inflammatory reaction induced by periodontitis (6).

Cardiovascular disease in Sweden

Despite a favourable development during the last decades cardiovascular disease still causes about 50% of all mortality and a considerable morbidity. The total number of people Figure Left panel: clinical expression of periodontitis. The space between the teeth indicates serious disease. Right panel: The X-ray reveals a considerable loss of bone (>2/3 of the dental root). living with cardiovascular disease has increased due to an enhanced longevity and increased survival of cardiovascular disease manifestations. Further efforts to decrease cardiovascular disease are mandatory.

Shared risk factors

Cardiovascular disease is more common in patients panerai replica with than among those without periodontitis. Several risk factors are shared by the two conditions. Periodontitis may, however, be a risk factor for cardiovascular disease in itself and it is important to study the possible connection between these two diseases, controlling for shared risk factors and other confounders. Among shared risk factors are: family history, age, overweight, dietary conditions and socio-economic factors.

Pathophysiological similarities

It is established that systemic inflammation is a factor of importance for atherosclerosis (8,9). Patients with chronic inflammatory diseases (rheumatoid arthritis, inflammatory gastrointestinal diseases and systemic lupus erythematosus) have an accelerated progress of atherosclerosis compared to age-and sex matched controls (10). Epidemiological studies revealed an association between increased CRP-levels in the population and subsequent coronary artery disease (11). Inflammatory activation is important for plaque rupture in Research Program Periodontal disease and myocardial infarction 3 coronary arteries and thrombotic occlusions causing myocardial infarction (12). It has been hypothesized that inflammatory involvement of the vascular intima may be a response to damage caused by smoking, hypertension, oxidized lipoproteins and hyperglycemia. Chewing and tooth brushing may transfer micro-organisms from dental pockets into the blood stream causing bacteraemia (13). Experimental studies show that such bacteraemia may contribute to increased atherosclerotic vascular damage, aggregation of platelets and development of thrombotic material. Moreover DNA from micro-organisms from affected teeth has been identified in atherosclerotic plaques (14-15). Cytokines (prostaglandin E2, interleukin-1-β, tromboxan B2 and TNF-α) released in the periodontal disease process may have role in the initiation of atherosclerosis and increased release of inflammatory mediators contained in dental pockets may increase the risk for cardiovascular disease (16).

Previous studies

Several studies have been performed regarding the association of periodontitis and cardiovascular disease. The most important information from various publications, such as study design and population, outcome, statistical adjustments and concerns, is summarised in a table (appendix 1). There is still no clear evidence for a causal relation, something that is important to explore further. The explanation to this short coming relates to a number of methodological problems in available reports. Among them are too small population samples, information based on questionnaires rather than direct examinations, lack of precise definitions regarding dental involvement, incomplete consideration of potential confounding risk factors and lack of thorough information on exact inclusion - and exclusion criteria. Moreover no studies explored the impact of intervention against periodontitis on progression of atherosclerosis and event rate. Further information may be achieved from the appended table and from a report from SBU (17).

Patient related impact

The establishment of a causal relationship between periodontitis and cardiovascular disease will have a profound impact on the attitude to treatment of periodontitis from the present aim to improve dental health to decreasing cardiovascular disease. Considering the high prevalence of these two diseases it has a potential to importantly improve public health.

Work plan and research platforms

PAROKRANK is a prospective case-control study. The study differs from previous investigations by a considerably more extensive and modern investigation of the periodontitis and potential confounders. The continued, longitudinal follow-up of patients offers an Research Program Periodontal disease and myocardial infarction 4 opportunity to study whether the existence and severity of periodontitis influences subsequent coronary events and mortality. The outcome of the first part of PAROKRANK will make it possible to evaluate whether a continuation studying the impact of intervention on future cardiovascular events is feasible. Sweden is an ideal country for the study due to the availability of comprehensive morbidity and mortality registries on patients with myocardial infarction. This design makes it possible to study the hypothesis with reasonable investments as regards population size, time and funds. Patients and controls

Patients are recruited when admitted for a first myocardial infarction to a coronary care unit at a Swedish coronary care unit reporting to RIKS-HIA. Hospitals selected for the study will be those where dental clinics are available and have expressed an interest to participate in PAROKRANK (see Appendix 2). They will be followed during a period of two years as regards new cardiovascular events (myocardial infarction, stroke and mortality). Information on the patients will be based on data derived from their routine care supplemented by more specific sampling as defined by the protocol. Controls are age-and gender matched subjects, free from previously known myocardial infarction, randomly chosen from the population registry in the area surrounding the respective hospitals. They will be approached via mail and telephone interviews by a research nurse. Eligible controls, consenting to participation will be subjected to a careful health examination and blood sampling according to the protocol. Patients and controls will undergo a thorough dental investigation including a dental x-ray. Controls will be investigated when recruited and patients as soon as possible following the myocardial infarction. Periodontitis will be graded according to a strictly defined protocol. Investigational results from different clinics will be harmonized by the application of clinical and radiological calibrations according to defined criteria. Follow-up will be based on available registry information (myocardial infarction, stroke and mortality). The existence of coronary events during two years of follow up will be related to the dental status at the time of recruitment. Monitoring and data collection will be administered by a central study office at the Unit for Cardiology, Department of Medicine, Karolinska Institutet as regards clinical information and a corresponding unit at the Paradontological Department at Huddinge University Hospital mini electric scooter.


1. Buhlin K. The role of periodontitis in cardiovascular disease. Thesis. Karolinska University Press 2004.

2. Genco RJ. Current view of risk factors for periodontal diseases. J Periodontol 1996;67:1041- 1049

3. Hugoson A, Norderyd O, Slotte C, Thorstensson H. Oral hygiene and gingivitis in a Swedish adult population 1973, 1983 and 1993. J Clin Periodontol 1998;25:807-812.

4. Papapanou PN. Epidemiology of periodontal diseases: an update. J Int Acad Periodontol. 1999;1:110-116.

5. Zambon JJ. Periodontal diseases: microbial factors. Ann Peroidontol 1996;1:879-925. 6. Lindhe J, Nyman S. Treatment Planning. In: Lindhe J, Karring T, Lang NP, editors. Clinical Periodontology and Implant Dentistry. 3rd ed. Copenhagen: Munksgaard; 1997. p. 420-437.

7. Socialstyrelsen. (The National Board of Health and Welfare). Centre of Epidemiology. Statistics-Health and Diseases. Causes of death 2000. In official statistics of Sweden 2002.

8. Hansson GK. Inflammation, atherosclerosis, and coronary artery disease. New Engl J Med. 2005;352:1685-1695.

 9. Ross R. Atherosclerosis - an inflammatory disease. N Engl J Med 1999;340:115-126.

10. Roman MJ. Moeller E. Davis A. Paget SA. Crow MK. Lockshin MD. Sammaritano L. Devereux RB. Schwartz JE. Levine DM. Salmon JE. Preclinical carotid atherosclerosis in patients with rheumatoid arthritis. Ann Intern Med. 2006;144:249-256.

11. Danesh J. Whincup P. Walker M. Lennon L. Thomson A. Appleby P. Gallimore JR. Pepys MB. Low grade inflammation and coronary heart disease: prospective study and updated meta-analyses. BMJ. 2000;321:199-204.

12. Libby P. Aikawa M. Stabilization of atherosclerotic plaques: new mechanisms and clinical targets. Nature Medicine. 2002;8:1257-1262.

13. Heimdahl A, Hall G, Hedberg M, Sandberg H, Söder PÖ, Tuner K et al. Detection and quantitation by lysis-filtration of bacteremia after different oral surgical procedures. J Clin Microbiol 1990;28:2205-2209.

14. Herzberg MC, Meyer MW. Dental plaque, platelets, and cardiovascular diseases. Ann Periodontol 1998;3:151-160.

15. Li L, Messas E, Batista EL Jr, Levine RA, Amar S. Porphyromonas gingivalis infection accelerates the progression of atherosclerosis in a heterozygous apolipoprotein E-deficient murine model. Circulation 2002;105:861-867.

16. Beck J, Garcia R, Heiss G, Vokonas PS, Offenbacher S. Periodontal disease and cardiovascular disease. J Periodontol 1996;67:1123-1137.

17. Statens Beredning för Medicinsk Utvärdering (SBU). Kronisk parodontit som risk för utveckling av andra sjukdomar. In: Kronisk parodontit - prevention, diagnostik och behandling. 2004 p. 341-376.



MISCELANEAS BREVES - 166Fecha: 1/8/2016



Heart failure in pregnant women

                                                               Zoltan Arany, MD, PhD
                                           Associate professor of Cardiovascular Medicine.
                                                    Perelman School of Medicine at the University of Pennsylvania


Each year approximately 1 in 1,000 pregnant women will experience peripartum cardiomyopathy, an uncommon form of often severe heart failure that occurs in the final month of pregnancy or up to five months following delivery.
The cause of peripartum cardiomyopathy has been largely unknown - until now. The genetic variants that have been associated with another form of inherited cardiomyopathy, and determined that peripartum cardiomyopathy is often the result of a genetic mutation.
Researchers analysed 43 genes in 172 women who experienced peripartum cardiomyopathy, and found that 15 percent of the group had genetic mutations, usually in their TTN gene, which encodes the instructions for making the Titin protein. This protein-named after the Greek gods, Titans-is the largest protein in the body and directly affects the heart's ability to contract and relax. Of the women analysed, 26 were identified to have mutations on the TTN gene, an effect that is significantly higher than any other reported finding for the cause of peripartum cardiomyopathy. Until now, we had very little insight into the cause of peripartum cardiomyopathy. There had been theories that it was linked to a viral infection or paternal genes attacking the mother's circulatory system, or just the stresses of pregnancy. This research shows that a mutation in the TTN gene is the cause of a significant number of peripartum cardiomyopathies, even in women without a family history of the disease."
The same mutations are also present in many who experienced dilated cardiomyopathy, a condition in which the heart's ability to pump blood is decreased when the main pumping chamber becomes weak and enlarged. This is similar to peripartum cardiomyopathy but most often occurs in older patients. However, the two diseases are not the same. For example, a woman with the genetic mutation for dilated cardiomyopathy will not always experience peripartum cardiomyopathy, and women with the peripartum cardiomyopathy mutation will not always experience dilated cardiomyopathy later in life. How the same mutations can lead to different conditions in different people remains an unanswered question.
More research is unquestionably needed. We're continuing to follow these women and we're gathering data for hundreds of others around the world, with the goal of identifying the cause of peripartum cardiomyopathy in the remaining 85 percent of women with this condition, and ultimately using what we learn to improve the care of these women and their newborns."








Un mecanismo por el cual las dietas ricas en grasas predisponen al desarrollo de cáncer de colón.

                                                                             Nature (2016); doi:10.1038/Nature 17173


Seguir una dieta rica en grasas hace que las células intestinales sean más propensas a volverse cancerosas.

Dr. Omer Yilmaz (profesor de biología del MIT - autor del estudio) se ha observado cómo un incremento de grasas en la alimentación de ratones cambia la biología de las células madre intestinales así como de otro tipo de células, lo que conduce a un aumento de la formación de tumores.
Estudios epidemiológicos en la última década habían establecido una asociación entre obesidad y dietas altas en grasas, y el cáncer de colon. Hasta el momento la hipótesis prevalente en la comunidad científica era que el exceso calórico inducía un estado hormonal similar a la inflamación crónica, lo que favorecía la aparición de tumores.
En este estudio se muestra que una dieta rica en grasas promueve la proliferación tanto de células madre intestinales, que en estudios recientes se ha visto que son las que más probabilidad tienen de acumular mutaciones que acaben dando lugar a tumores; como también de otro tipo de células, llamadas progenitoras, mucho más abundantes y que se comportan de forma similar a las madre (se reproducen de forma indefinida y se diferencian en otros tipos de células).
Se estudiaron ratones sanos a los que alimentaron entre nueve y 12 meses con una dieta compuesta por un 60% de grasas. Durante ese periodo, observaron que los animales aumentaron entre un 30 y un 50% su masa corporal en comparación con los roedores que seguían una dieta normal, y, además, también desarrollaron más tumores intestinales. Asimismo, vieron que tenían más cantidad de células madre en el epitelio, o pared intestinal, que los animales del grupo de control.
Los autores del trabajo sugieren que un exceso de lípidos o grasas puede provocar que las células progenitoras se vuelvan más parecidas a las células madre, que suelen ser aquellas que en el intestino adquieren las mutaciones que acaban provocando tumores.. En los intestinos de estos ratones alimentados con un exceso de grasa, no sólo hay más células madre tradicionales, sino también poblaciones de células que no siendo madre tienen la capacidad de adquirir mutaciones que dan lugar a tumores.

Dr. Big Vang Eduard Batlle (Institut de Recerca Biomèdica de Barcelona - NO autor del estudio) las grasas presentes en el epitelio del intestino impactan sobre las células madres y, aparentemente, eso expande el compartimiento de estas células. Al haber más, el tejido está más predispuesto a generar tumores si se producen las mutaciones apropiadas, porque sabemos que los tumores en cáncer de colon se originan a partir de las células madre.

Dr.Batlle (referencia mundial en cáncer de colon - No participante del estudio), se muestra cauto ante los resultados de este trabajo.Es una enfermedad multifactorial, no podemos limitar su origen a una sola causa. La microbiota intestinal tiene un papel importante en influencia para la susceptibilidad individual de desarrollar un cáncer de colon..
La asociación más importante se establece entre obesidad, no tanto grasas, y este tipo de tumores.

MISCELANEAS BREVES - 165Fecha: 3/6/2016



Los seres humanos asintomáticos transmitirían el virus del dengue a los mosquitos

                                                                        Científicos del:
                                                                                     * Instituto Pasteur de Camboya
                                                                                     * Instituto Pasteur de París
                                                                                     * Centre National de la Recherche Scientifique

               Proceedings of the National Academy of Sciences of the United States of America - 2015



El virus del dengue infecta anualmente a 390 millones de personas en el mundo a través de la picadura de mosquitos del género Aedes. La mayoria (300 millones) de estos individuos no presentan síntomas clínicos lo suficientemente graves como para ser detectados por los sistemas de atención de salud.
Las personas infectadas por el virus del dengue, sin síntomas clínicos de consideración, sí pueden infectar a los mosquitos que los pican, lo que se contyrapone con la creencia vigente que estas infecciones asintomáticas (o levemente sintomáticas) no alcanzan un nivel suficientemente alto de la viremia para infectar a los mosquitos. 
Los investigadores realizaron su estudio en una población humana en riesgo de infección por dengue en Camboya, en la ciudad de Kampong Cham. Analizaron  sangre en las personas que vivían en las proximidades a los pacientes con dengue sintomático confirmado,  en el caso de las personas que en sus análisis de sangre dieron positivo para el virus del dengue (pero sin síntomas clínicos) fueron puestos en contacto con mosquitos sanos en un laboratorio. El análisis posterior de estos mosquitos confirmó que habían sido infectados, y que tendrían la capacidad de transmitir el virus la próxima vez que picaran a un ser humano. Esta investigación también confirmó que el nivel de viremia es un factor crítico en la transmisión del virus del dengue de un ser humano a un mosquito.



PORPHYRIASFecha: 2/6/2016




Porphyrias: A 2015 update


                                       Zoubida Karima, Said Lyoumi, Gael Nicolas, Jean-Charles Deybacha,
                                       Laurent Gouya, Hervé Puya


    Introducción del trabajo: Clinics and Research in Hepatology and Gastroenterology                                                                    (2015) 39, 412-425



Each porphyria is caused by abnormal function at a separate enzymatic step resulting in a specific accumulation of heme precursors.

Porphyrias are classified as hepatic or erythropoietic, based on the organ system in which heme precursors (-aminolevulinic acid [ALA], porphobilinogen and porphyrins) are overproduced.

Clinically, porphyrias are characterized by acute neurovisceral symptoms, skin lesions or both. However, most if not all the porphyrias impair hepatic or gastrointestinal function. Acute hepatic porphyrias present with severe abdominal pain, nausea, constipation, confusion and seizure, which may be life threatening, and patients are at risk of hepatocellular carcinoma without cirrhosis. Porphyria Cutanea presents with skin fragility and blisters, and patients are at risk of hepatocellular carcinoma with liver iron overload. Erythropoietic protoporphyria and X-linked protoporphyria present with acute painful photosensitivity, and patients are at risk of acute liver failure.

Altogether, porphyrias are still underdiagnosed, but once they are suspected, early diagnosis based on measurement of biochemical metabolites that accumulate in the blood, urine, or feces is essential so specific treatment can be started as soon as possible and long-term liver complications are prevented. Screening families to identify presymptomatic carriers is also crucial to prevent overt disease and chronic hepatic complications.


The porphyrias are a group of eight inherited metabolic disorders of heme biosynthesis in which specific patterns of accumulation of heme precursors are associated with characteristic clinical features: acute neurovisceral attacks, skin lesions or both. Each type of porphyria is the result of a specific enzymatic abnormality in the heme biosynthetic pathway. Delta-aminolevulinic acid (ALA) and/or porphobilinogen (PBG), the initial heme lineage precursors, are overproduced in the porphyrias that cause chronic neuropathy and acute neurovisceral attacks, and porphyrinogens are overproduced in the cutaneous porphyrias .

Heme is required for the synthesis of hemoproteins such as hemoglobin, myoglobin, the mitochondrial or microsomal cytochromes, catalase, peroxidase, nitric oxide synthase, prostaglandin endoperoxide synthase, guanylate cyclase and tryptophan dioxygenase, all of which play important roles in oxidation-reduction reactions and oxygen transport . The three terminal enzymes (coproporphyrinogen oxidase [CPO], protoporphyrinogen oxidase [PPOX] and ferrochelatase [FECH]) are associated with the inner mitochondrial membrane in a multienzymatic terminal complex related to the import of iron into mitochondria. Zn2+ is also a substrate for the enzyme, and iron deficiency leads to Zinc-Protoporphyrin (PPIX) accumulation, whereas ferrochelatase deficiency leads to free-PPIX accumulation. Although heme is synthesized in every human cell, 80% is produced in erythropoietic cells and 15% in liver parenchymal cells. Heme biosynthesis is differently controlled in these two tissues. ALA synthesis is the most important controlling step for heme formation.

The first enzyme, -aminolevulinic acid synthase (ALAS; EC, is encoded by two genes, one erythroid specific (ALAS2 on the X chromosome),one ubiquitous (ALAS1 on chromosome 3).

In the liver, newly formed hemoproteins are rapidly turned over in response to current metabolic needs, and the liver ALAS1 is under a negative feedback regulation by the intracellular ''uncommitted'' heme pool. Increased hepatic ALAS activity is a secondary phenomenon that results from exposure to several influences (such as drugs, fasting and hormones). This accounts for the especially marked increase in ALA and PBG production and excretion in acute hepatic porphyrias  In erythroid cells, synthesis of the enzymes participating in the formation of heme is regulated during erythroid differentiation by erythropoietin and is finely tuned by iron availability. In these cells, the rate of ALAS2 synthesis is increased only during the period of active heme synthesis and is regulated by iron availability.

Ferrochelatase, the final enzyme of heme biosynthesis, and iron, its substrate, also play a significant role in controlling the rate of heme formation in erythroid cells  

Spleen and liver macrophages have a special role in degrading heme and recycling iron following phagocytosis of senescent erythrocytes. Heme oxygenase 1 (HO-1, EC is present in especially large amounts in liver and spleen and generates carbon monoxide, biliverdin and iron. Biliverdin is oxidized to bilirubin and excreted in bile, while the liberated iron is stored as ferritin or is recycled back to the plasma. The porphyrias are generally broadly classified as acute porphyrias and cutaneous porphyrias, based on their clinical presentation.

Acute intermittent porphyria (AIP) and the rare ALA dehydratase porphyria (ADP) are associated with neuropathy and acute attacks only. Variegate porphyria (VP) and hereditary coproporphyria (HC) are associated with both acute attacks and/or skin lesions. Congenital erythropoietic porphyria (CEP), sporadic and familial porphyria cutanea (PC), erythropoietic protoporphyria (EPP) and X-linked protoporphyria (XLPP) present with dermatological symptoms only.

Most porphyrias, apart from the sporadic form of porphyria cutanea, are monogenic disorders with an autosomal dominant inheritance and low clinical penetrance. The majority of the individuals who inherit an autosomal dominant porphyria remain asymptomatic throughout life (latent or presymptomatic) but are at risk of chronic liver complications. Accurate diagnosis of clinically overt porphyria requires identification of the unique pattern of overproduction of porphyrin precursors (ALA, PBG) and porphyrins (Uro, Copro, Protoporphyrins) that results from each enzyme deficiency (Table 1). ALA and PBG are excreted only in the urine. Coproporphyrin and uroporphyrin are the predominant porphyrins in normal human urine. Protoporphyrin, a very poorly water-soluble compound, and 70% of coproporphyrin are excreted in feces through the liver, where they may induce cholestasis .






Maternal and Neonatal Consequences of Treated and Untreated Asymptomatic Bacteriuria in Pregnancy: A Prospective Cohort Study With an Embedded Randomised Controlled Trial

                                                       Kazemier BM, Koningstein FN, Schneeberger C, et al
                                                           Lancet Infect Dis. 2015;15:1324-1333



Asymptomatic Bacteriuria in Pregnancy

Antibiotics are frequently prescribed even when they are not indicated. A common area of antibiotic misuse is the treatment of asymptomatic bacteriuria (ASB). ASB is typically harmless, but treating ASB can increase rates of antibiotic resistance.[1]Pregnancy, however, is felt to be one of the few circumstances when treating ASB is beneficial-a recommendation supported by randomized controlled trials (RCTs) from the 1960s and 1970s.

Not all obstetricians, however, screen and treat for ASB. In The Netherlands, for example, prenatal screening for ASB is not the standard of care. Kazemier and colleagues seized this unique opportunity to study the natural history of untreated JingJin filter press. They designed a multicenter prospective cohort study with an embedded RCTs to determine whether screen-and-treat strategies for ASB during pregnancy prevent pyelonephritis and preterm births.

For this study, ASB screening was offered to pregnant women aged ≥ 18 years who were between 16 and 22 weeks of gestation at in The Netherlands, representing different levels of obstetric care and patient socioeconomic status. Several exclusion criteria ensured that eligible women would all be at low risk for obstetric and infectious complications. Women who tested positive for ASB and agreed to enroll were randomly assigned to receive a 5-day course of nitrofurantoin or placebo.

More than 5000 pregnant women were eligible, and 250 (5%) tested positive for ASB. Only 85 of the ASB-positive women agreed to enroll in the RCT. Despite these low numbers, the investigators were able to define outcomes in 4283 women by electronically extracting data from a national perinatal registry. In the overall cohort, pyelonephritis occurred in 2.4% of untreated ASB-positive women and 0.6% of ASB-negative women.Although this was a statistically significant difference, the overall risk for pyelonephritis was low.

There was no difference in preterm delivery between the two groups (ASB-positive and untreated, 1.0%; ASB-negative, 1.3%). No differences in outcomes were found between women with treated ASB and those with untreated ASB.


These findings contradict more than a dozen older RCTs, so skeptics may be quick to highlight this study's limitations. The obvious weakness is the small number of women who underwent randomization. The frequency of the primary outcome was drastically lower than anticipated, so the trial was underpowered to identify a significant difference. On the other hand, because the incidence of pyelonephritis and preterm labor is low, preemptive strategies may not be warranted.

Skeptics may also argue that untreated ASB-positive women could have developed symptomatic urinary tract infections that were undetected by the investigators because they were treated as outpatients and were never hospitalized. Although women enrolled in the RCT self-reported their outpatient antibiotic use, there was no comparable monitoring mechanism for the other patients in the cohort. Even if cases such as this were missed, it's noteworthy that not treating ASB at the time of screening did not lead to worse perinatal outcomes in either the cohort study or the RCT.

Physicians long for RCTs to guide their decision-making. A Cochrane review from 2015, published before the release of this trial, reviewed 14 RCTs and concluded that treating ASB in pregnancy is beneficial, on the basis of "very low-quality evidence."[2] Now that a modern trial has reassessed the issue, will it change practice?


1.       Cai T, Nesi G, Mazzoli S, et al. Asymptomatic bacteriuria treatment is associated with a higher prevalence of antibiotic resistant strains in women with urinary tract infections. Clin Infect Dis. 2015;61:1655-1661.

2.       Smaill FM, Vazquez JC. Antibiotics for asymptomatic bacteriuria in pregnancy. Cochrane Database Syst Rev. 2015;8:CD000490.

MISCELANEAS BREVES - 164Fecha: 1/5/2016



En el siglo XVIII la posibilidad de una cierta prevención de la viruela fue uno de los logros médicos más salientes de aquella época.
Emanuel Timoni publicó en Philosophical Transactions de la Royal Society (1714). un reporte de un método turco sobre la adquisición de la viruela por incisión o inoculación, ejemplo perfecto sobre investigaciones de costumbres populares.
Una descripción del procedimiento también fue publicada por Giacomo Pylarini en el mismo volumen de la revista.
Ambos refieren que el inoculador tomaba pus de un paciente afectado de una forma benigna de la enfermedad mediante la apertura de una pústula con la aguja. El material era colocado en un recipiente de vidrio limpio buscando mantener el calor. Se hacían pequeñas heridas en la piel del sujeto sano, se dejaba fluir un poco de sangre y se mezclaba el pus con la sangre, la incisión era cubierta con la mitad de una cáscara de nuez como se hacia en el procedimiento turco.
Durante la membrane filter press de viruela desatada en Inglaterra (1721) Lady Mary, solicita que inoculen a su pequeña de cuatro años. El Dr Maitland exigió presencia de varios médicos como testigos (los galenos espectadores eran muy hostiles al procedimiento). La niña salió ilesa del brote de viruela. Coincidentemente también tuvieron a lugar una serie de ensayos con la colaboración de la Real Sociedad y el Colegio de Médicos, para evaluar la seguridad de la inoculación. Seis delincuentes participaron en un chamber filter press (por cambio de pena o indulto si sobrevivían), fueron inoculados por Maitland el 9 de agosto 1721, en presencia de  25 testigos. El estudio se consideró un éxito.
También, se inocularon huérfanos de la parroquia de St. James,seguido muy de cerca por el Príncipe y la Princesa de Gales quienes en función de los resultados favorables, acordaron en aplicarlo a dos de sus hijas.

                                                                               Dr. Oscar Bottasso,
                                                       Instituto de Inmunología Clínica y Experimental de Rosario, 
                                                                   CONICET-UNR, Rosario, Argentina







Cuándo sospechar metahemoglobinemia?


                               Bhuvnesh Aggarwal, Ruhail Kohli, Rendell Ashton, Moises Auron
                                     Cleveland clinic journal of medicine vol. 82 • N 3. Pag 159

                                          Traducción y resumen objetivo: Dra. Marta Papponetti


Un caso clínico

Una mujer de 48 años de edad se presentó en el servicio de urgencias después de 2 días de tos seca, molestias en el pecho, disnea progresiva y sensación febril. Sufre esclerosis sistémica por lo que está recibiendo 20 mg/día de prednisona y 81 mg/día de aspirina.

Examen físico: taquipnea (28 respiraciones/min), ruidos bronquiales basales.
Examen de laboratorio de ingreso:


  • Hemoglobina 106 g/l
  • Volumen corpuscular medio: 84 fl (80-100)
  • Recuento de leucocitos: 29,4 × 109/l (3,70 a 11,0) con 85% de neutrófilos
  • Recuento de plaquetas: 180 ×109/l (150-350)
  • Deshidrogenasa láctica 312 U/l (100 a 220).

Radiografía de tórax mostró un infiltrado en el lóbulo inferior del pulmón izquierdo.

La paciente fue hospitalizada, comenzó tratamiento con azitromicina intravenosa y ceftriaxona por diagnóstico presuntivo de neumonía adquirida en la comunidad. 
Debido a su inmunosupresión derivada del el tratamiento crónico con prednisona y su nivel elevado de deshidrogenasa láctica se sospechó neumonía por Pneumocystis jirovecii, y debido que tenía antecedentes de alergia a la trimetoprima-sulfametoxazol y la pentamidina, se inició tratamiento con dapsona. 
Durante las 24 horas siguientes sufrió empeoramiento de la disnea, hipoxia, y cianosis. Se le colocó una máscara de aire, con una fracción de oxígeno inspirado de 0,5. La oximetría de pulso mostró una saturación de oxígeno del 85%, pero el análisis de gases en sangre arterial halló una concentración de oxihemoglobina del 95%.


Brecha de saturación

La sospecha de metahemoglobinemia surge con una discrepancia entre el nivel de oxihemoglobina y la saturación de oxígeno en la oximetría de pulso.   
1¿Cuáles son las causas más probables de la discrepancia entre la concentración de oxihemoglobina y la saturación de oxígeno por oximetría de pulso en este paciente?

  • Metahemoglobinemia.
  • Intoxicación por monóxido de carbono.
  • Colocación inadecuada de la sonda del oxímetro de pulso.
  • Embolia pulmonar

La metahemoglobinemia es la causa más probable de discrepancia entre los niveles de oxihemoglobina y saturación de oxígeno por oximetría de pulso, un fenómeno también conocido como "brecha de saturación".
Otras causas comunes son la intoxicación por cianuro y por monóxido de carbono. Sin embargo, la intoxicación por monóxido de carbono no explica la cianosis que presenta la paciente. Por el contrario, esa intoxicación puede provocar una coloración rosa brillante antinatural de los labios y las mucosas. Por otra parte, la intoxicación por monóxido de carbono eleva la concentración sanguínea de carboxihemoglobina (que tiene una elevada afinidad por el oxígeno), y esto generalmente hace que la oximetría de pulso muestre valores inapropiadamente elevados. En cambio, la paciente mostró valores bajos. 
La colocación incorrecta de la sonda del oxímetro de pulso puede dar resultados inexactos de la saturación de oxígeno. Tanto la visualización de la forma de onda en el pletismógrafo como el índice de calidad de la señal pueden ser utilizados para evaluar la colocación adecuada de la sonda del oxímetro de pulso. Sin embargo, la colocación inadecuada de la sonda no explica la disnea y la cianosis de la paciente.
La embolia pulmonar puede conducir a la hipoxia como consecuencia de la falta de coincidencia de la ventilación-perfusión. Sin embargo, la embolia pulmonar que lleva a una saturación baja de oxígeno en la pulsioximetría también llevará concomitante a niveles bajos de oxihemoglobina medida por el análisis de gases en sangre arterial, y esto no se observó en la paciente.


Por discrepancia entre la lectura de la oximetría de pulso y la concentración de oxihemoglobina en el análisis de gases en sangre arterial, se midió el nivel de metahemoglobinay se halló que era del 30%, lo que confirma el diagnóstico de metahemoglobinemia.



Normalmente, el oxígeno está unido al hierro de la hemoglobina en su forma ferrosa (Fe2+) para formar oxihemoglobina. El estrés oxidativo puede hacer que el hierro pase del estado ferroso al férrico (Fe3+) formando metahemoglobina. Este compuesto está normalmente presente en la sangre en niveles bajos (<1% de la hemoglobina total); el hierro férrico se reduce y se recicla de nuevo a la forma ferrosa por medio de la b5NADH-fitocromo redactase, una enzima presente en los eritrocitos. Este mecanismo de protección mantiene los niveles de metahemoglobina dentro de límites seguros. Pero el aumento de la producción puede provocar la acumulación de metahemoglobina, responsable de la disnea y la hipoxia y de la condición conocida como methemoglobinemia.
El aumento de los niveles de metahemoglobina en relación a la hemoglobina provoca hipoxia tisular a través de varios mecanismos.
La metahemoglobina no puede transportar el oxígeno en forma eficaz. En su lugar, se une al agua o a un ion hidróxido de hierro, dependiendo del pH del entorno. Por lo tanto, la molécula de hemoglobina no lleva su carga habitual de oxígeno, y el resultado de la hipoxia es el menor aporte de oxígeno a los tejidos.
Por otra parte, un aumento de la concentración de metahemoglobina provoca un desplazamiento hacia la izquierda de la curva de disociación de la oxihemoglobina, lo que representa un aumento de la afinidad del oxígeno unido a los grupos hem restantes.
El oxígeno, fuertemente unido, no se libera adecuadamente en los tejidos causando hipoxia celular. La metahemoglobinemia está causada por la exposición a un químico oxidante o medicamento que aumentan la producción de metahemoglobina. En casos raros, está causada por una deficiencia congénita de de la b5 NADH citocromo reductasa.

2  Medicamentos que pueden causar metahemoglobinemia

  • Acetaminofeno
  • Dapsona
  • Benzocaína
  • Primaquina
  • Cloroquina
  • Nitroglicerina
  • Sulfonamidas

Estos medicamentos son los responsables más comunes de la metahemoglobinemia adquirida. El aumento de la producción de metahemoglobina causado por estos fármacos supera el efecto protector de las enzimas reductoras y puede conducir a una acumulación de metahemoglobina. Sin embargo, debido a la variabilidad en el metabolismo celular, no todas las personas que toman estos medicamentos desarrollan niveles peligrosos de metahemoglobina. La dapsona y  benzocaína son los fármacos que más comúnmente causan metahemoglobinemia 

La dapsona es un agente antiinflamatorio y antimicrobiano comúnmente utilizado para el tratamiento de la lepra lepromatosa y la dermatitis herpetiforme. También suele prescribirse para la profilaxis y el tratamiento de la neumonía por P. jirovecii en individuos inmunosuprimidos.

La benzocaína es un anestésico local y generalmente era utilizado previo a la cirugía bucal o dental, la ecocardiografía transesofágica y la endoscoopia. Incluso las dosis bajas pueden provocar niveles elevados de metahemoglobina. Sin embargo, su utilización actualmente está limitada en los principales centros de EE. UU. por la disponibilidad de otros anestésicos más seguros. Por otra parte, recientemente se ha informado que el anestésico tópico Emla (lidocaína más prilocaína)  causa metahemoglobinemia en lactantes y niños.

También se ha informado que puede producirse metahemoglobinemia fatal en pacientes con una deficiencia de G-6-fosfato deshidrogenasa (G6PD) tratados con rasburicasa, una versión recombinante de la enzima urato oxidasa, utilizada para prevenir y tratar el síndrome de lisis tumoral. Por último, se ha comprobado metahemoglobinemia en pacientes con enfermedad inflamatoria intestinal tratados con mesalamina. Aunque esta reacción adversa es rara, los médicos deben tenerla en cuenta.


Las manifestaciones clínicas de la metahemoglobinemia son directamente proporcionales al porcentaje de metahemoglobina en los eritrocitos. La cianosis generalmente se hace evidente con concentraciones cercanas al 15%, cuando el paciente todavía puede estar asintomático.
La ansiedad, los desvanecimientos, la taquicardia y los mareos se manifiestan con niveles del 20% a 30%. La aparición de fatiga, confusión, mareos, taquipnea, taquicardia y empeoramiento ocurren con niveles del 30% a 50%.
Los niveles de 50% a 70% causan coma, convulsiones, arritmias y acidosis, y los niveles >70% se consideran letales.
Si bien estos niveles proporcionan una guía general de la sintomatología en una persona sana, es importante recordar que los pacientes con enfermedades subyacentes, como la anemia, la enfermedad pulmonar (estas dos últimas presentes en la paciente), la sepsis, la talasemia, la deficiencia de G6PD y la anemia de células falciformes pueden manifestar síntomas con concentraciones de metahemoglobina más bajas. Los síntomas de la mayoría de los pacientes que desarrollan niveles clínicamente significativos de metahemoglobina se presentan en las primeras horas de iniciado uno de los fármacos causantes.


"La oximetría de pulso da valores más bajos que las mediciones del oxígeno en los gases en sangre arterial"

En los pacientes con metahemoglobinemia, la relación de la oxihemoglobina con la desoxihemoglobina está alterada y la oximetría de pulso da valores más bajos que las mediciones del oxígeno en los gases en sangre arterial. La oximetría de pulso funciona midiendo la absorción de la luz en dos longitudes de onda distintas (660 y 940 nm). La metahemoglobina absorbe luz en ambas longitudes de onda reduciendo así los valores de la oximetría de pulso. Por el contrario, cuando la saturación de oxígeno de los gases en la sangre arterial (oxihemoglobina) se calcula indirectamente a partir de la concentración del oxígeno disuelto en la sangre y no incluye al oxígeno unido a la hemoglobina. Por lo tanto, en los pacientes con metahemoglobinemia, la saturación arterial de oxígeno a menudo es normal, ya que se basa solamente en el contenido de oxígeno inspirado y es independiente de la concentración de metahemoglobina.
El oxígeno puede elevar el nivel de oxihemoglobina, que es una medida del oxígeno disuelto, pero la saturación de oxígeno determinada por la pulsioximetría permanece en gran parte sin cambios, o sea, la brecha de la saturación. Una diferencia >5% entre la saturación de oxígeno por oximetría de pulso y el análisis de los gases en sangre es anormal. 
Los pacientes con metahemoglobinemia clínicamente significativa suelen tener una brecha de saturación >10%
También existen otras características únicas que deben plantear la sospecha de metahemoglobinemia: pacientes con cianosis desproporcionada a la saturación de oxígeno y, pacientes con una saturación de oxígeno baja y una radiografía de tórax normal. Otra pista es la sangre de color chocolate en el examen macroscópico, más que el color rojo oscuro de la sangre desoxigenada.
La co-oximetría mide la saturación de oxígeno utilizando luz de diferentes longitudes de onda para distinguir entre las fracciones de oxihemoglobina, desoxihemoglobina y metahemoglobina, pero no está ampliamente disponible.

3 Cuál es el paso siguiente en el manejo de la paciente?

  • Suspender la dapsona.
  • Comenzar tratamiento con azul de metileno.
  • Comenzar con oxígeno hiperbárico.
  • Administrar tiosulfato de sodio.
  • Suspender la dapsona y comenzar el azul de metileno.s

El paso siguiente es suspender la dapsona y comenzar una infusión de azul de metileno.
El oxígeno hiperbárico se utiliza para el tratamiento de la intoxicación por monóxido de carbono y el tiosulfato de sodio para el tratamiento de la intoxicación por cianuro y no serían adecuados para la atención de este paciente.


El primer paso, que es el más crítico en el manejo de la metahemoglobinemia adquirida, es suspender inmediatamente el agente agresor sospechoso. En la mayoría de los pacientes sin patología concomitante como la anemia o la enfermedad pulmonar y con un nivel de metahemoglobina <20%, puede ser suficiente la interrupción del agente agresor.

Los pacientes con un nivel ≥20% y los que sufren enfermedad cardiaca y pulmonar (que desarrollan síntomas con concentraciones de metahemoglobina más bajas) requieren la infusión de azul de metileno. El azul de metileno pasa a su forma reducida, el azul de leucometileno, por la acción de la NADPH-metahemoglobina reductasa. Al oxidarse, el azul leucometileno reduce la metahemoglobina a hemoglobina. La primera dosis es de 1 mg/kg por vía intravenosa. En general, la respuesta es dramática, con la reducción en los niveles de metahemoglobina y la mejoría de los síntomas, a menudo dentro de los 30 a 60 minutos. Si los niveles siguen siendo elevados, la dosis se puede repetir 1 hora más tarde.

Los autores advierten que la terapia con azul de metileno debe evitarse en los pacientes con deficiencia total de G6PD. 

El azul de metileno actúa a través de la enzima NADPH metahemoglobina reductasa. Debido a que los pacientes con deficiencia de G6PD carecen de esta enzima, el azul de metileno es ineficaz. De hecho, como el azul de metileno no se puede reducir, su exceso puede oxidar la hemoglobina a metahemoglobina, exacerbando aún más la condición. En los pacientes con deficiencia parcial de G6PD, el azul de metileno se sigue recomendando como tratamiento de primera línea, pero con una dosis inicial más baja (0,3 a 0,5 mg/kg). Sin embargo, en los pacientes con hemólisis significativa, la única opción terapéutica  es la exanguíneo transfusión.


Se llevó a cabo la suspensión inmediata de la dapsona ya que fue considerada la causa probable de la metahemoglobinemia. Debido a que la paciente era sintomática, se le administraron 70 mg de azul de metileno por vía intravenosa. Durante los siguientes 60 minutos, su estado clínico mejoró significativamente. Una nueva medición de la metahemoglobina fue del 3%. Fue dada de alta al día siguiente con la indicación de antibióticos orales para completar el tratamiento de la neumonía adquirida en la comunidad.


  • Considerar la metahemoglobinemia en un paciente con cianosis inexplicable.

• En los pacientes con metahemoglobinemia, el oxígeno suplementario no mejora la brecha de saturación ni las lecturas de la oximetría de pulso.

• Una brecha de saturación >5% debe despertar la fuerte sospecha de metahemoglobinemia.




1. Cortazzo JA, Lichtman AD. Methemoglobinemia: a review and recommendations for management. J Cardiothorac Vasc Anesth 2014; 28:1055-1059.
2. Margulies DR, Manookian CM. Methemoglobinemia as a cause of respiratory failure. J Trauma 2002; 52:796-797.
3. Skold A, Cosco DL, Klein R. Methemoglobinemia: pathogenesis, diagnosis, and management. South Med J 2011; 104:757-761.
4. Ash-Bernal R, Wise R, Wright SM. Acquired methemoglobinemia: a retrospective series of 138 cases at 2 teaching hospitals. Medicine (Baltimore) 2004; 83:265-273.
5. Kanji HD, Mithani S, Boucher P, Dias VC, Yarema MC. Coma, metabolic acidosis, and methemoglobinemia in a patient with acetaminophen toxicity. J Popul Ther Clin Pharmacol 2013; 20:e207-e211.
6. Kawasumi H, Tanaka E, Hoshi D, Kawaguchi Y, Yamanaka H. Methemoglobinemia induced by trimethoprimsulfamethoxazole in a patient with systemic lupus erythematosus. Intern Med 2013; 52:1741-1743.
7. Wieringa A, Bethlehem C, Hoogendoorn M, van der Maten J, van Roon EN. Very late recovery of dapsoneinduced methemoglobinemia. Clin Toxicol (Phila) 2014; 52:80-81.
8. Barclay JA, Ziemba SE, Ibrahim RB. Dapsone-induced methemoglobinemia: a primer for clinicians. Ann Pharmacother 2011; 45:1103-1115.
9. Taleb M, Ashraf Z, Valavoor S, Tinkel J. Evaluation and management of acquired methemoglobinemia associated with topical benzocaine use. Am J Cardiovasc Drugs 2013; 13:325-330.
10. Chowdhary S, Bukoye B, Bhansali AM, et al. Risk of topical anesthetic-induced methemoglobinemia: a 10-year retrospective case-control study. JAMA Intern Med 2013; 173:771-776.
11. Larson A, Stidham T, Banerji S, Kaufman J. Seizures and methemoglobinemia in an infant after excessive EMLA application. Pediatr Emerg Care 2013; 29:377-379.
12. Schmitt C, Matulic M, Kervégant M, et al. Methaemoglobinaemia in a child treated with Emla cream: circumstances and consequences of overdose [in French]. Ann Dermatol Venereol 2012; 139:824-827.
13. Bucklin MH, Groth CM. Mortality following rasburicaseinduced methemoglobinemia. Ann Pharmacother 2013; 47:1353-1358.
14. Cheah CY, Lew TE, Seymour JF, Burbury K. Rasburicase causing severe oxidative hemolysis and methemoglobinemia in a patient with previously unrecognized glucose- 6-phosphate dehydrogenase deficiency. Acta Haematol 2013; 130:254-259.
15. Druez A, Rahier JF, Hébuterne X. Methaemoglobinaemia and renal failure following mesalazine for treatment of inflammatory bowel disease. J Crohns Colitis 2014; 8:900-901.
16. Wright RO, Lewander WJ, Woolf AD. Methemoglobinemia: etiology, pharmacology, and clinical management. Ann Emerg Med 1999; 34:646-656.
17. Groeper K, Katcher K, Tobias JD. Anesthetic management of a patient with methemoglobinemia. South Med J 2003; 96:504-509.
18. Haymond S, Cariappa R, Eby CS, Scott MG. Laboratory assessment of oxygenation in methemoglobinemia. Clin Chem 2005; 51:434-444.
19. Jang DH, Nelson LS, Hoffman RS. Methylene blue for distributive shock: a potential new use of an old antidote. J Med Toxicol 2013; 9:242-249.



MISCELANEAS BREVES - 163Fecha: 2/4/2016



Hypercoagulability and the risk of myocardial infarction and ischemic stroke in young women.

                                                     Siegerink, B.; Maino, A.; Algra, A.; Rosendaal, F.R. 
                                Rev. Journal of Thrombosis and Haemostasis 2015 Vol. 13 Pág: 1568 - 75 


Myocardial infarction (MI) and ischemic stroke (IS) are acute forms of arterial thrombosis and share some, but not all, risk factors, indicating different pathophysiological mechanisms.

OBJECTIVE: This study aims to determine if hypercoagulability has a differential effect on the risk of MI and IS.

PATIENTS AND METHODS: We reviewed the results from the Risk of Arterial Thrombosis in Relation to Oral Contraceptives study, a population-based case-control study involving young women (< 50 years) with MI, non-cardioembolic IS and healthy controls. From these data, relative odds ratios (ORIS /ORMI ) and their corresponding confidence intervals for all prothrombotic factors that were studied in both subgroups were calculated.

RESULTS: Twenty-nine prothrombotic risk factors were identified as measures of hypercoagulability. Twenty-two of these risk factors (21/29, 72%) had a relative odds ratios > 1; for 12 (41%), it was > 2; and for 5 (17%), it was > 2.75. The five risk factors with the largest differences in associations were high levels of activated factor XI (FXI) and FXII, kallikrein, the presence of lupus anticoagulans, and a genetic variation in the FXIII gene.

CONCLUSION: In young women, prothrombotic ASME BPVC PDFfactors are associated more with the risk of IS than with MI risk, suggesting a different role of hypercoagulability in the mechanism leading to these two diseases.






Semiología inadecuada o insuficiente


           Abraham Verghese, Blake Charlton, Jerome Kassirer, Meghan Ramsey, John Ioannidis 

                                                                The American J. of Medicine (2015);128: 1322-24

                                                                Comentario y resumen objetivo: Dra. Marta Papponetti


De acuerdo con el informe del Institute of Medicine titulado "Errar es humano," los errores médicos causan cerca de 100.000 muertes por año. Las causas son problemas sistémicos de organización inadecuada, la cultura de la no divulgación y errores diagnósticos cognitivos. Un tipo potencialmente importante de error que ha recibido gran atención es la deficiencia del examen físico.
La avanzada tecnología de la atención médica actual se ha traducido en la disminución de la interacción directa entre el médico y el paciente. Los médicos de los hospitales de EE. UU. dedicarían solo el 18% de sus horas asistenciales a la atención directa del paciente; la disminución de las horas de servicio da como resultado que los internos de Medicina Interna usen en promedio solo el 12% de su tiempo en los pacientes y otro 40% en tareas relacionadas con la informática. La menor dedicación al examen físico puede provocar errores importantes.
Se realizó una encuesta solicitando a 5.000 médicos que aporten ejemplos clínicos de negligencia y errores en el examen físico y sus consecuencias adversas. Esta base de datos fue creada para identificar los diversos tipos y características de los errores que pueden generarse en relación con el examen físico.


Se realizó un estudio transversal mediante una encuesta cualitativa compuesta por 11 preguntas, la cual se distribuyó electrónicamente entre médicos de diferentes especialidades, con datos recogidos entre febrero y junio de 2011. Participaron todos los médicos que respondieron por correo electrónico o que aceptaron la invitación de medios sociales para completar la encuesta. No hubo limitaciones geográficas, de especialidad o contexto de la práctica. El cuestionario se envió a aproximadamente 5.000 médicos de diversas especialidades electric self-balancing scooter.


De las 208 viñetas reportadas que cumplieron los criterios de inclusión, el 63% de las negligencias estuvieron causadas por un examen físico insuficiente; el 14% informó haber obtenido signos correctos en el examen físico pero que fueron malinterpretados, ASME BPVC Code Downloadmientras que el 11% informó que el signo correspondiente se halló o no se buscó.

A menudo, las personas responsables del examen físico inadecuado fueron los internos o los residentes (95 de los 208 relatos). La consecuencia de una semiología inadecuada incluyó la pérdida o el retraso del diagnóstico /76% de los casos); el diagnóstico incorrecto (27%); un tratamiento innecesario (18%) y, ningún tratamiento o el retraso terapéutico (42%); el costo innecesario de diagnóstico (25%); la exposición innecesaria a la radiación o los medios de contraste (17%) y, complicaciones causadas por los tratamientos (4%).

El modo del número de médicos que comete errores por omisión en el examen físico fue 2, pero son muchos los médicos que cometen errores por descuido. La mayoría de las omisiones tardó 5 días en ser identificad, pero en 66 casos el tiempo fue mayor. Si se prestara especial atención y habilidad en la semiología de la piel y sus apéndices, así como en el abdomen, la ingle y la zona genitourinaria, las omisiones o errores podrían reducirse a la mitad.

La lista de hallazgos omitidos es larga y diversa (ver Anexo) pero los que se perdieron más de 5 veces fueron las tumoraciones/organomegalias abdominales (n = 21, incluyendo 3 embarazos y 2 distensiones vesicales), signos diagnósticos cutáneos (n = 15, como manchas café con leche, neurofibroma, eritema migratorio, lesiones sifilíticas y lesiones por meningococcemia, sin incluir el herpes zoster), signos neurológicos (n = 18), soplos/frotes (n = 13, incluyendo la pérdida de 4 estenosis aórticas y 3 de frotes pericárdico), linfadenopatías (n = 10), hernia inguinal (n = 10) o escrotal/patología testicular (n = 6), signos de peritonitis (n = 10), tumoraciones mamarias (n = 9), fracturas o signos ortopédicos (n = 9), insuficiencia cardíaca congestiva (n ¼ 8), pulsos ausentes o anormales (n = 6), herida o úlcera (n = 6), hematomas (n = 6) y, herpes zoster (n = 5).


Publicaciones recientes describen la decadencia de la habilidad semiológica. "Nuestro estudio", dicen los autores, "pone de manifiesto las consecuencias, y muestra que muchos eventos adversos pueden ser prevenidos. Nuestra encuesta indica que la principal causa de error es simplemente que no se ha realizado el examen físico." Además de las consecuencias diagnósticas, casi la mitad de los casos relatados muestra las consecuencias en el tratamiento. La mayoría de los descuidos estuvieron relacionados con el número limitado de revisaciones, lo que sugiere que algunos errores pueden ser remediados si son varias las personas que examinan al paciente.

Aunque la mayoría de los errores fueron corregidos dentro de los 5 días, hasta el retraso de 1 hora puede afectar la evolución del paciente. El examen físico de un paciente que presenta una queja (a diferencia de la "semiología de rutina") es un procedimiento de bajo costo que, cuando se hace con habilidad, puede evitar la mayoría de los errores enumerados.

Muchas enfermedades que afectan la piel o el sistema nervioso no pueden ser diagnosticadas con facilidad si no es a través de la semiología; en otros casos, la indicación de una prueba diagnóstica adecuada depende de ella. Los cuadros desplegables de la historia clínica electrónica muestran engañosamente que cada paciente ha sido examinado a fondo (y por lo tanto puede ser facturado), pero será la responsabilidad de los educadores y las organizaciones profesionales asegurarse de que la historia clínica electrónica sea el reflejo veraz de lo que realmente se hizo.

En este estudio se propone una lista de verificación breve como guía para que los médicos examinen al paciente en su totalidad; incluyendo la obligación de examinar los orificios herniarios y las áreas genital y rectal en los pacientes gravemente enfermos o con dolor. El dolor debe motivar la búsqueda de lesiones de herpes zóster. Los médicos que no son neurólogos necesitan tener habilidades para la semiología neurológica debido a que las imágenes no muestran las deficiencias funcionales que acompañan al hallazgo de una lesión. Para enfermedades como la encefalopatía de Wernicke o la parálisis de Bell, las imágenes no ayudan al diagnóstico. Por lo tanto, el examen físico es de gran importancia. En resumen, para disminuir este tipo de error, los médicos en formación deben recibir enseñanza y evaluación junto a la ASME Standardcama del paciente.

Los autores aclaran que "nuestro estudio no fue diseñado para determinar la prevalencia sino para generar un compendio de descuidos del examen físico y sus características."

Las viñetas presentadas están sujetas a errores de memoria y de respuesta. Los autores no pusieron ninguna limitación de tiempo para los informes ni solicitaron a los respondedores que especifiquen el lugar donde prestaban servicio. Por último, a pesar de que se estableció contacto con miles de médicos, solo una pequeña minoría contribuyó con relatos, lo que refleja la reticencia cultural para reconocer y compartir los errores, a diferencia, por ejemplo, de lo que sucede en la industria aeronáutica. "Nosotros, como médicos," agregan los autores, "podríamos caer en una  ¨"trampa de ignorancia" en la que rara vez nos enteramos de nuestros errores semiológicos." La diligencia en la enseñanza de la semiología y los esfuerzos para mejorar las habilidades a la cabecera del paciente disminuirían ciertos errores médicos y sus consecuencias para el paciente.



1. Kohn KT, Corrigan JM, Donaldson MS. To Err Is Human: Building a Safer Health System. Washington, DC: National Academy Press; 1999.
2. Kassirer JP, Kopelman RI. Cognitive errors in diagnosis: instantiation, classification, and consequences. Am J Med. 1989;86(4):433-441.
3. Graber ML, Franklin N, Gordon R. Diagnostic error in internal medicine. Arch Intern Med. 2005;165(13):1493-1499.
4. Singh H, Graber ML, Kissam SM, et al. System-related interventions to reduce diagnostic errors: a narrative review. BMJ Qual Saf.2012;21(2):160-170.
5. O'Leary KJ, Liebovitz DM, Baker DW. How hospitalists spend their time: insights on efficiency and safety. J Hosp Med. 2006;1(2):88-93.
6. Block L, Habicht R, Wu AW, et al. In the wake of the 2003 and 2011 duty hour regulations, how do internal medicine interns spend their time? J Gen Intern Med. 2013;28(8):1042-1047.
7. Feddock CA. The lost art of clinical skills. Am J Med. 2007;120(4):
8. Rahmani S, Ring BN, Lowe R, et al. A pilot study assessing knowledge of clinical signs and physical examination skills in incoming medicine residents. J Grad Med Educ. 2010;2(2):232-235.
9. Willett LL, Estrada CA, Castiglioni A. Does residency training improve performance of physical examination skills? Am J Med Sci. 2007;333(2):74-77.
10. Sharma S. A single-blinded, direct observational study of PGY-1 interns and PGY-2 residents in evaluating their history-taking and physical-examination skills. Perm J. 2011;15(4):23-29.
11. Jauhar S. The demise of the physical examination. N Engl J Med.API Standard Download 2006;354(6):548-551.
12. Ortiz-Neu C, Walters CA, Tenenbaum J, Colliver JA, Schmidt HJ. Error patterns of 3rd-year medical students on the cardiovascular physical examination. Teach Learn Med. 2001;13(3):161-166.
13. Bordage G. Why did I miss the diagnosis? Some cognitive explanations and educational implications. Acad Med. 1999;74(10 suppl):S138-S143.

Cita: Abraham Verghese, Blake Charlton, Jerome P. Kassirer, Meghan Ramsey, John P.A. Ioannidis. Inadequacies of Physical Examination as a Cause of Medical Errors and Adverse Events: A Collection of Vignettes. The American Journal of Medicine (2015) 128, 1322-1324




MISCELANEAS BREVES - 162Fecha: 1/3/2016




Breaking bad news: Patients' preferences and health locus of control

                                                                     Martins, R.G.; Carvalho, I.P. 

                                           Rev. Patient Education and Counseling 2013 Vol. 92 Página: 67 - 73 


To identify patients' preferences for models of communicating bad news and to explore how such preferences, and the reasons for the preferences, relate with personality characteristics, specifically patients' health locus of control (HLC): internal/external and 'powerful others' (PO).

METHODS: Seventy-two patients from an oncology clinic watched videotaped scenarios of a breaking bad news moment, selected the model they preferred, filled an HLC scale and were interviewed about their choices. Data were analyzed with Chi-square, Kruskal-Wallis and Mann-Whitney tests. Interviews were content-analyzed. RESULTS:


  •  77.8% preferred an "empathic professional"
  •  12.5% a "distanced expert"
  •   9.7% an "emotionally burdened expert".


Preferences varied significantly with HLC scores (patients with higher internal locus of control (ILC) and lower PO preferred the empathic model), presence of cancer, age and education. Patients explained their preferences through aspects of Caring, Professionalism, Wording, Time and Hope. ILC registered significant differences in regards to Wording and Time, whereas PO was associated with Hope and Time.
CONCLUSIONS: HLC is an important dimension thatANSI Code Download can help doctors to better know their patients.
PRACTICE IMPLICATIONS: Knowing whether patients attribute their health to their own behaviors or to chance/others can help tailor the disclosure of bad news to their specific preferences.





Secreción de insulina y diabetes tipo 2


                                                                   James Cantley, Frances M. Ashcroft 
                                                                         BMC Biology (2015) 13:33

                                      Traducción y resumen objetivo: Dra. Marta Papponetti


Qué es la diabetes tipo 2?

La diabetes mellitus (DM) es un término que abarca una multitud de problemas con muchas etiologías, unificado por una característica común: la elevación patológica de la glucosa en la sangre. La hiperglucemia sostenida conduce daño tisular en los órganos susceptibles y finalmente provoca complicaciones, incluyendo la retinopatía, la nefropatía, la neuropatía periférica, la enfermedad cardiovascular y el accidente cerebrovascular.

Se calcula que hacia 2035 el número de afectados se duplicará. El notable aumento de la enfermedad en los últimos años no solo causa aflicción sino también una carga enorme y creciente en los sistemas de salud y la economía global. Muchos países gastan más del 10 % de su presupuesto sanitario en el tratamiento de la DM y sus complicaciones. 

La DM tipo 2 (DM2) es la forma más común de la enfermedad, y es responsable de aproximadamente el 90% de los casos. Tiene un componente genético muy fuerte que es amplificado por factores como la edad, la obesidad, la dieta, la actividad física y el embarazo.

La DM2 se caracteriza por la secreción insuficiente de insulina por las células ß de los islotes pancreáticos, junto con la alteración de la acción de la insulina en el músculo, el hígado y la grasa (una condición denominada resistencia a la insulina). La hiperglucemia aparece cuando la secreción de insulina es incapaz de compensar la resistencia a la insulina. La resistencia a la insulina está aumentada en la obesidad, lo que explica, al menos en parte, porqué la obesidad aumenta el riesgo de DM2.

Homeostasis de la glucosa

  • El aumento de la glucosa en la sangre provoca ASME Standardla secreción de insulina de las células β que se hallan dentro de los islotes pancreáticos.  
  • La insulina disminuye la glucosa en la sangre actuando sobre los tejidos diana, suprimiendo la producción de glucosa por el hígado y estimulando la captación de glucosa en el músculo y grasa.  
  • Las células α de los islotes pancreáticos son secretoras de glucagón.  
  • Las células δ de los islotes pancreáticos secretan somatostatina.

La DM tipo 1 (DM1) es menos común que la DM2 y provoca <10 % de los casos. Es precipitada por un ataque autoinmune a las células β que resulta en hipoinsulinemia, aunque todavía puede haber una pequeña cantidad de células β funcionantes. Comúnmente, la DM1 se presenta en la infancia o la juventud.

Por otra parte, hay formas hereditarias monogénicas raras que suelen presentarse a temprana edad, y son responsables del 1-2% de los casos de diabetes. A diferencia de la DM2, en la que habría múltiples genes que contribuyen a la enfermedad, la diabetes monogénica está causada por mutaciones en un solo gen. Muchos de esos genes codifican los reguladores de la transcripción, las enzimas metabólicas y los canales iónicos que regulan el acoplamiento estímulo-secreción de las células β, o pueden afectar el desarrollo del páncreas. Se destaca que las variantes genéticas comunes en muchos de los genes conocidos como causantes de la diabetes monogénica aumentan el riesgo de DM2; por lo tanto, su estudio puede ayudar a aclarar la etiología de la DM2.

La DM1 debe tratarse con inyecciones de insulina, debido a la falta de células β.

El tratamiento inicial de la DM2 consiste en modificaciones de la alimentación y del estilo de vida, seguidas de la administración de agentes hipoglucemiantes, lo cual puede aumentar la secreción de insulina (por ej., las sulfonilureas) o reducir la resistencia a la insulina o la producción de glucosa hepática (por ej., la metformina). Si estas medidas no logran controlar la hiperglucemia, entonces está indicada la insulina.

La diabetes monogénica debe tratarse de diferentes maneras, de acuerdo al gen involucrado.

Porqué no hay otras hormonas que puedan reemplazar a la insulina?

"Hay varias hormonas que pueden elevar la glucemia pero solo la insulina puede reducirla"

La mayoría de los sistemas de control, incluidos los fisiológicos,son superabundantes (redundancia), lo que asegura que cuando un sistema  falla otro se hace cargo de la función. Por ejemplo, hay varias hormonas que pueden elevar la glucemia pero solo la insulina puede reducirla. Al principio, esto puede parecer sorprendente, pero vale la pena recordar que el exceso de insulina tiene efectos mucho más inmediatos y deletéreos que poca cantidad de insulina. Si la glucemia cae por debajo de 37 mg/dl en tan solo 5 minutos, se puede producir daño cerebral letal. Por el contrario, las complicaciones de la DM solo se producen cuando la glucemia está crónicamente elevada durante muchas semanas y meses, debido a una carencia sostenida de insulina. Por lo tanto, la hormona fundamental es la insulina, la que es peligrosa tanto por exceso como por defecto. Pero aunque se presta mucha atención a la falta de insulina, y por consiguiente a la diabetes, el exceso agudo de insulina es mucho más perjudicial.

"Exceso de insulina tiene efectos más inmediatos y deletéreos que poca cantidad de insulina"

Otras funciones de la insulina─como su capacidad para mejorar el crecimiento─se reflejan a través de varias hormonas, como los factores de crecimiento símil insulina 1 y 2. Solamente el papel de la insulina en la homeostasis de la glucosa es único. Por lo tanto, los autores especulan que la razón por la cual la capacidad de la insulina es única es el peligro de hipoglucemia, ya que para reducir la glucosa en sangre actúa a través de un receptor único.

En la historia evolutiva de los seres humanos, cuando se enfrentaron a la comida inadecuada y al ejercicio no planificado (escape de los depredadores) era más probable la hipoglucemia que la hiperglucemia. En esta situación, dicen, es ventajoso tener una única vía para descender la glucemia, ya que hay menos posibilidad de hipoglucemia inadvertida.

Por el contrario, el hecho de que existan numerosos sistemas de retroalimentación para reforzar el azúcar en sangre es beneficioso. Aunque la DM2 es un problema creciente en las sociedades actuales, en términos evolutivos es de poca importancia porque generalmente se presentadespués de la edad reproductiva del individuo. Por otra parte, solo es muy reciente la exposición de los seres humanos a la abundante disponibilidad de dietas hipercalóricas y al sedentarismo, factores que impulsan la obesidad y la DM2.

Cómo hacen las células β para evitar la secreción inapropiada de insulina?

Las células β han evolucionado sus características metabólicas importantes para evitar la excesiva secreción de insulina y la hipoglucemia, especialmente durante el ejercicio. En primer lugar, la secreción de insulina es exquisitamente sensible a los cambios en la glucosa en sangre. Esto se logra porque el metabolismo de la glucosa se acopla a la secreción de insulina a través de los cambios en los niveles intracelulares de ATP, la actividad eléctrica  de las células ß y la liberación de vesículas insulina.

En presencia de hiperglucemia, la mayor parte de la glucosa absorbida por las células β se metaboliza a través de la fosforilación oxidativa, elevando el ATP intracelular. Esto cierra los canales KATP, desencadenando la actividad eléctrica de las células β y provocando la afluencia de calcio (a través de los canales de calcio voltaje dependientes) que, a su vez, estimulan la liberación de insulina.

A la inversa, cuando los niveles de glucosa en sangre caen, la secreción de insulina se detiene rápidamente debido a la reducción del ATP intracelular en las células β, lo que lleva a la apertura de los canales KATP, la hiperpolarización de la membrana, la entrada de calcio reducido y, por lo tanto, la inhibición de la secreción de insulina.

En segundo lugar, una serie de genes metabólicos que están ampliamente expresados en otros tejidos no se expresan en las células β pancreáticas. Estos genes "no permitidos" son los que codifican la lactato deshidrogenasa y el transportador de β 1 (MCT1/SLC16A1), involucrados en el metabolismo del lactato y el piruvato. Esto evita la secreción de insulina en respuesta a la circulación de lactato y piruvato durante el ejercicio.

Las mutaciones en el gen SLC16A1, lo que motivan su expresión aberrante en las células β, provocan hipoglucemia inducida por el ejercicio, permitiendo la secreción de insulina inducida por el piruvato. En los primeros seres humanos, la hipoglucemia inducida por el ejercicio podría ser letal, ya que impediría escapar de un depredador; la ausencia de MCT1 asegura que la secreción de insulina permanezca detenida durante el ejercicio. Del mismo modo, la adrenalina inhibe la secreción de insulina, garantizando que los niveles de glucemia no desciendan durante el ejercicio o en la respuesta de "lucha o huida".


Qué ocasiona la deficiencia de insulina en la diabetes tipo 2?

La alteración de la secreción de insulina que se encuentra en la DM2 podría deberse a una disminución de la tasa de secreción celular (es decir, la función individual de las células β), o a una disminución de la masa de las células β (el producto del tamaño de las células β por su número), o ambos. Si bien ha habido mucho debate acerca de las contribuciones de la disfunción secretora y la pérdida de la masa de las células β relacionada con la secreción de insulina alterada en la DM2, todavía falta arribar a un consenso.

Esto puede, en parte, deberse a la dificultad para obtener islotes humanos de calidad y cantidad suficiente para estudios funcionales (especialmente de donantes DM2), como los programas de aislamiento de islotes destinados principalmente a proporcionar islotes de donantes sanos para la terapia de trasplante.

Por otra parte, hay varios factores que pueden variar entre las preparaciones de islotes humanos, confundiendo así la comparación de la función de los islotes de DM2 con los controles: Los donantes pueden haber recibido diferentes combinaciones de fármacos antes de la muerte, y los factores genéticos y ambientales pueden estar mal controlados. También las variaciones en el tiempo de isquemia fría a la cual los islotes son expuestos durante el transporte del páncreas y la aislación de los islotes, pueden alterar la expresión y función de los genes.

Sin embargo, cuando muchas de las variables anteriores son controladas, estudios con muestras de pequeño tamaño (n = 5 a 17 casos) han demostrado claramente que la secreción de insulina estimulada por la glucosa (SIEG) es defectuosa en los islotes de los donantes con DM2, comparado con los donantes no diabéticos. En 2 de estos estudios, los islotes de los donantes DM2 respondieron normalmente a diferentes estímulos de la glucosa, lo que sugiere una SIEG defectuosa en estas cohortes, probablemente debida más a la sensibilización a la glucosa alterada (acoplamiento de la secreción- estímulo) que a la pérdida del contenido de insulina o a un defecto constitucional en la exocitosis de la insulina. Sin embargo, se requieren más investigaciones para aumentar el número de casos estudiados y estudiar en detalle la naturaleza de la respuesta SIEG defectuosa.

Los estudios histológicos de la masa de células ß son más sencillos porque pueden ser realizados con tejidos fijados. Varios estudios han informado un descenso de la masa de células ß en la DM2. Sin embargo, una salvedad importante para estos experimentos es que las células ß suelen identificarse mediante la tinción de la insulina. Esto significa que el contenido de insulina debe ser suficientemente elevado como para detectarlas histológicamente─no se podrá hacer el recuento de células ß con un contenido de insulina muy reducido y por lo tanto, la masa de células ß será subestimada.

Estudios recientes indican que los islotes de diabéticos tipo 2 contienen muchas células ß que pueden ser identificadas como tales utilizando la microscopia electrónica, por sus característicos gránulos "huevo poché", pero donde los gránulos son muy escasos y la insulina es indetectable por inmunotinción. La hiperglucemia produce efectos similares en un modelo de diabetes en ratón. Por lo tanto, la medida que la masa de células ß está reducida en la DM2 sigue siendo desconocida.

Si bien existe una buena evidencia de que la tinción de la insulina de los islotes disminuye con el tiempo, todavía se desconocen cuáles son las contribuciones relativas de la disminución del contenido de insulina, el menor número de células β y el deterioro del acoplamiento secreción-estímulo, en la menor secreción de insulina en la DM2. A pesar de esto, en el período de 5 años posteriores al diagnóstico, los pacientes con DM2 muestran una reducción del 25% en la masa de células insulinpositivas, en relación con los controles no diabéticos, mientras que en las en personas con DM2 de larga data (>15 años), la masa de las células β se reduce en más del 50%. Esta pérdida progresiva de la masa de células β durante la progresión de la enfermedad supone una carga secretora cada vez mayor sobre las células β que siguen siendo funcionales. Su resistencia probablemente esté determinada por una API Standard Downloadinteracción compleja entre el medio ambiente y los factores genéticos y epigenéticos.

Los cambios en la identidad de las células β contribuyen a la diabetes tipo 2?

Es evidente que en el desarrollo de la DM2 hay múltiples mecanismos involucrados. Sin embargo, la evidencia reciente indica que la identidad de las células β no puede ser fija, y que los cambios en su identidad pueden contribuir a la secreción defectuosa de la insulina, dando lugar a la DM2.

Está bien establecido que en los ratones, la hiperglucemia da lugar a la expresión alterada de los factores de transcripción de las células β y a la secreción defectuosa de la insulina, una situación que se describe como desdiferenciación de las células β.

Estudios importantes recientes han demostrado que en los ratones, la supresión de ciertos factores de transcripción como FoxO1 lleva a la desdiferenciación de las células ß del páncreas, que pierden su contenido de insulina y revierten a células símil progenitoras de los islotes.

Del mismo modo, en un modelo de ratón diabético se ha confirmado la expresión del marcador de células progenitoras Ngn3. Pero si este es el caso, no está claro si lo  mismo sucede en las células β humanas en la DM2. Sin embargo, en la DM2 de los seres humanos se han observado marcados cambios en los factores de transcripción de las células β como así en los primates no humanos con prediabetes inducida por la dieta.

Está bien establecido que la pérdida de la inmunotinción de insulina observada en muchos modelos de ratón diabético es paralela al aumento en la inmunotinción del glucagón. Estos cambios parecen estar estimulados por la hiperglucemia. En uno de estos modelos de ratón, el seguimiento del linaje reveló que un pequeño número de células β comienza a expresar glucagón. No obstante, es poco claro si esas células ß se convierten totalmente en células α, o si representan un tipo de célula intermedia que expresa glucagón como así muchas proteínas de las células ß (excepto la insulina).

Por el contrario, el seguimiento del linaje también mostró que tanto las células α como las células δ pueden convertirse en células β totalmente funcionantes, destacando la potencial plasticidadde las células de los islotes. Por lo tanto, muchas investigaciones actuales están dedicadas a conocer cómo se diferencian las células  ß a partir de las células progenitoras y otros tipos de células de los islotes. Se destaca que los efectos de la hiperglucemia sobre la diferenciación de las células ß, la pérdida del contenido de insulina y la expresión de glucagón pueden revertirse con un estricto control de la glucosa.

Lleva la obesidad a la insuficiencia de las células β?

Las epidemias actuales de obesidad y DM2 en todo el mundo muestran una tendencia y distribución geográfica notablemente similar. Hay evidencia importante de que el riesgo de DM2 aumenta con la obesidad. Sin embargo, la obesidad parece ejercer su efecto principalmente más en la resistencia a la insulina que en la función de las células β, y solo una minoría de las personas obesas desarrollará DM2, mientras que muchos individuos no obesos sí lo harán.

Por otra parte, la obesidad se asocia con una mejor respuesta insulínica a la glucosa en individuos sin diabetes, mientras que estudios histológicos recientes revelaron que la obesidad se asocia con un aumento del 50% de la masa de células β. Así pues, parece que aparte de que la obesidad causa insuficiencia de las células β, en algunas personas la capacidad funcional de esas células para adaptarse a la obesidad falla, lo que resulta en DM2.

En los últimos 60 años hubo un dramático aumento de las tasas de DM2, que claramente no puede deberse a un cambio genético sino que se asocia con alteraciones en la dieta y el comportamiento, incluyendo un estilo de vida más sedentario y el aumento del consumo de alimentos hipercalóricos.

Hasta qué punto la diabetes tipo 2 es una enfermedad genética?

El riesgo de que una persona desarrolle DM2 está determinado por una compleja interacción entre la genética y el medio ambiente y los factores del estilo de vida. El genotipo desempeña claramente un papel genético: estudios prospectivos de gemelos monocigotas han mostrado una tasa de concordancia del 76% para la DM2 y de un 96% para la intolerancia a la glucosa.

Por otra parte, los antecedentes familiares de DM 2 entrañan más del doble de riesgo de que una persona desarrolle la enfermedad. Pero al mismo tiempo, la evidencia epidemiológica muestra que en los últimos 60 años hubo un dramático aumento de las tasas de DM2, que claramente no puede deberse a un cambio genético sino que se asocia con alteraciones en la dieta y el comportamiento, incluyendo un estilo de vida más sedentario y el aumento del consumo de alimentos hipercalóricos.

El riesgo de DM2 también puede estar influenciado por cambios epigenéticos, que son alteraciones hereditarias que afectan la función de las células y que no implican cambios en la secuencia del ADN. Estos cambios epigenéticos están en gran parte determinados por factores ambientales, como la nutrición parental.

La evidencia reciente sugiere que las células ß de los pacientes con DM2 tienen una alteración de la metilación del ADN (una marca epigenética común) con cambios en los perfiles de la expresión génica. Los estudios en roedores han demostrado que la nutrición materna o paterna subóptima puede influir en las modificaciones de la cromatina y la expresión génica en las células β de la descendencia, consistente con la transmisión epigenética. Se sabe que en los seres humanos, la nutrición materna y en los primeros años de vida influye en el riesgo de DM2 de la descendencia. Se necesitan más estudios para aclarar el papel emergente de la epigenética en la etiología de la DM2.

Hay variantes de genes específicos asociadas a la diabetes tipo 2?

Esta pregunta no es fácil de responder. La DM2 es una enfermedad poligénica, y la evidencia actual apoya la idea de que en la mayoría de los individuos, el riesgo de desarrollar la enfermedad está determinado por la combinación del riesgo de variantes en muchos loci de genes, cada uno de los cuales confiere solo un pequeño aumento en el riesgo de enfermedad.

Esto diferencia la DM2 de las formas de diabetes monogénicas, mucho más raras, como la diabetes juvenil de comienzo en la madurez (MODY) y la diabetes neonatal. También indica que la DM2 es una entidad única, ya que la hiperglucemia puede estar ocasionada por diferentes combinaciones de genes en diferentes individuos, lo que también puede resultar en variaciones fenotípicas.

El mejor método actual para identificar los genes que contribuyen a las enfermedades poligénicas son los estudios de asociación de todo el genoma, basados en la asociación de variantes genéticas comunes─polimorfismos de un solo nucleótido─con un fenotipo determinado, como la hiperglucemia. Hasta la fecha, en estudios de grandes cohortes se han encontrado más de 70 loci de genes que se asocian con la DM2, los que en su mayoría están implicados en la función de las células β.

Uno de los problemas en los estudios antes mencionados es el tamaño de las cohortes que deben ser estudiadas (a veces >100.000 personas) para generar suficiente poder estadístico. Tales cohortes son difíciles de fenotipificar con suficiente profundidad para revelar la compleja fisiología subyacente de la DM2. Así, inevitablemente, la mayoría de los estudios se basan en procedimientos fenotípicos relativamente simples, como la medición de la glucemia en ayunas, lo que no revela adecuadamente la etiología subyacente.Por lo tanto, son muy importantes los esfuerzos para mejorar el fenotipo de la enfermedad.

Un estudio reciente analizó la asociación de 37 loci de susceptibilidad de hiperglucemia con 3 rasgos clave que influyen en la glucemia: sensibilidad a la insulina, procesamiento de la insulina de las células β y, secreción de insulina. Esto reveló que los loci de riesgo se agrupan en 3 grupos distintos, cada uno asociado solamente con una de las 3 mediciones fenotípicas. Este estudio pone de relieve tanto la marcada heterogeneidad fisiológica del rasgo glucémico subyacente, y la necesidad de estratificar los fenotipos de la diabetes para mejorar el poder de los estudios de asociación de todo el genoma. Existe una necesidad urgente de nuevos enfoques para el estudio de las interacciones entre el genotipo y el fenotipo en las células β.

Al respecto, ya se hicieron algunos avances en un nuevo estudio que analizó los islotes de donantes humanos con diferentes genotipos de riesgo. Este enfoque cuidadoso reveló la influencia directa de un subgrupo de loci de riesgo de diabetes sobre la secreción alterada de insulina ex vivo, y dio lugar a conceptos mecanicistas del papel de esas variantes genéticas.

Es posible un tratamiento personalizado de la diabetes tipio 2, basado en el genotipo?

En algunas enfermedades como el cáncer de mama, la genotipificación se hace en forma sistemática y se usa para predecir si el paciente se beneficiará de un fármaco específico. La genotipificación también ha revolucionado el tratamiento en algunos tipos de diabetes monogénica. El potencial para el tratamiento específico basado en el genotipo de la DM2 es menos claro, principalmente debido a que cada variante genética solo explica un pequeño grado de riesgo de la enfermedad.

Sin embargo, un estudio reciente reveló que en los pacientes con DM2 portadores de una mutación del receptor adrenérgico α2, el tratamiento con un fármaco contra este receptor restauró la secreción de insulina. Esto aumenta la tentadora posibilidad de menoscabar los estudios de asociación de todo el genoma para fármacos nuevos dirigidos a desarrollar tratamientos personalizados para grupos de individuos con subtipos específicos de DM2.

Existen otros tipos de células de los islotes involucradas en la patogénesis de la diabetes tipo 2?

Ha quedado bien establecido que la DM2 no está ocasionada simplemente por la falta de insulina y que la secreción inapropiada de glucagón por las células pancreáticas α representa un papel fundamental. El glucagón eleva la glucosa en sangre por estimulación de la gluconeogénesis y la salida de glucosa de los hepatocitos.

En la DM2 existe un marcado aumento de la secreción de glucagón en presencia de glucemias elevadas, lo cual exacerba el efecto hiperglucémico de la insulinopenia. También hay poca secreción de glucagón en presencia de un tenor bajo de glucosa, lo cual puede precipitar una hipoglucemia fatal.

Recientemente, el glucagón, un participante largamente ignorado en la homeostasis de la glucosa y la DM2, ha ganado su reconocimiento. El hallazgo espectacular de que la destrucción completa de las células ß por la estreptozotocina en los ratones con receptores de glucagón genéticamente anulados no provoca hiperglucemia y que el ratón de tipo salvaje contrae diabetes grave con la ablación de las células ß subraya la importancia del glucagón en la homeostasis de la glucosa.

Debido a que la expresión del receptor de glucagón en el hígado solo es suficiente para producir diabetes grave en el ratón sin receptor de glucagón con carencia de células ß funcionantes, lasupresión de la producción de glucosa hepática inducida por el glucagón podría ser un buen objetivo terapéutico en la DM2.

Se ha propuesto a la metformina, muy utilizada para tratar la DM2 (especialmente en los obesos), para disminuir la glucemia por su antagonismo con la acción del glucagón, lo cual conduce a la inhibición de la producción de adenilciclasa y de AMPc, descendiendo de esta manera la gluconeogénesis hepática.

Otras estrategias para reducir la acción del glucagón incluyen la reducción de la liberación de glucagón de las células pancreáticas α y el bloqueo de la estimulación del glucagón por la producción de la glucosa hepática. De hecho, los antagonistas del receptor del glucagón mejoran la glucemia en la DM2 como así se cree que los miméticos del péptido símil glucagón y los inhibidores de de la dipeptidil peptidasa 4 (DPP-4; la enzima que inactiva al péptido símil glucagón 1) mejoran la homeostasis de la glucosa, al menos en parte, mediante la reducción de los niveles del glucagón plasmático.

La reducción de la producción hepática de glucosa también puede ser en parte la razón por la cual se puede alcanzar el excelente control de la diabetes (antes de la pérdida importante de peso) mediante una dieta muy baja en calorías.

Es urgente adquirir un mayor conocimiento de los mecanismos reguladores de la secreción y acción del glucagón, tanto en enfermedad como en la salud, y de cómo ese mayor conocimiento puede servir para un mejor tratamiento de la DM2. 

Se puede revertir la disfunción de las células β en la diabetes?

El UK Prospective Diabetes Study Group (UKPDS) demostró que existe una declinacióninexorable de la función de las células β a través del tiempo, ya sea con el tratamiento con dieta, insulina o sulfonilureas. Una pregunta clave es cuál es la causa de esa declinación y si la misma puede ser revertida.

Se ha informado un mejoramiento de la secreción de insulina luego del tratamiento intensivo con insulina, mientras que una dieta hipocalórica puede mejorar la acción de la insulina, la función de las células β y la homeostasis de la glucosa en los pacientes con DM2. Por lo tanto, sería posible cierta reversión del deterioro de la función de las células β en esos pacientes, al menos en el corto plazo. 

Los tratamientos farmacológicos actuales mejoran el control glucémico en la DM2 aumentando la secreción de insulina, lo que incluye las sulfonilureas, las cuales actúan cerrando los canales KATP.

Los fármacos que mimetizan o amplifican la acción de las hormonas digestivas─conocidas como incretinas─también mejoran la secreción de insulina. Por ejemplo, el péptido símil glucagón 1es liberado en las células L intestinales, en respuesta a la presencia de alimento en el intestino y, como otras incretinas, potencia la secreción de insulina ante las concentraciones de glucosa que la estimulan, pero no con contenidos bajos de glucosa. Esto hace del péptido símil glucagón 1 una terapéutica dirigida atractiva porque mejora la secreción de insulina solamente en respuesta a la comida, cuando es necesaria, y no durante los intervalos entre las comidas, cuando puede aumentar el riesgo de hipoglucemia.

Por lo tanto, en la actualidad, los miméticos del péptido símil glucagón 1 y los inhibidores de DPP4 son ampliamente utilizados y muy eficaces para estimular la secreción de insulina y mantener la homeostasis de la glucosa en los pacientes con DM2, sin que provoquen ni el aumento de pesoni el riesgo de hipoglucemia que acompañan al tratamiento con insulina y sulfonilureas.

Sin embargo, se han planteado interrogantes en cuanto a la seguridad a largo plazo de las terapias basadas en la incretina: en particular, por su efecto no deseado sobre las células ductales del páncreas exocrino, lo que puede aumentar la incidencia de pancreatitis, que a su vez conduce potencialmente al cáncer de páncreas. Existe un debate acerca de si el riesgo potencial está justificado por los grandes beneficios de las incretinas.

Estudios recientes han revelado que la cirugía de bypass gástrico restaura rápidamente la homeostasis de la glucosa en los pacientes con DM2, antes de la pérdida importante de peso asociada al procedimiento. Una explicación para este hallazgo notable es que la cirugía provoca un aumento de la secreción del péptido símil glucagón 1 y de la liberación de insulina. Por lo tanto, la cirugía de bypass gástrico puede ser una terapia quirúrgica viable para el tratamiento de la DM2.

Se puede esperar tener mayor conocimiento de la falla de las células β en la diabetes tipo 2?

Como siempre, la investigación sobre la DM2 es un campo pendular y hay mucha energía dedicada a comprender más los cambios en la función de las células β que ocurren en la diabetes. Todavía sigue desconocida la causa básica del defecto en el acoplamiento estímulo-secreción en la DM2 y se requieren estudios más funcionales que utilicen islotes aislados de seres humanos con DM2.

En la actualidad, hay un renovado interés en la desdiferenciación de las células β, investigada en modelos de ratón, y en cómo se puede evitar o invertir, y en qué medida otras células de los islotes pueden ser inducidas a diferenciarse en células β.

El papel del glucagón en la DM2 también está recibiendo una considerable atención, desplegándose aún más esfuerzos hacia una mejor estratificación de los fenotipos de la enfermedad en los estudios genéticos. 

Los avances terapéuticos recientes también apuntan a la posibilidad de restaurar la función endógena de las células β, aunque la estabilidad a largo plazo, la seguridad y la eficacia de estos enfoques todavía no se conoce. Se está a la espera que los resultados de todos estos estudios.


1. UK Prospective Diabetes Study (UKPDS) Group. Intensive blood-glucose control with sulphonylureas or insulin compared with conventional treatment and risk of complications in patients with type 2 diabetes (UKPDS 33). Lancet. 1998;352:837-53.
2. Brownlee M. The pathobiology of diabetic complications: a unifying mechanism. Diabetes. 2005;54:1615-25.
3. Forbes JM, Cooper ME. Mechanisms of diabetic complications. Physiological Reviews, Volume 93. 2013;1:137-88.
4. International Diabetes Federation. IDF Diabetes Atlas. 6th edition. 2013.
5. Ray JA, Valentine WJ, Secnik K, Oglesby AK, Cordony A, Gordois A, et al. Review of the cost of diabetes complications in Australia, Canada, France, Germany, Italy and Spain. Curr Med Res Opin. 2005;21:1617-29.
6. Scully T. Diabetes in numbers. Nature. 2012;485:S2-3. 7. Kahn SE. The relative contributions of insulin resistance and beta-cell dysfunction to the pathophysiology of Type 2 diabetes. Diabetologia. 2003;46:3-19.
8. Oram R, Jones A, Besser RJ, Knight B, Shields B, Brown R, et al. The majority of patients with long-duration type 1 diabetes are insulin microsecretors and have functioning beta cells. Diabetologia. 2014;57:187-91.
9. Quintens R, Hendrickx N, Lemaire K, Schuit F. Why expression of some genes is disallowed in beta-cells. Biochem Soc Trans. 2008;36:300-5.
10. Pullen TJ, Khan AM, Barton G, Butcher SA, Sun G, Rutter GA. Identification of genes selectively disallowed in the pancreatic islet. Islets. 2010;2:89-95.
11. Schuit F, Van Lommel L, Granvik M, Goyvaerts L, de Faudeur G, Schraenen A, et al. β-cell-specific gene repression: a mechanism to protect against inappropriate or maladjusted insulin secretion? Diabetes. 2012;61:969-75.
12. Otonkoski T, Jiao H, Kaminen-Ahola N, Tapia-Paez I, Ullah MS, Parton LE, et al. Physical exercise-induced hypoglycemia caused by failed silencing of monocarboxylate transporter 1 in pancreatic beta cells. Am J Hum Genet. 2007;81:467-74.
13. Pullen TJ, Sylow L, Sun G, Halestrap AP, Richter EA, Rutter GA. Overexpression of monocarboxylate transporter-1 (Slc16a1) in mouse pancreatic β-cells leads to relative hyperinsulinism during exercise. Diabetes. 2012;61:1719-25.
14. Kulkarni RN, Stewart AF. Summary of the Keystone Islet Workshop (April. 2014): the increasing demand for human islet availability in diabetes research. Diabetes. 2014;63:3979-81.
15. Cantley J, Walters SN, Jung MH, Weinberg A, Cowley MJ, Whitworth TP, et al. A preexistent hypoxic gene signature predicts impaired islet graft function and glucose homeostasis. Cell Transplant. 2013;22:2147-59.
16. Deng S, Vatamaniuk M, Huang X, Doliba N, Lian M-M, Frank A, et al. Structural and functional abnormalities in the islets isolated from type 2 diabetic subjects. Diabetes. 2004;53:624-32.
17. Marselli L, Suleiman M, Masini M, Campani D, Bugliani M, Syed F, et al. Are we overestimating the loss of beta cells in type 2 diabetes? Diabetologia. 2014;57:362-5.
18. Rosengren AH, Braun M, Mahdi T, Andersson SA, Travers ME, Shigeto M, et al. Reduced insulin exocytosis in human pancreatic beta-cells with gene variants linked to type 2 diabetes. Diabetes. 2012;61:1726-33.
19. Butler AE, Janson J, Bonner-Weir S, Ritzel R, Rizza RA, Butler PC. Beta-cell deficit and increased beta-cell apoptosis in humans with type 2 diabetes. Diabetes. 2003;52:102-10.
20. Yoon KH, Ko SH, Cho JH, Lee JM, Ahn YB, Song KH, et al. Selective beta-cell loss and alpha-cell expansion in patients with type 2 diabetes mellitus in Korea. J Clin Endocrinol Metab. 2003;88:2300-8.
21. Rahier J, Guiot Y, Goebbels RM, Sempoux C, Henquin JC. Pancreatic β-cell mass in European subjects with type 2 diabetes. Diabetes Obesity Metab. 2008;10:32-42.
22. Brereton MF, Iberl M, Shimomura K, Zhang Q, Adriaenssens AE, Proks P, et al. Reversible changes in pancreatic islet structure and function produced by elevated blood glucose. Nat Commun. 2014;5:4639.
23. Weir GC, Aguayo-Mazzucato C, Bonner-Weir S. Beta-cell dedifferentiation in diabetes is important, but what is it? Islets. 2013;5:233-7.
24. Talchai C, Xuan S, Lin Hua V, Sussel L, Accili D. Pancreatic β cell dedifferentiation as a mechanism of diabetic β cell failure. Cell. 2012;150:1223-34.
25. Wang Z, York NW, Nichols CG, Remedi MS. Pancreatic beta cell dedifferentiation in diabetes and redifferentiation following insulin therapy. Cell Metab. 2014;19:872-82.
26. Guo S, Dai C, Guo M, Taylor B, Harmon JS, Sander M, et al. Inactivation of specific beta cell transcription factors in type 2 diabetes. J Clin Investig. 2013;123:3305-16.
27. Fiori JL, Shin Y-K, Kim W, Krzysik-Walker SM, González-Mariscal I, Carlson OD, et al. Resveratrol prevents β-cell dedifferentiation in nonhuman primates given a high-fat/high-sugar diet. Diabetes. 2013;62:3500-13.
28. Thorel F, Nepote V, Avril I, Kohno K, Desgraz R, Chera S, et al. Conversion of adult pancreatic alpha-cells to beta-cells after extreme beta-cell loss. Nature. 2010;464:1149-54.
29. Chera S, Baronnier D, Ghila L, Cigliola V, Jensen JN, Gu G, et al. Diabetes recovery by age-dependent conversion of pancreatic δ-cells into insulin producers. Nature. 2014;514:503-7.
30. Yach D, Stuckler D, Brownell KD. Epidemiologic and economic consequences of the global epidemics of obesity and diabetes. Nat Med. 2006;12:62-6.
31. Kahn SE, Hull RL, Utzschneider KM. Mechanisms linking obesity to insulin resistance and type 2 diabetes. Nature. 2006;444:840-6.
32. Hu FB. Globalization of diabetes: the role of diet, lifestyle, and genes. Diabetes Care. 2011;34:1249-57.
Cantley and Ashcroft BMC Biology (2015) 13:33 Page 6 of 7 33. Perley M, Kipnis DM. Plasma insulin responses to glucose and tolbutamide of normal weight and obese diabetic and nondiabetic subjects. Diabetes. 1966;15:867-74.
34. Polonsky KS, Given BD, Van Cauter E. Twenty-four-hour profiles and pulsatile patterns of insulin secretion in normal and obese subjects. J Clin Investig. 1988;81:442-8.
35. Saisho Y, Butler AE, Manesso E, Elashoff D, Rizza RA, Butler PC. β-cell mass and turnover in humans: effects of obesity and aging. Diabetes Care. 2013;36:111-7.
36. Medici F, Hawa M, Ianari A, Pyke DA, Leslie RDG. Concordance rate for Type II diabetes mellitus in monozygotic twins: actuarial analysis. Diabetologia. 1999;42:146-50.
37. Lyssenko V, Almgren P, Anevski D, Perfekt R, Lahti K, Nissén M, et al. Predictors of and longitudinal changes in insulin sensitivity and secretion preceding onset of type 2 diabetes. Diabetes. 2005;54:166-74.
38. Volkmar M, Dedeurwaerder S, Cunha DA, Ndlovu MN, Defrance M, Deplus R, et al. DNA methylation profiling identifies epigenetic dysregulation in pancreatic islets from type 2 diabetic patients. EMBO J. 2012;31:1405-26.
39. Sandovici I, Smith NH, Nitert MD, Ackers-Johnson M, Uribe-Lewis S, Ito Y, et al. Maternal diet and aging alter the epigenetic control of a promoter-enhancer interaction at the Hnf4a gene in rat pancreatic islets. Proc Natl Acad Sci U S A. 2011;108:5449-54.
40. Ng SF, Lin RC, Laybutt DR, Barres R, Owens JA, Morris MJ. Chronic high-fat diet in fathers programs beta-cell dysfunction in female rat offspring. Nature. 2010;467:963-6.
41. Fernandez-Twinn DS, Ozanne SE. Mechanisms by which poor early growth programs type-2 diabetes, obesity and the metabolic syndrome. Physiol Behav. 2006;88:234-43.
42. Dabelea D, Crume T. Maternal environment and the transgenerational cycle of obesity and diabetes. Diabetes. 2011;60:1849-55.
43. Lyssenko V, Laakso M. Genetic screening for the risk  f type 2 diabetes: worthless or valuable? Diabetes Care. 2013;36:S120-6.
44. Gloyn AL, Pearson ER, Antcliff JF, Proks P, Bruining GJ, Slingerland AS, et al. Activating mutations in the gene encoding the ATP-sensitive potassium-channel subunit Kir6.2 and permanent neonatal diabetes. N Engl J Med. 2004;350:1838-49.
45. Mahajan A, Go MJ, Zhang W, Below JE, Gaulton KJ, Ferreira T, et al. Genome-wide trans-ancestry meta-analysis provides insight into the genetic architecture of type 2 diabetes susceptibility. Nat Genet. 2014;46:234-44.
46. Dimas AS, Lagou V, Barker A, Knowles JW, Mägi R, Hivert M-F, et al. Impact of type 2 diabetes susceptibility variants on quantitative glycemic traits reveals mechanistic heterogeneity. Diabetes. 2014;63:2158-71.
47. Couch FJ, Nathanson KL, Offit K. Two decades after BRCA: setting paradigms in personalized cancer care and prevention. Science. 2014;343:1466-70.
48. Pearson ER, Flechtner I, Njolstad PR, Malecki MT, Flanagan SE, Larkin B, et al. Switching from insulin to oral sulfonylureas in patients with diabetes due to Kir6.2 mutations. N Engl J Med. 2006;355:467-77.
49. Tang Y, Axelsson AS, Spegel P, Andersson LE, Mulder H, Groop LC, et al. Genotype-based treatment of type 2 diabetes with an alpha2A-adrenergic receptor antagonist. Sci Transl Med. 2014;6:257ra139.
50. Ashcroft FM, Rorsman P. K(ATP) channels and islet hormone secretion: new insights and controversies. Nat Rev Endocrinol. 2013;9:660-9.
51. Lee Y, Berglund ED, Wang MY, Fu X, Yu X, Charron MJ, et al. Metabolic manifestations of insulin deficiency do not occur without glucagon action. Proc Natl Acad Sci U S A. 2012;109:14972-6.
52. Miller RA, Chu Q, Xie J, Foretz M, Viollet B, Birnbaum MJ. Biguanides suppress hepatic glucagon signalling by decreasing production of cyclic AMP. Nature. 2013;494:256-60.
53. Prince MJ, Garhyan P, Abu-Raddad EJ, Fu H, Lim CN, Pinaire JA, et al. Short-term treatment with glucagon receptor antagonist LY2409021 effectively reduces fasting blood glucose (FBG) and HbA1c in patients with type 2 diabetes mellitus. Diabetologia. 2011;54:S86.
54. Nauck MA, Vilsbøll T, Gallwitz B, Garber A, Madsbad S. Incretin-based therapies: viewpoints on the way to consensus. Diabetes Care. 2009;32:S223-31.
55. Lim EL, Hollingsworth KG, Aribisala BS, Chen MJ, Mathers JC, Taylor R. Reversal of type 2 diabetes: normalisation of beta cell function in association with decreased pancreas and liver triacylglycerol. Diabetologia. 2011;54:2506-14.
56. Weng J, Li Y, Xu W, Shi L, Zhang Q, Zhu D, et al. Effect of intensive insulin therapy on beta-cell function and glycaemic control in patients with newly diagnosed type 2  diabetes: a multicentre randomised parallel-group trial. Lancet. 2008;371:1753-60.
57. Kramer CK, Choi H, Zinman B, Retnakaran R. Determinants of reversibility of beta-cell dysfunction in response to short-term intensive insulin therapy in patients with early type 2 diabetes. Am J Physiol Endocrinol Metab. 2013;305:E1398-407.
58. Parkes DG, Pittner R, Jodka C, Smith P, Young A. Insulinotropic actions of exendin-4 and glucagon-like peptide-1 in vivo and in vitro. Metabolism. 2001;50:583-9. 59. Nauck MA. A critical analysis of the clinical use of incretin-based therapies: the benefits by far outweigh the potential risks. Diabetes Care. 2013;36:2126-32.
60. Gale EA. GLP-1 based agents and acute pancreatitis: drug safety falls victim to the three monkey paradigm. BMJ. 2013;346:f1263.
61. Butler PC, Elashoff M, Elashoff R, Gale EAM. A critical analysis of the clinical use of incretin-based therapies: are the GLP-1 therapies safe? Diabetes Care. 2013;36:2118-25.
62. Chandarana K, Batterham RL. Shedding pounds after going under the knife: metabolic insights from cutting the gut. Nat Med. 2012;18:668-9.
63. Chambers AP, Jessen L, Ryan KK, Sisley S, Wilson-Perez HE, Stefater MA, et al. Weight-independent changes in blood glucose homeostasis after gastric bypass or vertical sleeve gastrectomy in rats. Gastroenterology. 2011;141:950-8.





DEBATE: ZikaFecha: 2/2/2016





                                                            Dr. Cláudio Maierovitch,

                                 Director del Departamento de Vigilancia de Enfermedades Transmisibles
                                                                               Ministerio de Salud brasileño

                                                           Dr.Pedro Fernando Vasconcelos

                                                           Investigador de arbovirología del IEC,

                                                           Dr. Alain Kohl

                                    Experto en arbovirus de la Universidad de Glasgow, en Reino Unido,

                                                          Dra. Dominique Rousset

                                               Laboratorio de Virología - Instituto Pasteur

                                                           Dr Laith Yakob

                                            Escuela de Higiene y Medicina Tropical de Londres

                                                           Dr. Rivaldo Venâncio

                                           Instituto Fiocruz del estado de Mato Grosso du Sul

En Brasil estar embarazada se ha convertido en una situación de alto riesgo, desde que el pasado 28 de noviembre de 2015 se estableciera por primera vez la relación entre el Zika, un virus transmitido por el mismo mosquito del dengue, y el alarmante aumento del número de casos de bebés nacidos con microcefalia.
Desde el 22 de octubre de 2015 hasta el 9 de enero de 2016, el Ministerio de Salud Pública de Brasil registraba en más de 21 estados del país un total de 3.530 casos de microcefalia, condición por la que los bebés nacen con un cerebro más pequeño de lo normal, por debajo de los 33 centímetros, asociada a un riesgo de muerte rápida del niño o a trastornos irreversibles, como retrasos mentales o dificultades psicomotoras. Se investigan 46 casos de bebés muertos poco después de nacer que presentaban microcefalia posiblemente vinculada al virus.

Un fenómeno nuevo para Brasil y para la ciencia

El aumento significativo de microcefalia ha inducido al  ministerio a decretar una alerta de salud pública, reproducida por la Organización Panamericana de Salud ante el rápido avance del virus del Zika en todo el continente, la evolución detectada de microcefalia en Brasil ha sido:

          * 3530 cuadros de microcefalia que se documentaron en todo Brasil en 2015
          * 147 cuadros de microcefalia que se documentaron en todo Brasil en 2014,
          * 167 cuadros de microcefalia que se documentaron en todo Brasil en 2013  
          * 175 cuadros de microcefalia que se documentaron en todo Brasil en 2012



Ya son 14 los países donde se conocen casos de transmisión autóctona: Brasil, Colombia, México, Venezuela, Paraguay, El Salvador, Guatemala, Guayana Francesa, Haití, Honduras, Martinica, Panamá, Puerto Rico y Surinam.
El virus del Zika nunca había causado una epidemia como la que hemos tenido en Brasil en 2015. Tampoco antes se sospechaba que pudiera generar microcefalia, por lo que todo es nuevo hasta para la ciencia..
El virus del Zika apareció por primera vez en Uganda en 1947, en Brasil no era conocido hasta el pasado mes de mayo 2015. El país está tiene experiencia en laANSI Code Download  lucha endémica, histórica contra el Dengue.
Zika y Dengue comparten varias cosas: el mosquito que las transmite ( Aedes aegypti), los virus que la provocan pertenecen, junto a la fiebre amarilla, a la familia de los flavivirus.  Hasta ahora el zika se presentaba como una versión menor y poco alarmante del dengue, los infectados sentían una leve picazón, salpullido, fiebre y dolor articular. No se había registrado casos de muerte enlos paises originarios (África, Oceanía y Polinesia francesa),nadie jerarquizaba su existencia..

Primeras alarmas

En noviembre, cuando el laboratorio de flavivirus del Instituto Osvaldo Cruz brasileño detectó la presencia del genoma de virus del Zika en el fluido amniótico de dos mujeres embarazadas de Paraiba cuyos fetos tenían microcefalia.
Después, el el Instituto Evandro Chagas (IEC), laboratorio nacional de referencia para las arbovirosis (enfermedades víricas transmitidas por artrópodos), confirmó por primera vez tres muertes asociadas al virus del Zika. El primer desenlace fatal lo sufrió un hombre de 35 años que vivía en el estado de Marahao, al norte del país. La segunda muerte fue la de una chica de 16 años. La tercera, un bebé con microcefalia poco después de nacer, fue más concluyente: se confirmó la presencia del zika en muestras de sangre y tejidos. Este caso permite vincular, con datos de laboratorio irrefutables, la asociación causal de la microcefalia con el zika. En este contexto, un caso es suficiente para probar la relación, porque ya existía la sospecha clínica, la asociación temporal del aumento de casos de microcefalia durante la epidemia de zika, y también la detección del virus en el líquido amniótico de dos gestantes cuyos fetos fueron diagnosticados con microcefalia.
Las autoridades de salud de la Polinesia francesa informaron de inusual incremento de casos de anomalía del sistema nervioso central en fetos y recién nacidos, coincidiendo con un brote de zika en las islas. Cuatro embarazadas  dieron positivo en el test de flavivirus.
El virus del Zika estuvo durante mucho tiempo fuera de radar. Sus síntomas son tan parecidos a los del dengue o el chikunguña, que puede haber causado problemas en el pasado que hayan pasado desapercibidos (Alain Kohl) Quien se muestra aún cauto sobre el vínculo causal que ligaría al virus con las malformaciones cerebrales. Es difícil demostrar la relación entre microcefalia y zika desde el punto de vista científico. Tiene sentido buscarla, pero necesitamos mejores herramientas de diagnóstico y de seguimiento, más análisis, y saber si todas las madres que han tenido niños con microcefalia han sido infectadas por el virus, dato que en este momento no está completamente confirmado.

Agresividad nunca antes vista

Los interrogantes no dejan de crecer, y lo hacen mucho más rápidamente que las respuestas. Tampoco se sabe, por ejemplo, por qué en Brasil el virus se ha extendido a tal velocidad y, sobre todo, con esa agresividad, generando uno de los problemas de salud más grave que se recuerdan en décadas.
La situación en Latinoamérica es bastante particular. En Brasil hay dengue y fiebre amarilla, transmitidos por el mismo mosquito que el zika; hay un gran potencial de infección, una alta densidad de población y mucha gente sin inmunidad frente al virus, por lo que se puede expandir muy deprisa", señala Kohl.
Tampoco se sabe con certeza cómo saltó de África hasta Brasil. En un principio se especuló que la llegada se produjo en 2014 durante la Copa del Mundo, pero pistas posteriores apuntan a un equipo de piragüistas de la Polinesia francesa que unas semanas másASME BPVC Code Download tarde participó en una carrera de canoas en Rio de Janeiro.
Según proyecciones preliminares avaladas por el Ministerio de Salud, los casos estimados de infección del virus del Zika en Brasil para 2015 estarían entre 497.593 y 1.482.701. Muchas de esas personas nunca acudirán a buscar ayuda médica, puesto que solo una de cada cuatro presentará síntomas. Se están llevando a cabo estudios más profundos en Brasil para determinar con mayor exactitud esa cifra aproximada.

El genoma del virus abre nuevos interrogantes

La gran pregunta es por qué este brote ha resultado tan virulento respecto a otros. No tenemos suficiente información para saberlo, es muy pronto (Kohl.)
La primera secuenciación completa del genoma del virus del Zika detectado en Latinoamérica, publicada hace pocos días en The Lancet, muestra una homología casi completa con las cepas responsables de la epidemia de 2013 y 2014 en el Pacífico, lo que descarta prácticamente la posibilidad de que su agresividad en este lado del mundo se deba a una mutación.
El genoma fue secuenciado por el Instituto Pasteur en muestras de los cinco casos de zika registrados en la Guyana francesa pero se plantearon dudas. ¿Los trastornos están causados solo por el virus, por la cocirculación junto a otros agentes infecciosos, o por otros factores? (Dominique Rousset),
Por el momento, solo hay hipótesis. Es posible que exista un factor geográfico para la especial virulencia del zika en Brasil. También puede deberse a la interacción con ciertos medicamentos, o que el impacto del dengue en la zona haya dañado el sistema inmunológico de quienes lo sufrieron y permita que el zika traspase la frontera entre el feto y la madre.
No hay una única solución perfecta. Es crucial mejorar el diagnóstico diferenciado del dengue, el zika y el chikunguña, que presentan síntomas similares. También es de importancia crítica la investigación, que podría proporcionar señales tempranas para detectar a tiempo los patogénos de reciente aparición y evitar su propagación. Los virus comparten el mismo mosquito como vector de transmisión, debería aprovecharse para generar beneficios en la salud pública, a través de una estrategia de control coordinada y concertada.(Laith Yakob).

¿Una generación marcada?

Se vislumbra, sin que nadie pueda remediarlo, una generación dañada. Algunos expertos vaticinan que a finales de 2016 habrá en el país unos 15.000 casos de microcefalia y hasta 40.000 de otros tipos de malformaciones Ha surgido como un efecto natural de la situación el miedo a un embarazo: (Rivaldo Venâncio)




MISCELANEAS BREVES - 161Fecha: 2/2/2016



El deterioro del sentido del olfato podría ser una señal de Alzheimer


 Rosebud Roberts, M.B., Ch.B., professor, neurology, Mayo Clinic, Rochester, Minn.
 James Hendrix, Ph.D., director, global science initiatives, Alzheimer's Association;

                                                               Nov. 16, 2015, JAMA Neurology, online


La perdida del sentido del olfato podría marcar el inicio de problemas de memoria y posiblemente de Alzheimer, según un estudio reciente.
Las personas de edad avanzada con las peores puntuaciones en la prueba del olfato tenían una probabilidad 2.2 veces mayor de empezar a presentar problemas leves de memoria.Si ya tenían dichos problemas de memoria, eran más propensos a llegar a tener Alzheimer propiamente dicho..
Los hallazgos no aplican a las personas que siempre han tenido dificultades con el olfato debido a afecciones crónicas del tracto respiratorio.
A medida que la demencia empieza y progresa, las partes del cerebro que distinguen olores empiezan a deteriorarse..

En el estudio recolectaron datos de más de 1,400 personas de edad avanzada con un estado mental normal, con un promedio de 79 años de edad y un seguimiento promedio de 3.5 años, 250 personas empezaron a presentar problemas de memoria (deterioro cognitivo leve) y 64 de 221 personas con los problemas graves de memoria contrajeron demencia. La prueba del olfato incluyó 6 olores relacionados con alimentos y 6 olores que no lo estaban (banana, chocolate, canela, gasolina, limón, cebolla, disolvente de pintura, piña, rosa, jabón y aguarrás).A medida que la incapacidad de identificar los olores aumentaba, también aumentaba la probabilidad de que hubiera problemas de memoria y Alzheimer.  El estudio no demostró que hubiera ASME Code Downloadcausalidad, no se encontró ningún vínculo entre una pérdida del sentido del olfato y otros problemas de pensamiento asociados con el deterioro cognitivo leve. Los hallazgos quizá indiquen que podría haber un problema asociado con las enfermedades neurodegenerativas en general.

Los hallazgos sugieren que hacer una prueba del olfato podría ayudar a identificar a las personas mayores con un estado mental normal que son propensas a presentar problemas de memoria o, si ya los tienen, a acabar teniendo la demencia del Alzheimer. Es demasiado pronto como para empezar a usar una prueba de olfato como herramienta diagnóstica. El sentido del olfato no reside solamente en la nariz; hay receptores que se activan en el cerebro, necesitamos tener un cerebro sano para oler completamente el mundo que nos rodea".







Ten tips on how to win the war against resistance to antibiotics


                                                                                                        Jean Carlet

                                                                                     Intensive Care Med (2015) 41:899-901


Antibiotic resistance has increased dramatically in the past few years and nowadays represents a serious threat to public health [1-3]. Reasons are multiple, the excess in antibiotic consumption being the most important one.  Therefore, antibiotic prescription must be carefully discussed for each patient. Unfortunately, antibiotic prescription is still considered as a trivial act in both humans and animals, in both the hospitals and community.  Antibiotic resistance is a worldwide issue. The prevalence of Enterobacteriaceae resistant to third generation cephalosporins reaches 70-80 % in several countries, the prevalence of carbapenemases in Klebsiella pneumoniae being more than 50 % in many countries [4, 5] (Fig. 1). In the ESAC network in Europe [6], antibiotic consumption in the community ranges from 11 to 32 DDDs per 1,000 inhabitants per day. Similar differences are seen in other continents.  Between 2000 and 2010, consumption of antibiotics increased in 71 countries by 36 %, Brazil, Russia, India, China and South Africa accounting for 76 % of this increase [7]. Animal consumption represents 80 % of total antibiotic consumption. Large differences are seen in the consumption in animals [8]. In Europe, France and The Netherlands were the highest consumers.  The Netherlands has been able to reduce its consumption by more than 60 % and France by 35 % in the last 5 years.

The World Alliance Against Antibiotic Resistance (WAAAR)

The WAAAR is an alliance created 2_ years ago in order to raise awareness of politicians, policy makers, health care professionals and citizens. It comprises 720 people from 55 different countries, coming from various horizons, including medical2015 API Code Download doctors from many specialities, veterinarians, pharmacists, nurses, ecologists, environmental specialists, advocacy groups of patients and citizens. It is supported by 145 medical specialities and various groups. The WAAAR proposes the ten following actions.

1.  Awareness of all the stakeholders, including the general public, of the threat represented by antibiotic resistance. Strong cooperation among the WHO, OIE and FAO, which must take the lead in the world program against antibiotic resistance.

2.  Organization, in each country of a financed national plan for the containment of antibiotic resistance, with the involvement of all the actors, including consumers.

3.  Permanent access to antibiotics of assured quality, in particular in middle- and low-income countries.

4.  Cautious, controlled and monitored approaches to the use of antibiotics (antibiotic stewardship).

A list of ''protected'' antibiotics must be available in each hospital. These antibiotics  can only be prescribed by referents or infectious diseases specialists. Each antibiotic prescription must be carefully balanced according to advantages and risks of the product. The risks include side effects of the drug (early events) and the risk of resistance (late events). Antibiotic therapy must be reserved for bacterial infections. In practice, many viral infections, including those of the upper respiratory tract, are treated with antibiotics. Rapid diagnostic tests would help greatly to differentiate viral and bacterial infections. In the ICU,all these  measures are of paramount importance, since 60 to  70 % of the patients are treated with antibiotics. A  systematic re-evaluation must be performed and a deescalation  must be systematically discussed [9]. The  antibiotic dose must be increased because of particularities  of PK/PD parameters in ICU patients. Combination therapy must be applied rarely and limited to therapy of ventilator-associated pneumonia, severe sepsis and septic shock. The duration of antibiotic therapymust be reduced as much as possible [10].
Antibiotherapy in animals is also an important issue. Antibiotic usage as a growth factor, which is implemented in many countries, including the USA, must be abandoned (this has been the case in Europe since 2006). Similarly, the prophylactic prescription of antibiotics must be a very rare event.Antibiotics must be prescribed for a precise duration, with an appropriate dosage. Performing a reevaluation at day 2 or 3 is very important. In most cases, the initial antibiotic therapy, which is often empiric, can be altered for drugs with less antibiotic pressure or can be stopped.In developing countries, antibiotics are often available over the counter, without any prescription. This must be combatted.

5.  Development of new and use of available rapid and accurate diagnostic tests

These must be developed to aid in distinguishing bacterial and nonbacterial etiologies and rapidly select appropriate, targeted antibiotics, avoid unnecessary treatments and modulate the duration of therapy.

6.  Prevention of bacterial transmission

Hand disinfection with hydro-alcoholic solutions is the most important action to interrupt spread of resistant microorganisms. Antibiotic screening is a very controversial topic. It should not be generalized.  In the ICU, some studies show that excellent usage of standard precautions and daily bathing with chlorhexidine is more effective than screening and isolation [11].

7.  Education and information

    A strong educational program for both health care professionals and the public is necessary. Education and training programs for health care professionals audemars piguet replica

8.  Surveillance of antibiotic resistance and consumption

It is very important to have precise information on antibiotic resistance and consumption in each country. Therefore, local networks must be set up as well as participation in large networks, allowing some benchmarking. We are lucky enough to have these networks in Europe [4, 6]. Specific data are necessary for ICUs.

9.      Promotion of basic and applied research.

Research and development (R/D) of new drugs Many resources are mandatory for both fundamental and applied research. An important budget has been devoted to research by the European commission and by the NIH in the last few years. Very recently a public/private cooperation (IMI) has been developed in Europe. The research resources must be increased for both human and veterinary medicine.  Very few drugs have been made available in the past few years [12]. This is due to the fact that R&D takes a long time and is costly, with an insufficient return on the investment for companies (short duration of therapy, low price). New development models must be found. Fast-track R&D is a possibility, considering for example antibiotics such as orphan drugs. Pricing must be discussed according to the ability of new drugs to be really innovative, with a delinking between return to investment for the companies and volume of the prescriptions.
Development of new antibacterial vaccines and nonantibiotic compounds is of  Paramount importance

10.Inclusion of antibiotics in UNESCO's world intangible heritage

This would have an exemplarity effect for all countries and for the public. Antibiotics are very special drugs, being like a treasure that we need to protect [13], with a philosophy of sustainabl development.

Can we win the war against antibiotic resistance?

This war will be very long, and we need a great deal of perseverance. We also need the strong commitment of politicians, with sustainable actions [14]. Repeated2015 New Code Download campaigns must be organized in order to convince health care professionals and consumers that the problem is very serious, even if they do not see a lot of resistant bacteria in their daily life. International cooperation is urgently needed. The WHO is the appropriate structure to lead the crusade. Yes, we can!


1.  Laxminarayan R, Duse A, Wattal C (2013) Antibiotic resistance. The need for global solutions. Lancet Infect Dis 13:1057-1098

2.  Piddock LJ (2012) The crisis of no new antibiotics-what is the way forward. Lancet Infect Dis 12:249-253

3.  Bush K, Courvalin P, Gautam D et al (2011) Tackling antibiotic resistance. Nat rev Microbiol 9:894-895

4.  Earss-Net database.

5.  Nordmann P, Poirel L (2014) The difficult-to-control spread of carbapenemases producers among Enterobacteriaceae worldwide. Clin Microbiol Infect 20:821-830

6.  Esac-Net database.

7.  Van Boeckel TP, Gandra S, Ashok A et al (2014) Global antibiotic consumption 2000 to 2010: an analysis of national pharmaceutical sales data. Lancet Infect Dis 14:742-750

8.  Grave K, Torren-Edo J, Mackay D (2010) Comparison of the sales of veterinary antibacterial agents between 10 European countries. J Antimicrob Chemother 65:2037-2040

9.  Timsit JF, Harbarth S, Carlet J (2014)

De-escalation as a potential way of reducing antibiotic use and antimicrobial resistance in ICU. Intensiv Care Med 40:1580-1582

10. Bouadma L, Luyt CE, Tubach F et al (2010) Use or procalcitonin to reduce patients'exposure to antibiotics in intensive care units (PRORATA trial): a multicentre randomised controlled trial. Lancet 375:463-474

11. Climo MW, Wong ES et al (2013) Daily chlorhexidine bathing and hospital-acquired infections. N Engl J Med 368:2332-2338

12 .Peterson LR (2009) Bad bugs, no drug: no escape. Clin Infect Dis 49:992-993

13 .Carlet J, Collignon P, Goldmann D et al (2011) Society's failure to protect a precious resource: antibiotics. Lancet 378:369-371

14. Carlet J, Pulcini C, Piddock LJ (2014) Antibiotic resistance: a geo-political issue. Clin Microbiol Infect (Epub ahead of print)







Ciencia y praxis de la soledad

                                                                                               Dr. Gonzalo Casino


La soledad perjudica gravemente la salud. Esta idea la suscriben sin duda buena parte de los ciudadanos y profesionales sanitarios de las sociedades desarrolladas, en las que la cantidad y la calidad de las relaciones sociales se han ido reduciendo progresivamente. Ciertamente, vivir solo y sentirse solo se asocia con un riesgo elevado de sufrir enfermedades crónicas y muerte prematura.
Numerosos estudios observacionales han respaldado esta asociación en las últimas décadas, en 1988 una revisión de cinco estudios prospectivos concluye que la falta de relaciones sociales predice mayor mortalidad y plantea la hipótesis de que existía una relación causal.
El mensaje que la salud se resiente por la soledad ha calado hondo en las sociedades desarrolladas, aunque sin entender su base científica y acometer eficazmente el tratamiento del problema.
Hasta ahora, poco o casi nada se sabía sobre los mecanismos biológicos que explicarían por qué la gente sola enferma más y muere antes. Una investigación publicada en Procedings of the National Academy of Sciences (PNAS) aporta ahora una plausible explicación. Este trabajo viene a sugerir que la gente aislada podría tener un sobreestimulación del sistema nervioso simpático (responsable de la respuesta instintiva de "lucha o huida" codificada en nuestros genes) junto con una mayor producción de células inflamatorias en la médula ósea y un descenso de producción de proteínas antivirales. Esto es solo una hipótesis. El artículo de PNAS da cuenta de una sofisticada investigación experimental realizada con parámetros biológicos de humanos que se sienten solos y de macacos Rhesus sometidos a aislamiento. El estudio sugiere que los macacos aislados pueden ser más susceptibles a las infecciones virales, pero no demuestra que las personas aisladas socialmente vayan a enfermar más o morir antes. Tampoco demuestra que el mecanismo biológico propuesto sea el único implicado, ni mucho menos.
La soledad es un sentimiento complejo y difícil de estudiar científicamente, pues puede estar influenciado por muchas circunstancias sociales, económicas, biográficas, psicológicas y de salud. Realmente es poco plausible que responda a un solo factor desencadenante. Es posible que las personas con enfermedades crónicas estén menos motivadas a relacionarse con otras personas, lo cual aumenta su sentimiento de soledad, entrando de esta manera en un círculo vicioso. Pero esto no deja de ser también una especulación.
Casi todo lo que la ciencia nos dice sobre la relación entre la soledad y la enfermedad y/o la muerte es producto de la mera observación (científica, eso sí). Los estudios observacionales realizados han conseguido correlacionar claramente la soledad humana (la reducción cuantitativa y cualitativa de las relaciones sociales) no solo con una peor salud mental sino también con una mayor morbilidad y mortalidad. El estudio de PNAS no es propiamente un experimento, pues no interviene sobre las variables, pero propone una explicación parcial plausible y un modelo animal para seguir investigando y confirmar biológicamente que la soledad es una causa cierta de enfermedad y muerte prematura.
Un metaanálisis publicado en 2010 en PLoS Medicine y realizado con los datos de 148 estudios observacionales llegó a la conclusión de que la influencia de las relaciones sociales sobre el riesgo de muerte es comparable a la de otros factores de riesgo, como el tabaco o el consumo de alcohol, y superior a la de la inactividad física y la obesidad. De modo que no hace falta mucha más ciencia para intervenir. Los profesionales de la salud deberían considerar las relaciones sociales tan en serio como otros factores de riesgo que elevan la morbilidad y la mortalidad. Lo que falta, eso sí, es estudiar cómo se pueden "recetar" relaciones sociales para reducir el riesgo de enfermar y morir prematuramente, más allá de todo el mundo puede pedir y ofrecer compañía para paliar esa agresión silenciosa que llamamos soledad. Otro asunto todavía más complejo es cómo cambiar el rumbo de esta sociedad nuestra, cada vez más individualista, que camina peligrosamente en una dirección que nos aleja de nuestra naturaleza social. 

Dr. Filiberto Bellido Vaca  

Completamente de acuerdo. No podemos negar que a veces la soledad es saludable cuando tiene el propósito de refundar metas y formas de vida, y que es muy peligrosa cuando se basa en pérdida o huida de motivaciones negativas.

Dr. Edgardo Silvio Sanchez Pinedo  

La idea no es medicalizarla, sino entender que en soledad no hay equilibrio ,hay perdida de la salud. Si tiene algún paciente solo,solo,ayú soledad no hay que dejarla sola ni tranquila.....el tema no es estar solo...el tema es poder vivir en soledad .....

Dr. Camilo Orlando Sevilla Artica  

Lo idóneo es mantener un equilibrio, si bien es cierto necesitamos tiempo para estar solos, también es necesario convivir con los demás. Pero desde el punto de vista médico, el total aislamiento, trae consigo trastornos, lo creo.

Lic. Nelba Porfiri 

Importante es tener en cuenta, el contexto cultural,. distintos lugares de América Latina.tienen una cultura parecida con una gran diferencia con los anglosajones, que rehuyen el contacto y  son reprimidos en las relaciones

Dr. Ulises Xavier Marmol Balda 

Es importante considerar la capacidad de elegir si estás solo o no. El problema está en aquellos que pierden esa capacidad de elegir por razones intrínsecas o extrínsecas.

Dra. Flory Barrantes Bogantes 

Curiosamente las personas que consultan con mayor sensación de soledad, no son las que carecen de compañía, sino las que están rodeadas de muchas personas, careciendo de un vínculo seguro

Dr. Ramón Humberto Alvarez  

El aislamiento humano conduce a mayor morbi-mortalidad; sin duda, pero de acuerdo al perfil psicológico o características personales del individuo, hay instancias o circunstancias, en que la soledad estabiliza y equilibra las emociones, el carácter, estimula y motiva la creatividad. Hay ciertas labilidades en determinadas personas y ello provoca  que la soledad les produce más daño que a otros.

Lic. Floribeth Vargas Barrantes  

Considero que debemos aprender a manejar la soledad, enseñar a los pacientes a disfrutar de su propia compañia porque creo que son dos aspectos distintos sentirse solo y vivir solo. Hay muchas personas que viven con otra persona y se sienten solas . Hay que cultivar relaciones interpersonales gratificantes satisfactorias rodearse d e personas positivas, que trasmitan energias favorables para nuestra. vida.

Dra. Estella Maris Villegas  

Es conocida  la asociación entre soledad y alcoholismo.

Dra. Silvia Lilian Gonzalez Dardik  

Estos estudios observacionales, son muy vagos, no presentan  un peso científico, que permita acreditarlos, no discrimina de que tipo de soledad hablamos, si la persona elige estar sola,o no tiene opción, tampoco considera la edad , la actividad que desempeña, si lo vive cómo un problema , si "sufre de soledad. Decir la soledad, sin discriminarla, colocandola en el rango de factor de riesgo mayor que la obesidad o el sedentarismo, es si no audáz, bastante dudoso.

Dra. Amalia Pati 

Mucha gente que vive sola, no ha elegido la soledad, por diversas razones le toca la soledad y este grupo tiene más tendencia a la depresión, alcoholismo y tabaquismo, factores de riesgo en sí mismos para morbimortalidad prematura.

Me parece que aquellas personas que eligen la soledad porque tiene sus encantos, no creo que tengan afectaciones de su sistema inmunológico ni mueran antes

Lic. Nelba Porfiri  

La Soledad llega? busca? siente? vive?...La capacidad interior de estar en soledad,es algo que se logra y está vinculada a la posibilidad de entrar o salir.Lo patológico está cuando se sufre, y eso si enferma.




MISCELANEAS BREVES - 160Fecha: 3/1/2016



Prevención del parto pre-término.
Medidas para disminuir complicaciones asociadas y alternativas para el parto.

                                               Instituto Nacional par la Salud y Atención de Excelencia (NICE)

El parto prematuro es un problema de salud perinatal importante ya que representa el 10% de todos los nacimientos a nivel mundial, además de ser la principal causa de muerte en los recién nacidos y la segunda causa en menores de 5 años. Los bebes prematuros son más propensos a graves problemas de salud a largo plazo, como defectos cardíacos, trastornos pulmonares, afecciones neurológicas (parálisis cerebral) y un desarrollo más lento. 

El Instituto Nacional para la Salud y Atención de Excelencia (NICE) difundió una nueva guía, destinada a los profesionales sanitarios, recoge las mejores vías de tratamiento para las mujeres en riesgo de, o sospecha o confirmación, trabajo de parto pre-término, con el fin de mejorar los resultados tanto para las mujeres y los bebés prematuros. Brinda recomendaciones sobre el diagnóstico y el cuidado de las mujeres con rotura prematura de membranas, el diagnóstico de trabajo de parto prematuro y la prevención o retraso de este tipo de alumbramientos y directrices sobre tratamientos para disminuir el riesgo de problemas de salud para el bebé, el monitoreo fetal para las mujeres en trabajo de parto ASME Standardprematuro, modo de nacimiento, cerclaje, e información y apoyo para la familia.
Respecto al tratamiento específico para manejo de madre y bebé, esta guía plantea:

  • Se debe ofrecer sulfato de magnesio intravenosos a las mujeres entre 24 + 0 y 29 + 6 semanas de embarazo, y para las que cursan las 30 + 0 y 33 + 6 semanas de embarazo en trabajo de parto prematuro establecido o previsto dentro de las 24 horas.
  • Se define cuándo suministrar la progesterona o realizar un cerclaje para prevenir o retrasar este tipo de nacimientos
  • Se indica antibióticos para evitar una infección en el caso de rotura temprana de la membrana
  • Se listan fármacos que  retrasan el trabajo de este tipo de partos

                                          Guía "Preterm labour: summary of NICE guidance"





2015 ESC guidelines for the management of acute coronary syndromes in patients presenting without persistent ST-segment elevation



2. Introduction


2.1 Definitions, pathophysiology and epidemiology The leading symptom that initiates the diagnostic and therapeutic cascade in patients with suspected acute coronary syndromes (ACS) is chest pain. Based on the electrocardiogram (ECG), two groups of patients should be differentiated: (1) Patients with acute chest pain and persistent (.20 min) ST-segment elevation. This condition is termed ST-elevation ACS and generally re- flects an acute total coronary occlusion. Most patients will ultimately develop an ST-elevation myocardial infarction (STEMI). The mainstay of treatment in these patients is immediate reperfusion by primary angioplasty or fibrinolytic therapy.1 (2) Patients with acute chest pain but no persistent ST-segment elevation. ECG changes may include transient ST-segment elevation, persistent or transient ST-segment depression, T-wave inversion, flat T waves or pseudo-normalization of T waves or the ECG may be normal. The clinical spectrum of non-ST-elevation ACS (NSTE-ACS) may range from patients free of symptoms at presentation to individuals with ongoing ischaemia, electrical or haemodynamic instability or cardiac arrest. The pathological correlate at the myocardial level is ANSI PDF Downloadcardiomyocyte necrosis [NSTE-myocardial infarction (NSTEMI)] or, less frequently, myocardial ischaemia without cell loss (unstable angina). A small proportion of patients may present with ongoing myocardial ischaemia, characterized by one or more of the following: recurrent or ongoing chest pain, marked ST depression on 12-lead ECG, heart failure and haemodynamic or electrical instability. Due to the amount of myocardium in jeopardy and the risk of malignant ventricular arrhythmias, immediate coronary angiography and, if appropriate, revascularization are indicated.

2.1.1 Universal definition of myocardial infarction Acute myocardial infarction (MI) defines cardiomyocyte necrosis in a clinical setting consistent with acute myocardial ischaemia.2 A combination of criteria is required to meet the diagnosis of acute MI, namely the detection of an increase and/or decrease of a cardiac biomarker, preferably high-sensitivity cardiac troponin, with at least one value above the 99th percentile of the upper reference limit and at least one of the following: (1) Symptoms of ischaemia. (2) New or presumed new significant ST-T wave changes or left bundle branch block on 12-lead ECG. (3) Development of pathological Q waves on ECG. (4) Imaging evidence of new or presumed new loss of viable myocardium or regional wall motion abnormality. (5) Intracoronary thrombus detected on angiography or autopsy. Type 1 MI Type 1 MI is characterized by atherosclerotic plaque rupture, ulceration, fissure, erosion or dissection with resulting intraluminal thrombus in one or more coronary arteries leading to decreasedmyocardial blood flow and/or distal embolization and subsequent myocardial necrosis. The patient may have underlying severe coronary artery disease (CAD) but, on occasion (i.e. 5 - 20% of cases), there may be non-obstructive coronary atherosclerosis or no angiographic evidence of CAD, particularly in women.2 - 5 Type 2 MI Type 2 MI is myocardial necrosis in which a condition other than coronary plaque instability contributes to an imbalance between myocardial oxygen supply and demand.2 Mechanisms include coronary artery spasm, coronary endothelial dysfunction, tachyarrhythmias, bradyarrhythmias, anaemia, respiratory failure, hypotension and severe hypertension. In addition, in critically ill patients and in patients undergoing major non-cardiac surgery, API Code Downloadmyocardial necrosis may be related to injurious effects of pharmacological agents and toxins.6

The universal definition of MI also includes type 3 MI (MI resulting in death when biomarkers are not available) and type 4 and 5 MI (related to percutaneous coronary intervention [PCI] and coronary artery bypass grafting [CABG], respectively).

2.1.2 Unstable angina in the era of high-sensitivity cardiac troponin assays Unstable angina is defined as myocardial ischaemia at rest or minimal exertion in the absence of cardiomyocyte necrosis. Among unselected patients presenting with suspected NSTE-ACS to the emergency department, the introduction of high-sensitivity cardiac troponin measurements in place of standard troponin assays resulted in an increase in the detection of MI (4% absolute and 20% relative increase) and a reciprocal decrease in the diagnosis of unstable angina.7-10 Compared with NSTEMI patients, individuals with unstable angina do not experience myocardial necrosis, have a substantially lower risk of death and appear to derive less benefit from intensified antiplatelet therapy as well as early invasive strategy.2-4,6-13

3. Diagnosis

3.1 Clinical presentation Anginal pain in NSTE-ACS patients may have the following presentations: † Prolonged (.20 min) anginal pain at rest; † New onset (de novo) angina (class II or III of the Canadian Cardiovascular Society classification);21 † Recent destabilization of previously stable angina with at least Canadian Cardiovascular Society Class III angina characteristics (crescendo angina); or † Post-MI angina. Prolonged and de novo/crescendo angina are observed in 80% and 20% of patients, respectively. Typical chest pain is characterized by a retrosternal sensation of pressure or heaviness ('angina') radiating to the left arm (less frequently to both arms or to the right arm), neck or jaw, which may be intermittent (usually lasting several minutes) or persistent. Additional symptoms such as sweating, nausea, abdominal pain, dyspnoea and syncope may be present. Atypical presentations include epigastric pain, indigestion-like symptoms and isolated dyspnoea. Atypical complaints are more often observed in the elderly, in women and in patients with diabetes, chronic renal disease or dementia.22 - 24 The exacerbation of symptoms by physical exertion and their relief at rest increase the probability of myocardial ischaemia. The relief of symptoms after nitrates administration is not specific for anginal pain as it is reported also in other causes of acute chest pain.24 In patients presenting withASME BPVC PDF suspected MI to the emergency department, overall, the diagnostic performance of chest pain characteristics for MI is limited.24 Older age, male gender, family history of CAD, diabetes, hyperlipidaemia, hypertension, renal insufficiency, previous manifestation of CAD as well as peripheral or carotid artery disease increase the likelihood of NSTE-ACS. Conditions that may exacerbate or precipitate NSTE-ACS include anaemia, infection, inflammation, fever, and metabolic or endocrine (in particular thyroid) disorders

3.2 Physical examination Physical examination is frequently unremarkable in patients with suspected NSTE-ACS. Signs of heart failure or haemodynamic or electrical instability mandate a quick diagnosis and treatment. Cardiac auscultation may reveal a systolic murmur due to ischaemic mitral regurgitation, which is associated with poor prognosis, or aortic stenosis (mimicking ACS).25 Rarely, a systolic murmur may indicate a mechanical complication (i.e. papillary muscle rupture or ventricular septal defect) of a subacute and possibly undetected MI. Physical examination may identify signs of non-coronary causes of chest pain (e.g. pulmonary embolism, acute aortic syndromes, myopericarditis, aortic stenosis) or extracardiac pathologies (e.g. pneumothorax, pneumonia or musculoskeletal diseases). In this setting, the presence of a chest pain that can be reproduced by exerting pressure on the chest wall has a relatively high negative predictive value for NSTE-ACS.24,26 According to the presentation, abdominal disorders (e.g. oesophageal spasm, oesophagitis, gastric ulcer, cholecystitis, pancreatitis) may also be considered in the differential diagnosis. Differences in blood pressure between the upper and lower limbs or between the arms, irregular pulse, jugular vein distension, heart murmurs, friction rub and pain reproduced by chest or abdominal palpation are findings suggestive of alternative diagnoses. Pallor, sweating or tremor may point towards precipitating conditions such as anaemia and thyrotoxicosis.27

3.3 Diagnostic tools

3.3.1 Electrocardiogram The resting 12-lead ECG is the first-line diagnostic tool in the assessment of patients with suspected ACS (Figure 1). It is recommended to obtain it within 10 min of the patient's arrival in the emergency room or, ideally, at first contact with emergency medical services in the prehospital setting and to have it immediately interpreted by a qualified physician.28 While the ECG in the setting of NSTE-ACS may be normal in more than one-third of patients, characteristic abnormalities include ST depression, transient ST elevation and T-wave changes.1,18 If the standard leads are inconclusive and the patient has signs or symptoms suggestive of ongoing myocardial ischaemia, additional leads should be recorded; left circumflex artery occlusion or right ventricular MI may be detected only in V7 -V9 and V3R and V4R, respectively.2 In patients with suggestive signs and symptoms, the finding of persistent ST elevation indicates STEMI, which mandates immediate reperfusion.1 Comparison with previous tracings is valuable, particularly in patients with pre-existing ECG abnormalities. It is recommended to obtain additional 12-lead ECGs in the case of persistent or recurrent symptoms or diagnostic uncertainty. In patients with bundle branch block or paced rhythm, ECG is of no help for the diagnosis of NSTE-ACS.

3.3.2 Biomarkers Biomarkers complement clinical assessment and 12-lead ECG in the diagnosis, risk stratification and treatment of patients with suspected NSTE-ACS. Measurement of a biomarker of cardiomyocyte injury, preferably high-sensitivity cardiac troponin, is mandatory in all patients with suspected NSTE-ACS.2,6,8 Cardiac troponins are more sensitive and specific markers of cardiomyocyte injury than creatine kinase (CK), its MB isoenzyme (CK-MB) and myoglobin.6 If the clinical presentation is compatible with myocardial ischaemia, then a dynamic elevation of cardiac troponin above the 99th percentile of healthy individuals indicates MI.2 In patients with MI, levels of cardiac troponin rise rapidly (i.e. usually within 1 h if using high-sensitivity assays) after symptom onset and remain elevated for a variable period of time (usually several days).2,6 Advances in technology have led to a refinement in cardiacAWS Standard PDF Download troponin assays and have improved the ability to detect and quantify cardiomyocyte injury.2,6,8,10,29 - 37 In Europe the vast majority of cardiac troponin assays run on automated platforms and are sensitive (i.e. allow for detection of cardiac troponin in 20 - 50% of healthy individuals) or high-sensitivity (detection in 50- 90% of healthy individuals) assays. High-sensitivity assays are recommended over less sensitive ones.2,6,8 The majority of currently used point-of-care assays cannot be considered sensitive or highsensitivity assays.8,35 Therefore the obvious advantage of point-of-care tests, namely the shorter turnaround time, is counterbalanced by lower sensitivity, lower diagnostic accuracy and lower negative predictive value. Overall, automated assays have been more thoroughly evaluated as compared with point-of-care tests.2,6,8 As these techniques continue to improve and performance characteristics are both assay and hospital dependent, no recommendation regarding the site of measurement (central laboratory vs. bedside) can be given.2,6,8,38 Data from large multicentre studies have consistently shown that sensitive and high-sensitivity cardiac troponin assays increase diagnostic accuracy for MI at the time of presentation as compared with conventional assays, especially in patients presenting early after chest pain onset, and allow for a more rapid 'rule-in' and 'rule-out' of MI (see section 3.3.3 and Table 3).2,6,8,29 - 34 In most patients with renal dysfunction, elevations in cardiac troponin should not be primarily attributed to impaired clearance and considered harmless, as cardiac conditions such as chronic coronary or hypertensive heart disease seem to be the most important contributor to troponin elevation in this setting.41 Other life-threatening conditions presenting with chest pain, such as aortic dissection and pulmonary embolism, may also result in elevated troponin levels and should be considered as differential diagnoses

Among the multitude of additional biomarkers evaluated for the diagnosis of NSTE-ACS, only CK-MB and copeptin seem to have clinical relevance.2,6,8,10,44 - 50 CK-MB shows a more rapid decline after MI as compared with cardiac troponin and may provide added value for the timing of myocardial injury and the detection of early reinfarction.2,6,8,10 Assessment of copeptin, the C-terminal part of the vasopressin prohormone, may quantify the endogenous stress level in multiple medical conditions including MI. As the level of endogenous stress appears to be invariably high at the onset of MI, the added value of copeptin to conventional (less sensitive) cardiac troponin assays is substantial.44 - 50 Therefore the routine use of copeptin as an additional biomarker for the early rule-out of MI is recommended whenever sensitive or high-sensitivity cardiac troponin assays are not available. Copeptin may have some added value even over high-sensitivity cardiac troponin in the early ruleout of MI.44 - 48 3.3.3 'Rule-in' and 'rule-out' algorithms Due to the higher sensitivity and diagnostic accuracy for the detection of acute MI at presentation, the time interval to the second cardiac troponin assessment can be shortened with the use of high-sensitivity assays. This may reduce substantially the delay to diagnosis, translating into shorter stays in the emergency department and lower costs.2,6,8,10,29 - 36 It is recommended to use the 0 h/3 h algorithm (Figure 2). As an alternative, 0 h/1 h assessments are recommended when high-sensitivity cardiac troponin assays with a validated algorithm are available (Figure 3). The 0 h/1 h algorithms rely on two concepts: first, high-sensitivity cardiac troponin is a continuous variable and the probability of MI increases with increasing high-sensitivity cardiac troponin values;39 second, early absolute changes of the levels within 1 h can be used as surrogates for absolute changes over 3 h or 6 h and provide incremental diagnostic value to the cardiac troponin assessment at presentation.39 The cutoff levels within the 0 h/1 h algorithm are assay specific.36

Those algorithms should always be integrated with a detailed clinical assessment and 12-lead ECG and repeat blood sampling is mandatory in case of ongoing or recurrent chest pain The negative predictive value for MI in patients assigned 'rule-out' exceeded 98% in several large validation cohorts.30 - 34,36,39,51 - 55 Used in conjunction with clinical and ECG findings, the 0 h/1 h algorithm may allow the identification of candidates for early discharge and outpatient management. The positive predictive value for MI in those patients meeting the 'rule-in' criteria was 75 - 80%.30 - 34,39,53 - 55 Most of the 'rule-in' patients with diagnoses other than MI did have conditions that usually require inpatient coronary angiography for accurate diagnosis, including Tako-Tsubo cardiomyopathy and myocarditis.39,53 - 55 Patients who do not qualify for 'rule-out' or 'rule-in' represent a heterogeneous group that may require further investigations if no alternative explanation for the cardiac troponin elevation is identified. A large proportion of these patients may require a further high-sensitivity cardiac troponin assessment (e.g. at 3 h). Coronary angiography should be considered in patients for whom there is a high degree of clinical suspicion of NSTE-ACS, while in patients with low to intermediate likelihood for this condition, computed tomography (CT) coronary angiography should be considered. No further diagnostic testing in the emergency department is indicated when alternative conditions such as rapid ventricular rate response to atrial fibrillation or hypertensive emergency have been identified. For rapid rule-out, two alternative approaches to the 0 h/1 h or 0 h/3 h algorithms have been adequately validated and may be considered. First, a 2 h rule-out protocol combining the Thrombolysis in Myocardial Infarction (TIMI) risk score with ECG and highsensitivity cardiac troponin at presentation allowed a safe rule-out in up to 40% of patients.56 - 58 Second, a dual-marker strategy combining normal levels of cardiac troponin together with low levels of copeptin (,10 pmol/L) at presentation showed very high negative predictive value for MI, obviating the need for serial testing in selected patients.44 - 50 When using any algorithm, three main caveats apply: (i) algorithms should only be used in conjunction with all available clinical information, including detailed assessment of chest pain characteristics and ECG; (ii) in patients presenting very early (e.g. within 1 h from chest pain onset), the second cardiac troponin level should be obtained at 3 h, due to the time dependency of troponin release; (iii) as late increases in cardiac troponin have been described in 1% of patients, serial cardiac troponin testing should be pursued if the clinical suspicion remains high or whenever the patient develops recurrent chest pain.52,54 High-sensitivity cardiac troponin assays also maintain high diagnostic accuracy in patients with renal dysfunction. To ensure the best possible clinical use, assay-specific optimal cut-off levels, which are higher in patients with renal dysfunction, should be used.59....................

Parte de:

2015 ESC guidelines for the management of acute coronary syndromes in patients presenting without persistent ST-segment elevation

Puede consultarse el documento en:

European Heart Journal Advance Access published August 29, 2015

European Heart Journal doi:10.1093/eurheartj/ehv320



MISCELANEAS BREVES - 159Fecha: 2/12/2015


Ejercicio físico a partir de los 60 años, aunque solo sea 15 minutos al día, reduce el riesgo de muerte,


                                British Journal of Sports Medicine (2015); doi:10.1136/bjsports-2014-094306


Hacer ejercicio físico a partir de los 60 años, aunque solo sea durante 15 minutos al día, reduce el riesgo de muerte, principalmente por enfermedades cardiovasculares
Realizar semanalmente actividades que supongan menos de 500 equivalentes metabólicos por minuto (MET) reduce en un 22% el riesgo de muerte respecto a las personas que no realizan ningún tipo de ejercicio. Los equivalentes metabólicos por minuto (MET) miden la cantidad de calorías quemadas por minuto durante una actividad física. Se recomienda actividades físicas que equivalgan a entre 500 y 1.000 MET cada semana.
Un ejercicio moderado o fuerte semanal con una duración de 75 minutos (equivale a 250 MET), 15 minutos de ejercicio físico al día, también genera beneficios para la salud.
Si una persona mayor de 60 años realiza ejercicio físico de más de 1.000 MET, puede llegar a reducir en un 28% su riesgo de fallecer.
El estudio se realizó rastreando las bases de datos de estudios que relacionaban la actividad física semanal en las personas mayores de 60 años con el riesgo de mortalidad. Solo 9 trabajos fueron aceptados para ser estudiados y, en total, participaron 122.417 personas a lo largo de 10 años, de las que 18.122 murieron antes de completarse la investigación.






Fiebre de origen desconocido


                                                      Burke A. Cunha, Olivier Lortholary, Cheston B. Cunha 

                                                          The American.J.of medicine (2015);doi 10.1016
                                                   Traducción y resumen objetivo: Dra. Marta Papponetti


Fiebre de origen desconocido clásica

Desde la antigüedad, las fiebres prolongadas han presentado un problema diagnóstico. Entre los antiguos, la fiebre tifoidea y la malaria eran las causas comunes de fiebre prolongada. Hay pocas infecciones asociadas con fiebre prolongada.

Petersdorf desarrolló criterios para las fiebres prolongadas, es decir, la fiebre de origen desconocido (FOD), definida como la fiebre >38,3°C que dura más de 3 semanas y que permanece sin diagnostico después de haber realizado los estudios en el hospital. Los estudios para la FOD se pueden hacer en el paciente ambulatorio. Petersdorf también clasifica a las FOD por categorías: infecciosas, maligna/neoplásica, enfermedad reumática/inflamatoria y miscelánea.

Las FOD también pueden considerarse en el contexto de subconjuntos de huéspedes: trasplantados, inmunocomprometidos por el VIH, viajeros que retornan. No existe un enfoque estándar para el diagnóstico de la FOD, la cual requiere una historia y un examen físico detallados y más bien pruebas de laboratorio inespecíficas selectivas  que estudios excesivos.

Enfoque diagnóstico de la fiebre de origen desconocido clásica

En primer lugar, se debe comprobar si la fiebre prolongada cumple la definición establecida. El diagnóstico se basa en los síntomas (historia) y los signos (examen físico). En segundo lugar, según la historia y los signos físicos, se tratará de determinar la categoría de la FOD.

Cada categoría tiene características clínicas, por ejemplo, las relacionadas con enfermedades malignas/neoplásicas se asocian generalmente con anorexia temprana y pérdida de peso significativa. Las FOD de causa infecciosa se acompañan de escalofríos, mientras que la pérdida de peso es menos pronunciada y la anorexia es tardía.

Excluyendo la vasculitis, el sello de la FOD inflamatoria/reumática es la sinovitis. Mientras que las características distintivas sugieren una categoría de FOD particular, algunos hallazgos descartan una de las categorías, por ejemplo, los escalofríos descartan la categoría inflamatoria/reumática.

En tercer lugar, para establecer la categoría de FOD se debe tratar de determinar el patrón deórganos afectados. Cada trastorno tiene un patrón característico de afectación orgánica que sugiere o limita los posibles diagnósticos, por ejemplo, el patrón de afectación de órganos del lupus eritematoso sistémico (LES) incluye a múltiples órganos pero es importante que rara vez afecta al hígado.

Del mismo modo, mientras que la esplenomegalia es un hallazgo cardinal en la endocarditis bacteriana subaguda, si la guía es solo el patrón del órgano afectado, la presencia dehepatomegalia la descarta.

Las FOD de más difícil diagnóstico no tienen signos de localización. Las pistas clave pueden ser ignoradas, lo cual puede subsanarse si la historia y la semiología minuciosas están enfocadas a la FOD. En el examen físico se debe poner especial atención en los ojos, la piel, los ganglios, el hígado y el bazo.

Las pruebas deben ser selectivas y basadas en las probabilidades diagnósticas y no en las posibilidades, por ejemplo, los hemocultivos de rutina. Los hemocultivos son útiles para las FOD con bacteriemia, como la brucelosis, la fiebre  tifoidea/entérica, las infecciones intravasculares, los abscesos, etc, pero para las FOD con infecciones no bacteriémicas, o malignas/neoplásicas, o la fiebre inflamatoria/reumática y misceláneas. Los hemocultivos pueden ser engañosos. La  endocarditis bacteriana subaguda no es una infección rara, pero ahora es una causa relativamente poco frecuente de FOD.


Trastornos malignos/neoplásicos

La pérdida de peso significativa (>800 gr/semana), especialmente si se acompaña de anorexia temprana, es un signo de identidad de las FOD malignas. El prurito después del baño caliente sugiere un trastorno maligno/neoplásico. En aquellos con antecedentes de adenopatías o malignidad se debe sospechar una FOD maligna/neoplásica.

Enfermedades infecciosas

La historia clínica debe incluir el antecedente de procedimientos previos, invasivos o quirúrgicos (abscesos), dentición (abscesos apicales, endocarditis bacteriana subaguda) y antecedentes de infecciones concomitantes, como la tuberculosis.

El contacto con animales o mascotas sugiere la fiebre Q, la brucelosis, la toxoplasmosis, la enfermedad por arañazo de gato o la triquinosis.

La exposición a las picaduras de garrapatas o mosquitos sugiere la ehrlichiosis/anaplasmosis, la babesiosis o la malaria, mientras que la exposición a roedores hace sospechar la fiebre por mordedura de rata, la fiebre recurrente o la leptospirosis.

Las transfusiones de sangre son una pista importante para la ehrlichiosis/anaplasmosis, la babesiosis, el citomegalovirus o el VIH. En el huésped normal, la única pista de citomegalovirus puede ser la exposición a secreciones.

Los medicamentos inmunosupresores predisponen a determinados patógenos, como el citomegalovirus o el bacilo tuberculoso. La existencia de múltiples síntomas y signos raros indican una enfermedad multisistémica como la tuberculosis miliar, la enfermedad de Whipple y diversos trastornos diferentes.

Trastornos reumáticos/inflamatorios

La FOD puede presentar artralgias y mialgias graves, pero la presencia de escalofríos aleja la posibilidad de una etiología reumática/inflamatoria. La tos seca también puede ser una pista sutil de la arteritis de células gigantes/arteritis temporal. La FOD asociada a úlceras orales sugiere el síndrome de Beçhet o el LES.

En un cuadro de FOD, el patrón de afectación orgánica con el antecedente de síntomas articulares y linfadenopatías generalizadas hace sospechar la enfermedad de Still del adulto o el LES. Una historia de colecistitis alitiásica en un signo importante fácilmente pasado por alto de LES o de periarteritis nodosa. Si se sospecha la enfermedad de Beçhet es importante ahondar en la historia familiar.


Si la historia no orienta hacia una categoría en particular de FOD, se deben considerar otras causas misceláneas. La periodicidad de la fiebre puede ser el único indicio de neutropenia cíclica. El antecedente de linfadenopatías puede hacer sospechar la enfermedad de Rosai-Dorfman o la enfermedad de Kikuchi. El dolor de cuello o de mandíbula, que es fácilmente atribuido al dolor dental, puede ser un indicio de de tiroiditis subaguda. Si el paciente afectado es personal médico, se debe considerar la fiebre facticia. Concretamente, es necesario informarse acerca de la enfermedad inflamatoria intestinal (enteritis regional), el alcoholismo (cirrosis), y el consumo de medicamentos (seudolinfoma, fiebre por fármacos). Otras FOD son familiares, como la fiebre mediterránea familiar o el síndrome de hiper IgD.

Examen físico

Enfermedades malignas/neoplásicas

La FOD del linfoma puede simular una infección. El linfoma o una enfermedad maligna pueden acompañarse de bradicardia relativa.

El examen ocular puede ser útil, por ejemplo, las manchas de Roth (linfoma, mixoma auricular), los cuerpos citoides (mixoma auricular) o las hemorragias retinianas (preleucemia).

Un soplo es un hallazgo clave en la endocarditis bacteriana subaguda, la endocarditis no infecciosa con cultivos negativos, por ejemplo, la endocarditis marántica o el mixoma auricular.

Los puntos dolorosos esternales señalan un trastorno de la médula ósea (preleucemia, trastornos mieloproliferativo).

La hepatomegalia aislada en una FOD disminuye las posibilidades diagnósticas hacia el hepatoma, el carcinoma de células renales o las enfermedades hepáticas.

Enfermedades infecciosas

El abordaje de las FOD infecciosas comienza con el análisis del patrón febril.

Los picos de fiebre matinales sugieren tuberculosis miliar, fiebre tifoidea/entérica o, enfermedad de Whipple.

La bradicardia relativa es un hallazgo cardinal en la fiebre tifoidea/entérica, malaria, babesiosis,  ehrlichiosis/anaplasmosis, leptospirosis y fiebre Q.

La presentación de 2 picos febriles en el día (fiebre cotidiana doble) se observa la malaria, la tuberculosis miliar o la leishmaniasis visceral. Dos picos de fiebre por semana (curva de fiebre en camello) puede ser una de las pocas pistas para la ehrlichiosis/anaplasmosis, la leptospirosis, la brucelosis o la fiebre por mordedura de rata.

Los hallazgos en el fondo de ojo pueden ser un indicio de toxoplasmosis, tuberculosis, histoplasmosis o enfermedad por arañazo de gato.

Los puntos dolorosos espinales pueden deberse a una osteomielitis vertebral subaguda, fiebre tifoidea/entérica, tuberculosis médular o brucelosis.

La hepatomegalia indica fiebre Q, fiebre tifoidea/entérica, leishmaniasis visceral, brucelosis, fiebre por mordedura de rata o fiebre recidivante.

La esplenomegalia inclina la posibilidad diagnóstica hacia la tuberculosis miliar, el virus de Epstein-Barr, el citomegalovirus, la fiebre tifoidea/entérica, la brucelosis, la histoplasmosis, la ehrlichiosis/anaplasmosis, la malaria, la fiebre Q, la endocarditis bacteriana subaguda, la enfermedad por arañazo de gato y la fiebre por mordedura de rata.

La epidídimorquitis/nódulo del epidídimo es una señal fácilmente ignorada de infección por el virus de Epstein-Barr, tuberculosis renal o brucelosis.

Trastornos reumáticos/inflamatorios

Los picos de temperatura matinales son un signo clave para el diagnóstico de periarteritis nodosa, mientras que la fiebre cotidiana doble inclina hacia el diagnóstico de enfermedad de Still del adulto. En el contexto de una FOD, la presencia de erupción cutánea sugiere la sarcoidosis, el LES o la enfermedad de Still del adulto.

Los pulsos desiguales son un signo de la enfermedad de Takayasu y el agrandamiento de las glándulas lagrimales hacen sospechar la artritis reumatoidea de comienzo tardío, la sarcoidosis o el LES. El examen externo de los ojos y del fondo de ojo brindan muchos datos diagnósticas para las FOD reumáticas/inflamatorias, como los cuerpos citoides (LES, arteritis de células gigantes/arteritis temporal, periarteritis nodosa, enfermedad de Still del adulto), las manchas de Roth (LES, periarteritis nodosa) o, la oclusión de la arteria retiniana (arteritis de Takayasu, arteritis de células gigantes/arteritis temporal, LES).

En la FOD, las úlceras orales sugieren la enfermedad de Beçhet o el LES y las linfadenopatías, el LES, la artritis reumatoidea de inicio tardío o la sarcoidosis. En la FOD con LES, un soplo con hemocultivos negativos orienta hacia una posible endocarditis de Libman-Sacks. La hepatomegalia sin esplenomegalia argumenta contra la FOD reumática/inflamatoria. La epididimitsi/nódulo del epidídimo (epididimitis crónica) es una pista sutil de periarteritis nodosa, LES o sarcoidosis.


Otras FOD son más propensas a ser diagnosticadas por los antecedentes más que por los hallazgos físicos. La bradicardia relativa es un indicio de fiebre medicamentosa o fiebre facticia. La lipemia puede ser el único signo de la hipertrigliceridemia. La linfadenopatía puede deberse al seudolinfoma o al síndrome de hiper gD. La cirrosis suele ser ignorada como causa de FOD mientras que la esplenomegalia es importante para sospechar la enteritis regional, la cirrosis o el síndrome de hiper-IgD.

Pruebas de laboratorio inespecíficas

En cada categoría de FOD, las pruebas inespecíficas suelen proporcionar pistas diagnósticas útiles. La velocidad de eritrosedimentación, la ferritina sérica, la fosfatasa alcalina y el factor reumatoideo elevados son particularmente útiles en la FOD. Cuando las pruebas inespecíficas de laboratorio anormales se consideran en conjunto, la especificidad diagnóstica aumenta.

El grado de anormalidad de la prueba disminuye el número de posibles diagnósticos, por ejemplo, una velocidad de eritrosedimentación elevada es muy sensible/inespecífica pero cuando es muy elevada (>100 mm/hora) las posibilidades diagnósticas se reducen a muy pocas entidades. Del mismo modo, 6% de linfocitos atípicos (fiebre medicamentosa, toxoplasmosis) es diferente a tener 36% de linfocitos atípicos (virus de Epstein-Barr, citomegalovirus). Los hallazgos inespecíficos pueden ser un signo de exclusión, por ejemplo, la eosinofilia descarta firmemente la fiebre tifoidea/entérica.

A menudo, el hemograma completo pasa fácilmente por alto las pistas: la leucopenia, monocitosis, linfocitosis con linfopenia relativa, eosinofilia, basofilia, linfocitos atípicos/anormales, l trombocitosis, trombocitopenia, En la FOD, una elevación de la fosfatasa alcalina aislada sugiere un linfoma.

La electroforesis de las proteínas séricas también puede proporcionar pistas diagnósticas, por ejemplo, la elevaciones de las globulinas α1 α 2 (linfoma, LES); la gammapatía monoclonal (mieloma múltiple, síndrome de hiper-IgD, enfermedad de Castleman multicéntrica); la gammapatía policlonal (VIH, citomegalovirus, cirrosis, sarcoidosis, malaria).

La hematuria microscópica puede ser el único signo de endocarditis bacteriana subaguda, tuberculosis renal, brucelosis, periarteritis nodosa, linfoma o carcinoma de células renales.

Un error común es solicitar precozmente numerosas pruebas específicas dirigidas que no son calve, sin tener en cuenta el valor de las características clínicas típicas y las pruebas inespecíficas clave características para estrechar el diagnóstico diferencial. En la FOD, las pruebas de diagnóstico específicas deben pedirse más tardíamente y los estudios diagnósticos deben estar basados en las posibilidades diagnósticas más probables.

Un problema clínico común es diferenciar la FOD infecciosa de la FOD maligna/neoplásica. Mientras se están haciendo los estudios diagnósticos, se puede hacer la prueba del Naproxeno, para diferenciar la FOD infecciosa de la FOD de origen maligno. Si durante los 3 días de la prueba con Naproxeno las temperaturas disminuyen marcadamente, es posible que se trate de una FOD de origen maligno/neoplásico (prueba del Naprosyn positiva). Pero, si la fiebre se mantiene elevada o solo disminuye ligeramente, la etiología probable es la infecciosa (prueba del Naproxeno negativa).

Estudios por imágenes

Los estudios por imagen deben ser dirigidos y seleccionados según la probable categoría de la FOD y el probable patrón de compromiso orgánico. Si hay hepato o esplenomegalia, es útil la tomografía computarizada abdominal, para detectar otras anormalidades, como las adenopatías retroperitoneales o los abscesos o tumores intraabdominales o pélvicos.

Las exploraciones con galio o indio son útiles, pero estas últimas son relativamente insensibles (negativos falsos) para las infecciones óseas (osteomielitis crónica, tumores malignos). La ecocardiografía cardíaca es importante en la endocarditis con cultivos negativos y el mixoma auricular. La tomografía computarizada por emisión de positrones es más útil para detectar la FOD neoplásica/infecciosa, como los linfomas, la enfermedad de Erdheim-Chester, la endocarditis por fiebre Q o la infección del injerto aórtico.

Pruebas invasivas

La biopsia de los ganglios linfáticos es el test invasivo más frecuente. Si es posible, se debe evitar la biopsia de los ganglios cervicales anteriores, axilares o inguinales, porque generalmente son inútiles y no ayudan al diagnóstico, ya que a menudo se informan como "cambios inflamatorios no específicos, no se puede descartar la infección o la enfermedad maligna." Lo más probable es que el diagnóstico lo brinden las biopsias cervicales posteriores, o supra e infraclaviculares, como así las de los ganglios epitrocleares. Las biopsias de los ganglios hiliares, mediastínicos o retroperitoneales tienen un elevado rendimiento diagnóstico.

Si la afectación es ósea, la biopsia de la médula ósea puede ser diagnóstica, como en los trastornos mieloproliferativos, preleucémicos (en la leucemia mielógena aguda), la enfermedad de Gaucher, el linfoma, la enfermedad de Erdheim-Chester, la tuberculosis miliar, la histoplasmosis diseminada, la enfermedad multicéntrica de Castleman, la enfermedad de Whipple o la fiebre tifoidea/entérica. 

Cuando en la endocarditis bacteriana subaguda o la fiebre tifoidea/entérica los hemocultivos son negativos, la biopsia o el cultivo de la médula ósea pueden ser positivos.

La biopsia del nódulo del epidídimo puede aclarar el diagnóstico de brucelosis, tuberculosis, leptospirosis, fiebre por mordedura de rata, fiebre recurrente, linfoma, lupus eritematoso sistémico, periarteritis nodosa, sarcoidosis o fiebre mediterránea familiar.

La biopsia ileal está indicada ante la sospecha de tuberculosis ileocecal o enteritis regional. Gracias a las biopsias percutáneas guiadas por imagen, actualmente la es raro recurrir a la laparotomía exploradora para arribar al diagnóstico de FOD.

Subgrupos de fiebre de origen desconocido

Aparte de la FOD clásica, hay fiebres de importantes subconjuntos como el VIH, los trasplantes de órgano y los viajeros de regreso, los que presentan un problema diagnóstico especialmente difícil. 

Fiebre de origen desconocido en infectados por el VIH

Virus de la Inmunodeficiencia humana. El virus puede presentarse como una FOD con síndrome símil mononucleosis, erupción cutánea y linfadenopatía. Los pacientes con el VIH suelen presentar FOD como primera manifestación clínica de una infección oportunista o una malignidad.

En el mundo occidental, el tratamiento antirretroviral de gran actividad ha reducido la FOD asociada al VIH, pero no ha alterado el espectro etiológico. La frecuencia relativa de las causas de FOD en infectados por el VIH está influenciada por la terapia antirretroviral de gran actividad, el recuento de CD4, el área geográfica y la prevalencia de la infección endémica, lo que puede proporcionar pistas para el diagnóstico. La mayoría de los casos de FOD en una infección por el VIH se debe a la infección, y las causas no infecciosas más comunes son los tumores malignos y la fiebre medicamentosa.

A nivel mundial, la enfermedad muy bien definida es la tuberculosis, considerada el síndrome de inmunodeficiencia del adulto más común. Las enfermedades más comunes en infectados por el VIH con FOD son extrapulmonares o enfermedades diseminadas, cada vez más frecuentes a medida que el VIH progresa.

Con anterioridad, en el mundo occidental, la causa principal de FOD en los pacientes con VIH era Mycobacterium avium-intracellulare era diseminado. Otras micobacterias causantes de FOD en esos pacientes son M. kansasii y M. genavense. En este contexto, un hemocultivo positivo único o la recuperación de micobacterias de un sitio estéril del cuerpo se considera evidencia de infección por Mycobacterium avium intracellulare diseminada.

Mientras que la criptococcosis puede presentarse como FOD en un infectado por el VIH, es frecuente la meningoencefalitis concomitante y justifica analizar el líquido cefalorraquídeo.Pneumocystis jirovecii es responsable del 5-13% de las FOD en la infección por el VIH, dependiendo de la prevalencia y las variantes regionales. La neumonía por Pneumocystis jirovecii suele presentarse como FOD antes de la aparición de los síntomas respiratorios, con recuentos de CD4 muy bajos.

El citomegalovirus representa el 5% de las FOD en el contexto del VIH. Es el virus de inmunodeficiencia humana más comúnmente asociado a infecciones oportunistas y en general, se manifiesta cuando el citomegalovirus latente se reactiva con recuentos de CD4 <100/mm3. El ácido desoxinucleico del citomegalovirus en el suero está presente en el 55% de los pacientes con un recuento de CD4 <100/mm3. Tanto el ácido desoxinucleico del citomegalovirus como la viremia son predictores importantes de muerte. La corioretinitis por citomegalovirus sigue siendo la manifestación inicial más frecuente en el 30% de los pacientes con síndrome de inmunodeficiencia del adulto.

En EE.UU, Histoplasma capsulatum var. capsulatum diseminado representa el 7% de los casos de FOD del VIH pero hubo casos importados de Europa. En la FOD del VIH se debe sospechar la histoplasmosis en zonas endémicas y cuando hay antecedentes de viajes a zonas endémicas.

Otras micosis endémicas, como la coccidioidomicosis y la infección por Penicillium marneffei, pueden presentarse como FOD en pacientes con infección avanzada por el VIH o en personas que han viajado o vivido en zonas áridas endémicas, especialmente el oeste de EE.UU, América Central y América del Sur, sudeste asiático, sur de China e India. Las lesiones cutáneas, generalmente pápulas con umbilicación necrótica central, aparecen en el 70% de las FOD en el VIH se deben a P. marneffei diseminado.

La leishmaniasis visceral representa <5% de las FOD en la infección por el VIH y ha sido reportada en 35 países. La toxoplasmosis del sistema nervioso central o pulmonar, las infecciones por Aspergillus sp. o Bartonella sp. pueden presentarse como FOD en inmunodeficientes.

Los tumores malignos representan aproximadamente el 8% de las FOD del VIH. Los linfomas, sobre todo los linfomas no Hodgkin, ocurren en el 4 al 7% de esos pacientes. Hay un mayor riesgo de enfermedad de Hodgkin, incluso en los pacientes con VIH tratados con antirretrovirales de gran actividad. La FOD debido a un linfoma cerebral primario o al sarcoma de Kaposi (no asociado a la enfermedad de Castleman) es menos común.

Otros tipos de cáncer, como el carcinoma broncogénico y el hepatoma son cada vez más comunes en presencia del VIH y pueden presentarse como FOD, incluso en aquellos que recibieron antirretrovirales de gran actividad. En contraste con las FOD clásicas, la FOD de las enfermedades reumáticas/inflamatorias son raras.

En las FOD del VIH es común la fiebre medicamentosa (3-20%). Se estima que las erupciones cutáneas relacionadas con los medicamentos son 100 veces más comunes en el VIH que en la población general. La fiebre medicamentosa aislada es responsable de 1,7%, de las reacciones adversas de los fármacos, y la erupción maculopapulosa/pruriginosa, del 17%. El uso concomitante de varios fármacos , incluyendo la terapia antirretroviral de gran actividad, aumenta el riesgo de reacciones adversas Los medicamentos más comúnmente involucrados son los antimicrobianos (trimetoprima-sulfametoxazol, isoniazida, rifampicina, pirazinamida, antibióticos ß-lactámicos, sulfamidas y dapsona), pero los antirretrovirales de gran actividad se han vuelto cada vez más influyentes.

Al comienzo de la terapia antirretroviral de gran actividad puede producirse un síndrome inflamatorio de reconstitución inmune. Este síndrome ocurre en el 8-45% de las infecciones por VIH con tuberculosis, 35% con infección por Mycobacterium avium-intracellulare diseminada, 8-31% con Cryptococcus neoformans y 18 a 62% con citomegalovirus.

El síndrome inflamatorio de reconstitución inmune ocurre antes de los 60 días de iniciada la terapia antirretroviral de gran actividad y se asocia a menudo con signos más específicos relacionados la infección como los síntomas respiratorios o las adenopatías inflamatorias tuberculosas o, aumento de la presión intracraneana en la criptoccocosis, que son clave para el diagnóstico del síndrome inflamatorio de reconstitución inmune en las FOD del VIH. Aun en la era de la terapia antirretrovirales de gran actividad, el 14,06% de las causas de FOD en la infección por el VHI sigue siendo desconocido.

Fiebre de origen desconocido en los trasplantes de órganos sólidos

El enfoque diagnóstico para las FOD en los trasplantes de órganos sólidos se basa en 4 factores principales: grado; duración del tiempo de  inmunosupresión de la FOD postrasplante, exposición epidemiológica anterior o reciente (infecciones relacionadas con la asistencia sanitaria o adquiridas en la comunidad) y, manifestaciones clínicas.

El estado de la inmunosupresión no se basa en un único biomarcador específico, por ejemplo, el recuento de CD4 como en el VIH, sino que está relacionado con el efecto inmunosupresor aditivo de la enfermedad subyacente que motivó el trasplante, la magnitud y el tipo de terapia inmunosupresora, la insuficiencia renal, la diabetes, la neutropenia asociada y la coinfección con virus inmunosupresores (citomegalovirus, virus de Epstein-Barr, VIH). Para abordar el diagnóstico diferencial de la FOD postrasplante de órgano sólido se reconocen 3 períodos postrasplante diferentes: desde 1-6 meses y >6 meses.

El enfoque diagnóstico también se debe apoyar en los síntomas clínicos. La meningitis subaguda y crónica sugiere tuberculosis, criptococosis o micosis endémica mientras que las lesiones cerebrales focales sugieren nocardiosis, toxoplasmosis, aspergilosis o linfoma. La meningoencefalitis sugiere una causa viral (virus de la varicela-zoster, virus del Nilo Occidental). Las lesiones cutáneas (pápulas umbilicadas) pueden ser manifestaciones de infecciones fúngicas diseminadas (Fusarium sp.). Las causas no infecciosas de FOD postrasplante de órganos sólidos son la fiebre medicamentosa/sarpullido. Los trastornos linfoproliferativos postrasplante y el rechazo del trasplante también pueden presentarse como FOD.

Fiebre de origen desconocido en viajeros de regreso

Las FOD específicas en los viajeros que regresan están determinadas por las áreas geográficas visitadas y la  duración de la estancia en esos lugares, la exposición a determinado tipo de comidas (carne o pescado crudo, mariscos, productos lácteos sin pasteurizar), exposición a la picadura de insectos (mosquitos, garrapata) y el intervalo de tiempo después del retorno del viajero. La ingestión de leche no pasteurizada hace referencia a la brucelosis.

Cuando un paciente con FOD presenta cefalea, sufusión conjuntival y hepato/esplenomegalia se debe considerar la fiebre recurrente transmitida por garrapatas o piojos. En los viajeros que regresan procedentes de zonas palúdicas se debe sospechar la malaria, pero también hay que considerar otras causas como la hepatitis viral, la fiebre tifoidea/entérica, la leptospirosis, las micosis endémicas y la rickettsiosis (Rickettsia Africae o R. typhi, R. conori, Orientia tsutsugamushi, dependiendo del área geográfica), absceso amebiano hepático, esquistosomiasis, tripanosomiasis africana, infecciones endémicas por arbovirus (dengue, fiebre chikungunya, fiebre amarilla, encefalitis del Nilo occidental, encefalitis japonesa) y la infección aguda por el VIH.

Causas de fiebre de origen desconocido que suelen permanecer sin diagnóstico

En cada categoría de FOD hay algunos diagnósticos que hay que tener particularmente en cuenta, ya sea porque son fácilmente ignorados o porque son potencialmente peligrosos. Las 4 categorías de FOD neoplásica/maligna que deben ser cuidadosamente consideradas son el linfoma, el hipernefroma, la preleucemia y el mixoma auricular. Las infecciones que merecen una evaluación diagnóstica cuidadosa son las causadas por el citomegalovirus, la tuberculosis miliar, la fiebre tifoidea/entérica y la endocarditis con cultivo negativo.

En la categoría reumática/inflamatoria, el LES, la arteritis de células gigantes/arteritis temporal, la enfermedad de Still del adulto y la periarteritis nodosa pueden ser particularmente difíciles de diagnosticar. Entre las FOD miscelánea, es importante no perder el diagnóstico de las siguientes entidades: fiebre medicamentosa, fiebre facciosa, neutropenia cíclica y tiroiditis subaguda.

Fiebres de origen desconocido recurrentes y no diagnosticadas

Los trastornos de la FOD son relativamente pocos y pueden llegar a ser recurrentes. Las FOD recurrentes disminuyen las posibilidades diagnósticas y brindan más oportunidades para un diagnóstico definitivo. Las FOD recurrentes se pueden definir como la presentación de ≥2 episodios de fiebre prolongada separados por ≥2 semanas. Otras categorías pueden durar más tiempo que las FOD recurrentes.

El enfoque diagnóstico de las FOD recurrentes se basa en observaciones y pruebas seriadas durante y entre los episodios febriles, ya que si aparecen nuevos hallazgos, la orientación diagnóstica puede cambiar. Si una FOD recurrente permanece sin diagnosticar durante ≥1 año es imposible arribar a un diagnóstico definitivo. Algunas FOD permanecen sin diagnosticar, incluso después de estudios diagnósticos específicos. Cuanto más tiempo la FOD permanece sin diagnosticar, menos probable es arribar al diagnóstico definitivo.

Tratamiento de la fiebre de origen desconocido 

Las FOD son más bien un problema diagnóstico que terapéutico. Hasta alcanzar el diagnóstico definitivo, el tratamiento son antipiréticos y antimicrobianos puede enmascarar el cuadro y retrasar u oscurecer las manifestaciones clínicas, y por lo tanto deben evitarse. El tratamiento empírico es prudente en unas pocas FOD de difícil diagnóstico y que ponen en peligro la vida, como  la tuberculosis del sistema nervioso central o la tuberculosis miliar, o la arteritis de células gigantes o arteritis temporal.


1. Cunha CB, Prolonged and perplexing fevers in antiquity: malaria and typhoid Fever. Infect Dis Clin North Am 2007;21:857-866.
2. Cunha BA. Fever of Unknown Origin: clinical overview and perspective. In: Cunha BA (Editor) Fever of Unknown Origin. Informa Healthcare New York 2007:pp.1-8.
3. Petersdorf RG, Beeson PB. Fever of Unexplained Origin: Report on 100 cases. Medicin 1961;40:1-30.
4. Durack D, Street A. Fever of unknown origin: reexamined and redefined. Curr Clin Top Infect Dis 1991;11:35-51.
5. Larson EB, Featherstone HJ, Petersdorf RG. Fever of undetermined origin: diagnosis and follow-up of 105 cases, 1970-80. Medicine 1982;61:269-292.
6. Molavi A, Weinstein L. Persistent perplexing pyrexia. Some comments on etiology and diagnosis. Med Clin North Am 1970;54:379-396.
7. Louria DB. Fever of unknown etiology. Del Med J 1971;43:343-348.
8. Jacoby GA, Swartz MN. Fever of undetermined origin. N Engl J Med 1973;289:1407-1410. 9. Tumulty PA, (Editor). The Patient with Fever of Unknown Origin: The Effective Clinician. Philadelphia: WB Saunders, 1973;pp.137-170.
10. Cunha BA. Fever of unknown origin. Infect Dis Clin North Am 1996;10:111-128.
11. Lortholary O, Bletry LG, Godeau P. Fever of unknown origin: a retrospective multicentre study of 103 cases, 1980 - 88. Eur J Med 1992;3:109-120.
12. Brusch JL, Weinstein L. Fever of unknown origin. Med Clin North Am 1988;72:1247-1261. 13. Knockaert DC, Vanderschueren S, Blockmans D. Fever of unknown origin in Adults: 40 years on. J Intern Med 2003;263-275.
14. Bryan CS. Fever of unknown origin. Arch Intern Med 2003;163:1003-1004. 
15. Arnow PM, Flaherty JP. Fever of unknown origin. Lancet. 1997;350:575-580. 
16. Nubile MJ. Acute fevers of unknown origin. A plea for restraint. Arch Intern Med 1993;153:2525-2526.
17. Vanderschueren S, Knockaert D, Adriaenssens T, et al. From prolonged febrile illness to fever of unknown origin: The Challenge Continues. Arch Intern Med 2003;163:1033-1041. 18. Ergonul O, Wilke A, Azap A, et al. Revised definition of fever of unknown origin: Limitations and opportunities.treated in community hospital. Clin Infect Dis 1992;15:968-973.
22. Wang C, Armstrong D. Neoplastic Diseases. In: Murray HW, (Editor). Fever of Unknown Origin of Undetermined Origin. Mount Kisco; Futura Publishing, 1983; pp. 39-48.
 23. Cunha BA. Fever of unknown origin in malignancies. In: Cunha BA, (Editor). Fever of Unknown Origin. New York, Informa Healthcare, 2007;pp.27-34.
24. Zhang J, Chen B, Xu X, Lin Z, Huang B, Song J, et al. Clinical features of 66 lymphoma patients presenting with a fever of unknown origin. Intern Med. 2012;51:2529-2536.
25. Cunha BA. Fever of Unknown Origin: focused diagnostic approach based on clinical clues from the history, physical examination and laboratory tests. Infect Dis Clin North Am 2007;21:1137-1188.
26. Manfredi R, Calza L, Chiodo F. Primary cytomegalovirus infection in otherwise healthy adults with fever of unknown origin: a 3-year prospective survey. Infection 2006;34:87-90.
27. Cunha BA. Fever of unknown origin. In: Gorbach SL, Bartlett JG, Blacklow NE, (Editors). Infectious Diseases. (3rd Ed) Philadelphia: Lippincott Williams & Wilkins 2005;1568-1577.
28. Carsons SE. Fever in rheumatic and autoimmune disease. Infect Dis Clin North Am 1996;10:67-84.
29. Zenone T. Fever of Unknown Origin in rheumatic diseases. Infect Dis Clin North Am 2007;21:1115-1136.
30. Cunha BA. Fever of unknown origin in rheumatic diseases. In: Cunha BA, Editor. Fever of Unknown Origin. New York, Informa Healthcare 2007;pp.59-64.
31. Cunha BA, Parchuri S, Mohan S. Fever of unknown origin: temporal arteritis presenting with persistent cough and elevated serum ferritin levels. Heart & Lung 2006;35:112-116.
32. Cunha BA, Nausheen S. Fever of unknown origin due to cyclic neutropenia with relative bradycardia. Heart & Lung 2009;38:350-353.
33. Cunha BA, Mickail N, Durie N, Pherez FM, Strollo S. Fever of unknown origin caused by Kikuchi's disease mimicking lymphoma. Heart & Lung 2009;38:450-456.
34. Cunha BA, Durie N, Selbs E, Pherez F. Fever of unknown origin due to Rosai-Dorfman disease with mediastinal adenopathy mimicking lymphoma: diagnostic importance of elevated serum ferritin levels and polyclonal gammopathy. Heart & Lung 2009;38:83-88.
35. Brendan MW, Matthew JH, Dennis PM. Subacute thyroiditis manifesting as fever of unknown
origin. South Med J 2000;93:926-929.
36. Cunha BA, Thermidor M, Mohan S, et al. Fever of unknown origin: subacute thyroiditis versus typhoid fever. Heart & Lung 2005;34:147-151.
37. Cunha BA, Chak A, Strollo S. Fever of unknown origin: de Quervain's subacute thyroiditis with highly elevated ferritin levels mimicking temporal arteritis (TA). Heart & Lung 2010;39:73-77.
38. Cunha BA, Berbari N. Subacute thyroiditis (de Quervain's) due to influenza A: presenting asfever of unknown origin. Heart & Lung 2013;42:77-78.
39. Murray HW. Factitious fever updated. Arch Intern Med 1979;139:739-740.
40. Johnson DH, Cunha BA. Drug fever. Infect Dis Clin North Am 1996;10:85-92.
41. Drenth JPH, Haagsma CJ, van der Meer JWM, and the International Hyper-IgD study group. Hyperimmunoglobulinemia D and periodic fever syndrome.The clinical spectrum in a series of 50 patients. Medicine 1994;73:133-144.
42. Wolf SM, Fauci AS, Dale DC. Unusual etiologies of fever and their evaluation. Annual Rev Med 1975;26:277-281.
43. Norman DC, Wong MB. Fever of unknown origin in older persons. In: Cunha BA (Editor) Fever of Unknown Origin. New York: Informa Healthcare 2007;pp.109-114.
44. Cunha BA. Diagnostic significance of relative bradycardia. Clin Microbiol Infect 2000;6:633-634.
45. Cunha CB. Infectious disease differential diagnosis. In: Cunha BA (Editor). Antibiotic Essentials (12th Ed) Sudbury MA, Jones & Bartlett. 2013;pp. 472-504.
46. Cunha CB, Wilkinson MJ, Quillen DA. Ophthalmologic clues to infectious diseases. In Cunha BA, (Editor). Infectious Diseases in Critical Care Medicine (3rd Ed.) New York, Informa
2010;pp. 66-75.
47. Cunha BA. The mimics of endocarditis. In: Brusch JL, (Editor). Infective Endocarditis: Management in the Era of Intravascular Devices. New York: Informa Healthcare, 2006; pp.345-354.
48. Esposito AL, Gleckman RA. A diagnostic approach to the adult with fever of unknown origin. Arch Intern Med 1979;139:575-578.
49. Esposito AL. Planning and proceeding with the diagnostic evaluation. In: Murray HW (Editor) Fever of Undetermined Origin. Mount Kisco: Futura Publishing 1983;pp.141-145.
50. Cunha BA. Fever of unknown origin: a focused diagnostic approach. In: Cunha BA (Editor) Fever of Unknown Origin. New York Informa Healthccare 2007;pp.9-16.
51. Cunha BA. The diagnostic significance of fever curves. Infect Dis Clin North Am 1996;10:33-44.
52. Cunha BA, Krakakis J, McDermott BP. Fever of unknown origin caused by military tuberculosis: diagnostic significance of morning temperature spikes. Heart & Lung 2009; 38:77-82.
53. Cunha BA. Fever of unknown origin caused by adult juvenile rheumatoid arthritis: the diagnostic significance of double quotidian fevers and elevated serum ferritin levels. Heart & Lung 2004:33:417-421.
54. Cunha BA, Hage JE, Nouri Y. Recurrent fever of unknown origin : aseptic meningitis, hepatosplenomegaly, pericarditis and a double quotidian fever due to juvenile rheumatoid arthritis (JRA). Heart & Lung 2012;41:177-180.
55. Cunha BA. Nonspecific tests in the diagnosis of fever of unknown origin. In: Cunha BA, (Editor). Fever of unknown origin. New York Informa Healthcare 2007; pp.151-158.
56. Purnendu S, Louria DB. Non-invasive and invasive diagnostic procedures and laboratory methods. In: Henry W Murray (Editor). Fever of Unknown Origin Fever of undetermined origin. Mount Kisco: Futura Publishing; 1983; pp.159-190.
57. Cunha BA, Petelin A. Fever of unknown origin due to large B-cell lymphoma: the diagnostic significance of highly elevated alkaline phosphatase and serum ferritin levels. Heart & Lung 2013;42:67-71.
58. Cunha BA. Fever of unknown origin : diagnostic importance of serum ferritin levels. Scan J Infect Dis 2007;39:651-652.
59. Kosmin A, Lorber B. Specific tests in the diagnosis of fever of unknown origin. In: Cunha BA (Editor) Fever of Unknown Origin. New York, Informa Healthcare 2007;159-208.
60. Chang JC, Gross HM. Utility of naproxen in the differential diagnosis of fever of undetermined origin in patients with cancer. Am J Med 1984;76:597-603.
61. Cunha BA, Bouyarden M, Hamid N. Multiple myeloma presenting as a fever of unknown Origin: The diagnostic importance of the naprosyn test. Heart & Lung 2006;35:358-362.
62. Trivedi Y, Yung E, Katz DS. Imaging in fever of unknown origin. In: Cunha BA, (Editor). Fever of unknown origin. New York Informa Healthcare 2007;pp.209-228.
63. Pedersen TI, Roed C, Knudsen LS, Loft A, Skinhoj P, Nielsen SD. Fever of unknown origin: a retrospective study of 52 cases with evaluation of the diagnostic utility of FDG-PET/CT. Scand J Infect Dis 2012;44:18-23.
64. Ben-Baruch S, Canaani J, Braunstein R, et al. Predictive parameters for a diagnostic bone marrow biopsy specimen in the work-up of fever of unknown origin. Mayo Clin Proc 2012;87:136-142.
65. Jha A, Sarda R, Gupta A, Talwar OP. Bone marrow culture vs blood culture in Fever of Unknown Origin. J Nepal Med Assoc 2009;48:135-138.
66. DeKleijn EM, van Lier HJ, van der Meer JW. Fever of unknown origin (. II. Diagnostic procedures in a prospective multicenter study of 167 patients. The Netherlands Fever of Unknown Origin Study Group. Medicine 1997;76:401-414.
67. Zenone T. Fever of unknown origin in adults: evaluation of 144 cases in a non-university hospital. Scand J Infect Dis 2006;38:625-631.
68. Mayo J, Collazos J, Martinez E. Fever of unknown origin in the HIV-infected patient: new scenario for an old problem. Scand J Infect Dis. 1997;29:327-336.
69. Armstrong WS, Katz JT, Kazanjian PH. Human immunodeficiency virus-associated fever of unknown origin: a study of 70 patients in the United States and review. Clin Infect Dis. 1999;28:341-345.
70. Hot A, Schmulewitz L, Viard JP, Lortholary O. Fever of unknown origin in HIV/AIDS patients. Infect Dis Clin N Am 2007; 21:1013-1032.
71. Miralles P, Moreno S, Perez-Tascon M, Cosin J, Diaz MD, Bouza E. Fever of uncertain origin in patients infected with the human immunodeficiency virus. Clin Infect Dis. 1995;20:872-875.
72. Lozano F, Torre-Cisneros J, Santos J, et al. Impact of highly active antiretroviral therapy on
fever of unknown origin in HIV-infected patients. Eur J Clin Microbiol Infect Dis. 2002;21:137-139.
73. Havlir DV, Barnes PF. Tuberculosis in patients with human immunodeficiency virus infection. N Engl J Med. 1999;340:367-373.
74. Park BJ et al. Estimation of the current global burden of cryptococcal meningitis among personsliving with HIV/AIDS. AIDS 2009;23: 525-30.
75. Micol R et al. Prevalence, risk factors, and impact on outcome of cytomegalovirus replication in serum of Cambodian HIV-infected patients (2004-2007). J Acquir Immune Defic Syndr 2009;51: 486-491.
76. Nokta MA, Holland F, De Gruttola V, et al. Cytomegalovirus polymerase chain reaction profiles in individuals with advanced human immunodeficiency virus infection: relationship to cytomegalovirus disease. J Infect Dis. 2002;185:1717-1722.
77. Deayton JR, Prof Sabin CA, Johnson MA, Emery VC, Wilson P, Griffiths PD. Importance of cytomegalovirus viraemia in risk of disease progression and death in HIV-infected patients receiving highly active antiretroviral therapy. Lancet. 2004;363:2116-2121.
78. Peigne V et al. Imported acquired immunodeficiency syndrome-related histoplasmosis in metropolitan France: a comparison of pre-highly active anti-retroviral therapy and highly active anti-retroviral therapy eras. Am J Trop Med Hyg 2011; 85: 934-41.
79. Wheat LJ, Connolly-Stringfield PA, Baker RL, et al. Disseminated histoplasmosis in the acquired immune deficiency syndrome: clinical findings, diagnosis and treatment, and review of the literature. Medicine (Baltimore). 1990;69:361-374.
80. Woods CW, McRill C, Plikaytis BD, et al. Coccidioidomycosis in human immunodeficiency virus-infected persons in Arizona, 1994-1997: incidence, risk factors, and prevention. J Infect Dis. 2000;181:1428-1434.
81. Fish DG, Ampel NM, Galgiani JN, et al. Coccidioidomycosis during human immunodeficiency virus infection. A review of 77 patients. Medicine (Baltimore). 1990;69:384-391.
82. Wong SS, Wong KH, Hui WT, et al. Differences in clinical and laboratory diagnostic characteristics of penicilliosis marneffei in human immunodeficiency virus (HIV)- and non-HIV-infected patients. J Clin Microbiol. 2001;39:4535-4540.
83. Jarvis JN, Lockwood DN. Clinical aspects of visceral leishmaniasis in HIV infection. Curr Opin Infect Dis 2013; 26: 1-9.
84. Zylberberg H, Robert F, Le Gal FA, Dupouy-Camet J, Zylberberg L, Viard JP. Prolonged isolated fever due to attenuated extracerebral toxoplasmosis in patients infected with human immunodeficiency virus who are receiving trimethoprim-sulfamethoxazole as prophylaxis. Clin Infect Dis. 1995;21:680-681.
85. Koehler JE, Sanchez MA, Tye S, et al. Prevalence of Bartonella infection among human immunodeficiency virus-infected patients with fever. Clin Infect Dis. 2003;37:559-566.
86. Lortholary O, Meyohas MC, Dupont B, et al. Invasive aspergillosis in patients with acquired immunodeficiency syndrome: report of 33 cases. French Cooperative Study Group on Aspergillosis in AIDS. Am J Med. 1993;95:177-187.
87. Goedert JJ, Cote TR, Virgo P, et al. Spectrum of AIDS-associated malignant disorders. Lancet. 1998;351:1833-1839.
88. Cribb AE, Lee BL, Trepanier LA, Spielberg SP. Adverse reactions to sulphonamide and sulphonamide-trimethoprim antimicrobials: clinical syndromes and pathogenesis. Adverse Drug React Toxicol Rev. 1996;15:9-50.
89. Carr A, Cooper DA. Adverse effects of antiretroviral therapy. Lancet. 2000;356:1423-1430
90. Fellay J, Boubaker K, Ledergerber B, et al. Prevalence of adverse events associated with potent antiretroviral treatment: Swiss HIV Cohort Study. Lancet. 2001;358:1322-1327.
91. Shelburne SA, Visnegarwala F, Darcourt J, et al. Incidence and risk factors for immune reconstitution inflammatory syndrome during highly active antiretroviral therapy. AIDS. 2005;19:399-406.
92. Bouza E, Loeches B, Munoz P. Fever of Unknown Origin in Solid Organ Transplant Recipients. In: Cunha BA (Editor) Fever of Unknown Origin. Informa Healthcare New York 2007:79-100.
93. Bonham CA, Dominguez EA, Fukui MB, et al. Central nervous system lesions in liver transplant recipients: prospective assessment of indications for biopsy and implications for management. Transplantation 1998;66:1596-1604.
94. Ionescu DN, Dacic S. Persistent fever in a lung transplant patient. Arch Pathol Lab Med 2005;129:e153-154.
95. Wulf MW, van Crevel R, Portier R, et al. Toxoplasmosis after renal transplantation: implications of a missed diagnosis. J Clin Microbiol 2005;43:3522-3547.
96. Maegraith B. Unde venis? Lancet 1963;1:401-403.
97. Saxe SE, Gardner P. The returning traveler with fever. Infect Dis Clin North Am 1992;6:427-439.
98. Speil C, Mushtaq A, Adamski A, Khardori N. Fever of Unknown Origin in the Returning Traveler. Infect Dis Clin North Am. 2007:1091-1114.
99. Cleri DJ, Ricketti AJ, Vernaleo JR. Fever of Unknown Origin Due to Zoonoses. Infect Dis Clin North Am. 2007;21:963-996.
100. Botelho-Nevers E, Raoult D. Fever of Unknown Origin due to rickettsioses. Infect Dis Clin North Am. 2007;21:997-1011.
101. O'Brien D, Tobin S, Brown GV, et al. Fever in returned travelers: review of hospital admissions for a 3-year period. Clin Infect Dis 2001;5:603-609.
102. Lortholary O, Charlier C, Lebeaux D, Lecuit M, Consigny PH. Fungal infections in immunocompromised travelers. Clin Infect Dis 2013; 56: 861-9.
103. Knockaert DC, Durjardin KS, Bobbaers HJ. Long-term follow-up of patients with undiagnosed fever of unknown origin. Arch Intern Med 1996;156:618-620.
104. Collazos, J, Guerra E, Mayo J, et al. Tuberculosis as a cause of recurrent fever of unknown origin. J Infect 2000;41:269-272.
105. Lekstrom-Himes JA, Dale JK, Kingma DW, et al. Periodic illness associated with Epstein-Barr virus infection. Clin Infect Dis 1996;22:22-27.
106. Munoz-Gomez S, Cunha BA. Recurrent Fever of Unknown Origin in an adult due to FAPA syndrome. J Clin Med 2013;2:45-48.
107. Weinstein L. Clinically benign fever of Unknown Origin: A personal retrospective. Rev Infect Dis 1985;7:692-699.
108. Knockaert, DC. Recurrent Fevers of Unknown Origin. Infect Dis Clin North Am 2007;21:1189-1211.
109. Bryan CS, Ahuja D. Fever of Unknown Origin: Is there a role for empiric therapy. Infect Dis Clin North Am. 2007;21:1213-1220.
110. Eiko LM, Bryan CS. Empiric therapy in Fever of Unknown Origin: a cautionary note. In: Cunha BA (Editor) Fever of Unknown Origin. New York. Informa Healthcare. 2007:pp.229-236 .









ATB preventivos después de una extracción de dientes?


                                         G. Lodi, L.Figini, A.Sardella, A. Carrassi, M. Del Fabbro, S.Furness

                                           Cochrane Database of Systematic Reviews 2013 Issue 5. Art. No.: CD003811.  


La extracción de dientes es un tratamiento quirúrgico para remover piezas dentales afectadas por la caries o la enfermedad gingival (realizado por dentistas generales). Otra razón común de la extracción de dientes, realizada por cirujanos orales, es la extracción de las muelas de juicio que se encuentran mal alineadas/desarrolladas (también conocido como muelas de juicio impactadas) o las que causan dolor o inflamación.

El riesgo de infección después de extraer las muelas del juicio en jóvenes sanos es de alrededor del 10%; sin embargo, puede  alcanzar hasta un 25% en los pacientes que ya están enfermos o que presentan baja inmunidad.

Las complicaciones infecciosas incluyen inflamación, dolor, drenaje de pus, fiebre y también alveolitis (cuando no se forma un coágulo sanguíneo en elASME Code Download alvéolo lo cual causa dolor intenso y mal olor). El tratamiento de estas infecciones es generalmente sencillo e incluye la administración de antibióticos a los pacientes y el drenaje  de la infección de la herida.

Estas revisiones consideran si los antibióticos, administrados a los pacientes con problemas dentales como parte del tratamiento, previenen la infección posterior a la extracción de dientes.

Se consideraron 18 estudios, con un total de 2456 participantes que recibieron antibióticos (de diferentes clases y dosificaciones) o placebo, inmediatamente antes y/o justo después de la extracción de dientes. Hubo inquietudes acerca de los aspectos del diseño y el informe de todos los estudios.

En todos los estudios se incluyó a personas sanas sometidas extracciones de las muelas de juicio impactadas realizadas por cirujanos orales.

Esta revisión aporta pruebas de que los antibióticosICC Code Download administrados justo antes y/o justo después de la cirugía reducen el riesgo de infección, el dolor y la alveolitis después de la extracción de las muelas del juicio realizada por cirujanos orales, aunque proporciona pruebas de que el uso de antibióticos también causa más efectos secundarios (generalmente breves y menores) en estos pacientes.

Además, no hubo pruebas de que los antibióticos prevengan la fiebre, la inflamación o los problemas relacionados con la restricción de la abertura bucal en los pacientes sometidos a la extracción de las muelas del juicio.

No hubo pruebas para juzgar los efectos de los antibióticos preventivos para las extracciones de los dientes gravemente cariados, los dientes en encías enfermas o las extracciones en pacientes que ya están enfermos o que tienen baja inmunidad contra las infecciones.

La realización de investigación en estos grupos de personas puede no ser posible ni ética. Sin embargo, es probable que en situaciones en las que los pacientes presentan un riesgo mayor de infección, los antibióticos preventivos puedan ser beneficiosos debido a que es probable que las infecciones en este grupo sean más frecuentes y más 2015 New Code Downloaddifíciles de tratar.

Otra inquietud, que no puede ser evaluada en los ensayos clínicos, es que es probable que el uso generalizado de antibióticos en las personas que no tienen una infección contribuya a la aparición de resistencia bacteriana.

La conclusión de esta revisión es que los antibióticos administrados a las personas sanas para prevenir infecciones puede causar más efectos perjudiciales que beneficiosos, tanto a los pacientes individuales como a la población en su totalidad.

Las indicaciones más frecuentes para la extracción de dientes son la caries dental y las infecciones periodontales, y dichas extracciones, en general, son realizadas por odontólogos generales. Pueden prescribirse antibióticos a los pacientes sometidos a extracciones para prevenir las complicaciones debido a la infección.

Determinar el efecto de la profilaxis con antibióticos sobre la aparición de complicaciones infecciosas posteriores a las extracciones dentales.

Métodos de búsqueda: 
Se hicieron búsquedas en las siguientes bases de datos electrónicas: registro de ensayos del Grupo Cochrane de Salud Oral (Cochrane Oral Health Group) (hasta 25 enero 2012), Registro Cochrane Central de Ensayos Controlados (Cochrane Central Register of Controlled Trials) (CENTRAL) (The Cochrane Library 2012, número 1), MEDLINE vía OVID (1948 hasta 25 enero 2012), EMBASE vía OVID (1980 hasta 25 enero 2012) y LILACS via BIREME (1982 hasta 25 enero 2012). No hubo restricciones en cuanto al idioma o fecha de publicación.

Criterios de selección: 
Se incluyeron ensayos aleatorios doble ciego controlados con placebo de la profilaxis con antibióticos en pacientes sometidos a extracción(es) dentales por cualquier indicación.

Obtención y análisis de los datos: 
Dos revisores evaluaron de forma independiente el riesgo de 2015 API Code Downloadsesgo de los estudios incluidos y extrajeron los datos. Se estableció contacto con los autores de los ensayos para obtener detalles adicionales cuando los mismos eran poco claros.

Para los resultados dicotómicos, se calcularon los cocientes de riesgos (CR) y los intervalos de confianza (IC) del 95% mediante el uso de los modelos de efectos aleatorios.

Para los resultados continuos, se utilizaron las diferencias de medias (DM) con IC del 95% mediante el uso de los modelos de efectos aleatorios. Se examinaron las posibles fuentes de heterogeneidad. La calidad de las pruebas se evaluó con la herramienta GRADE.

Resultados principales: 
Esta revisión incluyó 18 ensayos controlados aleatorios de doble cegamiento con un total de 2456 participantes. Se evaluaron cinco ensayos como de riesgo de sesgo incierto, 13 como de riesgo de sesgo alto y ninguno de riesgo de sesgo bajo. En comparación con placebo, los antibióticos probablemente reducen el riesgo de infección en los pacientes sometidos a la extracción del tercer molar en aproximadamente un 70% (CR 0,29 [IC del 95%: 0,16 a 0,50] p

Los antibióticos se asocian con un aumento de los efectos adversos generalmente leves y transitorios en comparación con placebo (CR 1,98 [IC del 95%: 1,10 a 3,59] p = 0,02), lo cual significa que por cada 21 pacientes (rango 8-200) que reciben antibióticos, es probable que se presente un efecto adverso.

Conclusiones de los autores:

Aunque los dentistas generales realizan la extracción dental debido a la caries dental grave o a la infección periodontal, no se identificó ningún ensayo que evaluara la función de la profilaxis con antibióticos en este grupo de pacientes en este contexto. Todos los ensayos incluidos en esta revisión se realizaron en pacientes sanos sometidos a la extracción del tercer molar impactado, a menudo realizada por cirujanos orales.

Hay pruebas de que los antibióticos profilácticos reducen el riesgo de infección, alveolitis y dolor posterior a la extracción del tercer molar y dan lugar a un aumento de los efectos adversos leves y transitorios.

No está claro si las pruebas de esta revisión son generalizables a los pacientes con enfermedades concomitantes o inmunodeficiencia, o a los pacientes sometidos a la extracción de dientes debido a la caries grave o a la periodontitis.

Sin embargo, los pacientes en mayor riesgo de infección presentan mayor probabilidad de beneficiarse con los antibióticos profilácticos debido a que es probable que las infecciones en este grupo sean más frecuentes, se asocien con complicaciones y sean más difíciles de tratar.

Debido al aumento de la prevalencia de bacterias resistentes al tratamiento con los antibióticos disponibles actualmente, los médicos deben considerar cuidadosamente la probabilidad de que el tratamiento de pacientes sanos con antibióticos para prevenir una infección cause más daños que beneficios.







Controversia sobre el impacto de la restricción de la ingesta de sodio en la salud cardiovascular


                                                                                 Dr. Oparil S

                                                             N Engl J Med 2014;14:371(7): 677-9                                           

La hipertensión arterial (HTA) es el factor de riesgo modificable más frecuente de enfermedad cardiovascular (ECV) y de muerte por esta causa. Se estima que más de mil millones de adultos a nivel mundial padecen este trastorno, el cual ocasiona más de 9 000 000 de muertes al año.

Por este motivo, se han recomendado estrategias globales orientadas a reducir la presión arterial y, por extensión, la carga de ECV. Entre ellas se pueden mencionar la restricción de sodio en la alimentación y, en menor medida, el agregado de potasio. Sin embargo, investigaciones recientes se han planteado algunos interrogantes con respecto al efecto potencialmente negativo de la restricción de sodio sobre la salud. 

En respuesta a esta controversia, el Instituto de Medicina convocó a un comité de expertos para evaluar la información disponible sobre la relación entre la ingesta de sodio y los resultados en salud. Según el comité, la mayor parte de los datos concuerdan en que el consumo excesivo de sodio y el riesgo de ECV están relacionados, pero no son suficientes para determinar si la ingesta reducida de este electrolito (menor de 2.3 g/día o de 1.5 g/día, según recomiendan las normativas vigentes) aumenta o disminuye dicho riesgo en la población general.

Por otra parte, son escasos los datos que asocian a la dieta hiposódica con efectos nocivos para la salud en algunos subgrupos, en los que se incluyen pacientes con insuficiencia cardíaca u otras formas de ECV, diabetes o enfermedad renal crónica. 

Entre las investigaciones que han abordado este tema, se encuentra el estudio PURE, que analizó la asociación entre la ingesta de sodio y potasio, calculada por la excreción urinaria de dichos electrolitos en una muestra de orina matutina, y la presión arterial, la mortalidad por ECV y los principales eventos 

El estudio abarcó más de 100 000 adultos provenientes de 17 países con diversos grados de desarrollo económico y estilos de vida. Aproximadamente el 90% de los participantes tuvieron una excreción urinaria de sodio alta (mayor de 5.99 g/día) o moderada (3.00 a 5.99 g/día), en tanto que alrededor del 10% tuvo una excreción menor de 3.00 g/día y sólo en el 4% se mantuvo en el intervalo esperado para la ingesta recomendada de sodio (2.3 o 1.5 g/día). 

En esta muestra poblacional, la relación entre la excreción urinaria de sodio y la presión arterial fue firme en sujetos con elevada  pero no significativa en aquellos que tuvieron bajos niveles de sodio urinario. Los autores sintetizaron que sólo una mínima parte de la población mundial tiene una dieta reducida en sodio y que en estas personas la ingesta del electrolito no está relacionada con la presión arterial, lo que pone en duda la utilidad de este tipo de dieta en el tratamiento de la HTA.

"Una mayor natriuresis se asoció fuertemente con aumento de la presión arterial en sujetos con baja excreción de potasio"

También se observó que una mayor natriuresis se asoció fuertemente con aumento de la presión arterial en sujetos con baja excreción de potasio. Este hallazgo sugiere que el aporte de potasio en la alimentación puede ser más beneficioso que la restricción de sodio en forma aislada.

Luego de una media de seguimiento de 3.7 años, el resultado compuesto de muerte y eventos cardiovasculares ocurrió en 3 317 participantes (3.3%). En comparación con las personas que presentaban una excreción de sodio moderada, aquellas con excreción elevada o baja tuvieron unmayor riesgo de ECV. 

Los investigadores trataron de descartar causales de confusión o de retroceso residual que pudieran explicar los resultados, señalando que los pacientes con baja excreción urinaria de sodio, al compararlos con aquellos que presentaban natriuresis moderada, tenían un puntaje medio en la escala de riesgo modificable INTERHEART de magnitud similar y consumían mayor cantidad de frutas y verduras, y que más del 90% de la cohorte carecía de antecedentes de ECV.

Los resultados no se alteraron por la exclusión de participantes con ECV previa, cáncer o tratamiento antihipertensivo, por la exclusión de eventos que habían ocurrido en los primeros dos años de observación o por el ajuste a todos los factores de confusión identificables. 

Las principales limitaciones del estudio PURE, inherentes a su diseño y alcance, incluyen la ausencia de medición directa de la excreción urinaria de 24 horas en múltiples ocasiones, que es el método aceptado para analizar la ingesta de electrolitos, y la falta de un componente de intervención que permita evaluar el impacto de las variaciones en la ingesta de sodio y potasio sobre la presión arterial y los resultados cardiovasculares.

No obstante, este estudio pone de manifiesto que tanto el aumento como la disminución de la excreción urinaria de sodio pueden asociarse con mayor riesgo de muerte y eventos cardiovasculares, y que el aumento de la excreción urinaria de potasio contrarresta el efecto negativo de la natriuresis elevada.

En ausencia de ensayos aleatorizados y controlados que comparen las dietas hiposódicas con las dietas habituales, los resultados se inclinan en contra de la restricción de la ingesta de sodio como recomendación aislada. 

Los investigadores del grupo de expertos NutriCode cuantificaron la ingesta de sodio a nivel mundial por medio de encuestas provenientes de 66 países y utilizaron un modelo bayesiano jerárquico para calcular el consumo global.

A continuación, analizaron los efectos del sodio sobre la presión arterial en un metanálisis de 107 ensayos y realizaron una estimación de los efectos de la presión arterial sistólica en la mortalidad cardiovascular a partir de la combinación de los resultados de otros dos proyectos internacionales.

Si bien se encontró una fuerte asociación lineal entre la ingesta de sodio y los eventos cardiovasculares, la autora de este editorial aclara que se debe tener cuidado en la interpretación de los resultados debido a la falta de datos de alta calidad.




MISCELANEAS BREVES - 158Fecha: 1/11/2015


La risa

                                           Dr. Manuel Arias Gómez -  Dr. Marcos Llanero Luque
                                                      Sociedad Española de Neurología

Las nuevas técnicas de neuroimagen nos han permitido conocer que el procesado del humor tiene lugar en tres etapas, que implican a varias regiones encefálicas:

  • Percepción de la incongruencia sorpresiva por parte de la región prefrontal dorsolateral y  unión temporoparietal del hemisferio dominante
  • Activación del circuito de la recompensa y liberación de dopamina
  • Cese de la desinhibición frontal no dominante que conduce a la risa".

Cuando en lugar de la racionalidad cognitiva lo realmente percibido es una incongruencia, se da una controversia que lleva al cerebro a liberar dopamina, neurotransmisor que nos produce sensación placentera. El humor está ligado al sistema de recompensa, que también se activa con la comida, el sexo, las relaciones sociales y las adicciones

El humor está íntimamente ligado al desarrollo cognitivo (por eso, las personas de edades distintas se ríen de cosas distintas), relacionado con la época y la cultura en la que vivamos y por supuesto, con el carácter de cada individuo en particular.
Las técnicas de neuroimagen también han visto que hombre y mujeres tienen distintas formas de procesar el sentido del humor. No todos nos reímos igual.

El neurólogo Guillaume Duchenne fue el primero en diferenciar la risa verdadera de la falsa, determinó filter press plate cuando una persona muestra una risa forzada es habitual que olvide contraer los músculos alrededor de los ojos.

Cuando la risa es verdadera, es beneficiosa para la salud, reír estimula el sistema inmune, incrementa el umbral del plate & frame filter press, acelera el ritmo cardíaco y aumenta el aporte de oxígeno al cerebro. Algunos estudios afirman que las personas risueñas tienen un 40% menos de problemas vasculares y que viven 4 años y medio más de media. Otros estudios concluyeron que el humor nos hace más inteligentes, porque es una forma de ejercitar nuestro cerebro.

La risa también puede estar provocada por el estrés, la ansiedad, la tensión o como consecuencia una lesión neurológica. puede constituir un síntoma indicativo de patología cerebral, sobre todo si se presenta sin un estímulo específico, no se relaciona con un cambio afectivo o si su intensidad y duración están fueran de control. Es lo que se conoce como síndrome de la risa patológica, que también se puede trasformar en llanto o alternar ambos procesos. Enfermedades como el síndrome de Angelman, esquizofrenia, demencia, pero también epilepsia, ictus, esclerosis múltiple, ELA, párkinson o tumores cerebrales son causas del síndrome de la risa patológica, que puede manifestarse o bien como un inmotivado sentimiento de regocijo o como una disociación emocional voluntaria.










Combate contra la resistencia antibiótica en cuidados intensivos


José Garnacho Montero, Francisco Álvarez Lerma, Paula Ramírez Galleymore, Mercedes Palomar Martínez, Luis Álvarez Rocha, Fernando Barcenilla Gaite, Joaquín Álvarez Rodríguez6, Mercedes Catalán Gonzále

                                                                  Critical Care (2015) 19: 114 Página 4 de 8

                                                                  Traducción y resumen objetivo: Dra. Marta Papponet



Durante las últimas décadas ha habido en todo el mundo un enorme aumento de las tasas de infección por patógenos resistentes a múltiples fármacos, un reconocido problema de crisis de la salud pública. A menudo, el manejo de las infecciones causadas por estos patógenos es muy difícil debido a la escasez de fármacos activos disponibles.

El último informe de la red del European Antibiotical Resistence Surveillance System (Red Europea del Sistema de Vigilancia de la Resistencia Antibiótica), que incluye a 30 países europeos, describe un aumento general en toda Europa de la resistencia a los antimicrobianos de las bacterias Gram negativas que están bajo vigilancia (Escherichia coli, Klebsiella pneumoniae y Pseudomonas aeruginosa).

En muchos países europeos se han informado grandes proporciones de P. aeruginosa resistente a los antimicrobianos. En un estudio español realizado en 2000, el 41% de los aislados de Acinetobacter baumannii era resistente a los carbapenemes. De hecho, la tasa de resistencia al carbapenem ha aumentado notablemente en la última década, especialmente en los servicios de cuidados intensivos. Una nueva amenaza muy peligrosa es la aparición de microorganismos Gram negativos que poseen nuevas β lactamasas que les confieren una elevada resistencia a todas las clases disponibles de antibióticos β lactámicos.

En cuanto a las bacterias Gram positivas, los patógenos más problemáticos siguen siendo Staphylococcus aureus meticilina resistente (SAMR) y Enterococcus spp. vancomicina resistentes (EVR). La incidencia de infecciones por SAMR parece haber permanecido estable en los últimos años, a pesar de que este patógeno causa infecciones graves.

La creciente incidencia de SAMR en las unidades de cuidados intensivos (UCI) es claramente un problema más complejo, donde la presión de selección y la aparición de resistencia, así como el riesgo de transmisión de paciente a paciente son más elevadas. 

El Spanish Annual April-to-June ICU National Nosocomial Infection Surveillance Study (Estudio Nacional de Vigilancia de la Infección Nosocomial [ENVIN]) confirma que la resistencia a múltiples fármacos es un problema no resuelto en las UCI españolas, con tasas preocupantes de patógenos Gram negativos resistentes a múltiples fármacos.

Por otra parte, los microorganismos multirresistentes no suelen causar infecciones verdaderas sino solamente colonización, lo que constituye un depósito oculto para la propagación de estos patógenos. Es importante destacar que una gran proporción de estos pacientes recibe tratamiento antimicrobiano.

El pronóstico de los pacientes que desarrollan infecciones nosocomiales en UCI es malo, especialmente si la infección es por un patógeno multirresistente. Las tasas de mortalidad y la carga económica son significativamente superiores en las infecciones causadas por patógenos resistentes a múltiples fármacos que en aquellas causadas por organismos sensibles. Por otra parte, incluso la adquisición de un patógeno multirresistente sin infección concomitante se asocia con un riesgo más elevado de muerte, duración de la hospitalización y costos.

Programas previos aplicados en las UCI españolas

La Sociedad Española de Medicina Intensiva y Unidad Coronaria (SEMICYUC) y la Sociedad Española de Enfermería de Cuidados Intensivos (SEECI) recientemente han finalizado su papel de líderes técnicos de 2 programas destinados a reducir las infecciones adquiridas en UCI, uno para las infecciones del torrente sanguíneo relacionadas con el catéter ("Bacteriemia Cero") y el otro, para la neumonía asociada a la ventilación mecánica (NAVM) (“NAVM Cero”).

Ambos proyectos, promovidos por el Ministerio de Salud español, se desarrollaron dentro de un marco de "tolerancia cero” y participaron más de 200 UCI. Los programas consistieron en la prevención de las infecciones del torrente sanguíneo relacionadas con el catéter y la NAVM. La obtención de resultados muy exitosos de  ambas iniciativas ha confirmado que estas prácticas podrían ser implementadas sistemáticamente en España y reducir las tasas de estas infecciones y contribuir a disminuir el uso de antimicrobianos en las UCI participantes.

Metodología de "Resistencia Cero"

Con la experiencia adquirida de los dos proyectos previos, SEMICYUC ha desarrollado un nuevo proyecto denominado "Resistencia Cero", con el apoyo del Ministerio de Salud español. Este proyecto utiliza la misma estructura creada para "Bacteriemia Cero" y “NAVM Cero", la cual se basa en la coordinación en el nivel nacional, regional y local. Un Comité de Expertos Científicos (CEC) para el desarrollo y la implementación de este programa fue designado de la siguiente manera: SEMICYUC eligió a 9 intensivistas expertos en el campo de la prevención y el manejo de las infecciones en UCI y SEEIC designó a 1 enfermera de UCI con experiencia en el control de la infección. También se incorporaron un microbiólogo, un epidemiólogo, un especialista en enfermedades infecciosas y dos técnicos del Ministerio de Salud, con amplio conocimiento en ese campo.

Los miembros del CEC revisaron las pruebas disponibles en PubMed, incluyendo estudios de observación, ensayos clínicos, guías, revisiones sistemáticas y metaanálisis de diversas y reconocidas fuentes.

Para reducir la incidencia de bacteriemia relacionada con el catéter o las infecciones relacionadas con el ventilador se propuso la implementación de "paquetes" de medidas eficaces, a diferencia de las intervenciones individuales. Guiado por este concepto, el CEC desarrolló un conjunto de 10 recomendaciones que fueron debatidas y aprobadas después de la revisión y el análisis de la literatura científica existente. Es cierto que las evidencias que apoyan algunas de las recomendaciones elegidas son débiles, pero fueron consideradas en su totalidad para alcanzar al menos el nivel de “Recomendación de expertos”. No se utilizó ningún sistema de clasificación para apoyar la fuerza y la calidad de las recomendaciones. Todos los artículos incluyen comentarios destinados a facilitar las adaptaciones locales.  

Los criterios para definir los patógenos multirresistentes varían de una institución a otra y tampoco son uniformes en la literatura publicada, aunque las cepas más resistentes son fácilmente reconocibles. Sobre la base de los patógenos considerados más problemáticos en las UCI españolas, "Resistencia Cero" recoge información sobre los episodios de infección y colonización de los patógenos que figuran en la siguiente tabla:

Definiciones de bacterias resistentes a múltiples fármacos monitoreadas en el proyecto “Resistencia Cero”

Gram positivos    
Staphylococcus aureus methicilina resistente (SAMR)    Meticilina (SAMR)
Enterococcus spp    Vancomicina (EVM)

Gran negativos    
Enterobacteriaceas    Cefalosporinas de 3ª generación, particularmente (ßLLE)
Carbapenems (particularmente productores de carbapenamasas)
Pseudomonas aeruginosa    ≥3 clases de antibióticos, incluyendo carbapenemes, cefalosporinas, piperaclina-tazobactam, flouroquinolonas, aminoglucósidos o colistina
Acinetobacter baumanii    Carbapenemes
aAImipenem, meropenem o doripenem; bceftazidima o cefepima; cciprofloxacina o levofloxacina; gentamicina, tobramicina o amicacina, ßLEE: ß lactámico de acción extendida; SAMR; EVR: enterococo vancomicina resistente
Finalmente, debido a que la adquisición de una infección puede ser el resultado de errores en el cuidado del paciente, los 3 programas fueron diseñados para reducir y prevenir las infecciones mediante la incorporación de un programa integral de seguridad para el paciente.


El objetivo principal del proyecto "Resistencia Cero " es reducir un 20% la incidencia acumulada de pacientes con infecciones por patógenos multirresistentes adquiridos en UCI. Los objetivos secundarios son el estudio de la epidemiología de las infecciones resistentes a múltiples fármacos en las UCI españolas, para poder distinguir los casos importados de los adquiridos y así promover y fortalecer con precisión la seguridad en las unidades participantes y, crear una red de UCI seguras, con prácticas basadas en la evidencia. El programa "Resistencia Cero" está activo desde abril de 2014.

Los “paquetes” 

El objetivo principal de las recomendaciones de “paquetes” es reducir los 3 factores más influyentes en el desarrollo y la transmisión de la resistencia a múltiples fáarmacos:

1) la prescripción adecuada de antibióticos

2) la detección temprana y la prevención de la colonización cruzada de patógenos multirresistentes

3) la eliminación de los reservorios.

1.Primera recomendación: en cada UCI se designará al menos un intensivista responsable de la utilización de los antimicrobianos. Debe tener una amplia experiencia en el control de las infecciones y el tratamiento de las infecciones graves. Este médico o equipo médico debe evaluar sistemáticamente la prescripción de antimicrobianos y asesorar y asistir a los clínicos. El análisis de la prescripción de antimicrobianos debe incluir:

a) la revisión de la indicación de los antimicrobianos.

b) la evaluación de lo apropiado del antimicrobiano elegido y de su correcta administración (dosis, intervalos y duración).

c) la evaluación de la disminución de los antimicrobianos o incluso de su suspensión.

Justificación: la prescripción de antibióticos en el ámbito de la atención crítica es una tarea compleja que requiere un conocimiento profundo y extenso. Por otra parte, la farmacocinética y farmacodinámica de los antimicrobianos se ven afectadas por muchos cambios fisiopatológicos asociados a la enfermedad aguda grave o la sepsis, como la fuga capilar, el tercer espacio, el aumento del volumen de distribución y la alteración de la función renal y/o hepática.

Por lo tanto, es muy importante identificar a los intensivistas con un profundo conocimiento de las enfermedades infecciosas en los pacientes en estado crítico, con el fin de mejorar la calidad de la prescripción. Esto implica la elección óptima empírica de los antibióticos, su mejor modo de administración y la dosis correcta.

A menudo, la administración de antimicrobianos a los pacientes gravemente enfermos, con dosis definidas en estudios realizados en voluntarios sanos, logra solo concentraciones séricas subóptimas, lo que lleva al fracaso terapéutico y al desarrollo de resistencia.

La terapia antimicrobiana inmediata y adecuada reduce la morbilidad y la mortalidad en la sepsis grave y el shock séptico. Sin embargo, el tratamiento empírico debe ser adaptado tan pronto como la información microbiológica esté disponible, ya sea reduciendo el número de antimicrobianos o su espectro. No obstante, muchos médicos son reacios a retirar los antimicrobianos si el paciente está mejorando. De hecho, la disminución de la terapia empírica se realiza en menos de 50% de los pacientes. Estudios recientes han demostrado que la reducción es segura incluso en los pacientes críticamente enfermos con sepsis grave o inmunosupresión.

2.Segunda recomendación: administrar empíricamente antimicrobianos activos contra patógenos multirresistentes solo en los casos de sepsis grave o shock séptico y alto riesgo de patógenos multirresistentes, según los factores de riesgo del paciente y/o el conocimiento de la ecología local. De lo contrario, se recomiendan los antimicrobianos de espectro reducido oabstenerse de su uso hasta haber recibido los resultados microbiológicos e iniciar, si es necesario, los antibióticos activos contra los patógenos muultirresistentes (carbapenemes, colistina, tigeciclina, glucopéptidos, daptomicina, linezolida). En todos los casos, antes de iniciar la terapia antibiótica se deben obtener muestras para cultivo de las posibles fuentes de infección.

Justificación: en los pacientes con sepsis grave y shock séptico, el tratamiento antimicrobiano precoz y adecuado se asocia con mayor supervivencia. No obstante, se ha demostrado que el retraso de la terapia antimicrobiana hasta contar con la confirmación microbiológica se asocia con resultados similares a los de los pacientes quirúrgicos febriles internados en  la UCI, comparado con el inicio de los antimicrobianos inmediatamente después del diagnóstico clínico de infección.

Más recientemente, un estudio de cohortes, de observación, cuasi experimental, de antes y después, concluyó que después del ajuste por los factores de error, la antibioticoterapia agresiva fue un predictor independiente de mortalidad. En el período agresivo, siempre panerai replica el tratamiento antimicrobiano ha sido iniciado en los pacientes con sospecha de infección, a quienes después se les hicieron los cultivos apropiados. En el segundo periodo (estrategia conservadora), el tratamiento antimicrobiano ha sido iniciado solo después de haberse confirmado los signos objetivos de infección. La principal limitación de ambos estudios es que se hicieron en pacientes quirúrgicos y con escasos datos de las unidades médicas.

Sin embargo, es importante tener en cuenta que en los pacientes febriles con sepsis grave o shock séptico, el retraso en la terapia antimicrobiana puede ser fatal. Por otra parte, la elección de la antibioticoterapia empírica debe estar basada en un conocimiento actualizado de la ecología local. Por lo tanto, parece prudente recomendar el inicio de la terapia empírica inmediata con antibióticos activos contra patógenos multirresistentes solamente en los casos que cumplen con los criterios de sepsis grave o shock séptico y factores de riesgo para patógenos resistentes a múltiples fármacos.

Obviamente, es muy apropiado esforzarse para que los resultados microbiológicos se reciban con mayor rapidez (uso de técnicas de diagnóstico rápidas, contacto directo con el microbiólogo ...) y hacer un seguimiento cercano de la evolución clínica para detectar con rapidez los signos de alarma.

3.Tercera recomendación: en cada unidad se designará como líder de este proyecto al menos a 1 enfermera, responsable de las medidas de control de las infecciones destinadas a reducir la transmisión de patógenos resistentes a múltiples fármacos. 

Justificación: El éxito de los programas de control de calidad depende particularmente de la participación de todas las categorías de profesionales de la salud. Las enfermeras representan un papel fundamental en la prevención y control de las enfermedades infecciosas y las medidas para prevenir la transmisión de paciente a paciente, ya que son un componente importante de la atención.

Es necesaria la intervención de un equipo multidisciplinario para desarrollar e implementar estrategias para prevenir la infección en el paciente crítico. La participación de las enfermeras es de extraordinaria importancia para el éxito de los programas de control de las infecciones en UCI. De hecho, la mayoría de los procedimientos realizados para reducir el riesgo de infección nosocomial (cuidado del catéter vascular, cuidado de la vía aérea artificial, higiene bucal, etc.) son parte de las tareas diarias de la enfermera. Los programas que han logrado reducir significativamente las tasas de infección nosocomial han designado al menos 1 médico y 1 enfermera en cada UCI como jefes de equipo.

Este modelo también ha sido implementado por programas exitosos diseñados para reducir las tasas de infección nosocomial en las UCI, aprobados por SEMICYUC. El programa “Resistencia Cero” apoya claramente la designación de un líder de enfermería en todas las UCI responsable del control de la infección, con el fin de reducir las infecciones nosocomiales y la transmisión de patógenos resistentes a múltiples fármacos.

4. Cuarta recomendación: se recomienda buscar activamente a los patógenos resistentes a múltiples fármacos en todos los pacientes a su ingreso en la UCI y al menos una vez por semana durante toda su internación. Las muestras serán procesadas para identificar a los agentes patógenos resistentes a múltiples fármacos según la epidemiología local y en colaboración con el Servicio de Microbiología y Control de Infecciones del equipo de cada hospital.

Justificación: Las guías para los organismos resistentes a múltiples fármacos incluyen recomendaciones para los cultivos de rutina y las precauciones de contacto para los pacientes después de su ingreso en unidades de alto riesgo como las UCI. La implementación de las precauciones de contacto en los pacientes colonizados o infectados con patógenos multirresistentes tiene una gran aceptación.

En contraste, la vigilancia sistemática de a resistencia a múltiple fármacos mediante cultivos todavía es un tema de debate y no ampliamente realizada. El cribado inicial está especialmente recomendado para los SAMR, aunque se aplican los mismos principios y prácticas para los organismos Gram negativos resistentes a múltiples fármacos, los que ahora constituyen la principal amenaza.

Los programas de vigilancia activa consumen tiempo y recursos. El tipo y número de muestras se seleccionan de acuerdo a los recursos y epidemiología locales y deben incluir al menos material del hisopado nasal, rectal y orofaríngeo (o el aspirado bronquial si el paciente está intubado). Por otra parte, las muestras pueden ser necesarias  para controlar los reservorios potenciales (infecciones, úlceras cutáneas, etc.). En cuanto a los cultivos de vigilancia, se aceptan 2 enfoques. Se examina a todos los pacientes al ingresar a la UCI o solamente a aquellos con al menos uno de los factores de riesgo incluidos en la lista de verificación (quinta recomendación).

5.Quinta recomendación: al ingresar el paciente a la UCI se debe completar una “lista de verificación” de factores de riesgo para identificar a aquellos con un riesgo elevado de ser portadores de patógenos multirresistentes. Los pacientes que presentan al menos 1 de los factores de riesgo deben ser sometidos a las medidas de precaución de contacto hasta recibir los resultados de los cultivos.

Justificación: Se han identificado varios factores de riesgo asociados al transporte de patógenos multirresistentes, al ingreso al hospital o a la UCI, siendo los más frecuentes:

a) el uso previo de antibióticos

b) la presencia de dispositivos invasivos

c) la coexistencia de enfermedades subyacentes.

Los pacientes con riesgo de neumonía nosocomial causada por  patógenos resistentes a múltiples fármacos según los criterios de la American Thoracic Society y la Infectious Disease Society of America  son aquellos con el antecedente de:

a) hospitalización ≥5 días

b) antibióticoterapia previa

c) hospitalizaciones previas

d) residencia en un hogar geriátrico o unidades de larga estancia

e) haber recibido terapia de infusión o diálisis crónica dentro de los 30 días

f) curación domiciliaria de sus heridas

g) tener algún familiar portador o infectado con un patógeno o, inmunosuprimido.

Sin embargo, en un estudio de evaluación prospectivo, aunque estos criterios tenían un valor predictivo negativo excelente (96%), su valor predictivo positivo fue bajo  (18%) para la infección o la colonización con un patógeno multirresistente al ingreso en la UCI. En un estudio de casos y controles, la inmunosupresión no se asoció independientemente con las bacterias multirresistentes en la UCI.

En otros estudios se han identificado factores de riesgo para patógenos específicos como SAMR o A. baumannii se, en un intento de establecer las medidas de control que limiten su propagación. Este enfoque está especialmente indicado en las UCI donde la mayoría de los episodios de colonización/infección están provocados por un microorganismo particular. Con esta información, el CEC generó una Lista de Control para detectar a los pacientes con un riesgo elevado de patógenos resistentes a múltiples fármacos.

Ante la presencia de ≥1 de estos factores de riesgo se impone el cribado al ingreso en la UCI mediante cultivos, al tiempo que el paciente debe ser puesto en aislamiento de contacto hasta recibir los resultados del cultivo negativos para los organismos objetivo. Una de las tareas pendientes de este programa es la validación prospectiva de esta lista de verificación.

Lista de verificación de los factores de riesgo para el transporte de las bacterias resistentes a múltiples fármacos
Factores de riesgo

1. Hospitalización ≥ 5 días en los última 3 meses                                                              Sí ☐ No ☐
2. Institucionalización (prisión, centros de asistencia sanitaria y social, geriátricos, etc)  Sí ☐ No ☐
3.Ccolonización o infección conocidas con patógenos  multirresistentes                          Sí ☐ No ☐  
4 Tratamiento antibiótico ≥7 días en el mes anterior (en particular con cefalosporinas de 3ª y 4ª generación, fluoroquinolonas y carbapenemes)                                                                  Sí ☐ No ☐
5. Nefropatía terminal en hemodiálisis crónica o diálisis peritoneal ambulatoria.             Sí ☐ No ☐
6. Comorbilidades asociadas con la elevada incidencia de colonización o infección con patógenos resistentes a múltiples fármacos:  fibrosis quística, bronquiectasias, úlceras cutáneas crónicas, etc.
                                                                                                                                             Sí ☐ No ☐

6.Sexta recomendación: se debe medir sistemáticamente el cumplimiento de las medidas preventivas, incluidas aquellas basadas en los mecanismos de transmisión.

Justificación: el soporte principal para reducir la transmisión de microorganismos son las medidas de contacto e higiene de las manos. El cumplimiento de estas prácticas debe ser reforzado y supervisarse continuamente.

Brevemente, las precauciones de contacto (para el personal y los visitantes) consisten en:

a) higiene de las manos.

b) colocación de bata y guantes inmediatamente antes de ingresar a la habitación.

c) la eliminación de la bata y los guantes en el interior de la habitación del paciente

d) la higiene inmediata de las manos, antes de salir de la habitación.

En un estudio, las tasas de adherencia a las precauciones de contacto en las UCI con disponibilidad en todas las instalaciones fueron del 75% y el 80%.

La práctica correcta incluye:

(1) Usar signos de precauciones de contacto para todos los pacientes colonizados/infectados por patógenos multirresistentes.

(2) Disponer del equipo para las precauciones de contacto a la entrada de la habitación del paciente

(3) Poner recipientes para la eliminación de las barreras dentro de la habitación del paciente.

(4) Hacer el seguimiento de la adhesión al protocolo de las precauciones de contacto por parte del personal y los visitantes.

Si no hay habitaciones cerradas, se deben estrechar las precauciones. Para lograr los resultados deseados, todos los miembros del personal deben dar cumplimiento a las medidas preventivas. Con respecto a este tema, para el programa "Resistencia Cero" el CEC considera que las enfermeras tienen una responsabilidad especial en la implementación de la prevención efectiva. Por lo tanto, el resto del personal del hospital y los visitantes deben seguir sus recomendaciones.

7.Séptima recomendación: Todas las unidades deben desarrollar un protocolo de limpieza para las habitaciones de los pacientes con patógenos multirresistentes.

Justificación: muchos brotes publicados de patógenos multirresistentes tienen una fuente común en superficies ambientales y áreas húmedas. Los estudios han documentado una deficiencia generalizada en las prácticas de limpieza. Sin embargo, se pueden lograr mejoras importantes en la limpieza y la desinfección aplicando los protocolos estandarizados en la UCI.

Los procedimientos de limpieza deben adaptarse a las características arquitectónicas de cada unidad y acordados con el personal de limpieza y el comité nosocomial para el control de las infecciones. Para mantener los beneficios es importante la retroalimentación informativa para todo el personal involucrado. Este protocolo debe incluir las estructuras fijas(suelos y paredes) así como la cama (Incluida la estructura principal, rieles y colchones). Los protocolos de limpieza incluirán la limpieza diaria y la limpieza final cuando el paciente es dado de alta de la unidad.

Los protocolos de limpieza de las habitaciones ocupadas por pacientes con patógenos multirresistentes deben especificar la metodología y la frecuencia de los productos de limpieza y desinfección, porque en el protocolo de cada hospital hay diferentes productos de limpieza aprobados, y en cada protocolo se debe especificar la composición exacta del producto o la marca comercial. Si se considera necesario, se establecerán controles para garantizar la erradicación del patógeno multirresistente.

8.Octava recomendación: es necesario tener disponible y actualizado un archivo o documento que especifiquen el equipo existente en la UCI y sus respectivos protocolos de limpieza.

Justificación: cualquier equipo de clínica o tecnológico podría actuar como un depósito microbiológico de patógenos multirresistentes. Por lo tanto, la primera acción es  eliminar todos los materiales de consumo, dejando las superficies de trabajo tan libres como sea posible. El equipo debe estar presentado e informado sobre los siguientes aspectos: equipo responsable de la limpieza; horario de la limpieza y metodología de la limpieza (desinfección, esterilización). Cada trabajador de la salud es responsable de la limpieza y la desinfección de los equipos para uso personal (estetoscopios, linternas ...).

9. Novena recomendación: si los pacientes ya están colonizados o infectados con patógenos resistentes a múltiples fármacos, usar productos conteniendo clorhexidina al 4% para la higiene diaria de los pacientes.

Justificación: Varios estudios de observación y ensayos realizados en un solo centro han concluido que el baño diario de los pacientes ingresados en la UCI con clorhexidina reduce la adquisición de patógenos resistentes a múltiples fármacos y la incidencia de ciertas infecciones. Una revisión sistemática concluyó que el lavado del cuerpo con clorhexidina puede ser eficaz para prevenir el trasporte y posiblemente las infecciones del torrente sanguíneo con patógenos Gram positivos resistentes a múltiples fármacos, SAMR y EVR, mientras que la evidencia de que esta intervención erradica el trasporte o previene la infección por patógenos Gram negativos resistentes a múltiples fármacos es débil.

En un ensayo multicéntrico aleatorizado reciente realizado en 13 UCI se evaluó el efecto de diferentes estrategias para el control de la adquisición de infecciones por patógenos muultirresistentes. El mejoramiento de la higiene extendiendo el lavado de las manos con clorhexidina a zonas más extensas del cuerpo reduce la adquisición de patógenos, particularmente de SAMR. Llama la atención que en el contexto de un elevado grado de cumplimiento del lavado de manos y el baño con clorhexidina, la detección y el aislamiento de los portadores no redujo las tasas de adquisición de los patógenos resistentes a múltiples fármacos.

Más recientemente, un estudio multicéntrico abierto, cruzado, documentó los beneficios clínicos del baño diario con paños impregnados de clorhexidina, que redujo el riesgo de desarrollar bacteriemia multirresistente adquirida en el hospital.

Las soluciones de clorhexidina deben contener 0,16 gr. de clorhexidina (digluconato) (disolver clorhexidina al 4% en 1 litro de agua tibia). Se deben tener en cuenta las contraindicaciones y reacciones adversas de la clorhexidina.

Debido a que se trata de una molécula catiónica, su actividad puede estar reducida por los jabones naturales, diversos aniones inorgánicos, tensioactivos no iónicos y cremas para las manos que contienen agentes emulsionantes aniónicos. El baño diario con clorhexidina es fácil de implementar y relativamente barato, pudiendo ser una intervención adyuvante importante de las precauciones de barrera para reducir la adquisición y el desarrollo de infecciones.

10. Décima recomendación: ante la se sospecha de un brote, se recomienda identificar al microorganismo causal mediante métodos de caracterización molecular.

Justificación: Los estudios de los brotes según las características fenotípicas de los microorganismos (propiedades antigénicas, metabólicas o resistencia antibiótica) son pocos y no proporcionan diferencias o similitudes concluyentes entre ellos. Por consiguiente, se deben hacer métodos de caracterización molecular que puedan reconocer la vinculación epidemiológica entre los aislados derivados de un microorganismo precursor común. Esto también permite conocer el mecanismo de transmisión y difusión y diseñar estrategias de control y erradicación de la epidemia.

El programa "Resistencia Cero" estimula a los hospitales sin recursos a enviar los aislados de patógenos multirresistentes a un laboratorio de referencia (Centro Nacional de Microbiología, Instituto de Salud Carlos III) para hacer pruebas moleculares, donde la prueba microbiológica será realizada en forma gratuita.

Aplicación del programa "Resistencia Cero" 

La aplicación activa de este programa es claramente necesaria para lograr los resultados deseados. Los autores informan que la Agencia para la Garantía de Calidad del Ministerio de Salud español promoverá su aplicación en colaboración con las 17 Autoridades Regionales de Atención de la Salud a través de la difusión, la coordinación y el seguimiento.

Cada comunidad autónoma creará un equipo de coordinación dirigido por un intensivista responsable de contactarse con los directivos del hospital. La dirección del hospital notificará la infección local y los comités de garantía de calidad para el paciente, y nombrará un equipo de coordinación local consistente en al menos 1 intensivista y 1 enfermera de cuidados intensivos. Se deberán proporcionar los recursos necesarios para ejecutar el proyecto.

El programa "Resistencia Cero" incluye un módulo de enseñanza basado en la web. Se recomienda que el equipo local lleve un registro del número de trabajadores de la salud, médicos, enfermeras y auxiliares de enfermería que integran el módulo de formación basado en la web e informe de sus índices educativos locales al coordinador regional. Estos datos están disponibles en la página web educativa.

Evaluación del impacto del proyecto "Resistencia Cero"

El impacto del proyecto "Resistencia Cero", como en todos los programas de calidad, debe ser medido mediante indicadores de calidad que pueden ser desglosados en estructura, procedimientos e indicadores de resultados. Obviamente, dicen los autores, las medidas de los resultados son de gran interés ya que reflejan todos los aspectos de la atención y son el objetivo final de la intervención.

Los indicadores propuestos se explican detalladamente en el programa, pero cada equipo local debe elegir cuáles son los indicadores que usarán para monitorear la función de los sistemas de información y los esfuerzos necesarios para obtener estas mediciones. Las UCI participantes en el programa "Resistencia Cero" se han comprometido a introducir los datos necesarios para el cálculo de los índices importantes, en el registro "ENVINADAS-HELICS" de la web. Los datos de "Resistencia Cero" se registran a través de una adaptación específica del "ENVINADAS-HELICS". Los coordinadores registran los datos de cada paciente. En resumen, la descripción estadística está disponible on line para cada unidad individual, y se puede acceder directamente a los datos actualizados a diario. Los resultados locales se muestran junto con los valores regionales y nacionales correspondientes.


La resistencia bacteriana a los antibióticos está creciendo día a día, sobre todo en los hospitales, con un impacto significativo en la mortalidad y la morbilidad. La falta de antibióticos nuevos, especialmente para los patógenos Gram negativos multirresistentes, empeora este grave problema.

A menudo, los antibióticos se prescriben en forma incorrecta siendo lo más frecuente:

a) el uso de antibióticos inadecuados.

b) la indicación de dosis incorrectas para una infección particular.

c) la administración de antibióticos para infecciones no bacterianas.

d) un tratamiento excesivamente prolongado.

"Resistencia Cero" es un proyecto desarrollado por SEMICYUC con el apoyo técnico del Ministerio de Salud español, con el objetivo principal de reducir en un 20% la incidencia acumulada de pacientes con multirresistencia bacteriana adquirida en la UCI. Este proyecto contiene un conjunto de 10 recomendaciones destinadas a mejorar la prescripción de antibióticos, la detección y la prevención de la colonización cruzada de patógenos multirresistentes y la eliminación de los reservorios. Esta iniciativa incluye un programa de seguridad integral del paciente y módulos educativos para facilitar su aplicación. La adherencia al proyecto y sus resultados serán evaluados a través de una serie de indicadores.


1. Boucher HW, Talbot GH, Bradley JS, et al. Bad bugs, no drugs: no ESKAPE! An update from the Infectious Diseases Society of America. Clin Infect Dis. 2009;48:1–12.
2. Antimicrobial resistance interactive database (EARS-Net). Available at: database/Pages/database.aspx (Accessed 4 September 2014).
3. Jones RN, Flonta M, Gurler N, Cepparulo M, Mendes RE, Castanheira M. Resistance surveillance program report for selected European nations (2011). Diagn Microbiol Infect Dis. 2014;78:429–36.
4. Cisneros JM, Rodríguez-Baño J, Fernández-Cuenca F, et al. Risk factors for the acquisition of imipenem-resistant Acinetobacter baumannii in Spain: A nationwide study.
Clin Microbiol Infect. 2005;11:874–9.
5. Villar M, Cano ME, Gato E, et al.
Epidemiologic and clinical impact of Acinetobacter baumannii colonization and infection: A reappraisal. Medicine
(Baltimore). 2014;93:202–10.
6. Tacconelli E, Cataldo MA, Dancer SJ, et al.
European Society of Clinical Microbiology. ESCMID guidelines for the management of the infection control measures to reduce transmission of multidrug-resistant Gramnegative bacteria in hospitalized patients. Clin Microbiol Infect. 2014;20:1–55.
7. Estudio Nacional De Vigilancia De Infección Nosocomial En Servicios de Medicina Intensiva. Available at: Accessed Oct 22, 2014.
8. Siegel JD, Rhinehart E, Jackson M, Chiarello L. Healthcare Infection Control Practices Advisory Committee. Management of multidrug-resistant organisms in health care settings, 2006. Am J Infect Control. 2007;35:S165–93.
9. Neidell MJ, Cohen B, Furuya Y, et al. Costs of healthcare- and communityassociated infections with antimicrobial-resistant versus antimicrobialsusceptible organisms. Clin Infect Dis. 2012;55:807–15.
10. García-Garmendia JL, Ortiz-Leyba C, Garnacho-Montero J, Jiménez-Jiménez FJ, Monterrubio-Villar J, Gili-Miner M. Mortality and the increase in length of stay attributable to the acquisition of Acinetobacter in critically ill patients. Crit Care Med. 1999;27:1794–9.
11. Zhuo H, Yang K, Lynch SV, et al. Increased mortality of ventilated patients with endotracheal Pseudomonas aeruginosa without clinical signs of infection. Crit Care Med. 2008;36:2495–503.
12. Palomar M, Álvarez-Lerma F, Riera A, et al. Impact of a national multimodal intervention to prevent catheter-related bloodstream infection in the ICU:the Spanish experience. Crit Care Med. 2013;41:2364–72.
13. Alvarez Lerma F, Sánchez García M, Lorente L, et al. Guidelines for the prevention of ventilator-associated pneumonia and their implementation. The Spanish “Zero-VAP” bundle. Med Intensiva. 2014;38:226–36.
14. Pronovost P, Needham D, Berenholtz S, et al. An intervention to decrease catheter-related bloodstream infections in the ICU. N Engl J Med. 2006;355:2725–32.
15. Rello J, Lode H, Cornaglia G, Masterton R, Care Bundle Contributors VAP. A European care bundle for prevention of ventilator-associated pneumonia. Intensive Care Med. 2010;36:773–80.
16. Burke JP. Infection control – a problem for patient safety. N Engl J Med. 2003;348:651–6.
17. Pinder M, Bellomo R, Lipman J. Pharmacological principles of antibiotic prescription in the critically ill. Anaesth Intensive Care. 2002;30:134–44.
18. Thomas JK, Forrest A, Bhavnani SM, Hyatt JM, Cheng A, Ballow CH. Pharmacodynamic evaluation of factors associated with the development of bacterial resistance in acutely ill patients during therapy. Antimicrob Agents Chemother. 1998;42:521–57.
19. Garnacho-Montero J, Garcia-Garmendia JL, Barrero-Almodovar A, Jimenez-Jimenez FJ, Perez-Paredes C, Ortiz-Leyba C. Impact of adequate empirical antibiotic therapy on the outcome of patients admitted to the intensive care unit with sepsis. Crit Care Med. 2003;31:2742–51.
20. Heenen S, Jacobs F, Vincent JL. Antibiotic strategies in severe nosocomial sepsis: why do we not deescalate more often? Crit Care Med. 2013;40:1404–9.
21. Garnacho-Montero J, Gutiérrez-Pizarraya A, Escoresca-Ortega A, et al. De-escalation of empirical therapy is associated with lower mortality in patients with severe sepsis and septic shock. Intensive Care Med. 2014;40:32–40.
22. Mokart D, Slehofer G, Lambert J, et al. De-escalation of antimicrobial treatment in neutropenic patients with severe sepsis: results from an observational study. Intensive Care Med. 2014;40:41–9.
23. Pelletier SJ, Crabtree TD, Gleason TG, et al. Waiting for microbiologic data to direct therapy against nosocomial infections in febrile surgical patients: are outcomes worsened? Arch Surg. 1999;134:1300–7.
24. Hranjec T, Rosenberger LH, Swenson B, et al. Aggressive versus conservative initiation of antimicrobial treatment in critically ill surgical patients with suspected intensive-care-unit-acquired infection: a quasi-experimental, before and after observational cohort study. Lancet Infect Dis. 2012;12:774–80.
25. Goeschel CA, Bourgault A, Palleschi M, et al. Nursing lessons from the MHA keystone ICU project: developing and implementing an innovative approach to patient safety. Crit Care Nurs Clin North Am. 2006;18:481–92.
26. Vandijck DM, Labeau SO, Secanell M, Rello J, Blot SI. The role of nurses working in emergency and critical care environments in the prevention of intravascular catheter-related bloodstream infections. Int Emerg Nurs. 2009;17:60–8.
27. Rodríguez-Baño J, Bischofberger C, Álvarez-Lerma F, et al.
Vigilancia y control de Staphylococcus aureus resistente a meticilina en hospitales españoles. Documento de consenso GEIH-SEIMC y SEMPSPH. Enferm Infecc Microbiol Clin. 2008;26:285–98.
28. Sunenshine RH, Liedtke LA, Fridkin SK, Strausbaugh LJ. Infectious Diseases
Society of America Emerging Infections Network. Management of inpatients Montero et al. Critical Care (2015) 19:114 Page 7 of 8 colonized or infected with antimicrobial-resistant bacteria in hospitals in the United States. Infect Control Hosp Epidemiol. 2005;26:138–43. 
29. Martínez Martínez, Eliecer Cano M, Domínguez MA et al. (2007) Cultivos de vigilancia epidemiológica de bacterias resistentes a los antimicrobianos de interés nosocomial En: E. Cercenado y R. Cantón.
Procedimientos de Microbiología Clínica. Recomendaciones de la Sociedad Española de Enfermedades Infecciosas y Microbiología Clínica (SEIMC). Available at. 30. López-Pueyo MJ, Barcenilla-Gaite F, Amaya-Villar R, Garnacho-Montero J. Multirresistencia antibiótica en unidades de críticos. Med Intensiva.  2011;35:41–53.
31. Nseir S, Grailles G, Soury-Lavergne A, Minacori F, Alves I, Durocher A. Accuracy of American Thoracic Society/Infectious Diseases Society of America criteria in predicting infection or colonization with multidrugresistant bacteria at intensive-care unit admission.
Clin Microbiol Infect. 2010;16:902–8.
32. Nseir S, Di Pompeo C, Diarra M, et al.
Relationship between immunosuppression and intensive care unit-acquired multidrug-resistant bacteria: a case–control study. Crit Care Med. 2007;35:1318–23.
33. McKinnell JA, Miller LG, Eells SJ, Cui E, Huang SS. A systematic literature review and meta-analysis of factors associated with methicillin-resistant Staphylococcus aureus colonization at time of hospital or intensive care unit admission. Infect Control Hosp Epidemiol. 2013;34:1077–86.
34. Boyce JM, Pittet D. Guideline for Hand Hygiene in Health-Care Settings: recommendations of the Healthcare Infection Control Practices Advisory Committee and the HICPAC/SHEA/APIC/IDSA Hand Hygiene Task Force. Infect Control Hosp Epidemiol. 2002;23:S3–40.
35. Siegel JD, Rhinehart E, Jackson M, Chiarello L. Guideline for isolation precautions: Preventing transmission of infectious agents in health care settings. Am J Infect Control. 2007;35:S65–164.
36. Larson EL, Quiros D, Lin SX. Dissemination of the CDC’s Hand Hygiene Guideline and impact on infection rates. Am J Infect Control. 2007;35:666–75.
37. Goodman ER, Platt R, Bass R, Onderdonk AB, Yokoe DS, Huang SS. Impact of an environmental cleaning intervention on the presence of methicillinresistant Staphylococcus aureus and vancomycin-resistant enterococci on surfaces in intensive care unit rooms. Infect Control Hosp Epidemiol. 2008;29:593–9.
38. Carling PC, Parry MF, Bruno-Murtha LA, Dick B. Improving environmental hygiene in 27 intensive care units to decrease multidrug-resistant bacterial transmission. Crit Care Med. 2010;38:1054–9.
39. Matlow AG. Attitudes and beliefs, not just knowledge, influence the effectiveness of environmental cleaning by environmental service workers. Am J Infect Control. 2012;40:260–2.
40. Wendt C, Schinke S, Württemberger M, Oberdorfer K, Bock-Hensley O, von Baum H. Value of whole-body washing with chlorhexidine for the eradication of methicillin-resistant Staphylococcus aureus: a randomized, placebo-controlled, double-blind clinical trial. Infect Control Hosp Epidemiol. 2007;28:1036–43.
41. Borer A, Gilad J, Porat N, et al. Impact of 4% chlorhexidine whole-body washing on multidrug-resistant Acinetobacter baumannii skin colonization among patients in a medical intensive care unit. J Hosp Infect. 2007;67:149–55.
42. Popovich KJ, Hota B, Hayes R, Weinstein RA, Hayden MK. Effectiveness of routine patient cleansing with chlorhexidine gluconate for infection prevention in the medical intensive care unit. Infect Control Hosp Epidemiol. 2009;30:959–63.
43. Climo MW, Sepkowitz KA, Zuccotti G, et al. The effect of daily bathing with chlorhexidine on the acquisition of methicillin-resistant Staphylococcus aureus, vancomycin-resistant Enterococcus, and healthcare-associated bloodstream infections: results of a quasi-experimental multicenter trial. Crit Care Med. 2009;37:1858–65.
44. Derde LP, Dautzenberg MJ, Bonten MJ. Chlorhexidine body washing to control antimicrobial-resistant bacteria in intensive care units: a systematic review. Intensive Care Med. 2012;38:931–9.
45. Derde LP, Cooper BS, Goossens H, et al. Interventions to reduce colonization and transmission of antimicrobial-resistant bacteria in intensive care units: an interrupted time series study and cluster randomised trial. Lancet Infect Dis. 2014;14:31–9.
46. Climo MW, Yokoe DS, Warren DK, et al. Effect of daily chlorhexidine bathing on hospital-acquired infection. N Engl J Med. 2013;368:533–42.
47. Singh A, Goering RV, Simjee S, Foley SL, Zervos MJ. Application of molecular techniques to the study of hospital infection. Clin Microbiol Rev. 2006;19:512–30.
48. Sabat AJ, Budimir A, Nashev D, et al. Overview of molecular typing methods for outbreak detection and epidemiological surveillance. Euro Surveill. 2013;18:20380.
50. Hawe CS, Ellis KS, Cairns CJ, Longmate A. Reduction of ventilator-associated pneumonia: active versus passive guideline implementation. Intensive Care Med. 2009;35:1180–6.51.
53. Montero et al. Critical Care (2015) 19:114 Page 8 of 8



MISCELANEAS BREVES - 157Fecha: 3/10/2015



Ejercicio y corazón

                                                                       Sharma S, Merghani A, Mont L