Encuentra

El fenotipo celular invasivo metastásico, generalidades

El fenotipo celular invasivo metastásico, generalidades

Durante la migración, las células tumorales modificarán su fenotipo dependiendo de la matriz extracelular y de las células del estroma que encuentran a su paso durante este proceso.  El fenotipo invasivo de la célula tumoral puede ser visto como una pérdida de la regulación de la conducta invasiva; actualmente se considera que el fenotipo invasivo le permite a la célula perder sus propiedades adhesivas, inducir la proteólisis local y migrar.

La manera en que interaccionan las células metastásicas con la matriz extracelular es muy similar a la manera en la que lo haría una célula normal; sin embargo, la interacción que se da entre las células tumorales y los componentes de la matriz extracelular puede, en algunas ocasiones, se anormal debido, entre otras cosas, a la influencia que tiene sobre ellas algunos factores de crecimiento presente en el medio.

Ahora tenemos el conocimiento de que esta condición migratoria, de las células metastásicas, no es exclusiva del fenotipo maligno, sino que es imitada por un amplio grupo de células normales y que ocurre en un grado limitado en otras condiciones fisiológicas y patológicas.
Todos los procesos tumorales invasivos dependen de la adquisición de este fenotipo celular que a su vez es consecuencia de la pérdida del control de la conducta invasiva en las células endoteliales activadas.  

Por ejemplo, en la inflación las células endoteliales son activadas por los mediadores de este proceso; una vez activada una célula endotelial sintetiza moléculas de membrana que facilitan la adhesión de leucocitos polimorfonucleares al endotelio, luego de esto, los leucocitos comienzan el proceso migratorio conocido como diapedesis seguidos de los macrófagos. Esta similitud radica en que en ambos casos es la matriz extracelular la que se debilita, en el caso de la inflación por compuestos como la bradiquinina y los leucotrienos y en la metástasis por la acción de las proteasas. Sin embargo, en ambos casos son las células endoteliales las que permiten esta primera unión.

Las interacciones entre una célula tumoral y la matriz capacitan a dicha célula en ciertos puntos de la cascada celular invasiva, lo que provoca que la célula desarrolle la metástasis con éxito. Las células tumorales poseen un comportamiento patológico debido a alteraciones en los mecanismos que regulan el proceso invasivo.

♦ Bibliografía:
  1. David Flores, Emilio Castellnos y Luis Benitez, Las proteasas en la progresión del cáncer, Gac Méd Méx Vol. 146 No. 2, 2009. 
  2. Fidler IJ, Naito S, Pathak S. Orthotopic implantation is essential for the selection, growth and metastasis of human renal cell cancer in nude mice. Cancer Metastasis 1990; 9: 149-165.

La fase inicial de la condensación cromosómica requiere de la fosforilación de la subunidad CAP-D3 de la condensina mediada por Cdk1

La fase inicial de la condensación cromosómica requiere de la fosforilación de la subunidad CAP-D3 de la condensina mediada por Cdk1

Argumento

El paso de la célula hacia la mitosis está caracterizado por un aumento de la condensación de los cromosomas. Este proceso depende de una cinasa llamada Cdk 1, pero la forma en la que Cdk 1 provoca la hiper condensación aun no está completamente dilucidada.
Aquí mostramos como la condensación cromosómica en profase depende de la fosforilación del complejo Condensina II mediada por Cdk 1.
Hemos identificado al residuo Tirosina 1415 de la subunidad CAP-D3 como un sitio de fosforilación de Cdk 1, el cual es crucial, ya que lo requiere la cinasa Polo (Plk1) para localizar los ejes de los cromosomas a través de los cuales se enlazará y de este modo hiperfosforilizar al complejo Condensina II.

Introducción

Existen dos tipos del complejo Condensina que comparten un tipo de proteínas llamadas Structural maintenance chromosome o Smc que producen la agregación primaria de los cromosomas, estas son de dos tipos: Smc2 (también conocida como CAP-E) y Smc4 (también conocida como CAP-C) que son comunes a todos los tipos de Condensina.
En los humanos existen dos tipos de Condensina, tipo I y tipo II. La condensina I se localiza en el citoplasma hasta que la envoltura nuclear se desintegra y es solo allí cuando inicia la condensación, es bueno recordar que cuando la envoltura nuclear cae los cromosomas ya tienen cierto grado de agregación. La Condensina I tiene proteínas de diferente tipo a las Smc conocidas como CAP-D3, CAP-G y CAP-H (también conocida como Kleisina-γ). La condensina II se localiza en el núcleo y actúa en los cromosomas en fases tempranas de la profase por lo tanto la condensina II  es indispensable para la condensación inicial de los cromosomas.
Esta asociación entre condensinas y cromosomas requiere de la interacción de una quinasa mitótica llamada Aurora B, este requerimiento está muy extendido entre los metazoarios.
En la gemación de las levaduras su único tipo de condensina (que es similar al tipo I de los vertebrados) es fosforilada por la cinasa Aurora IPL1. En estos organismos se ha encontrado que la cinasa Polo Cdc5 fosforila a la condensina y estimula el súper enrollamiento de los cromosomas.

Resultados

El análisis de la espectrometría en masa por inmunoprecipitados usando anticuerpos para la subunidad CAP-D3 de la condensina II a identificado a la cinasa Polo Plk 1 como un candidato de proteína de unión a condensina II.
Un modelo de interacción de Plk 1 en el que se une a las proteínas por vía del motivo de unión fosfo-Ser/Thr es comúnmente llamado dominio de la caja Polo (PBD). Esto es confirmado por los diversos análisis realizados como Far-western blotting y PAGE.
Debido a la fosforilación de PAC-D3 depende tanto de Cdk n 1 y 1 PLK, pensamos que una de estas quinasas podría mediar CAP-D3 Thr 1415 fosforilación, ya que estas quinasas se saben para mediar la fosforilación del motivo de unión a PBD.
Se ha demostrado bioquímicamente que una elevada concentración de CAP-D3  en una región del cromosoma está ligado a una mayor concentración de Plk 1, esto ocurre en fases tempranas de la mitosis. Es importante resaltar que esta localización es perturbada en ausencia de CAP-D3 pero este enriquecimiento no disminuye en la región cinetocórica o del huso acromático.

Rhizobium como simbiosoma en plantas leguminosas


Rhizobium como simbiosoma en plantas leguminosas

Es un hecho que todos los organismos se encuentran en interdependencia de una u otra manera; sin embargo, algunos de ellos llevan esta interrelación un poco más lejos. Hablamos de los simbiontes, una clase de organismos en los que esta interacción es tan estrecha que se requieren mutuamente para poder vivir. En este artículo de revisión, hablaremos sobre una pareja específica de simbiontes: las leguminosas y los Rhizobium.

El género Rhizobium agrupa a una clase de bacteria (Gram-negativa) que tienen la capacidad de “fijar” el nitrógeno ambiental al suelo. Estas bacterias viven en asociación con un grupo de plantas llamadas leguminosas (uno de los grupos más grandes de plantas). 

Antes de explicar cómo se produce el proceso de fijación de nitrógeno debemos entender por qué es importante este proceso. No todos los compuestos que poseen nitrógeno pueden ser asimilados por las plantas y no todas las plantas asimilan los mismos tipos de compuestos. La mayor parte del nitrógeno se encuentra en la atmósfera como nitrógeno molecular; en este estado es imposible de utilizar; por lo que requiere de un proceso bioquímico o físico llamado fijación en el que se “habilita” al nitrógeno. En los ecosistemas agrícolas, las bacterias Rhizobium, asociadas con aproximadamente 200 especies de plantas leguminosas, son las principales fijadoras de nitrógeno.(1) Debemos entender que el nitrógeno es un componente indispensable en las proteínas y, por ello, indispensable para la vida.

La relación entre estos organismos se produce en las células de las raíces de las leguminosas mediante la formación de simbiosomas. Estos simbiosomas son organelas que se producen por una diferenciación de la membrana celular llamada membrana peribacteroidal (PBM, por sus siglas en inglés). (2) A través de ella se da el intercambio de nutrientes; principalmente, formas de carbono reducido como suministro energético para las bacterias y nitrógeno fijado desde las bacterias hacia las plantas.

La formación de los nódulos requiere de la expresión coordinada de genes tanto de la planta como de la bacteria. Las señales químicas sintetizadas por las bacterias están basadas en aminoácidos modificados, homoserina lactona (AHL, por sus siglas en inglés), que llevan un sustituyente de cadena acil variable. Los estados iniciales de la formación requieren de la expresión de genes de la nodulación (Nod) por los rhizobios. El gen nodABCFELMN está involucrado en la síntesis de señales (factores Nod) que inducen a formación de nódulos. Estas señales son derivados acetilados de un oligo polímero de N-acetil glucosamina. NodF y NodE determinan el tipo de grupo acilo en la primera molécula de glucosamina del oligómero; mientras que NodL lleva a cabo una acetilación en la posición O del primer residuo. En paralelo, los Rhizobium secretan proteínas dependientes de calcio (llamadas NodO) que, probablemente, interactúan con las células a través de las membranas para estimular el proceso de infección. En los siguientes estadios el contacto entre las membranas celulares lleva un rol muy importante. La superficie bacteriana posee lipopolisacáridos (LPS), aunque aún no ha sido estudiado a fondo el rol de estos compuestos. (3) También es importante para la fijación un conjunto de transportadores de electrones (citocromos). Algunos compuestos producidos por las plantas, importantes para la simbiosis son algunas glicoproteínas y glicolípidos. Usando técnicas especiales se han localizado estos compuestos en el espacio peribacteroidal y en la membrana peribacteroidal.

BIBLIOGRAFÍA:

1. Tomas Smith, Robert Smith. Ecología. Sexta edición. Madrid: Pearson Educación; 2007. 506 p. 

2. Michael K. Udvardi, David A. Day. Metabolite transport across symbiotic membranes of legume nodules. Plant Physiol. 1997; 

3. Prof. Allan Downie, Prof. Nick Brewin. Rhizobium leguminosarum [Internet]. [citado el 23 de octubre de 2016]. Disponible en: https://www.jic.ac.uk/science/molmicro/Rhizo.html



El origen de la vida (Clair Edwin Folsome)

El origen de la vida (Clair Edwin Folsome)

No muchos libros brindan una visión general de cuáles fueron las posibles vías de evolución. Este libro narra la historia de la vida en la tierra, desde la composición del universo y la formación de la tierra hasta la aparición de los primeros organismos vivientes. A continuación, resumiremos de manera concisa cada uno de los capítulos de este importante y clásico libro.

Capítulo 1 – La química del universo

El universo tiene un origen común que puede ser rastreado en el tiempo. Toda la materia de la que está compuesta el universo deriva de los productos de las reacciones nucleares del hidrógeno. 
El hombre en su afán de investigación trata de comprender todo fenómeno de la naturaleza, muchas veces lo hace con una meta específica, es decir, con una finalidad, pero otras solo lo hace por pura curiosidad. Determinar la composición de una estrella posible es fundamental para el estudio de los cuerpos celestes, conocer la composición de una estrella nos puede servir desde para determinar la edad de la estrella hasta analizar si el planeta es apto o no para la vida.
Para hallar la identidad de los elementos que componente una estrella se analiza su espectro de emisión en una placa fotográfica. Es posible observar un espectro de emisión de una sustancia al energizar una muestra de material de energía térmica. Así, una barra de hierro calentada al rojo vivo recién sacada de la fuente emite un resplandor característico que no posee ningún otro elemento. Este mismo fenómeno es aplicado para el estudio de la naturaleza de los astros; ya que los gases en él ya se encuentran energizados basta capturar un haz de la luz emitida por él, analizarlo mediante la separación de cada uno de ellos por un prisma de modo que los rayos separados incidan en una placa fotográfica dejando su huella “digital” en él. Decimos huella digital porque cada elemento químico posee un espectro de emisión único que no encuentra parangón con algún otro elemento de modo que si conocemos el espectro de emisión de una sustancia de composición desconocida al analizar el espectro de emisión de la sustancia podremos determinar qué elementos están comprendidos en dicha sustancia.

Otra manera de averiguar identidad de un gas es colocar una fuente luminosa detrás de la muestra y analizar el espectro de absorción del gas en una placa fotográfica, este es complementario al espectro de emisión en todos los casos. 

Todos los cuerpos celestes tienen básicamente la misma composición química (H, He, Li, etc.) porque estos elementos son los que se forman con mayor frecuencia en una reacción de fusión nuclear, más bien, son los que se forman más fácil. Los elementos más pesados también están presentes pero debido a la dificultad de formarlos la frecuencia con la que los podríamos encontrar es muy baja.
Los científicos desde hace muchos años se han preguntado si el universo tenía las características que posee ahora desde su origen o si por el contrario va cambiando con el tiempo. El efecto Doppler nos puede ayudar con este problema. 
El efecto Doppler se deduce a partir de la observación experimental de que un mismo sonido (onda) dependiendo de la velocidad que tenga el cuerpo que lo produce y de su dirección va a tener una longitud de onda distinta. El caso más familiar es el de la sirena de una ambulancia que mientras se acerca se va haciendo más agudo, pero cuando se aleja se va haciendo más grave. Otro caso similar es el de dos carros de policía en marcha situados uno detrás del otro. Si nos encontramos entre ambos coches escucharemos dos sonidos diferentes, pero en cuanto los autos se detengan el sonido de ambos se uniformizará a uno diferente al de ambos.

En el caso del espectro visible de la radiación electromagnética, si el objeto se aleja, su luz se desplaza a longitudes de onda más largas, produciéndose un corrimiento hacia el rojo. Si el objeto se acerca, su luz presenta una longitud de onda más corta, desplazándose hacia el azul. Esta desviación hacia el rojo o el azul es muy leve incluso para velocidades elevadas, como las velocidades relativas entre estrellas o entre galaxias, y el ojo humano no puede captarlo, solamente medirlo indirectamente utilizando instrumentos de precisión como espectrómetros.

De esta manera al analizar un número determinado de astros determinamos que el universo se encuentra en expansión. Este fundamento físico convierte en irrefutable a esta postura.
La fusión de hidrógeno en helio es la principal fuente de energía de los astros, esta fusión no es completamente conservativa ya que una parte de la masa se pierde en forma de energía. Dicha energía toma la forma de energía térmica y energía radiante, principalmente.

La edad del universo puede calcularse mediante el conocimiento de la abundancia de los elementos y las velocidades de las reacciones nucleares de las estrellas, esta oscila entre 10 000 y 13 000 millones de años.  

Capítulo 2 – Edad de las estrellas y de los planetas

El equilibrio interno de una estrella cambia a medida que envejece y se va produciendo la fusión del hidrógeno, debido a esto los intentos iniciales de cálculo de la edad de las estrellas resultaron errados.
Las fuerzas gravitacionales hacia el núcleo son contrarrestadas por las fuerzas hidrostáticas que tienden hacia la expansión; si la temperatura disminuye también disminuyen las fuerzas de expansión y la estrella se contrae, si aumenta la temperatura se produce el efecto contrario y la estrella se expande. 
Las grandes estrellas poseen más masa, masa que contiene átomos de hidrógeno que pueden fusionarse y dar lugar a átomos de helio. Como cada fusión nuclear libera cierta cantidad de energía a mayor número de fusiones mayor cantidad de energía de la estrella, esta energía puede estar expresada como energía térmica. Pero una temperatura elevada induce la fusión de los átomos de hidrógeno, es decir, a mayor temperatura mayor velocidad de fusión y como la temperatura depende de la masa: a mayor masa mayor velocidad de fusión que no es nada más que el consumo de hidrógeno. En consecuencia, las estrellas grandes son más calientes y tiene un tiempo de vida menor que las pequeñas. 
Cuando cualquier estrella ha consumido el 10% de su hidrógeno inicia su temperatura disminuye y se produce una expansión. 
El color de cada estrella es indicativo de su temperatura: el azul corresponde a las estrellas muy calientes, el blanco a las calientes y el rojo a las estrellas relativamente frías. 
La siguiente imagen es una gráfica que muestra la relación entre el color de la estrella y la magnitud de la estrella; recibe el nombre de diagrama de Hertzsprung-Russell e incluye estrellas de todo tamaño y edad. 

La mayor parte de las estrellas están situadas en la parte recta del diagrama (secuencia principal), son las que están fusionando su hidrógeno con solo ligeros cambios de equilibrio.
Considerando todos estos factores podemos determinar la edad de una estrella; se han analizado numerosas estrellas y ninguna de ella supera los 11000 millones de años, por lo que podemos conjeturar que posiblemente esta sea la edad media del universo.
Con aceleraciones similares, las partículas más pesadas adquieren velocidades inferiores que las partículas más ligeras; como consecuencia de ello los isótopos más ligeros participan con mayor facilidad en las reacciones químicas rápidas que discurren en un solo sentido. Con lo que una mayor proporción de los compuestos tendrá a los isotopos más livianos de los átomos.  
Los mecanismos de descomposición de radio isotopos son los siguientes: emisión alfa, emisión beta y captura electrónica.
 

Capítulo 3 – Formación del sistema planetario

Nuestro sistema planetario se formó a partir de una nebulosa, esta pasó por diversos cambios gravitacionales que ocasionaron el aumento en la densidad (compresión) de la nebulosa, luego de esto se fracciono constamente hasta alcanzar una masa apropiada. 

Una vez formada esta fracción las partículas comenzaban a atraerse por magnetismo, fuerzas electrostáticas, gravedad, etc. una vez formada la protoestrella esta comenzaba a eliminar parte de su masa en erupciones y ráfagas que arrojaban materiales al espacio. Estos materiales, por efecto de la gravedad comienzan a orbitar a la protoestrella y poco a poco comienza a aglomerarse y formar planetas que orbitan esta protoestrella.
Los planetas que orbitan una estrella se clasifican en tres tipos, según la distancia a la estrella, terrestres (internos) y gaseosos (externos). En el caso particular del sistema solar el cinturón de asteroides delimita estos dos espacios. 
Los planetas terrestres poseen una mayor temperatura, como consecuencia de esto el vulcanismo constante expulsa la mayoría de gases volátiles nuevamente hacia el espacio. Es por eso que los elementos que son tan comunes en el universo son raros en los planetas terrestres. Los planetas de la zona externa son fríos, esta temperatura ocasiona la presenten, en forma de cristales, de elementos volátiles.

Capítulo 4 – Origen y evolución de la atmósfera terrestre

Los planetas de tipo terrestre han sido formados principalmente por agregados no volátiles refractarios; entre ellos, el hidrógeno, sin embargo, este no es el más abundante, ¿por qué?
Se puede dividir la vida de la tierra en dos periodos el de vulcanismo primario (4500 – 4000 millones) y vulcanismo hawaiano. 
El vulcanismo primario tuvo lugar en una tierra que carecía de núcleo definido, el interior del planeta se encontraba bajo constantes reordenamientos de la materia constituyente. Durante este estadio la mayor cantidad de hierro metálico se encontraba mezclado en toda la extensión de la tierra. 
Se han estimado las concentraciones de los diversos gases de esta época y se ha llegado a la conclusión de que el metano era una especie sumamente rara y que el nitrógeno y vapor de agua representaban el grueso de gases. 
Los gases volcánicos representaban la principal fuente de gases para la atmósfera y de ellos dependía en gran medida la composición de tal.
Composición de los gases volcánicos de la atmósfera primitiva de la Tierra


A diferencia del estado actual de la atmósfera, la atmósfera primitiva carecía de una capa de ozono definida debido a que la concentración de oxígeno era muy baja en ese periodo.  Debido a esto, los rayos ultravioletas incidían directamente sobre la Tierra sobre una superficie casi desnuda. Los rayos ultravioletas representaron la principal fuente energética de la Tierra primitiva seguida de las descargas eléctricas, la radioactividad, el calor volcánico y por último los impactos meteóricos.
Hace 4000 millones de años el interior semifundido de la Tierra sufrió una importante reorganización. El hierro metálico y el níquel, que ante5riromente habían estado mezclados con otros minerales en el manto superior, se reforman y pasa a forman un núcleo de hierro y níquel fundido sobre el cual yace un nuevo manto y corteza.
Este estado en el que ya se encuentra un núcleo bien estructurado recibe el nombre de era volcánica hawaiana.
En la era hawaiana el agua era 100 veces más abundante que el hidrógeno, 40 más abúndate que el CO, el nitrógeno se emitía en forma casi incesante y el metano aún se encontraba en concentraciones casi nulas.

De los gases dominantes el agua se condensa en forma de lluvia, la mayor parte del CO2 se disuelve en los océanos que se forman rápidamente y el nitrógeno se acumula en la atmosfera. 
Este estadio de evolución de la atmosfera empezó hace unos 4 000 millones de años y duro 1500 2000 millones de años; terminó cuando empezó la síntesis biológica de O2 que era la única diferencia entre la atmósfera actual y la atmósfera de la era hawaiana.

Capítulo 5 – La evolución química

Hace 4500 millones de años las condiciones terrestres experimentaron un notable cambio, de modo que propiciaron la formación de nuevos gases por la reacción de algunos ya existentes. 
Visto sin mayor detenimiento, las concentraciones de metano y amoniaco deberían haber sido mayores en este periodo inicial; sin embargo, esto no sucede por el hecho de que existen otros elementos que reaccionan con los precursores del metano y amoniaco; por ello, cuando analizamos material de este periodo no encontramos las concentraciones que ingenuamente calculamos en base a las emisiones volcánicas y demás.
Con una atmósfera más consolidada es posible que se den múltiples reacciones que forman, a su vez, un número considerable de nuevos compuestos, entre ellos destacan los compuestos alquitranados que, según se piensa, son los precursores para la vida.
Para comprender como se formó la vida debemos conocer la composición de los gases de la atmósfera de la época; para esto se llevaron a cabo numerosos experimentos; entre los más destacados experimentos se encuentran el de Urey y Miller, el de Edward Ander y el de Calvin. Todos los científicos citados reproducen un aspecto de las condiciones ambientales de la época. A continuación, se expondrán brevemente sus postulados.
Urey y Miller se concentraron en la energía proporcionada por las tormentas eléctricas. Su experimento consistía en colocar una serie de gases, como amoniaco y metano, en un recipiente herméticamente sellado que junto con una caldera de agua hirviendo simulaban las condiciones atmosféricas reinantes en esa época. Al energizar estos gases reaccionan entre sí dando lugar a compuestos orgánicos. 

A partir de este experimento se han desarrollado una serie de variantes que confirman que la generación de compuestos orgánicos esenciales para la vida no requiere de un organismo vivo como se creía sino solo de ciertas condiciones energéticas y atmosféricas.
Productos orgánicos encontrados luego de la descarga eléctrica sobre una mezcla de NH4, NH3, y H2 (las concentraciones son relativas al ácido fórmico) 

Edward Ander y su equipo se focalizaron en la energía calorífica proporcionada por los volcanes. Su experimento consistía en calentar una muestra de gases, en un recipiente sellado, en presencia de catalizadores inorgánicos. El resultado del análisis de los gases luego del proceso calórico apuntaba, nuevamente, a que la creación de compuestos orgánicos y polímeros a partir de compuestos inorgánicos era independiente de la vida.

Productos orgánicos encontrados luego de la síntesis térmica. Los gases como CO2, NH3, y H2 son calentados a 900°C y acompañados de catalizadores inorgánicos.

Bar-Nun ha demostrado que ondas de choque similares a las producidas por caída de meteoritos pueden interaccionan con los componentes gaseoso de la atmósfera primitiva dado lugar a la formación de aminoácidos y de productos intermedios reactivos. 
Melvin Calvin expuso una mezcla de amoniaco, metano y agua a una fuente radioactiva. El resultado indicaba la presencia de compuestos vinculados con la vida.  
Todos estos experimentos y otros más indican que la evolución química fue un hecho innegable.   

Capítulo 6 – Una definición de vida

Ahora nos corresponde una labor igual de ardua: definir la vida. 
Muchos científicos esquivaron el verdadero problema de definir que es la vida y, en vez de eso, comenzaron a nombrar una serie de características de lo que ellos consideraban como vida. Pasaban los años y se iban encontrando cada vez más excepciones para esta serie de características por lo que este intento de definición resultaba inadmisible.
La definición más lograda debe tratar temas como los son: la fuente de energía, el medio para la vida, los componentes básicos de la vida y su interrelación, etc. Esta definición nos la brindan Onsager y Morowitz:
“Vida es la propiedad de la materia que resulta del acoplamiento de los ciclos de los bioelementos en solución acuosa, activados fundamentalmente por la energía radiante en orden a alcanzar la máxima complejidad”
A continuación, explicaremos cada punto de esta definición. 
Cuatro elementos componen la mayor parte de la materia viva en la tierra, estos son el carbono, el hidrógeno, el oxígeno, el nitrógeno, el fósforo y el azufre. Estos seis elementos son conocidos como bioelementos y desempeñan roles muy importantes en el mantenimiento de la vida. Cada uno de estos bioelementos posee un ciclo, en un organismo vivo estos ciclos se acoplan, es decir, se interrelacionan dado lugar al entramado bioquímico que sostiene la vida.
Todas las reacciones que se dan en un organismo vivo dependen del agua, es decir, para que las reacciones procedan requieren de un medio acuoso.
Como ya habíamos explicado, la principal fuente de energía que tiene el planeta es la radiante del sol, esto también se cumple en los seres vivos. Es la energía radiante la que brinda el empuje inicial a los ciclos biológicos; aunque pensemos que algunos ciclos están desligados de la energía radiante lo que sucede es que no estamos observando el cuadro completo, ya que si todos los ciclos están interrelacionados y la mayoría de ellos depende de la energía radiante podemos decir que los ciclos como conjunto depende de la energía radiante del Sol.
La selección natural orienta el desarrollo de toda criatura viva. Analizando muchos casos notamos que en la mayoría de ellos pareciera que cada vez que la especie se va desarrollando su complejidad va aumentando.
Esta definición satisface todos los puntos citados y, además, expone una realidad: los organismos vivos pareciera que están encaminados a complejizarse cada vez más. 

Capítulo 7 – Los protobiontes

Ahora analizaremos el camino que tuvo que recorrer el conjunto de compuestos orgánicos para convertirse en un ser vivo.
Entre lo químico y lo biológico se hallan los protobiontes, estos presentan, de manera incipiente, algunas características que se utilizaron para describir la vida. El origen de esa forma primitiva de vida es debatible y un tema de controversia. A continuación, se exponen las principales teorías desarrolladas por los investigadores mejor entendidos.
Oparin propone la existencia de un coacervado que poco a poco desarrollaba una genética y un metabolismo. El principal problema de su postulado es lo fantástico que resultan las condiciones de formación de los coacervados (elevada concentración, pH estable, etc.). 
Coacervados:

Otro de los científicos que desarrollaron este tema fue Sidney Fox. Su experimento consistía en calentar una mezcla de aminoácidos secos y sumergirlos en agua, al hacer esto podían aislarse de la mezcla unos polímeros llamados protenoides. Los protenoides son moléculas parecidas a las proteínas sintetizadas formadas al azar. Cuando se enfrían, las disoluciones de protenoides forman unas esferas parecidas a células ancestrales. 
Microesferas de protenoides:

Nuevamente este postulado requiere de condiciones muy específica que lo convierten en improbable de ocurrir en la naturaleza.
J.D. Benal propuso una solución al problema de la concentración; esta era una especie de arcilla que se unía a compuestos orgánicos y que al precipitar aumentaba la concertación de biomoléculas en ese sector. Esta teoría es rebatida ya que estas arcillas expondrían de sobremanera a las biomoléculas formadas a la energía de los rayos ultravioleta, estos las destruirían.
Actualmente se presenta como posibilidad, y casi un hecho, la formación de protobiontes a partir de los lípidos que se encontraban flotando en el mar y que al formar esferas precipitaban al fondo marino, lo que los salvaba de la radiación ultravioleta. 
Los microfósiles son la evidencia de que la vida surgió hace 300 millones de años, los estromatolitos son un tipo de microfósiles que resultan de la aglutinación de microalgas. 
Estromatolitos:

Capítulo 8 – Autómatas orgánicos

Independientemente de su origen estos protobiontes requirieron una serie de condiciones que garanticen su existencia, estas son: una barrera entre el medio exterior y lo propio, un adecuado aprovechamiento de la luz, que se logró por medio de porfirinas, y un medio estable de nutrientes y de condiciones físicas. 

A medida que el protobionte va acumulando una serie de polímeros adquiere nuevas capacidades: dividirse y tener un metabolismo basal. Esta última propiedad solo podría ser heredada a uno de los protobiontes hijos, ya que carecían de una maquinaria genética. Cualquier innovación le otorgaría un gran aumento de potencial evolutivo como lo fue en su momento el paso a la vida heterótrofa. 
Nuevamente nos enfrentamos al problema de la concentración, problema que es resuelto por el acoplamiento de una molécula energética básica, el pirofosfato; este logra vencer las barreras de la baja concentración y activa las moléculas para que reaccionen entre sí.  
Por ejemplo, la siguiente reacción muestra la activación de la glicina por parte del pirofosfato

Capítulo 9 – Genética  

Los polinucleótidos formaron el aparato genético básico, estos tienen la característica de duplicarse de forma exacta emparejando sus bases nitrogenadas con los nucleótidos libres del medio. Esta molécula, ADN, podría agruparse con otra que posea la misma secuencia y enrollarse entre sí, esto aumentaría la estabilidad del polímero. 
Existen una serie de proteínas que facilitan la replicación y garantizan la integridad del polinucleótido. A continuación se presenta la maquinaria molecular de dicho proceso en una célula.

La secuencia básica fue el ADN ya partir de ella se forma el ARN, este consiste en una cadena de poliribonuecleótidos. 
El ARN puede cumplir las siguientes funciones: autoenrrollarse y con la ayuda de una serie de proteínas formar un orgánulo llamado ribosoma que favorece la unión del ARN mensajero y el ARN transferencia, este subtipo se conoce como ARN ribosomal.
  
El ADN de transferencia cumple la función de vincular un aminoácido con una secuencia específica encontrada en el ARN mensajero, por medio de sitios de unión específicos y con la ayuda de proteínas. Específicamente, el ARN de transferencia se una con el aminoácido mediante la secuencia CCA. En el ARN mensajero existen unas secuencias especiales que no cumplen con una función especifica de transmisión de mensaje sino de iniciar la traducción y detenerla; en el primer caso la secuencia codifica el aminoácido metionina en eucariotas y formilmetionina en procariotas. Las secuencias de pare no codifican algún aminoácido sino cumplen la función de desestabilizar el complejo Ribosoma-ARN y terminar la traducción.

El código genético parece ser universal: un triplete que codifica un aminoácido, la secuencia de este triplete es la misma en todas las formas de vida; el motivo de esto se desconoce, pero si encontrásemos una muestra de vida extraterrestre el problema sería resuelto.
A continuación se presenta la relación entre los codones y aminoácidos, esta traducción es universal.

Capítulo 10 – Origen de la protocélula genética

Todas las protocélula tiene un problema en común; aunque por casualidad una protocélula contuviera una proteína útil, no habría modo posible de asegurar que habría ocurrido con esa proteína para que pasara a las protocélulas hijas. No existía una reproducción en exceso de los puntos heredables específicos que podrían estar sujetos a la selección natural.
El éxito de una gran biomolécula está relacionado con el control, estabilización, la obtención de un lugar específico en la célula: un nicho molecular.
Para empezar, debemos hacer dos suposiciones: la existencia de un pequeño prototipo de ARN molde llamado ARN generador que funciona tanto como molde que como almacén de información y la existencia de un proto-ARN de transferencia. 

Para comprender el acoplamiento de los aminoácidos a los proto-ARN de transferencia se propone la existencia de un tramo pequeño de la secuencia de bases proximal al extremo abierto actuaba como discriminador. Una cierta secuencia de bases discriminadora podría seleccionar una clase de aminoácidos por carga, pH, fuerzas electrostáticas, etc.
La regla de un nivel trófico común (todos los organismos utilizan de las mismas unidades básicas) no condiciona compartir el mismo sistema de lectura. La universalidad es la clave genética para la simbiosis entre los cloroplastos, mitocondrias y las células eucariotas porque esta les otorga el ARNt a los simbiontes. Aunque se traten de hacer suposiciones sobre el motivo de la universalidad del código genético aún no tenemos las suficientes pruebas para encontrar una respuesta.

Capítulo 11 – Evolución de las protocélulas genéticas

Los generadores circulares, de 12 bases, puede ser replicados continuamente dando lugar a moléculas mucho mayores que también puede circularizarse. Para que suceda esto hemos de asumir la presencia de algunos péptidos que catalicen la formación de oligonucleótidos. Este proceso crea dos grupos de moléculas nuevas y más grandes: las circulares y las líneas permutadas.

Los generadores grandes han de contener la secuencia del generador primitivo muchas veces duplicada y algunas de estas dúplicas tendrán errores de replicación ya que el proceso de replicación es inexacto. 
Las presiones de selección en favor de células que pudieran modificar un compuesto obtenible aquí debieron ser muy grandes; por ello, si una protocélula tenía una mutación en su generador que la hacía más apta esta aumentaría su frecuencia en gran medida.
El nivel trófico común solo exige un conjunto común de moléculas pequeñas, no parece necesitar la universalidad de las rutas metabólicas y pese a ello esto es una realidad. Esto nos dirige a pensar que: toda la vida procede de una sola raza de población o que toda ruta metabólica de nuestra bioquímica actual utiliza para la optimización evolutiva aquellas moléculas que son únicamente estables, este último planteamiento es el más aceptado.
A varios metros de profundidad, en los pantanos, la mayor parte de la radiación UV es absorbida por la propia agua, esto no ocurre con la luz visible. Este fenómeno natural produce una selección intensa para la utilización de la luz visible del sol, para lo que hace falta clorofila y un sistema enzimático de transporte de electrones. 
A medida que aparecen células fotosintéticas que usan la luz visible se libera O2, cuando las concentraciones en el mar llegan a un punto el O2 logra difundirse a la atmosfera. Cuando las concentraciones de O2 llegan al 3% resulta posible el aprovecharlo como receptores de electrones altamente eficiente en un metabolismo aerobio.
Estos y muchos otros acontecimientos podrían haber ocurrido una vez que apareciera un aparato genético y un sistema de síntesis de proteínas para dar lugar a poblaciones celulares sobre las cuales pudo actuar la selección natural. 

Capítulo 12 – Conjeturas

Los sistemas biológicos requieren enantiómeros específicos: solo se usan los aminoácidos de la serie L, del RNA solo D ribosa, etc. Las propiedades físicas de algunos enantiómeros son muy distintas, por ejemplo: la solubilidad, los puntos de fusión, etc. Las moléculas quirales usadas fueron seleccionadas durante la evolución primaria por sus propiedades un poco más ventajosa en esa época. 


Estas selecciones representan unos minutos cruciales de la evolución que, una vez pasados, se fueron para siempre por lo que actualmente esta selección no tiene sentido aparente. 

Capítulo 13 – Realidades

Los compuestos muy reactivos, como son los azúcares, nunca aparecen en los experimentos generales de la evolución química. En el mundo abierto y amplio de los pequeños pantanos cálidos, los azúcares debieron tener muchos rincones en los que esconderse de las sustancias con las podrían reaccionar, rincones que no existen en un experimento de evolución química. 
Quizá lleguemos a ser una especie de ingeniosos monos que ha diseñado computadoras aún más ingeniosas para realizar el trabajo real del universo; y aunque suceda todo esto, habremos de dejar a nuestras computadoras un legado muy humano, quizás el más humano de todos: la curiosidad. 

Señalización celular

Señalización celular

Por lo general, las células se comunican entre sí mediante moléculas mensajeras extracelulares. Los mensajeros extracelulares pueden viajar una distancia corta y estimular células en estrecha proximidad con el origen del mensaje, o viajar por todo el cuerpo y potencialmente estimular células alejadas del origen. En el caso de la señalización autocrina, la célula que produce el mensajero expresa receptores en su superficie, los cuales pueden responder al mensaje. En consecuencia, las células que liberan el mensaje se estimulan a sí mismas. En la estimulación paracrina las moléculas mensajeras solo viaja distancias cortas por el espacio extracelular hasta células en estrecha proximidad con la que genera el mensaje. Las moléculas mensajeras paracrinas suelen estar limitadas en su capacidad de viajar por el cuerpo porque son inherentemente inestables, o son degradadas por enzimas, o se unen a la matriz extracelular. Finalmente, durante la señalización endocrina, las moléculas mensajeras llegan a sus células diana o blanco a través del torrente sanguíneo. Los mensajeros endocrinos también se conocen como hormonas, y suelen actuar en células blanco localizadas en sitios distantes del cuerpo.

autocrina
Diferentes tipos de señalización
Las células reaccionan solamente a un mensaje extracelular particular si expresan receptores que reconocen específicamente y se unen a la molécula mensajera.  La molécula que se une al receptor recibe el nombre de ligando. Diferentes tipos celulares poseen diferentes receptores de membrana y también diferentes tipos celulares que comparten un mismo tipo de receptor desarrollan respuestas celulares diferentes ante un mismo ligando. Por ejemplo, los hepatocitos y las células del músculo liso comparten el mismo receptor adrenérgico beta 2 (adrenérgico quiere decir que es activado por la adrenalina) que al ser activados dan lugar a respuestas específicas diferentes: mientras que el hepatocito incrementa la degradación de glucógeno el músculo liso se relaja. Por lo tanto, la respuesta celular no depende solo de los receptores que expresan en su membrana sino de la maquinaria intracelular que traduce dicho mensaje.
En casi todos los casos, la molécula mensajera extracelular se une a un receptor en la superficie exterior de la célula reaccionante; dicha interacción induce a un cambio de conformación en el receptor que hace que la señal se retransmita a través de la membrana, al dominio citoplasmático del receptor. Existen dos vías para la transmisión del mensaje dependiendo del tipo de receptor que active.
  1. Un tipo de receptor transmite una señal del dominio citoplasmático a una enzima cercana, la cual genera un segundo mensajero. Como esto induce una reacción celular mediante la generación de un segundo mensajero, la enzima se conoce como efector . Los segundos mensajeros son sustancias pequeñas que casi siempre activan (o inactivan) proteínas específicas.
  2. Otro tipo de receptor transmite una señal mediante la transformación de su dominio citoplasmático en una estación de reclutamiento para las proteínas de señalización celular.
Cada proteína en la vía de señalización actúa al modificar la conformación de proteínas ulteriores de la serie, fenómeno que activa o inhibe tal proteína.
La fosforilación proteínica cambia el comportamiento de las proteínas en varias formas particulares. La fosforilación activa o inactiva una enzima, aumenta o disminuye las interacciones proteínicas, induce una proteína a desplazarse de un compartimento subcelular a otro, o actúa como señal que induce la degradación proteínica.
Al final, las señales transmitidas por estas vías de señalización llegan a las proteínas blanco que interviene en procesos subcelulares básicos. Este proceso general, en el que la información propagada por moléculas mensajeras extracelular se traduce en cambios que ocurren dentro de una célula, se conoce como transducción de señal.
Bibliografía:
Gerald Karp et al., Biología celular y molecular, séptima edición, 2014, pág 618-620

Transporte de iones y moléculas pequeñas a través de las membranas celulares

Transporte de iones y moléculas pequeñas a través de las membranas celulares

Resumen 

La membrana plasmática es una barrera permeable selectiva entre la célula y el ambiente extracelular. Sus propiedades de permeabilidad aseguran que las moléculas esenciales como los iones, la glucosa, los aminoácidos y los lípidos entren fácilmente en la célula, los intermediarios metabólicos permanezcan en ella y los compuestos de desecho la abandonen. En pocas palabras, la permeabilidad selectiva de la membrana plasmática le permite a la célula mantener un ambiente interno constante. Los movimientos de casi todas las moléculas y iones a través de las membranas celulares son mediados por las proteínas transportadoras de membrana inmersas en una bicapa fosfolipídica. Debido a que diferentes tipos celulares requieren distintas mezclas de compuestos de bajo peso molecular, la membrana plasmática de cada tipo de célula contiene un conjunto especifico de proteínas transportadoras que solo permiten que pasen ciertos iones y moléculas. De manera similar los orgánulos dentro de la célula a menudo poseen ambientes internos diferentes del que tiene el citosol circundante y las membranas de los orgánulos contienen proteínas trasportadoras específicas que mantienen esta diferencia.
Comenzamos nuestro abordaje revisando algunos principios generales del transporte a través de las membranas y distinguiendo tres clases principales de proteínas de transporte.    

Panorama general de trasporte de membrana

La bicapa fosfolipídica, la unidad de las biomembranas, es esencialmente impermeable a la mayoría de las células solubles en agua, a los iones y a la propia agua. 

Algunas moléculas atraviesan las membranas por difusión pasiva:

Los gases, como el O2 y el CO2, y las moléculas polares pequeñas no cargadas, como la urea y el etanol, pueden moverse con rapidez por difusión simple a través de una membrana artificial compuesta de fosfolípidos puros  o fosfolípidos y colesterol. Estas moléculas pueden también difundirse a través de las membranas celulares sin la ayuda de proteínas transportadoras. No se gasta energía metabólica porque el movimiento va desde una concentración alta de moléculas hacia una baja, es decir, a favor de la gradiente de concentración química. Tales reacciones de trasporte son espontaneas debido a que tiene un valor positivo ∆S  (incremento de la entropía) y por ende un  ∆G  negativo (disminución de energía libre).
La velocidad relativa de difusión de cualquier sustancia a través de una bicapa fosfolipídica pura es proporcional a  su gradiente de concentración a través de la capa y a su hidrofobicidad y su tamaño; las moléculas cargadas también son afectadas por un potencial eléctrico a través de la membrana. Cuando una bicapa fosfolipídica separa dos compartimentos acuosos, la permeabilidad de las membranas puede determinarse con facilidad si se añade una cantidad pequeña de material radiactivo a un compartimento y se mide su velocidad de aparición en el otro compartimento. Cuanto mayor sea la gradiente de concentración de la sustancia, más rápida será la velocidad de difusión a través de la bicapa.
La hidrofobicidad de una sustancia se mide por su coeficiente de partición K, la constante de equilibrio para su partición entre aceite y agua. Cuanto más alto es el coeficiente de partición de una sustancia, mas soluble se está en lípido. El primer paso limitante de la velocidad en el transporte de difusión pasiva es el movimiento de una molécula desde una solución acuosa hacia el interior hidrófobo de la bicapa, que se asemeja al aceite en sus propiedades químicas. Por esta razón mientras más hidrófoba es una molécula, más rápido se difundirá a través de una bicapa fosfolipídica pura.
Si una sustancia transportadora lleva una carga neta, su movimiento está influido por su gradiente de concentración como pro el potencial de membrana, el potencial eléctrico (voltaje) a través de la membrana. La combinación de estas dos fuerzas, denominadas gradiente electroquímica, determina las direcciones de transporte energéticamente favorables de una molécula cargada a través de una membrana. El potencial eléctrico que existe a través de la mayoría de las membranas celulares es el resultado de un ligero desequilibrio en la concentración  de iones cargados positiva y negativamente en los dos lados de la membrana.  


Las proteínas de membrana median el transporte de la mayoría de las moléculas y de todos los iones a través de las membranas  

Como se evidencia en la imagen anterior muy pocas moléculas y ningún ion pueden cruzar una bicapa fosfolipídica pura a velocidades apreciables por difusión pasiva. Así, el transporte de la mayoría de las moléculas hacia adentro y hacia afuera de la célula requiere de la asistencia de proteínas de membrana especializadas. Aun el transporte de moléculas con un coeficiente de partición relativamente grande es acelerado con frecuencia por proteínas específicas porque su transporte por difusión pasiva no es lo suficientemente rápido para cumplir las necesidades celulares.
Todas las proteínas de transporte son proteínas transmembrana que contienen múltiples segmentos que atraviesan la membrana y generalmente son hélices  α. Se piensa que al formar una vía recubierta de proteínas a través de la membrana, las proteínas de transporte permiten la movilización de sustancias hidrófilas sin entrar en contacto en el interior hidrófobo de la membrana. 
Las bombas impulsadas por ATP son ATPasas que utilizan la energía de la hidrolisis de ATP para movilizar iones o moléculas pequeñas a través de una membrana en contra de una gradiente de concentración química o potencial eléctrico. Este proceso, conocido como transporte activo, es un ejemplo de reacción química acoplada.
 Las proteínas canal transportan agua o tipos específicos de iones y moléculas hidrófilas pequeñas a favor de su concentración o del gradiente potencial eléctrico.  Este transporte asistido por proteínas se denomina difusión facilitada. Las proteínas canal forman un pasaje hidrófilo a través de la membrana por la cual se mueven simultáneamente múltiples moléculas de agua o iones, es una única fila a gran velocidad. Algunos  canales están abiertos la mayor parte del tiempo; son canales no regulados. In embargo, la mayoría de canales iónicos se abren solo es respuesta a señales químicas o eléctricas especificas; son los canales regulados.
Los transportadores se han clasificados en tres tipos. Los uniportadores transportan un único tipo de moléculas a favor de su gradiente de concentración mediante difusión facilitada. Por el contrario, los antiportadores y los simportadores acoplan el movimiento de un tipo de ion o de molécula en contra de su gradiente de concentración con el movimiento de uno o más iones o moléculas a favor de la gradiente de concentración.
Al igual que las bombas de ATP, las cotransportadores median las reacciones en las cuales una reacción energéticamente desfavorable esta acoplada a una reacción energéticamente favorable. Las bombas de ATP utilizan energía proveniente d la hidrolisis de ATP, mientras que las cotransportadores utilizan la energía almacena en una gradiente electroquímica. Este último proceso se denomina transporte activo secundario.
   
 Varias características distinguen el transporte uniporte de la difusión pasiva:

El movimiento de la glucosa mediado por proteínas y de otras moléculas hidrófilas pequeñas a través de una membrana, conocido como transporte uniporte, exhibe las siguientes propiedades distintivas.
  1. La velocidad de difusión facilitada por los uniportadores es mucho más alta que la difusión pasiva a través de una bicapa fosfolipídica.
  2. Debido a que las moléculas transportadoras nunca  entran en el núcleo hidrófobo de la bicapa fosfolipídica, el coeficiente de partición K en irrelevante.
  3. El transporte ocurre a través de un número limitado de moléculas uniportadoras, en lugar de por toda la bicapa fosfolipídica. En consecuencia, hay una velocidad de trasporte máxima Vmáx que se logra cuando la gradiente de concentración a través de la membrana es muy grande y cada uniportador está trabajando a su máxima velocidad.
  4. El transporte es específico. Cada uniportador transporta solo una única especie d moléculas o un único grupo de moléculas estrechamente relacionadas. Una medida de la afinidad de un trasportador por su sustrato es Km , que es la concentración de sustrato a la cual el transporte es la mitad del máximo.
 Bibliografía:
Lodish, Biología celular y molecular, quinta edición

Control de la traducción

Control de la traducción

Así como existe un sistema implicado en el control de la transcripción también existe otra serie de complejos mecanismos que regulan la traducción. El control de la traducción comprende muy diversos mecanismos reguladores que afectan la formación de proteínas a partir de los mRNA transportados previamente del núcleo al citoplasma. Los factores considerados bajo este rubro regulatorio general incluyen: la localización del mRNA en ciertos sitios dentro de la célula, si un mRNA se traduce o no y con qué frecuencia y la vida media de dicha molécula, una propiedad que determina cuántas veces se traduce el mensaje.
Los mecanismos que controlan la traducción suelen operar por medio de interacciones entre  mRNA específicos, microRNA y varias proteínas presentes dentro del citoplasma. 
Se sabe que el mRNA maduro tiene cuatro regiones: un casquete de metilguanosina en el extremo 5`, una cola poli A en el extremo 3`, dos regiones no codificantes en los extremos del RNA conocidas como 5` UTR (untranslated region) y 3` UTR y la región codificante en sí. 
mRNA
Estructura del mRNA, se ha tomado como ejemplo
al mRNA de la globina beta humana
Aunque durante muchos años las UTR se ignoraron, se descubrió que las UTR contienen secuencias que la célula utiliza para mediar el control de la traducción. En las células eucariotas diversos procesos biológicos importantes dependen de la traducción de mRNA almacenados que no se traducen de inmediato después de entrar al citoplasma. El paso de la fase inactiva a la fase activa del mRNA depende de la longitud de la cola poliA y de las proteínas inhibidoras que se unen a él; es decir, para que un mRNA de traduzca es necesario retirar las proteínas inhibidoras que se han unido a él y incrementar la longitud de la cola poliA.

Comienzo de la traducción

Las células procariotas poseen mRNA policistrónicos que codifican numerosos polipéptidos, en tanto que los mRNA eucariotas son por lo general monocistrónicos y codifican una sola proteína.
El inicio de la traducción eucariota es un fenómeno muy sencillo: el primer triplete AUG siempre constituye el codón de iniciación. La subunidad menor del ribosoma se ensambla con la estructura de la metilguanosina 5` y se desplaza por el transcrito hasta llegar al codón de inicio. Se conocen unos cuantos ejemplos en los que un sitio de entrada  del ribosoma interno (IRES) permite que el ribosoma comience en una AUG diferente al antes mencionado, pero en la mayor parte de los casos sucede de esa manera.
Cuando se somete a una célula humana a ciertos estímulos estresantes, se activa una proteína cinasa que fosforila el factor de iniciación eIF2, lo cual bloquea la traducción. El complejo eIF2-GTP lleva al tRNA iniciador hasta la subunidad menor del ribosoma después de los cual es transformado en eIF2-GDP y se libera. La versión fosforilada de eIF2 no puede cambiar su GTP por GDP, lo cual es necesario para que el eIF2 participe en otra ronda de inicio de la traducción.
Otros mecanismos influyen en la rapidez del la traducción de mRNA específicos por medio de la acción de proteínas que reconocen elementos determinados en UTR de dichos mensajeros. Uno de los ejemplos mejor estudiados comprende el mRNA que codifica la proteína ferritina (proteína que secuestra átomos de hierro). La traducción de los mRNA de ferritina es regulada por un represor específico, denominado proteína reguladora de hierro cuya actividad depende de la concentración de hierro libre dentro de las células. El represor se una a la región 5` UTR del mRNA bloqueando así la traducción.  En concentraciones bajas el represor está activo pero en concentraciones altas el hierro se una a la proteína cambiando su conformación a un estado inactivo, de modo que el mRNA que codifica la ferritina se encuentra libre de represores y se sintetiza la proteína ferritina que secuestrará los iones de hierro. Este es un ejemplo de retroalimentación negativa.
En el caso de las células procariotas el inicio es más complejo, porque hay múltiples codones de comienzo en un mensaje policistrónico y los ribosomas deben detectar sitios precisos. Desde el punto de vista de la regulación, cabría anticipar que todos los marcos de lectura de un mensaje policistrónico se traducen al mismo tiempo; sin embargo esto es falso, ya que el nivel de traducción depende de la complementariedad que tenga el rARN 16 S de la subunidad menor con respecto a la secuencia de Shine-Dalgarno. Si son totalmente complementarias se espera que el nivel de traducción sea elevado pero si el grado de complementariedad es menor, entonces el nivel de traducción también será bajo y debido a esto dependiendo de la afinidad que tenga la secuencia Shine-Dalgarno del gen en cuestión la magnitud de la traducción que tendrá.

Localización citoplásmica de los mRNA

La información que regula la localización citoplásmica de un mRNA reside en la UTR 3`. Los microtúbulos, y las proteínas motoras que los utilizan como vehículos desempeñan una función importante en el transporte del mRNA hacia localizaciones específicas. Se piensa que los microfilamentos anclan los mRNA después que estos llegan a su destino final. La localización de los mRNA no se restringe a los huevos y los ovocitos, sino que ocurre en todas las células polarizadas.

Control de la estabilidad del mRNA

La longevidad de los RNA mensajeros depende de la longitud de sus colas de poli (A). Cuando un mRNA típico abandona el núcleo, contiene una cola de cerca de 200 residuos de adenosina. Cuando un mRNA permanece en el citoplasma, la longitud de su cola de poli (A) tiende a reducirse en forma gradual conforme se degrada por efecto de una exonucleasa conocida como desadenilasa. No se observan efectos en la estabilidad del mRNA hasta que la cola se reduce a alrededor de 30 residuos. Una vez que esto ocurre, el mRNA suele degradarse con rapidez por otras dos vías. En una de éstas la degradación del mRNA comienza en su extremo 5` después de la remoción de la cola de poli (A) ubicada en el extremo 3`. El hecho de que esta última estructura proteja el capuchón 5` de l a molécula sugiere que los dos extremos del mRNA se mantiene en proximidad cercana.  Una vez que la cola 3` se elimina, se elimina el capuchón del mensajero y este se degrada en dirección 5` a 3`. La desadenilación, el retiro del capuchón y la degradación 5` a 3` ocurren dentro d e pequeños gránulos citoplasmáticos transitorios llamados cuerpos P.  En la vía alterna de degradación la delección de la cola de poli (A) es seguida por la digestión continua del mRNA desde su extremo 3` hacia el 5`. Esta tarea la efectúa un complejo conocido como exosoma.
mRNA
Mecanismos de degradación del mRNA

Función de los microARN en el control de la traducción

Los miRNA actúan sobre todo mediante la unión a sitios de la UTR 3` de sus mRNA blanco. Se conoce que la enzima implicada en la formación de este miRNA es la enzima Dicer. La ausencia de dicha enzima provoca fallos en el desarrollo de los embriones impidiendo el paso más allá de la gástrula.
Se piensa que los microRNA ejercen su actividad reguladora por medio de mecanismos múltiples:

  1. Las cantidades de mRNA guardan relación inversa con los niveles de miRNA complementarios. Esto se debe a que, según un modelo, la unión de miRNA a su mRNA diana recluta exonucleasas del extremo 3`, lo cual acorta la cola de poli (A) y después induce la degradación.
  2. Los miRNA pueden actuar al inhibir la traducción d mRNA. Gran parte de los datos se orientan al hecho de que los miRNA actúan en el paso en que comienza la traducción, pero que también puede bloquear la elongación.
  3. Algunos estudios sugieren que los miRNA pueden reclutar proteasas que degradan  proteínas recién formadas durante la traducción.
Una forma mediante la cual los miRNA ayudan en las respuesta a las condiciones estresantes es inhibiendo la traducción de mRNA específico y procurando que estos permanezcan en su sitio hasta que algún estímulos externo libere la inhibición y permite reanudar la traducción. En este modelo los mRNA inhibidos permanecen en los cuerpos P.

Bibliografía:
Gerald Karp et al., Biología celular y molecular, séptima edición, 2014, pág 536-540

Ósmosis

Ósmosis 

I. Introducción:

Una célula no es una isla, es un componente dinámico que interacciona con su medio modificándolo y adaptándose a él. 
La ósmosis es el proceso mediante el cual el agua pasa a través de una membrana semipermeable a favor del gradiente de concentración, es decir, si tenemos sustancias disueltas de un lado de la membrana, por ejemplo el izquierdo, y del otro lado tenemos una baja o nula cantidad de sustancias el agua se desplazará desde el lado derecho de la membrana hacia el lado izquierdo debido a que las moléculas de agua que interactúan con el soluto no son consideradas en el equilibrio de difusión a través de la membrana entonces tendríamos más moléculas que entran al lado izquierdo que las que salen; por ello pareciera que el agua se estaría desplazando hacia la región izquierda a la membrana. Esto puede ser observado de manera más evidente en un tubo en "U" donde se coloca una mayor cantidad de soluto por una de las aberturas.

Una membrana semipermeable impide el paso de solutos pero permite el paso del agua.

II. Materiales de la práctica:

-Microscopio compuesto
-Laminas y laminillas
-Catáfilo de cebolla
-Solución de cloruro de sodio al 0.2%, 0.9% y 5%
-Hojas de elodea
-Goteros
-Gillette 

III. Procedimiento:

  • Medio isotónico:
  1. Coloque una gota de sangre sobre una lámina portaobjeto.
  2. Corte una sección del catafilo de una cebolla y colóquelo sobre una lamina portaobjetos.
  3. Coloque una hoja de elodea sobre una lámina portaobjetos.
  4. Añadir 1 gota de NaCl 0.9% a cada una de las láminas. Cubrir con laminilla.

Células sanguíneas huamanas, solución salina 0.9%. Aumento 1000X
Las células en medio isotónico no experimentan cambios en el volumen de agua que poseen ya que la concentración de sales en el medio extracelular es la misma que en el medio intracelular.
  • Medio hipertónico:
  1. Coloque una gota de sangre sobre una lámina portaobjeto.
  2. Corte una sección del catafilo de una cebolla y colóquelo sobre una lamina portaobjetos.
  3. Coloque una hoja de elodea sobre una lámina portaobjetos.
  4. Añadir 1 gota de NaCl 5% a cada una de las láminas. Cubrir con laminilla.
Allium cepa , catáfilo, solución salina 5%, aumento 400X.

Cuando las células se exponen a una medio hipertónico, es decir, cuando la concentración de sales es mayor en el medio extracelular el agua escapa de la célula. En las células vegetales, producto de la deshidratación la membrana plasmática, este fenómeno se llama plasmólisis. En las células animales se produce el mismo fenómeno aunque como las células animales carecen de pared celular la célula reduce su volumen, se "arruga", este fenómeno se denomina crenación.
  • Medio hipotónico:
Allium cepa, catáfilo, solución salina 0.2%, aumento 100X

  1. Coloque una gota de sangre sobre una lámina portaobjeto.
  2. Corte una sección del catafilo de una cebolla y colóquelo sobre una lamina portaobjetos.
  3. Coloque una hoja de elodea sobre una lámina portaobjetos.
  4. Añadir 1 gota de NaCl 0.2% a cada una de las láminas. Cubrir con laminilla.

Cuando una célula se expone a una solución hipotónica, es decir, la concentración de sales es mayor en el medio intracelular. El agua ingresa dentro de ella y aumenta su volumen. Las células vegetales 
poseen una pared celular que las protege de la lisis, por lo que la célula, en sí, se vuelve turgente. Por el contrario, las células animales carecen de esa protección por lo que el agua ingresa dentro de ellas hasta que la membrana celular se fractura y el agua escapa de ella. Este fenómeno se llama hemólisis en las células sanguíneas.

-Extraído y modificado de:
Guía de laboratorio de Biología celular UNMSM, Lazo F, Suyo M, Vivas D, Lima, 2016, pág 26-31 .

Energía y entropía en el metabolismo, fundamento físico

Energía y entropía en el metabolismo, fundamento físico

Presentación:

El metabolismo de un ser vivo está compuesto por una seria de vías metabólicas que a su vez están compuestas por reacciones químicas ordenadas que procesan los sustratos en una dirección, de modo que luego de una vía metabólica se producen sustancias que el organismo necesita. Pero… ¿estas reacciones químicas obedecen algún parámetro o el proceso es completamente arbitrario? La respuesta es no. La cinética enzimática obedece las leyes que rigen al universo, estamos hablando de las leyes de la termodinámica; por ellas, una reacción va en un sentido y no en otro y los procesos de la naturaleza en su conjunto se producen de una manera determinada. Por ejemplo, ¿se han preguntado por qué los objetos que están a una altura mayor a la del nivel de referencia caen hacia posiciones más bajas pero no sucede lo contrario, es decir, que un objeto que se encuentre en el suelo se eleve hacia una altura mayor?, la respuesta a esta pregunta tiene mucho que ver con las leyes de la termodinámica. 

En este trabajo discutiremos la forma en la que las leyes de la termodinámica influyen en el proceso metabólico de los seres vivos y las posibles aplicaciones que tienen en los campos de la medicina y biología.

Fundamento físico


La energía se define como la capacidad para realizar un trabajo. Esta puede presentarse de diferentes formas (eléctrica, radiante, química, nuclear, etc.). La termodinámica estudia los cambios en la energía que acompaña a los fenómenos del universo. A continuación se explicará de que tratan los principales planteamientos de la termodinámica. 

Primera ley de la Termodinámica:


La primera ley d la termodinámica es fundamental para entender los procesos termodinámicos y es una extensión del principio de conservación de la energía; amplía ese principio para incluir el intercambio de energía tanto por transferencia de calor como por trabajo mecánico, e introduce el concepto de la energía interna de un sistema. (Hugh D. Young, 2009)


“La energía no se crea ni destruye, solo se transforma.”

Las máquinas sirven para este fin, transformar la energía; el caso más común es la transformación de la energía eléctrica en energía mecánica en un motor. Para que las transformaciones energéticas puedan ser estudiadas se divide el universo en: sistema (queremos analizar) y entorno. Estas transformaciones energéticas que pudiesen ocurrir en los sistemas se ven reflejadas en el cambio de calor en un sistema o en la realización de trabajo. A continuación definiremos estos conceptos. 

Si colocamos un cuerpo fría junto con un cuerpo caliente, de modo que dichos cuerpos se encuentren en contacto térmico, el cuerpo caliente se enfría y el cuerpo frío se calienta hasta que establecen un equilibrio térmico. La interacción que causa estos cambios de temperatura es básicamente una transferencia de energía de una sustancia a otra. La transferencia de energía que se da exclusivamente por una diferencia de temperatura se denomina transferencia de calor, en tanto que la energía así transferida se llama calor.

Consideremos el trabajo realizado por un sistema durante un cambio de fase, en este caso de volumen. Al expandirse el gas amplía sus fronteras y como por definición el trabajo es el producto de la fuerza con el desplazamiento, al ser el desplazamiento positivo (se expande) se estaría realizando un trabajo positivo. Pero, ¿qué significa esto? Significa que el sistema invierte energía en el movimiento de las fronteras, en otras palabras, gasta energía. 

Si complementamos esto con la definición de calor, cuando ocurre una transferencia positiva de calor (“calor que entra”) el sistema gana energía, tendremos la ecuación general:





Siendo Δ U la variación en la energía interna, W el trabajo realizado y Q el calor. Esta ecuación es la primera del de la termodinámica, que es una generalización del principio de conservación de la energía para incluir la trasferencia de energía por calor y por trabajo mecánico. (Ibáñez, 2009) 


Segunda ley de la Termodinámica:


Muchos procesos termodinámicos se efectúan en un solo sentido, como el ejemplo con el que empezamos el trabajo, pero no en el inverso. La explicación a estos fenómenos tiene que ver con la segunda ley de la termodinámica. 

Todos los procesos termodinámicos que se dan en el universo son procesos irreversibles y espontáneos. Los fenómenos del universo tienes a proceder de un estado de mayor energía a uno de menor energía (cada vez se dispone de menos energía para efectuar trabajo). La segunda ley de la termodinámica explica esta “preferencia” en el desarrollo de los procesos termodinámicos. (Hugh D. Young, 2009)

A pesar de esta preferencia existen estados en los que los procesos termodinámicos se tornan reversibles. Estos procesos reversibles se denominan procesos en equilibrio, con el sistema siempre en equilibrio termodinámico. Estos procesos reversibles son una idealización que nunca podrá ser lograda pero podemos aproximarnos lo suficiente al estado de equilibrio de modo que se logre un proceso en cuasi equilibrio que requiera un aporte de energía casi imperceptible. 

La energía cinética macroscópica está asociada a movimientos organizados y coordinados de muchas moléculas; en tanto que la transferencia de calor implica cambios de energía en un movimiento molecular desordenado, aleatorio. Por lo tanto, la conversión de energía mecánica en calor implica un aumento de la aleatoriedad o del desorden. (Hugh D. Young, 2009) 

Una máquina térmica es aquella que convierte la energía calorífica en energía mecánica, trabajo. Por experiencia sabemos que no es posible diseñar una máquina térmica que realice trabajo con una eficiencia del 100%. Esta imposibilidad es tomada como la base de un planteamiento, postulado por Kelvin y Planck, de la segunda ley de la termodinámica:


“Es imposible que un sistema efectúe un proceso en el que absorba calor de una fuente de temperatura uniforme y lo convierta totalmente en trabajo mecánico, terminando en el mismo estado en que inició”

En otras palabras una maquina nunca es 100% eficiente, siempre va a haber una pérdida de energía. Existe un planteamiento alterno de la segunda ley, propuesto por Clausius


“Es imposible que un proceso tenga como único resultado la transferencia de calor de un cuerpo frío a uno más caliente”
Llamamos a este planteamiento de “refrigerador”. Ambos planteamientos son completamente equivalentes. Si pudiéramos construir una máquina térmica que trabaje con 100% de eficiencia que suministre el trabajo para impulsar un refrigerador ordinario esto equivaldría a un refrigerador que funcione sin trabajo y su tenemos un refrigerador que funcione sin trabajo y lo acopláramos a un máquina térmica ordinaria esto equivaldría a una máquina térmica con 100% de eficiencia. De esta manera, construir un dispositivo que viole una forma de la primera ley puede servir para construir un dispositivo que viole la otra forma de la segunda ley. Si es posible violar una forma es posible violar la otra. 

La primera ley niega la posibilidad de crear o destruir energía; la segunda limita la disponibilidad de la energía y las formas en que puede usarse y convertirse. 

Entropía:


En el texto hemos mencionado procesos que se efectúan naturalmente en la dirección de desorden creciente. El flujo de calor de una región caliente a una frío aumenta el desorden ya que se pierde el orden que se tenía inicialmente, región caliente/región fría, esta disposición se pierde cuando se alcanza el equilibrio térmico. 

La adición de calor a un cuerpo aumenta su desorden porque aumenta la energía cinética de las moléculas que lo componen, es decir, la aleatoriedad del movimiento molecular. 

Los gases tienden a expandirse porqué al aumentar el volumen del gas aumenta la aleatoriedad de posición de las moléculas que los componen, en un mayor volumen hay más posibilidades de posición. 

El aumento en el desorden se mide mediante la entropía, la entropía es una medida cuantitativa del desorden. Si añadimos calor a un gas ideal mientras la temperatura se mantiene constante la energía interna de dicho gas se mantiene constante 


Así que 

El cambio fraccionario de volumen es una medida del aumento del desorden debido a que mientras el volumen crece también crece el espacio por el que se pueden desplazar las moléculas, es decir, se incrementan las posibilidades de movimiento aleatorio. Como el cambio fraccionario de volumen es proporcional a la derivada del calor sobre la temperatura (n y R son constantes) introducimos el símbolo S para la entropía del sistema que definimos como: 
Para procesos isotérmicos reversibles tenemos que 
 
La unidad de entropía en el sistema internacional es el Joule/Kelvin

Esta ecuación expresa lo que sucede en la naturaleza: si tenemos a temperatura baja y le añadimos calor su entropía aumenta considerablemente pero si tenemos un cuerpo con una temperatura alta el aumento en la entropía será menor para la misma cantidad de calor suministrada que en el caso anterior porque sus moléculas ya tenían movimiento molecular. 

Al igual que en el caso de la energía interna, el cambio en la entropía depende solo del estado inicial y final del proceso y no del recorrido. 

También podemos calcular los cambios en la entropía en procesos irreversibles en los que no nos servirían las ecuaciones anteriores. Para eso será necesario inventar un recorrido entre los estados inicial y final que aunque no sea el mismo que el original esté compuesto por procesos reversibles que si pueden ser calculados mediante las ecuaciones anteriores. Con ello, el cambio en la entropía será numéricamente el mismo, aunque el proceso no sea el mismo. 

La entropía comparte otra característica que la energía interna: no puede ser calculada directamente pero si puede ser calculada su variación. Al igual que en el caso anterior asignaremos un valor arbitrario a la entropía de un sistema específico que tomaremos como referencia y luego calcularemos la entropía de cualquier sistema en referencia a él. 

A diferencia de la energía la entropía no se conserva. La entropía de un sistema asilado puede cambiar, pero nunca puede disminuir. En el caso especial de un proceso reversible, los aumentos y disminuciones en la entropía son iguales. Si se consideran todos los sistemas que participan en un proceso no se puede dar el caso en el que la entropía disminuya. Este es otro planteamiento de la segunda ley de la termodinámica que es equivalente al planteamiento de refrigerador (Clausius) o máquina (Kelvin-Planck). 

Tomemos un ejemplo de Física universitaria, Hugh D. Young, 2009. 

Si tenemos un recipiente con agua fría y otro con agua caliente podríamos haber usado estas aguas como la fuente caliente y la fuente fría de una máquina térmica para realizar trabajo. Al mezclar ambas aguas perdemos esta oportunidad. El agua tibia nunca se separará en porciones caliente y fría; lo que se pierde no es energía sino posibilidad de realizar trabajo: oportunidad. Por lo tanto, cuando la entropía aumenta, la energía está menos disponible, y el Universo se vuelve más aleatorio. 

Podemos realizar un cálculo microscópico de la entropía S de un sistema al igual que con la energía interna. La diferencia es que la entropía no es algo que pertenezca a cada partícula sino una medida del desorden en su totalidad. 

Para cualquier sistema macroscópico, el estado más probable es el que tiene el mayor número de estados microscópicos correspondientes, y es también el estado macroscópico con el mayor desorden y la mayor entropía. Un estado macroscópico es una generalidad de la composición de una sustancia mientras que un estado microscópico es el estado individual de las moléculas que componen una sustancia 

Sea w el número de posibles estados microscópicos para un estado macroscópico dado. Entonces, puede demostrarse que la entropía en un estado macroscópico es: 

Siendo k la constante de proporcionalidad de Boltzmann. Como muestra la ecuación al aumentar el número de posibles casos también aumenta la entropía. El valor más pequeño de w es 1, por lo que la entropía nunca podrá ser negativa.

En la práctica resulta imposible calcular w, no obstante, podemos usar esta ecuación para calcular la diferencia de entropía en un sistema: 

Entalpía:

Ahora presentaremos una nueva función termodinámica de un sistema llama entalpía (H), la cual se define por medio de la ecuación 
 
Donde U es la energía interna del sistema, P es la presión y V es el volumen del sistema. Tanto la E, P y V son funciones de estado, es decir, los cambios en ellos dependen solo de los estados inicial y final, no de los intermedios. Por lo tanto, la también depende solo de los estados inicial y final, es decir, H es una función de estado - como aclaración, definimos a una función de estado como aquella magnitud física que caracteriza el estado de un sistema en equilibrio. 

Para cualquier proceso el cambio de entalpía es la siguiente: 
Y si la presión es constante
Pero en un proceso a presión constante también se cumple, por la primera ley de la termodinámica, que 

Si se comparan ambas ecuaciones, podemos ver que en un proceso a presión constante el cambio en la entalpía es el calor añadido o sustraído.

Resumiendo, la entalpia en una magnitud termodinámica que expresa la cantidad de energía que un sistema puede intercambiar con su entorno (sea pérdida o ganancia).

La entalpía global de una reacción es siempre igual a la diferencia de entalpía entre los productos y los sustratos. Sus unidades son los Joules (J).

Si al producirse la reacción se libera energía, la entalpía de los productos disminuye. Este tipo de reacción se denomina exotérmica. Si absorbe energía, se denomina endotérmica.

El caso más típico de entalpía es la llamada entalpía termodinámica. De esta cabe resaltar la energía de Gibbs, que se corresponde con la entalpía libre, mientras la entalpía molar es aquella que representa una mol de la sustancia constituyente del sistema.

Clases de entalpía:

  •  Entalpía estándar: 
La entalpía estándar de formación es la variación de entalpía que acompaña la formación de 1 mol de una sustancia en su estado estándar a partir de sus elementos constituyentes en su estado estándar (la forma más estable de un elemento a 1 atmósfera de presión y una determinada temperatura, que suele ser 298 K o 25 ºC).

Se denota por ΔHfo.

La variación de entalpía estándar de formación se mide en unidades de energía por cantidad de sustancia. Todos los elementos en sus estados estándares tienen una entalpía estándar de formación de cero, dado que su formación no supone ningún proceso.

La variación de entalpía estándar de formación se usa en termoquímica para encontrar la variación de entalpía estándar de reacción. Esto se hace restándole la suma de las entalpías estándar de formación de los reactivos a la suma de las entalpías estándar de formación de los productos. 



  • Entalpía de formación: 
La entalpía de formación será el calor que se produce o que se necesita para formar una mol de un compuesto a partir de sus elementos en su forma más estable.

La entalpía estándar de formación se denota como: 

Nos indica el calor de formación de los compuestos para condiciones estándares.

Por convención los valores de la Entalpías estándar de formación a 298 K, para elementos en su forma más estable, se les asigna el valor de cero.


  • Entalpía de reacción: 
Es el calor absorbido o desprendido en una reacción química.

Exotérmica --------libera ------ (-)

Endotérmica-------absorbe----- (+)

En el laboratorio, las reacciones químicas, se realizan a temperatura y presión constantes, por lo que el calor transferido por el medio ambiente es igual a la entalpía del sistema. 


Energía libre de Gibbs:

Según la segunda ley de la termodinámica la entropía del universo siempre tiende a aumentar. Por ello el químico Jhoel Gibbs ideo una forma de poder hallar los casos particulares que pudiesen formar parte de un sistema. La energía libre de Gibbs puede ser definida como la energía disponible para poder realizar un trabajo 


Donde G es la energía libre de Gibbs, H es la entalpía, T la temperatura absoluta, siendo esta constante y S la entropía. El cambio en la entalpía es el cambio en el contenido total de energía del sistema. 

Expresado de esta manera la ecuación proporciona una medida de la espontaneidad de un proceso particular. Permite predecir la dirección de un proceso y la magnitud que este tendrá. Todos los procesos espontáneos deberán tener una variación en la energía libre negativa, o sea que el proceso debe avanzar hacia un estado con menor energía libre. 

La energía libre es la energía disponible para realizar trabajo. Así, si en una reacción se libera energía útil este hecho garantiza la espontaneidad, sin importar que suceda con el resto del universo. 

Esta ecuación es viable solo cuando la presión y la temperatura asumen valores constantes, la atención se centra en los cambios del sistema. Dependiendo de los valores que asuma la energía de Gibs se puede asumir que: 

Si reordenamos la ecuación de la energía libre de Gibbs tenemos que
Esta presentación expone lo que sucede en la realidad: la variación en la energía total es igual a la suma de los cambios en la energía útil (delta de G) y en la energía que no está disponible en el sistema (temperatura por delta de S).

La variación estándar de la energía libre de una reacción específica es el valor de la variación de energía libre con las condiciones de 25ºC, 1 atm, pH 7,0 y concentraciones similares a 1 M para todos los reactivos y productos. La mayoría de las reacciones en un organismo difieren de esta condición, pero en base a ella podemos calcular la variación de la energía a condiciones “no estándar” como veremos a continuación. (Harvey, 2005)

Podemos estimar las variaciones de energía libre para las diferentes temperaturas y concentraciones iniciales utilizando la ecuación: 
Q es la relación inicial de productos y reactantes

Mientras mayor sea la concentración inicial de reactantes la relación entre productos y reactantes será más cercana a cero, lo que genera que el logaritmo natural tenga un valor negativo si Q es menor que uno. Esto tiene como resultado una menor variación positiva en la energía libre de Gibbs, o si se da el caso, un valor negativo más grande del mismo. Esto hace que la reacción tienda hacia la formación de productos.