Archivo mensual: agosto 2013

Descubriendo los secretos más íntimos de la naturaleza

Una de las revelaciones de la nueva tecnología del ADN (Ácido DesoxirriboNucleico o “molécula de la vida”, llámela como le resulte más cómodo) es que, aunque la genética es una ciencia lineal desde que Mendel la formuló en el siglo XIX gracias a sus experimentos con las pieles y los colores de los guisantes, la clase de mecanismos que impulsaron la evolución de la especie humana no lo fueron en absoluto. Los genes, como predijeron Mendel y la genética clásica, son en efecto tramos de ADN (ATCCAGTAG…. largas cadenas de compuestos químicos) que se disponen uno detrás de otro en rigurosa “fila india” en los cromosomas.

¿Qué son los genes? Los genes son pequeñas secciones del ADN que contienen instrucciones sobre los compuestos químicos –proteínas– que deberían producir para que “todo funcione normal”. No obstante, la gran paradoja del genoma humano es bien conocida: de sus 3.000 millones de letras químicas, los bloques de construcción o “nucleótidos” ATCCAGTAG… que componen el ADN, los cuales están repartidos en 23 cromosomas, como los artículos en los tomos de una enciclopedia, solo el 1,5 % parece ser funcional: siendo éstos los que comúnmente llamamos genes. El 98,5 % restante se denominaba “basura genómica”. Es como si en una estantería con 1000 libros, solo quince de ellos tuviesen algún significado. Pero ahí no acaba todo. Gracias a un proyecto multinacional de investigación que llevaba desarrollándose 9 años por más de 400 científicos, el ENCODE (Enciclopedia de elementos de ADN), se han descrito todas las partes del genoma que tienen alguna función, aunque estén fuera de los genes convencionales. El principal resultado de esta investigación es que, lo que se consideraba basura, no lo era como tal. El 80% del genoma humano resulta tener al menos una función bioquímica en al menos algún tejido del cuerpo y participa en al menos alguna fase del desarrollo de la vida del organismo. De hecho, la mayoría de las variaciones implicadas hasta ahora en alguna enfermedad humana está en estas zonas que se consideraban basura, lo que puede abrir nuevas posibilidades en la exploración médica, como por ejemplo crear medicamentos completamente nuevos o reorientar los tratamientos existentes

El equipo del proyecto ENCODE analizó la extensa área del genoma humano, hasta este momento mal llamado “ADN basura”, debido a que parecía tener pocas funciones. Pero eso es mentira, ya que una gran parte de ese ADN es biológicamente activa. Para entendernos, el “ADN basura” es, en realidad, un gran panel de control con millones de interruptores (on/off) que regulan la actividad de nuestros genes y, sin los cuales, los genes no funcionarían y aparecerían enfermedades. La mayor parte de las variaciones hereditarias (las “cartas marcadas” con los que nace cada individuo en la lotería genética de la que todos somos producto) que se han asociado a enfermedades, o al riesgo de contraerlas, se hallaban camufladas en esta zona, y nadie sabía cómo interpretarlas. Las últimas investigaciones apuntan a que es capaz de regular la actividad de los genes en los tiempos y lugares adecuados.

A día de hoy, ENCODE ha recolectado tantos elementos que si se imprimiesen sobre un mural, éste mediría hasta 16 metros de alto y 30 kilómetros de largo, y que, en términos de capacidad, suman cerca de 15 terabytes de información en bruto, una enorme base de datos genéticos, disponibles públicamente en internet. Esta información ha ayudado a los científicos a entender mejor cómo se regula la expresión de los genes, qué factores determinan que las proteínas se produzcan en los lugares apropiados y en el momento adecuado. Permitirá nuevos avances en la comprensión de dolencias como la enfermedad de Crohn (del sistema inmunológico, de origen desconocido).

Así que la basura genómica, esa “materia oscura” que supone un 98,5 % de todo el ADN humano, ha significado un gran avance en la ciencia, aún no dependiendo, como en un muchos logros de la ciencia, de lo que los investigadores estuvieran buscando, sino de la recopilación de todos los datos que han podido obtener, y luego, y más importante, de la interpretación y búsqueda del sentido a los mismos.

El agua: sólida, líquida, gaseosa y…

A menudo, los científicos descubren cosas inesperadas cuando analizan los materiales a escala nanométrica (sirviéndose de la microscopía electrónica), es decir, en el nivel propio de los átomos individuales y moléculas. Esto ocurre, incluso, con los materiales más comunes, como por ejemplo el agua. Si se le preguntase a cualquier persona de a pie, con unos conocimientos mínimos, que en cuántos estados existe el agua, respondería rápidamente: “pues en tres: sólido, líquido y gaseoso”. Sin embargo, la respuesta no es tan obvia para algunos físicos especialistas en disoluciones acuosas como Yang Zhang y Sow-Hsin Chen, del mundialmente famoso Instituto Tecnológico de Massachussetts (MIT). La prestigiosa revista norteamericana Proceedings of the National Academy of Sciences (PNAS) les ha publicado recientemente un artículo referido a otra alternativa defendida por estos científicos. La nueva investigación, centrada en la estructura molecular del agua sometida a una gama amplia de presiones y temperaturas, aporta algunas evidencias de la existencia de esta transición líquido-líquido.

Es conocido que todos los materiales experimentan cambios de estado en su materia: sólido, líquido y gaseoso. En estos cambios, las propiedades de un material pueden variar rápida y significativamente. Una teoría propuesta dos décadas atrás explica parte del extraordinario comportamiento del agua, sugiriendo que puede ocurrir una transición similar entre dos estados líquidos diferentes. Según la teoría, en dicha transición la configuración de las moléculas de agua cambia de un modo que hace que los dos estados líquidos tengan densidades muy diferentes.

Pero, ¿qué es el agua y porqué sigue despertando tanto interés su estudio? El agua es el compuesto químico más frecuente, el más abundante en la superficie del nuestro planeta y el de mayor significación para la vida. El químico francés Lavoisier fue el primero en proponer que el agua no era un elemento químico, sino un compuesto formado por un átomo de oxígeno y por dos átomos de hidrógeno. Su excepcional importancia, desde el punto de vista químico, radica en que casi la totalidad de los procesos químicos que ocurren en la naturaleza, no solo en organismos vivos, sino también en la superficie de La Tierra, así como los que se llevan a cabo en el laboratorio y en la industria, tienen lugar entre sustancias disueltas en agua. Conocemos mucho de ella pero sigue siendo una molécula con grandes misterios qué resolver. Por ejemplo, el agua se expande en lugar de reducirse mientras se congela. Ello permite no solo que los cubitos de hielo floten en la superficie de nuestros vasos de bebidas sino que, a temperaturas bajas, en los lagos y océanos con superficies congeladas sirven de aislantes ya que, bajo las mismas, el agua permanece líquida y hace posible la existencia de vida y evolución de las especies.

Se sabe que es relativamente fácil producir agua superenfriada, que permanezca en estado líquido por debajo del punto de congelación normal (es la base del uso de la sal para derretir la nieve). El agua también puede ser supercalentada hasta muy por encima de su punto de ebullición, comenzando de repente a hervir solo si es perturbada del modo apropiado. Tanto en la congelación como en la ebullición, el agua necesita un punto de nucleación, es decir, una especie de burbuja en la que se agreguen moléculas, variando la energía para que se inicie el cambio de estado.

En esta investigación llegaron a someter al agua líquida a un rango de temperaturas desde 170ºC hasta menos 60ºC bajo cero. En cuanto a la presión, la variaron desde la presión atmosférica normal a nivel del mar (1 atmósfera) hasta unas 3.000 veces esa cantidad.

Según los investigadores, los resultados obtenidos podrían tener repercusiones notables en campos que van desde la biología hasta la construcción. Cabe mencionar el hecho de que la mayor parte de los organismos vivos no son capaces de recuperarse después de experimentar temperaturas más frías que 45º C bajo cero durante un tiempo prolongado, lo que se explica por la transición del agua hacia un estado de menor densidad, que impide que funcionen apropiadamente las proteínas, imprescindibles para el metabolismo de los organismos vivos. Algo semejante podría ocurrir en el sector de la construcción, puesto que el hormigón contiene diminutas cantidades de agua que pueden ocasionar en edificios y carreteras de regiones polares la aparición de grietas considerables cuando las temperaturas descienden por debajo de esos 45 ºC bajo cero. A modo de conclusión, el descubrimiento y el análisis del comportamiento de este cuarto estado del agua brindarán respuestas a muchos de los enigmas que mantiene todavía ocultos ese gran líquido vital.

Publicado en Diario de Avisos – Principia 17 de noviembre de 2011

Efecto placebo versus efecto nocebo

Si me tomo lo que me receta el médico seguro que no me cura, sino que me aparecen nuevos síntomas”. Esta frase es muy usual en personas que deben tratarse con medicamentos, de forma puntual o crónica, por sufrir alguna dolencia.

Las más actuales y novedosas investigaciones en el campo de la medicina, además de conseguir mejorar los tratamientos de muchas enfermedades, han revelado también increíbles características que posee la mente humana. Una de ellas es la conocida por efecto placebo (del latín, “te haré bien”). Este efecto se produce por la simple creencia en que un determinado tratamiento o medicamento nos va a hacer bien, es decir, nos va a curar. El efecto placebo es el poder curativo de la mente en acción. La fe, si no mueve montañas, tal vez sí puede curar un dolor de cabeza. Este efecto explica los beneficios de los tratamientos homeopáticos, en los muy contados casos en los que se produce, tal y como lo han demostrado numerosos estudios científicos.

Entonces, ¿por qué se ha seguido creyendo en la homeopatía?, además de por los abundantes beneficios que genera a algunos (el precio por gramo de medicamento homeopático es cercano a infinito), es probablemente por la misma razón que explica por qué muchos continuaron creyendo que la Tierra era plana a pesar de que Elcano ya había dado la vuelta al mundo: o no se enteraron, o no se lo creyeron. La falta de fe, y de conocimiento, puede dejar también las montañas en su sitio, aunque alguien las haya movido.

Al igual que sucede con el “yin-yang” de la filosofía oriental, concepto que describe cómo dos fuerzas o entidades opuestas se encuentran interconectadas y no pueden existir de forma independiente, pues el efecto placebo posee su efecto contrapuesto: el llamado efecto nocebo (del latín, “te haré daño”). Este efecto se manifiesta porque la creencia de que un determinado medicamento o tratamiento no va a ser eficaz, o un factor externo va a ocasionar un daño al organismo, incide de manera negativa en la salud.

El efecto nocebo no cuenta con tan numerosas evidencias científicas como el efecto placebo, ya que mientras se administra un placebo a los pacientes cuando se realizan ensayos clínicos de nuevos fármacos, no se les administra un nocebo. Sin embargo, los estudios clínicos han demostrado la existencia de este efecto, ya que muchos pacientes a quienes se administraba placebo se sentían peor, no mejor ni igual, como consecuencia de dicha administración. Esto indica que solo el temor de que el medicamento no funcione, o pueda resultar perjudicial, puede exacerbar los síntomas de la enfermedad. Algunos estudios han reflejado este efecto de manera directa. Por ejemplo, en uno de ellos, dos tercios de un total de 35 personas desarrollaron dolor de cabeza cuando se les dijo que una corriente eléctrica, que se iba a hacer pasar por el techo de la habitación en la que se encontraban, podría inducirles dicho dolor.

Sin embargo, lo que les causó el dolor de cabeza fue la creencia en lo que se les dijo, ya que la corriente eléctrica nunca se aplicó. Pero el efecto nocebo va más allá en sus implicaciones. En otro asombroso estudio, investigadores demostraron que una simple sugestión en contra puede neutralizar los efectos beneficiosos reales de un analgésico. Es decir, si no creemos que el medicamento que nos prescriben vaya a funcionar, nuestra mente puede bloquear su funcionamiento, aunque este sea eficaz.

Uno de los factores que pueden inducir el efecto nocebo es la desconfianza en la seguridad de los medicamentos y en el sistema de salud general. La desconfianza del paciente, no ya en el medicamento, sino en el médico que lo prescribe, o en los medios aplicados para el diagnóstico, podría también anular sus efectos beneficiosos.
Ciertamente, se abre un espacio para la reflexión en los actuales momentos de recortes y de desánimo generales, de temor de muchos por perder lo conseguido en el área de la salud pública. En cualquier caso, si necesita ir al médico, tomarse un medicamento o someterse a un tratamiento, hay que hacerlo con el mejor ánimo y confianza posibles: se habrá recorrido así un buen camino hacia la curación, tal y como demuestra la ciencia.

Imagen

Publicado en Diario de Avisos – Principia 4 de octubre de 2012

Descifrando a Turing

Alan Mathison Turing (1912-1954) fue una matemático que nació hace 100 años en Londres y, al igual que Blancanieves, murió asesinado tras comer una manzana envenenada con cianuro, debido a una sociedad que lo persiguió por su condición de homosexual. Tal fue así, que en el año 2009, el primer ministro del Reino Unido, Gordon Brown, emitió un comunicado declarando sus disculpas en nombre del gobierno por el trato que recibió Alan Turing durante sus últimos años de vida.

Pero no nos quedemos sólo en esa parte de su vida. ¿Qué aportó Turing en sus 41 años de vida a la sociedad actual? Pues nada menos que la manera de desarrollar y de entender la informática y la inteligencia artificial.

Su huella quedó impresa en la historia de la humanidad por sus trabajos, convirtiéndolo en uno de los padres de la informática moderna. Su trabajo más famoso fue la demostración de que hay números que no se pueden calcular. En él mostraba por primera vez las famosas máquinas de Turing como modelo matemático del concepto de algoritmo (que éste es definido como un conjunto prescrito de instrucciones o reglas ordenadas y finitas que permite realizar una actividad mediante pasos sucesivos, y que no generen dudas a quien deba realizar dicha actividad).

En el verano de 1934, meditando sobre problemas matemáticos basados en la decisión, Turing tuvo una idea en los prados de Cambridge: utilizar una máquina para modelar el trabajo de cualquier matemático demostrando teoremas o calculando números. Nació así la máquina de Turing. Le llevó dos años escribir el programa de la máquina universal, necesario para resolver el problema de la decisión.

La máquina de Turing fue descrita en un trabajo científico en 1936 como respuesta al ensayo del matemático alemán David Hilbert “On Computable Numbers, with an Application to the Entscheidungsproblem“ donde demostró que las máquinas de Turing serían capaces de realizar cualquier cálculo matemático concebible si fuera representable con un algoritmo. También probó que no existe solución al Entscheidungsproblem (problema de decisión) ya que demuestra que no es posible decidir, en general, algorítmicamente si una máquina de Turing se encuentra en parada o en funcionamiento.

Por lo tanto, una máquina de Turing venía siendo un dispositivo que manipula símbolos sobre una cinta de acuerdo con una tabla de reglas definida. Este modelo computacional puede ser adaptado para simular la lógica de cualquier algoritmo y es particularmente útil en la labor de explicar el funcionamiento de una unidad central de procesos (UCP, digamos que sería el “corazón” de todo ordenador o smartphone que hoy en día usamos). Este modelo de computación supone el avance teórico fundamental que condujo a la noción de programa de almacenamiento de una máquina computadora.

Pero sin lugar a duda, uno de los mayores logros obtenidos por Turing fue vencer a la “Enigma”. Ésta era un dispositivo electromecánico, del tamaño de una máquina de escribir, con una serie de rotores, que ofrecía trillones de combinaciones posibles en el encriptamiento de mensajes. Fue usada para enviar mensajes cifrados por la Alemania nazi durante la Segunda Guerra Mundial. Alan Turing participó activamente en el desarrollo de dispositivos de análisis criptográfico. Aportó muchas de las ideas que llevaron al posterior éxito en la ruptura del algoritmo de cifrado que utilizaba la máquina, suponiendo un gran avance en la victoria de los aliados en la contienda.

Publicado en Diario de Avisos – Principia 11 de octubre de 2012

Camino, paciencia e inteligencia

ImagenImagen

El combustible de la educación

Tomamos conciencia del papel que juega la educación en el desarrollo de cada uno de nosotros en determinados momentos de nuestra vida, y uno de los más destacados es la elección de una carrera universitaria. Surge el gran debate entre la eterna duda del quiero y del debo.

En un artículo del doctor Valentín Fuster, afamado cardiólogo y director del Centro Nacional de Investigaciones Cardiológicas (CNIC), reflexionaba sobre la educación, a la que llegaba a comparar con “el combustible que lo mueve todo”. La educación es el combustible que nos permite movernos a muchos destinos, muy diferentes y plurales. Sin educación es muy complicado tener opciones y se nos acortan las alternativas de futuro.

Una de las herramientas que aporta la educación es el desarrollo del pensamiento crítico que nos permite reflexionar con criterio, ya que tal y  como decía el artículo, “el no reflexionar nos llena de negativismo”. Con esta frase el doctor Fuster hablaba de la facilidad con la que nos creemos todo lo que nos cuentan, especialmente cuando las cosas son negativas. Si no somos críticos para hacer una lectura adecuada, si no disponemos del tiempo necesario y de la energía para reflexionar, seremos víctimas de la queja y del negativismo.

Fundamentalmente, del artículo se podían extraer dos ideas bastante claras. La primera es que cada individuo en su decisión debe escuchar siempre a lo que su fuero interno le diga. Que no se deje llevar por el debe y que escuche qué es lo que quiere. Esto va fuertemente ligado al talento que, descubierto o no, todos tenemos. Ese talento es quien nos debe marcar el camino. Pero siempre teniendo presente que “el trabajo duro gana la batalla al talento cuando el talento no trabaja duro”.

La segunda idea, que a mí me ha ayudado mucho, es que uno no está obligado a dedicar toda su vida profesional a aquello que ha estudiado. No podemos ser esclavos de lo que decidimos estudiar con dieciocho años. Precisamente la educación, como combustible de nuestro desarrollo, nos permite abrir puertas y ventanas a nuevas posibilidades que eran desconocidas para nosotros. El camino de la excelencia requiere de  una motivación permanente, un sentirse eficaz y competente ante los nuevos retos que nuestro camino nos exigirá. Es precisamente por este motivo por lo que, corrigiendo exclusivamente nuestras debilidades, nunca podremos alcanzar la excelencia. Son nuestras fortalezas las que nos permitirán experimentar el éxito y superar, de esta manera, tareas cada vez más difíciles. En este camino que nos lleva a afrontar y superar tareas de mayor dificultad se robustece la autoestima, materia prima de la autoconfianza, sin la cual nada es posible: las personas que dudan de sus capacidades rehúyen las tareas difíciles y nunca llegarán a convertirse en lo que podrían llegar a ser. Dependiendo de cuál sea el concepto que tengamos de nosotros mismos, así construimos nuestro camino y por tanto así labramos nuestro destino.

El gran regalo del ser humano es un cerebro capaz de aprender hasta que muere, y la responsabilidad de cada uno de nosotros es comprometernos con nuestro talento. Solo de esta manera conseguiremos que el aprendizaje nos lleve a lugares que podían resultarnos imposibles, simplemente porque los recursos de los que disponíamos eran insuficientes para poder ver más allá de lo que nuestros ojos podían ver.

 “Lo importante no es el resultado sino cómo cada uno de nosotros nos vamos transformando con el tiempo mientras perseguimos nuestros sueños. La excelencia está en el camino, nunca en la meta; está en saber disfrutar de cada pequeña cosa, y así debe ser el camino de nuestra educación”

Imagen

Avogadro: el cuenta átomos de la química

Resulta muy sencillo contar los barcos, los coches, manzanas, moscas, hormigas… Pero si nos fijamos en el orden de los ejemplos anteriormente expuestos, nos damos cuenta que cada vez se hace más difícil contabilizarlos debido a su tamaño. No digamos si seguimos disminuyendo la escala del objeto. Por lo tanto, ¿cómo contamos los mínimos constituyentes de los que están hechos todos los materiales?

Los átomos y moléculas son demasiado pequeños para observarse o pesarse por separado. Por esta razón, es necesario disponer de alguna unidad que represente un número determinado de ellos. Para ello se utiliza el mol, que representa el peso en gramos de 6,023·1023 (más de seiscientos mil trillones) moléculas o átomos de una sustancia, valor numérico al que se le da el nombre de número de Avogadro.

Para hacerse una idea, un centímetro cúbico de aire (aproximadamente el tamaño de un terrón de azúcar en volumen) contiene 45 millones de millones de moléculas. Ahora mira a tu alrededor y observa cuántos centímetros cúbicos se extienden. ¿Sería posible contar todas esas moléculas una a una?

El número de Avogadro es un elemento básico para la química actual, muy mencionado y poco comprendido. Es difícil de definir y de visualizar. Por lo tanto: ¿cómo surge y cuál es la aplicación práctica del número de Avogadro?

En 1811, el químico italiano Amedeo Avogadro postuló, gracias a mucha experimentación en laboratorio, que a la “misma presión y temperatura, volúmenes iguales de todos los gases contienen el mismo número de moléculas”.

Dicho postulado proporcionaba una explicación racional a las observaciones experimentales. La hipótesis de Avogadro explicaba hechos aparentemente inexplicables a principios del siglo XIX, especialmente en las reacciones de gases.

Un volumen de un gas A reaccionaba con un volumen de un gas B porque ambos poseían la misma cantidad de moléculas, o estaban en una proporción que podía expresarse mediante un número sencillo.

Por ejemplo, dos volúmenes de hidrógeno gaseoso (H2) se combinan con un volumen de oxígeno gaseoso (O2) para dar únicamente dos volúmenes de agua en estado gaseoso (H2O).

En fin, los átomos son muy pequeños y el número de Avogadro muy grande, pero es necesario para cuantificar las moléculas, átomos,… de productos que se forman en las reacciones químicas.

Por lo tanto, este número tan grande no se aplica a todas las cosas. Este número se utiliza, por ejemplo, cuando vamos a hablar de átomos o moléculas ya que son “cosas” muy pequeñas.

La hipótesis de Avogadro, que en la actualidad es una ley científica, establece como se dijo anteriormente que, a igual de temperatura y presión, volúmenes iguales de gases contienen el mismo número de moléculas.

Por consiguiente, el número de moléculas en un mol de sustancia es, por definición, el número de Avogadro. Pero bien, fue Jean Perrin, Premio Nobel de Física en 1926, bautizó el número con el apellido del químico italiano y determinó su valor cuantitativo.

Para determinar el valor del número de Avogadro se basó en un desarrollo teórico realizado por Albert Einstein en 1905, su año milagroso, ya que en ese mismo año publicó cinco artículos que cambiaron la forma de entender la física.

Hoy en día ha quedado establecido que este valor corresponde a “una constante que indica la cantidad de unidades elementales (átomos, moléculas, iones, electrones, u otras partículas o grupos específicos de éstas) existentes en un mol de cualquier sustancia”, siendo el mol la unidad fundamental para medir la cantidad de materia, según el Sistema Internacional de Unidades.

Avogadro nos proporcionó un número que sirve para manipular a nuestra conveniencia las reacciones químicas y obtener sustancias con un amplio abanico de propiedades, las cuales actualmente podemos transformar desde la escala atómica.

Publicado en Diario de Avisos – Principia 12 de septiembre de 2012