El Dr. Higgs y Mr. Bosón

Me despierto un día como otro cualquiera, cojo la prensa y leo mientras desayuno: “Después de más de 50 años de búsqueda han identificado la partícula de Dios[1]”; sorprendentemente me entero que han descubierto a Dios, y que por alguna razón lo llaman Higgs. Aunque ya me intuía la existencia de Dios, el periódico comenta que tiene una partícula más pequeña que un átomo, el bosón, que da sentido físico y material a toda nuestra realidad. Aún siendo un profano en el tema, ya que tengo como profesión bloguero deportivo, me atraen mucho los temas científicos. Recordaba vagamente del colegio que los átomos eran los bloques básicos e indivisibles por los cuales estaba compuesta toda la materia del Universo, y que además estaban formados por unas subpartículas, o algo así. Bueno, el caso es que le enseño la noticia a mi hijo de 14 años antes de llevarlo al colegio, en el momento del desayuno. Actualmente está cursando por primera vez la asignatura de física y química, y yo sabía que se había estudiado el tema sobre «Teoría Atómica». Claro, con su enorme curiosidad, me pregunta sin dilación: “Papá, ¿cómo es que hay una partícula, más pequeña que un átomo que da masa a todo lo conocido y que estuvo presente en el origen del universo?” Sin poder articular palabra y con la mirada clavada en el periódico, cayó la siguiente pregunta: “Si los bosones de Higgs son los arquitectos de la materia conocida, ¿por qué se escondía tanto esta partícula?” Sinceramente, no supe responder, aún leyendo la noticia en su totalidad.

En el trayecto en coche hacia el colegio se me pasaron varias cuestiones por la cabeza: primeramente, si nos preguntáramos quién puso ahí la “partícula de Dios” tendríamos inevitablemente que recurrir a nuestra fe. ¿La creencia religiosa y la ciencia podrían tener un posible nexo en este tema? Y en segundo lugar, ¿por qué es tan importante saber de dónde viene la masa? Por lo que había leído, la masa y el peso de un objeto no significan lo mismo, ya que se relacionan por esta sencilla fórmula: peso = masa x gravedad, por lo tanto, el peso dependerá de en qué planeta nos encontremos, además de la distancia a la que estemos del centro del mismo.

Conduciendo por la ciudad, mi hijo sentado a mi lado escuchando su iPod, y yo muy callado en el coche porque seguía dándole vueltas a las primeras líneas de la noticia: «Se consigue recrear en Gran Colisionador de Hadrones (LHC), el mayor y más potente acelerador de partículas del mundo que utiliza el Laboratorio Europeo de Física de Partículas (CERN), lo que ocurrió una billonésima de segundo después de la explosión inicial del Universo (Big Bang), hace aproximadamente 13.700 millones de años. En ese instante apareció el bosón de Higgs, el elemento cuya existencia anticipó hace ya casi medio siglo el físico teórico Peter Higgs, y que viene a cerrar el modelo estándar de la física de partículas, el paradigma de la estructura de la materia». Este hecho me dejó tan marcado que esa misma noche, navegando por internet, me entero que en un portal de divulgación científica se puede participar en un ciclo de preguntas con el propio profesor Higgs. Esta podría ser una gran oportunidad para poder responder a mis dudas y las de mi hijo.

El portal se llamaba “EnTropico”, y como introducción al ciclo de preguntas tenía escritas estas frases:

«Los humanos hemos manipulado los átomos desde siempre para crear nuevos materiales y generar energía aprovechable, aún cuando ni siquiera sabíamos que existía el átomo. Componentes más pequeños que los átomos, como los quarks, leptones y bosones, se estudian actualmente para refinar nuestro entendimiento del Universo. Al igual que la Química posee una Tabla Periódica de los Elementos que se combinan, la Física tiene una tabla de subpartículas elementales que está descrita en el llamado Modelo Estándar donde se establecen 12 partículas diferentes. Todas ellas han sido observadas en alguna ocasión por los experimentos. Este modelo predice que todas las partículas tienen masa cero, algo totalmente imposible, a menos que exista otra partícula: el bosón de Higgs. Es como si se tratase de un rascacielos de 12 plantas que se mantiene en pie pero que nadie es capaz de ver la primera planta del mismo. Siguiendo las leyes fundamentales de la Física, debería estar ahí esa planta porque los edificios no flotan en el aire. Pues bueno, el bosón de Higgs sería esa primera planta. No se puede ver pero sí obtener su efecto que es por el cual los objetos tienen masa.

Para todos nuestros seguidores internautas, tendremos dentro de media hora el chat en directo con el Dr. Higgs para realizarle todas las preguntas que queramos y despejar nuestras dudas».

Genial, tenía pensadas una serie de preguntas pero no sabía por dónde empezar. Por otro lado, sentía vergüenza por lo que pudieran pensar los demás participantes en relación a la simpleza de mis dudas. Transcurrida media hora observo cómo un usuario del chat formula la primera pregunta:

Estimado profesor Higgs, es un honor poder participar con usted en este coloquio. Mi primera pregunta va relacionada con cuál es el sentido de fabricar ese Gran Colisionador de Partículas y con qué propósito. ¿Hay datos fiables de la existencia del bosón?

Se construyó esa máquina enorme, el Gran Colisionador de Hadrones (LHC, sus siglas en inglés), para, entre otras cosas, tratar de encontrar una partícula cuya existencia es efímera.  Realmente no se buscaba una partícula, sino la excitación de un campo (de Higgs). Coloquialmente es como si una ballena, en cualquier punto de un océano congelado, encuentra un pequeño hueco y respira provocando una fuente de agua fugaz la cual se desvanece al instante. Suponiendo que la ballena realiza esa operación una vez cada año, es muy difícil poder observar tal evento. Así que en el LHC se fuerza a que millones de ballenas (siguiendo con la analogía) respiren al mismo tiempo. Lo que se registra en el LHC es el análisis estadístico de las ondas que deja el agua que proyectan esas ballenas al entrar en contacto con la superficie. Se hacen chocar millones de protones contra esa agua y se miden los efectos de la desaparición de los bosones que se han podido excitar en las colisiones.

Según los resultados obtenidos, el bosón al que nos referimos tiene una masa, medida en unidades de energía, cercana a 125 GeV (miles de millones de electrón-voltios[2]). Este es un signo casi inequívoco de que el Higgs existe (durante una billonésima de billonésima de segundo), como existe la onda que deja el agua que propulsa la ballena en la superficie del congelado océano.

Ahora era mi turno. A mí no me quedó muy claro, entre otras cosas, que era eso del LHC “Profesor Higgs, ¿qué es el LHC y cómo exactamente se llegó a identificar su bosón?

El LHC se podría decir que es una especie de velódromo de 27 km de radio para átomos y partículas subatómicas, donde las aceleran a casi la velocidad de la luz (aproximadamente 300.000 metros por segundo), y las hacen colisionar para observar cuáles son las piezas que las forman. En cada choque hay que estudiar y registrar la velocidad, masa, energía, posición, carga y trayectoria de todos los “trocitos” que se generan. En uno de esos choques, y después de muchísimos años de experimentación, se pudo identificar el bosón. Se ha dejado identificar después de haber estado encajado en una teoría durante más de 50 años. En un futuro, el análisis detallado de los datos, nos podría hacer entender la naturaleza de la masa, la gravedad, la materia oscura, e incluso, otras dimensiones hasta la fecha puramente teóricas.

Según esta teoría, muchas partículas fundamentales no tuvieron masa inmediatamente después del Big Bang, sino que la adquirieron después, por la interacción con una región de energía invisible, algo que consiguió el bosón. Este es el bosón el cual eminentes y expertos investigadores bautizaron como el bosón de Higgs, algo con lo que estoy en desacuerdo porque yo llegué a postular la existencia de esa partícula gracias al trabajo previo de otros muchos científicos. Se me olvidaba comentar que esa región de energía es lo que la comunidad científica ha denominado “campo de Higgs”; les prometo que no tengo propiedades inmobiliarias en ese minifundio. Bromas aparte, a ver si soy capaz de expresar con un ejemplo el concepto y la importancia que representa el campo. Imaginemos una fiesta en la que los invitados están distribuidos por la habitación. La habitación representa el campo de Higgs. De repente entra una celebridad, el bosón. Los invitados se le acercan rápidamente formando un grupo macizo. Mientras la celebridad se pasea por la habitación, el pelotón de invitados que le rodea proporciona al grupo una velocidad adicional. El grupo es más difícil de detener de lo que sería un único invitado, así podemos decir que el grupo ha adquirido masa.

Con ese ejemplo ya veía los conceptos de manera más clara, me había animado, así que rápidamente redacté la siguiente pregunta:Mi hijo me preguntaba hoy si esa partícula estuvo presente en el origen del Universo, usted se refería ahora mismo como el Big Bang, ¿es eso cierto?

Mi buen amigo, esa es una gran pregunta. No cabe duda de que nuestro Universo procede de una explosión, llamada Big Bang, y existen además pruebas científicas que apuntan a que se encuentra en un estado de constante expansión desde aquel momento inicial. Sin embargo, todo parece indicar que el universo colapsará en algún instante (Big Crunch), encontrando así su fin. Pero, si el Universo procede de una explosión original, ¿qué fue lo que explotó? Esta pregunta es la que los investigadores que trabajan en el LHC tratan de responder, intentando reproducir las condiciones iniciales del universo desde el momento cero, hasta el segundo uno después de la gran explosión. Y para llegar a entender qué fue lo que explotó se tiene que recurrir al abstruso concepto de bosón de Higgs.

Para que usted se haga una idea rápida de este concepto, imagínese que en la habitación de su casa donde usted se encuentra quitamos todas las cosas, toda la materia, todo el aire y la enfriamos hasta el cero absoluto. ¿Qué es lo que queda? Usted dirá seguramente que lo que queda es “nada”, pero se equivoca lo que queda es vacío. “Vacío” es un concepto físico y “nada” es un concepto metafísico, en realidad “la nada” no existe, lo que existe es el vacío y en el vacío hay algo, eso que existe en el vacío es un campo de Higgs.

Eh!, un momento, cuando todo desparece de mi vista, ¿lo que queda es ese campo energético que lleva su apellido?

Un poco abstracto, ¿no? Bueno, otro ejemplo. Haga un esfuerzo mental e imagínese que ese campo de Higgs es una pradera de árboles. Observará como los árboles van desde el suelo hacia arriba señalando una dirección. Pues bien, las partículas que viajan en esa dirección recta serán más rápidas que las que recorren rama a rama los árboles y tropiezan con ellos. Esas partículas que recorren la hierba de abajo-arriba viajarán a la velocidad de la luz si carecen de masa, como los fotones, mientras que determinadas partículas, precisamente por tropezar con ciertos obstáculos o tener demasiada masa correrán menos, pero ninguna partícula será más rápida que la luz. En esta pradera, el bosón sería una partícula muy pesada que recorrería el suelo de forma perpendicular al resto de partículas, no pudiendo remontar por el tronco de los árboles por si misma debido a su enorme masa. Es una partícula paradójica ya que, aun siendo muy pesada y no pudiendo correr tanto como los fotones, sin embargo, es la que suministra la masa y por lo tanto velocidad, puesto que los fotones son a su vez bosones despedazados. Cuanto mayor sea la energía de las partículas que chocan, más masa podrán tener las resultantes, según la famosa ecuación de Einstein: E = m·c2. Se me acaba de ocurrir que puedo subir esta imagen al chat para que así todos puedan ver claramente lo que estoy exponiendo:

Imagen1

Figura 1. Imagen del experimento ATLAS realizado en el CERN (Centro Europeo de Física de Partículas) con el que se ha demostrado la existencia del bosón de Higgs.

Me atreví, con riesgo a que no me volviese a responder ninguna de mis preguntas, y dentro de mi total ignorancia en este terreno, a escribirle en el chat:Dr. Higgs, ¿está de broma?, yo diría que se trata de una pintura abstracta ¿Me quiere hacer creer que en esa confluencia de espaguetis supersónicos se encuentra oculto el bosón?

Jajaja,…. Para entendernos: muy probablemente lo que explotó en el Big Bang fue un campo de Higgs formado por bosones de Higgs. La luz, la materia, el tiempo, la antimateria, los agujeros negros, las estrellas, la materia oscura, la vida, los elementos químicos y las fuerzas físicas: electromagnética, gravitacional, nuclear fuerte y nuclear débil proceden de aquel primordial bosón que concentraba en sí mismo una energía descomunal que podemos imaginar como un punto singular y que se dispersó en el Big Bang.

Esa confluencia da respuesta al origen de la masa. Sin masa, el Universo sería un lugar muy diferente. Si el electrón no tuviera masa no habría átomos, con lo cual no existiría la materia como la conocemos, por lo que tampoco habría química, ni biología ni existiríamos nosotros mismos. La masa de las partículas estaría causada por una “fricción” con el campo de Higgs, por lo que las partículas que tienen una fricción mayor con este campo tienen una masa mayor. En algunos medios de divulgación científica ya han elaborado para explicar el proceso de formación de masa lo que simpáticamente llaman la “paradoja del famoso”: es como si David Beckham paseara por una calle principal próxima al río Támesis y, de repente, todas sus fans se unen a él multiplicando su masa al agregarse en torno al jugador de fútbol. Mientras que un señor desconocido que camina por la acera de enfrente no tiene ese efecto. Así se comporta.

Otro participante del chat se lanzó y directamente le preguntó:Dr. Higgs, yo estoy muy perdida en todo esto, y mi pregunta es más directa que las que le han formulado previamente. ¿El bosón le pertenece a usted? Y realmente, ¿qué es y por qué es tan importante el bosón de Higgs?

Ni mucho menos me pertenece. Para empezar, el mundo de las partículas subatómicas se divide en dos tipos: fermiones y bosones. Los fermiones son partículas que componen la materia, y los bosones portan las fuerzas o interacciones. Los componentes del átomo (electrones, protones y neutrones) son fermiones, mientras que el fotón, el gluón y los bosones W y Z, responsables respectivamente de las fuerzas: electromagnética, nuclear fuerte y nuclear débil, son bosones. Si me lo permiten, voy a subir al portal otra imagen en la cual, de forma esquemática, se puede apreciar parte del mundo subatómico basado en lo que yo llamo la “fe cuántica” (Figura 2) aplicada a un objeto (una pelota de tenis).

Imagen2

 

Figura 2. Infografía extraída y modificada de la revista XLSemanal, nº 1291, reportaje ¿Quién es Peter Higgs?

Impresionante imagen había subido el Dr. Higgs. Fermiones son los bloques y bosones el pegamento que mantiene unida a toda la materia con esos bloques. Sobre la marcha escribí la siguiente pregunta que tenía para el profesor.En la pelota de tenis de la imagen, ¿dónde se encuentra todo eso? Debe ser muy pequeñito; ¿de qué escala estamos hablando?

Los mecanismos de formación de la materia se producen a una escala entre un millón y un billón de veces más pequeña que la escala atómica. No hay modo de imaginárselo, pero lo que sí se sabe es que todas las cosas tienen masa. A medida que se profundiza en la materia llega un momento en que sus constituyentes ya no se pueden trocear más y estamos ante las partículas elementales. Se ha conseguido investigar y entender prácticamente todo lo que ocurría con ellas, salvo su masa. Cuando hemos troceado algo hasta dejarlo sin estructura, ¿de qué depende su masa? Esa ha sido una preocupación de la física en los últimos cincuenta años. El bosón de Higgs da respuesta a ese problema, que sirve para explicar cómo esas partículas adquieren su masa por interacción con el campo energético invisible del cual ya había explicado en alguna pregunta anterior.

Cuando leí la pregunta que había formulado otro internauta no le encontraba sentido al principio, me parecía muy filosófica.Dr. Higgs, ¿se podría decir que este tipo de investigaciones nos retrotraen al origen de todo lo conocido?

Bueno, los instrumentos con los que se hacen las investigaciones a nivel subatómico son los aceleradores de partículas, más concretamente, el LHC. Éstos pueden entenderse de dos maneras. Una sería viéndolo como un gigantesco microscopio que nos permite acercarnos a una escala muchísimo más pequeña de la que consiguen los microscopios ordinarios. El otro símil es verlo como una máquina del tiempo que nos permite ir hacia atrás. En física, la energía y la distancia son magnitudes inversas, a mayor energía más podemos adentrarnos en la materia a distancias más pequeñas. También, cuanta más energía tengamos más atrás volvemos en el tiempo. En el momento del Big Bang el Universo estaba caliente y era muy pequeño. Esas condiciones se consiguen con los aceleradores de altas energías. El Universo actual tiene una edad de 13.700 millones de años. El acelerador y las condiciones conseguidas para dar con esta partícula nos llevan a una billonésima de segundo después del Big Bang. A escala humana un segundo no es nada, por lo que resulta complicado hacerse una idea de lo que puede ser una billonésima de segundo, pero acercarnos a ese momento recrea unas condiciones muy importantes para entender el mecanismo por el cual la energía se fue transformando en partículas, aparece el campo de Higgs y esas partículas empiezan a adquirir masa.

Y por supuesto, alguien quiso entrar en el terreno religioso.Lo que ya resulta inaccesible a la ciencia es el instante anterior al Big Bang. ¿Cree que serviría este descubrimiento para explicar la vida, el universo o, incluso, la conciencia humana?”

Efectivamente, eso ya excede a la ciencia. El Big Bang es el momento en el que tiene sentido empezar a hablar de tiempo y espacio. Antes de eso carecemos de coordenadas espaciales y temporales, por lo que la física no puede decir nada. El propio concepto de instante implica tiempo y no sabemos si antes del Big Bang existía el tiempo tal como lo entendemos. Con respecto a su consulta, yo le podría preguntar ¿de dónde sale y por qué existe el campo de Higgs? Yo no lo sé. Hay que tener presente que la ciencia no es el conocimiento exhaustivo de cada una de las partes de la naturaleza, sino el engarce de todas y cada una de ellas para generar el edifico completo de la misma.

No tenía ganas que se acabara el ciclo de preguntas, pero se iba a cumplir el tiempo y no quería quedarme con una curiosidad. “Como última pregunta Dr. Higgs, de no haberse identificado el bosón divino, ¿habría merecido la pena vivir cargando tantos años con esta hipótesis?” Tanto si se hubiese probado su existencia o no, la vida seguiría siendo maravillosa. Lo que sí le puedo afirmar es que desde los años 60 he tenido muchísimos “diálogos” con el bosón cuando se dejaba ver por mi mente en los cuales siempre acabábamos discutiendo porque, aun siendo la pieza fundamental de la génesis de la masa, se ocultaba receloso en una esquinita del modelo estándar de las partículas. Finalmente, y gracias al avance tecnológico, el escurridizo bosón se ha visto acorralado y no ha tenido más remedio que mostrarse a la comunidad científica.

[1] ¿Porque es denominada la “partícula de Dios”? El premio Nobel Leon Lederman escribió en los años 90 un libro sobre el bosón de Higgs titulado originalmente “The Goddamn Particle” (algo así como la partícula maldita). Al editor no le gustó y lo acortó a The God Particle (La Partícula divina, o Partícula de Dios, esa sería la traducción correcta)

[2] 1 GeV = gigaelectron-voltio equivale aproximadamente a la masa de un protón

 

100 años de la idea feliz de Einstein

El 25 de noviembre de 1915, Albert Einstein presentó ante la Academia Prusiana de Ciencias, en Berlín, la teoría que acabaría por culminar su obra y consagrarlo como un gran científico: la Relatividad General. Era una continuación de la Especial, la idea que había presentado diez años antes cuando era funcionario de la Oficina Suiza de Patentes. En aquel año milagroso de 1905, Einstein mostró cómo el movimiento modifica la percepción del espacio y del tiempo, pero la velocidad de la luz y las leyes de la física siempre son las mismas con independencia de la velocidad a la que se mueva el observador.

Con estos fundamentos, en 1907, Einstein tuvo la que consideró la idea más feliz de su vida. En uno de sus famosos experimentos mentales, se dio cuenta de que una persona en caída libre y alguien que flota en el espacio tendrían una sensación similar, como si la gravedad no existiese. Más adelante, observó también que estar de pie sobre la Tierra, atraído por la fuerza de la gravedad del planeta, no sería muy distinto de encontrarse en una nave espacial que acelerase para producir el mismo efecto.

A partir de esta intuición, Einstein se planteó que tanto la gravedad como la aceleración deberían tener la misma causa, que sería la capacidad de objetos con mucha masa como los planetas o las estrellas para curvar un tejido continuo formado por el espacio y el tiempo, dos dimensiones que durante milenios se habían considerado separadas y absolutas en las que la materia existía e interactuaba. El efecto de esa curvatura y de los objetos moviéndose sobre ella es lo que percibimos como la fuerza de la gravedad o, explicado en las palabras de John Archibald Wheeler, el espacio le dice a la materia cómo moverse y la materia le dice al espacio cómo curvarse.

El primer gran experimento que sirvió para confirmar la validez de los planteamientos de la Relatividad General fue el dirigido por el astrónomo británico Arthur Eddington en 1919. Durante un eclipse solar, observó que tal y como predecía la teoría, la masa del Sol hacía que la luz procedente de las estrellas que se encontraban detrás de la estrella se curvase. Se probaba así que un gran objeto era capaz de deformar el espacio-tiempo y que incluso la luz debía desviarse para seguir la nueva geometría. Un resumen: el espacio le dice a la materia cómo moverse y la materia le dice al espacio cómo curvarse

Hace 100 años, Albert Einstein transformó nuestra visión del mundo, o al menos la forma en que los físicos son capaces de entenderlo. El avance conjunto de la comunidad científica habría acabado por dar con aquella forma de ver la realidad. Ni siquiera los genios como Einstein llegan a sus conclusiones desde la nada o son imprescindibles, pero pocos dudan de que él fue el mejor del siglo.

carruselEinstein.1

Fuente: http://elpais.com/elpais/2015/11/24/ciencia/1448387442_693871.html

La química del veneno….¡da vida!

image9

Las compañías farmacéuticas se quejan a menudo de lo caro y largo que es desarrollar un nuevo medicamento. No tienen ni idea. La naturaleza está repleta de animales que han dedicado millones de años de evolución y sacrificado incontables vidas para encontrar la sustancia bioquímica perfecta. Existen caracoles marinos que producen insulina para matar a sus presas. El picotazo de una abeja contiene moléculas capaces de adentrarse en el cerebro desde el torrente sanguíneo con más facilidad que cualquier droga fabricada por la industria. Y de la saliva de un lagarto venenoso se aisló un nuevo fármaco ya en uso contra la diabetes. Conscientes de todo esto, un consorcio de siete empresas y centros de investigación de varios países europeos se lanzaron hace cuatro años a recopilar la mayor base de datos de toxinas del mundo.

Los resultados de Venomics, financiado con seis millones de euros de la Unión Europea, se acaban de presentar en París. Este diario fue invitado a asistir por la empresa valenciana Sistemas Genómicos, que ha participado en el proyecto. En total se ha recogido veneno de 203 animales diferentes. La mayoría de este “El Dorado” farmacológico, como lo definen sus creadores, está aún por explorar.

Los venenos son cócteles de muchas sustancias, en ocasiones más de 1.000. Algunas de esas toxinas son letales y otras pueden ser lo contrario. Por ejemplo, hay un caracol marino que segrega un analgésico 1.000 veces más potente que la morfina y que ya se usa para enfermos con dolor intratable. Anestesiar a la víctima antes de matarla parece un comportamiento muy considerado para un caracol, pero todo tiene sentido. Estos animales avanzan muy lento, por lo que necesitan que su presa caiga redonda justo frente a ellos. El anestésico es solo uno de los compuestos del veneno que ayudan a conseguirlo.

La mayoría de bases de datos reunidas hasta ahora se centraban en animales “clásicos”: serpientes, arañas, escorpiones… y eran fragmentarias. Varios miembros del equipo viajaron a la Guayana Francesa, la isla de Mayotte y la Polinesia en busca de especies que no se hubieran analizado antes. Aparte de los “clásicos” su colección incluye peces, pulpos, medusas, escolopendras, abejas, abejorros, avispas y hormigas, entre otros. Para capturarlos valía todo, desde una botella de plástico cortada por la mitad para cazar arañas, a localizar y operar a un heloderma, un lagarto cuyo veneno nunca se había analizado, gracias a una empresa belga especializada en vender toxinas y venenos.“No queríamos matarlo, así que lo anestesiaron y le extrajeron una de sus dos glándulas de veneno”, recuerda Frédéric Ducancel, investigador de la Comisión de Energía Alternativa y Atómica de Francia y encargado de la recolección de animales.

Capturada la ponzoña, el equipo se centró en obtener la receta para cocinarla. Para ello se secuenció el ARN de las glándulas que producen el veneno. El ARN es la molécula que lee las instrucciones escritas en el ADN y las transcribe para producir péptidos, las pequeñas proteínas que componen el veneno. La tecnología usada, conocida como transcriptómica de novo, analiza en masa todo el ARN presente en una muestra y después identifica solo los fragmentos que interesan. “Se podría decir que es como montar un puzle de 500.000 piezas sin tener el dibujo de referencia”, explica Rebeca Miñambres, responsable de proyectos de la empresa valenciana Sistemas Genómicos, encargada de esta fase del proyecto y de la elaboración de la base de datos final. Esta tecnología, que hace cinco años no existía, identifica moléculas de interés farmacológico varias veces más rápido que la industria farmacéutica, resalta Miñambres.

“Esto nos ha permitido reducir al máximo el número de animales sacrificados”, explica Ducancel. Además, “el 90% de todos los animales venenosos son muy pequeños”, resalta este virólogo y, gracias a la tecnología usada se ha podido explorar el potencial farmacológico de sus venenos “por primera vez”.

La base de datos final contiene secuencias de 25.000 toxinas. De todas ellas, el laboratorio de Renaud Vincentelli, en la Universidad de Aix-Marsella y el CNRS, ha conseguido sintetizar in vitro 4.000 toxinas, un paso clave hacia un posible uso farmacológico. Su equipo cocina las toxinas gracias a bacterias a las que introduce parte de la maquinaria genética de los animales.

Ahora, otros miembros del consorcio rastrean ese banco de toxinas en busca de sustancias con efecto farmacológico. Por el momento hay 30 que podrían transformarse en fármacos “contra enfermedades autoinmunes, esclerosis múltiple o artritis”, explica Frosty Loechel, de la empresa danesa Zealand Pharma. “La tasa de éxito de nuevos fármacos es muy baja y esperamos que esto nos ayude a aumentarla”, añade.

En la Tierra existen unas 170.000 especies venenosas diferentes. Según Ducancel, solo conocemos la punta del iceberg porque hay muchas trabas. Una es la propiedad intelectual. Muchos países con gran biodiversidad son muy celosos de protegerla, dice, o quieren una compensación económica si una toxina acaba siendo patentada. Por eso el proyecto se centró en territorios franceses de ultramar y se limitó al ámbito de la UE. Si de aquí sale alguna patente esta será para una empresa u otro socio del proyecto. “Como proyecto europeo aquí se buscaba estimular el negocio la economía y los empleos”, admite Ducancel. Y ahora, dice, “¿por qué no hacer la biblioteca de todos los venenos europeos

Fuente: http://elpais.com/elpais/2015/10/22/ciencia/1445530682_583840.html/1445530682_583840.html

Charla del Prof. Herradón: “La Química del Cine”

Excelente Conferencia Inaugural del Curso Académico en la Facultad de Farmacia de Albacete (24 de septiembre de 2015). Merece la pena escuchar algunas de las contribuciones de la ciencia en el arte del cine y de las series de televisión

Un viaje desde los modelos atómicos hasta el bosón de Higgs

Resumen: ¡Un viaje desde el año 1803 hasta el año 2013!; así de largo ha sido el camino desde el descubrimiento de los átomos hasta el hallazgo del bosón de Higgs. Tuvieron que pasar más de 2000 años desde que Demócrito planteara su teoría de los átomos en el siglo V a.C. La búsqueda del conocimiento de la naturaleza de la materia de que están hechas las distintas cosas que nos rodean ha sido una constante a lo largo de la historia de la humanidad. En el artículo se recogen los principales hitos que desarrollaron el nacimiento de la estructura atómica de la materia.

Cronología de los modelos atómicos

Los estudios que se sucedieron durante todo el siglo XX originaron una revolución científica con un nuevo modelo atómico muy perfeccionado, el modelo cuántico, que explica, por ejemplo, la relación existente entre la estructura atómica y la tabla periódica, o la formación de las sustancias químicas. La historia de la estructura del átomo, desde finales del siglo XIX y principios del XX, demuestra que los modelos de Thomson, Rutherford y Bohr evolucionaron de manera vertiginosa y tuvieron que competir con modelos atómicos basados en programas de investigación rivales. Este período histórico de la evolución del conocimiento sobre la estructura del átomo ha sido objeto de considerables debates y controversias en la literatura de la historia y filosofía de la ciencia, debido a que la teoría atómica se considera como una de las teorías más importantes de la ciencia. Esta afirmación se sustenta en dos aspectos:

  • Esta teoría es capaz de describir con gran precisión una parte tan pequeña y universal de la materia como es el átomo.
  • Constituye la base para todo el conocimiento de los fenómenos químicos de la materia.

En el desarrollo histórico de la teoría de la estructura atómica se pueden destacar tres grandes etapas:

  • El descubrimiento de la naturaleza eléctrica de la materia y de la naturaleza del electrón.
  • El descubrimiento de que el átomo consta de un núcleo rodeado por electrones.
  • El descubrimiento de las ecuaciones de la mecánica cuántica, capaces de explicar el comportamiento de los electrones en los átomos.

A lo largo del artículo se realiza un recorrido histórico por las diferentes teorías atómicas, desde la teoría de Thomson hasta llegar a la teoría para el átomo de hidrógeno de Bohr. Durante este recorrido se presentan diversos experimentos que influyeron decisivamente en la propuesta y/o refutación de los diferentes modelos atómicos. También se comentarán los experimentos que dieron lugar a aceptar el modelo atómico actual, descrito mediante la mecánica cuántica.

En primer lugar, para tomar situación, se puede exponer una breve cronología de los acontecimientos que dieron lugar al desarrollo de los diferentes modelos atómicos:

  • Desde la antigüedad se conocía que la materia presentaba una propiedad general llamada carga eléctrica. Esa propiedad hacía que aparecieran atracciones y repulsiones en materiales como el ámbar (que en griego significa electrón) y muchos otros como la lana, la piel de muchos animales, etc.
  • A principios del siglo XIX, Michael Faraday (1791-1867) formuló la hipótesis de que la conducción eléctrica en disoluciones de sales se debe a la existencia de partículas positivas y negativas que pueden desplazarse en la disolución. Estas partículas, que eran diferentes según fuera la sal disuelta, recibieron el nombre de iones (que en griego significa “que viaja”). Cuando se conecta la disolución a una fuente de alimentación como una pila, la corriente eléctrica “viaja” a través de la misma gracias a los iones; los iones positivos, llamados cationes, se mueven dirigiéndose hacia el cátodo o polo negativo de la pila y los iones negativos o aniones se mueven al mismo tiempo dirigiéndose al polo positivo o ánodo.
  • Arrhenius amplió el trabajo de Faraday. Dedujo que un ión no era más que un átomo con carga positiva o negativa.
  • En 1896, el matrimonio Curie, en sus experiencias sobre radioactividad, descubrió que el átomo puede descomponerse por medio de la emisión de partículas. Paralelamente, Thomas A. Edison (1847-1931) descubre que los metales incandescentes emitían unas partículas, siempre las mismas, cualquiera que fuera el metal.
  • En 1897, Joseph J. Thomson identifica en diferentes gases a baja presión, sometidos a fuertes descargas eléctricas, la existencia de unas partículas negativas (los electrones) cuya carga y masa no dependían del gas utilizado en las experiencias. Estas partículas tenían una masa casi 2000 veces menor que la del átomo de hidrógeno, que es el elemento más ligero, y eran las mismas partículas de las experiencias de Edison y de los Curie. El átomo era, por lo tanto, divisible y el modelo anterior de Dalton debía de cambiarse por otro que contuviera partículas negativas y positivas.
  • En 1911, Ernest Rutherford, pupilo de Thomson, a partir de una experiencia que realizó investigando cuál podría ser la estructura interna del átomo, introdujo por vez primera un modelo de átomo nuclear: el átomo está formado por un núcleo atómico con cargas positivas o protones alrededor del cual se mueven las cargas negativas o electrones. Posteriormente, en 1932, James Chadwick (1891-1974) descubriría el neutrón, partícula con masa casi igual a la del protón pero sin carga. Anteriormente se había postulado su existencia, pero era muy difícil su detección.
  • En 1913, Niels Bohr, alumno de Rutherford, postuló un modelo cuantizado del átomo que explica cómo los electrones pueden tener órbitas estables alrededor del núcleo. Este trabajo lo publicó bajo el título “On the Constitution of Atoms and Molecules”. Estaba basado en un modelo planetario que no representa el átomo (objeto físico) en sí, sino que explicaba su funcionamiento por medio de ecuaciones. Intentaba realizar un modelo atómico capaz de explicar la estabilidad de la materia y los espectros de emisión y absorción discretos que se observan en los gases. Para ello, entre otras cosas, supuso que los electrones solamente se podían mover en órbitas específicas alrededor del núcleo, cada una de las cuales caracterizada por su nivel de energía. Debido a su simplicidad, el modelo es todavía utilizado frecuentemente como una simplificación de la estructura de la materia a nivel atómico. Además, en el modelo de Bohr, los electrones podían pasar desde una órbita exterior a otra interior, emitiendo un fotón de energía discreta, hecho fundamental sobre el que se sustenta la mecánica cuántica actual.
  • En 1925 nace la mecánica cuántica. Los trabajos de Erwin Schrödinger (Figura 1), Werner Heisenberg, Paul Dirac, Louis de Broglie, Wolfgang Pauli y otros, cambian la concepción del átomo radicalmente. También nace la electrodinámica cuántica, que describe las partículas que intervienen en el campo electromagnético descrito por Maxwell. Después de que Louis de Broglie (1892-1987) propusiera la naturaleza ondulatoria de la materia en 1924, la cual fue generalizada por Erwin Schrödinger en 1926, se actualizó el modelo del átomo, siendo éste el aceptado actualmente. En el modelo de Schrödinger se abandonaba la concepción de los electrones como esferas diminutas con carga que giran en torno al núcleo, que era una extrapolación de la experiencia a nivel macroscópico hacia las diminutas dimensiones del átomo. En vez de esto, Schrödinger describió a los electrones por medio de una función de onda, en la que el cuadrado de la misma representa la probabilidad de la presencia en una región delimitada del espacio. Esta zona de probabilidad se conoció como orbital.

Figura 1. Erwin Schrödinger (1887-1961).

Evolución histórica de los modelos atómicos

Para entender como era el comportamiento de la materia se diseñaron modelos atómicos cada vez más aceptables por la comunidad científica. La concepción del átomo que se ha tenido a lo largo de la historia ha variado de acuerdo a los descubrimientos realizados en el campo de la física y la química. A continuación se detallará la evolución atómica y los modelos propuestos para explicarlo por científicos de diferentes épocas.

En el inicio del viaje evolutivo se tiene que remontar a la Grecia clásica, donde Leucipo de Mileto y, fundamentalmente su discípulo, Demócrito de Abdera (siglos V y IV a. C.), considerados los fundadores del atomismo, propusieron dicha corriente filosófica basada en que todo lo que existe está formado por combinaciones de pequeñas partículas indivisibles denominadas átomos. Por otra parte, Empédocles, también en el siglo V a. C., elabora la teoría de las cuatro raíces, que establece que cualquier sustancia está compuesta por una mezcla de agua, aire, tierra y fuego. El gran filósofo griego, Aristóteles, rechazaba el atomismo porque consideraba que el vacío no existía y que, por lo tanto, la materia debe ser continua y llamó elementos a las cuatro raíces de Empédocles.

La gran influencia de Aristóteles en la filosofía, la ciencia y la iglesia hizo que, durante casi 2000 años, el concepto de átomo quedase aparcado y archivado. De esta forma saltamos hasta el siglo XVII, en donde dos brillantes científicos, el químico Robert Boyle (1627-1691) y el físico Isaac Newton (1642-1727), de forma independiente, retoman la teoría atómica.

Boyle realizó experimentos sobre el comportamiento de los gases y descubre que, en condiciones de igual temperatura, el volumen de un gas es inversamente proporcional a la presión a la que está sometido. Esto más tarde se conocería como la ley de Boyle o ley de Boyle-Mariotte. Para explicar este comportamiento, Boyle propuso que los gases se comportan como si estuvieran compuestos de pequeñas partículas que colisionan entre sí y que reciben el nombre de átomos. A través de este modelo explica el calor como el resultado del movimiento de los átomos. Sin embargo, la teoría atómica no fue tomada en cuenta por dos razones de peso: por una parte, no era capaz de explicar otros fenómenos relacionados con la materia y, por otra parte, no se diseñan ni realizan experimentos para probar dicha teoría.

Los finales del siglo XVIII y comienzos del XIX verían como se formulaban el resto de las leyes de los gases, debidas principalmente a J. A. C. Charles y L. J. Gay-Lussac.

Nada más comenzar el siglo XIX, un naturalista británico, John Dalton (Figura 2), a partir de sus estudios sobre el comportamiento de los gases elabora, en 1803, su teoría atómica de la materia que se basa en cinco principios:

  1. Los elementos están formados por partículas extremadamente pequeñas denominadas átomos.
  2. Los átomos de un determinado elemento son idénticos en tamaño, masa y otras propiedades. Los átomos de distintos elementos difieren en tamaño, masa y otras propiedades.
  3. Los átomos no pueden subdividirse, crearse o destruirse.
  4. Los átomos de distintos elementos se combinan en relaciones simples para formar compuestos químicos.
  5. En las reacciones químicas, los átomos se combinan, separan o reordenan.

Figura 2. John Dalton (1766-1844).

La teoría atómica de Dalton sigue siendo un pilar en la Química, si bien algunos de sus principios, especialmente el segundo y el tercero, fueron superados a medida que avanzó el conocimiento y la tecnología para rebatirlos. Dalton, realizó además una primera clasificación de los elementos conocidos en base a sus pesos atómicos.

En 1811, el científico italiano Amedeo Avogadro (1776-1856), basándose en los trabajos previos de Gay-Lussac (1778-1850) y Dalton, formuló la ley que lleva su nombre y que establece que:

Volúmenes iguales de gases diferentes sometidos a las mismas condiciones de presión y temperatura tienen el mismo número de partículas

En honor a su descubrimiento, el número de partículas (átomos, moléculas, iones, etc.) contenidos en un mol recibe el nombre de Número de Avogadro (6,023·1023 partículas·mol-1).

A lo largo del siglo XIX, la química avanza exponencialmente en la identificación y la clasificación de los distintos tipos de átomos, proceso en el que hay que destacar las aportaciones de científicos como John Newlands, Lothar Meyer y, el considerado padre de la tabla periódica de los elementos químicos, el científico ruso Dimitri Mendeléiev.

En 1836, Michael Faraday realizó experimentos relacionados con el paso de corrientes eléctricas a través de gases a muy baja presión, y observa un arco que sale del cátodo y llega al ánodo. Faraday concluyó que este arco era debido a la aceleración por el campo eléctrico, de iones presentes, de forma espontánea, en dicho gas. En 1869, mientras experimentaba sobre la conductividad eléctrica en gases rarificados (a muy baja presión), el físico alemán Johann Wilhelm Hittorf (1824-1914), descubre que la radiación emitida por el cátodo viaja siguiendo una línea recta hasta el ánodo. Posteriormente, Eugen Goldstein (1850-1930) bautizaría a esta radiación el nombre de rayos catódicos. Sin embargo, atendiendo a la historia, los rayos catódicos fueron descubiertos por vez primera por Plucker en 1858. El punto de vista de este investigador sobre la naturaleza de la electricidad encajaba dentro de la aceptada tradición de la electrodinámica de Maxwell.

A finales del siglo XIX, el científico británico J.J. Thomson (Figura 3), realizó una serie de experimentos con los rayos catódicos y, postula que los rayos catódicos están formados por unas partículas cargadas 1000 veces más pequeñas que un átomo. Thomson afirmó que estas partículas, a las que denominó corpúsculos, forman parte del átomo. Los corpúsculos de Thomson, son rebautizados con el nombre de electrones por G. J. Stoney (1826-1911). Thomson, además del descubrimiento de los electrones, efectuó otras dos aportaciones: el descubrimiento de los isótopos y el espectrógrafo de masas. Con el descubrimiento de los electrones y de los isótopos, Thomson quería desmontar dos de los principios del modelo atómico de Dalton. Por lo tanto, el descubrimiento de los electrones llevó a Thomson a postular un modelo atómico de la materia. Thomson sabía que los electrones tenían carga negativa y supuso que, dado que la materia es neutra, existe otra parte del átomo que tiene carga positiva. A partir de estas premisas, propuso un modelo de estructura atómica que denominó de “pudín de pasas”, en el que postuló que los electrones son como las pasas que están incrustadas en una “masa” de carga positiva. La carga del electrón se determinaría, de forma precisa, por Robert Millikan en 1909.

Pero para Thomson la electricidad era un estado tenso del éter, y la descarga en los tubos de rayos catódicos era una relajación de ese estado, con una consecuente disipación de energía. En el momento en que Thomson realizó sus experimentos, estaba consciente de la controversia con respecto a la naturaleza de los rayos catódicos, la cual giraba en torno a la pregunta: ¿eran partículas u ondas en el éter? La controversia realmente comenzó en 1879 con el apoyo del químico sir William Crookes (1832-1919) a la teoría de partículas de los rayos catódicos. La desviación de los rayos catódicos por un campo electrostático se consideró una fuerte evidencia a favor de esta teoría. Los partidarios de la teoría del éter, Goldstein, Hertz y Weidemann, suministraron evidencias experimentales de que los rayos catódicos no eran desviados por un campo eléctrico, describiendo los rayos como una clase de perturbación etérea similar a la luz.

A principios de 1897, Thomson efectuó una serie de experimentos cuyos resultados fueron publicados en la revista Philosophical Magazine. Entre los aspectos más destacables en el artículo de Thomson estaban: 1) establece que los experimentos tienen como objetivos, específicamente, lograr alguna información en cuanto a la naturaleza de los rayos catódicos; 2) describe la controversia con respecto a la naturaleza de los rayos catódicos y se muestra inclinado a favor de la teoría de partículas; 3) explica la razón por la cual el físico Heinrich Hertz (1857-1894) no pudo obtener una desviación de los rayos catódicos electrostáticamente, debido a que ésta podía ser obtenida solamente cuando el vacío era muy bueno; 4) resume las propiedades de los rayos catódicos y señala un aspecto fundamental de sus experimentos: los rayos catódicos son los mismos, cualquiera que sea el gas a través del cual pasan las descargas, concluyendo que:

“Cuando los rayos catódicos transportan una carga, son desviados por una fuerza magnética en la misma forma que esta fuerza pudiera actuar sobre un cuerpo electrificado negativamente moviéndose a lo largo de la trayectoria de estos rayos, no puedo ver escapatoria a la conclusión de que ellos son cargas de electricidad negativa transportadas por partículas de materia…”

Con este último punto demostraba claramente la determinación de la relación masa/carga (m/q) de las partículas de los rayos catódicos. Thomson reportó en su artículo un valor de 10-7 para la razón masa/carga de los rayos catódicos, siendo ésta la contribución experimental y cuantitativa más importante de su artículo. Esta postulación de Thomson fue un reflejo de la capacidad creativa de los científicos, debido a que su autor fue más allá de la simple presentación de los resultados experimentales, mediante la especulación, proposición de hipótesis y de un modelo. Esto demuestra claramente que para la evolución de la ciencia lo más importante no son los resultados experimentales, sino los principios explicativos que permiten a un trabajo de investigación predecir hechos que son teóricamente nuevos y, por tanto, el diseño de los mismos experimentos.

Figura 3. Joseph John Thomson (1856-1940).

Finalizando el siglo XIX aparece un científico clave en el modelo de la naturaleza clásica de la materia: el físico británico, de origen neozelandés, Ernest Rutherford (Figura 4). En sus experimentos con radiación, Rutherford, estudió la radioactividad y clasificó la radiación resultante de los procesos radioactivos en alfa, beta y gamma dependiendo de la capacidad de penetración y de causar ionización. Los trabajos sobre la radioactividad le harían merecedor del premio Nobel de Química en 1908.

Pero antes de comenzar a desarrollar la teoría del átomo nuclear, Rutherford estuvo dedicado al estudio de la radioactividad, especialmente en lo referente a la naturaleza de las partículas alfa. Un problema inesperado llamó la atención de Rutherford: la dispersión de las partículas alfa, es decir, la desviación de su propia trayectoria cuando atravesaban la materia. La brillantez de Rutherford desempeñó un importante papel en la resolución de un problema aparentemente insignificante. El físico alemán Johannes Geiger (1882-1945) y su joven ayudante Marsden, asumieron el reto planteado por Rutherford: ¿por qué no analizar si cualquier partícula alfa puede ser desviada en un ángulo grande? En el año 1909, los hallazgos de Geiger y Marsden fueron extraordinarios:

“Una pequeña fracción de las partículas alfa incidentes sobre el metal cambia su dirección en una forma tal que ellas emergen de nuevo en dirección opuesta al lugar de incidencia”.

En 1911, Rutherford junto con varios colaboradores, diseñó un experimento que consistía en bombardear con partículas alfa una lámina muy fina de oro (de unos pocos cientos de átomos de espesor) y registrar las trayectorias de las partículas alfa. De acuerdo al conocimiento existente (modelo atómico de Thomson) el resultado esperado era que, en su interacción con los átomos de oro, las partículas alfa sufrirían una leve modificación de sus trayectorias. Sin embargo, los resultados del experimento mostraron que, si bien la mayor parte de las partículas alfa no variaban su trayectoria al atravesar la lámina de oro, había partículas que se desviaban en ángulos bastante considerables e incluso algunas rebotaban completamente.

Figura 4. Ernest Rutherford (1871-1937).

Los resultados de dicho experimento hicieron que Rutherford postulase un nuevo modelo atómico consistente en un núcleo de reducidas dimensiones (con un radio de 10-14 a 10-15 metros) que concentra la carga positiva del átomo y la mayor parte de la masa alrededor de este núcleo, a una distancia de unos 10-10 metros, orbitarían los electrones. Los electrones tendrían que circular a una velocidad que permitiese compensar la atracción ejercida por la carga del núcleo.

Sin embargo, el modelo atómico de Rutherford presentaba un pequeño inconveniente y era que, sobre la base de la electrodinámica clásica, formulada por James Clerk Maxwell era inherentemente inestable. A diferencia de un sistema planetario, las partículas que se mueven en el modelo atómico de Rutherford son partículas cargadas (electrones) y su movimiento tiene lugar dentro de un campo eléctrico (el creado por el núcleo atómico). De acuerdo a la electrodinámica clásica, el átomo debería emitir energía en forma de ondas por lo que, de forma inexorable, los electrones terminarían cayendo sobre el núcleo atómico y esto ocurriría, de acuerdo a los cálculos, en centésimas de microsegundo. Sin embargo, la realidad nos dice que, en general, los átomos son estables y la realidad hizo que no se prestara mucha atención al modelo de Rutherford.

A finales de 1911, Thomson tenía trabajando con él a un joven físico danés, de nombre Niels Bohr (Figura 5), que había llegado a Cambridge atraído por el prestigio de Thomson y consideraba que era donde se hacía la física más avanzada del momento. Al parecer, la relación personal entre el joven estudiante de post-doctorado danés y el laureado físico británico no se desarrolló de forma que esperaba Bohr. En Inglaterra conoce a Rutherford y le solicita continuar su post-doctorado con él, en Manchester, a lo que el neozelandés accede con la condición de que Thomson esté de acuerdo. Bohr consigue el permiso de Thomson y, a principios de 1912, se desplaza a Manchester. Inicialmente, Bohr trabaja en determinados experimentos pero, sintiendo que la física experimental no era su fuerte, solicita y consigue de Rutherford el trabajar en el campo teórico, inicialmente en aspectos relacionados con la radioactividad, los cuales le conducen al campo de la estructura atómica. Bohr era consciente que intentar explicar las paradojas del modelo atómico desde un enfoque clásico era inútil. Desde el punto de vista clásico, el átomo no existe ya que es inherentemente inestable pero la realidad nos dice que los átomos existen. Es imposible, en el ámbito de la física clásica, obtener una formulación teórica matemática del átomo. Bohr, al igual que hiciera Einstein años atrás, invocando el principio heurístico, afirma que dado que los átomos son estables deberían existir configuraciones determinadas de los electrones que orbitan alrededor del núcleo que sean estables y postula que estas configuraciones están relacionadas, de forma no especificada, con la constante de Planck que, como habíamos visto, determinaba la cuantización de la energía. Bohr llegaría a afirmar que:

“…parece rigurosamente probado que la mecánica no puede explicar los hechos que tienen que ver con problemas relacionados con átomos individuales”

Es decir, cuando nos aproximamos a lo más pequeño, el modelo propuesto por la mecánica clásica no explica de forma correcta los hechos reales. Se hace necesario un nuevo modelo no clásico capaz de dar explicación a los fenómenos que ocurren en esa escala. De forma similar a la ley de Planck, que establece que la energía en forma de radiación se emite, y absorbe, en múltiplos enteros de cantidades discretas, denominadas cuantos (hν), Bohr afirma que los electrones se encuentran únicamente en órbitas con energías que son múltiplos enteros de hν.

Bohr trabajó en su modelo atómico durante 1912 y 1913 buscando resultados experimentales que permitan darle validez. En 1913, la llamada fórmula de Balmer, reclamó su atención (Ecuación 1). La fórmula de Balmer (generalizada posteriormente por Rydberg) es una fórmula puramente empírica que permite relacionar las distintas líneas que aparecen en el espectro del átomo de hidrógeno:

Ecuación 1. Fórmula de Balmer (1825-1898).

En la anterior ecuación, RH es la denominada constante de Rydberg. Bohr fue capaz de dar una explicación a las líneas espectrales afirmando que esas líneas representaban la diferencia de energía entre las distintas órbitas estables de su modelo atómico. También deriva el valor de RH de otras constantes físicas conocidas (como eran la constante de Planck, masa del electrón y carga del electrón) y, además predice la aparición de nuevas líneas en regiones del espectro no exploradas. Adicionalmente, Bohr define que las órbitas de los electrones deben tener un momento angular determinado y fijo y que las transiciones de los electrones entre las distintas formas ocurren en forma de saltos instantáneos. Bohr postula lo siguiente:

“…el equilibrio dinámico de los sistemas en las órbitas estables puede discutirse con la ayuda de la mecánica ordinaria mientras que el paso de los sistemas entre las diferentes órbitas estables no puede ser tratado de acuerdo a esa base”

En marzo de 1913 Bohr presentó a Rutherford un primer proyecto sobre la constitución de átomos y moléculas, después de lo cual fue publicado en la revista Philosophical Magazine en julio del mismo año. Los aspectos más trascendentales del artículo fueron los siguientes: 1) explica los experimentos de Rutherford con partículas alfa y su teoría de la estructura del átomo; 2) describe la estabilidad paradójica que presenta el modelo de Rutherford y, aprovecha la oportunidad para descartar el modelo de Thomson: “…en un intento por explicar alguna de las propiedades de la materia basado en este modelo, nos encontramos, sin embargo, con dificultades de una naturaleza seria, provenientes de la aparente inestabilidad del sistema de electrones: dificultades expresamente evitadas en modelos del átomo previamente considerados, por ejemplo, en uno propuesto por Sir J. J. Thomson”. Para Bohr, la principal diferencia entre los modelos de Rutherford y de Thomson, está en que el segundo permite a los electrones determinadas configuraciones y movimientos, para los cuales el sistema mantiene un equilibrio estable, lo cual aparentemente no existe para el modelo de Rutherford. 3) Bohr formula su postulado: “…el átomo es un pequeño sistema solar con un núcleo en el centro y electrones moviéndose alrededor del núcleo en órbitas estables bien definidas y cuantizadas, teniendo cada una de ellas una energía asociada”

Figura 5. Niels Bohr (1885-1962).

No obstante, uno de los aspectos más polémicos del modelo del átomo de Bohr fue la presencia de un profundo vacío filosófico. En los estados estacionarios, el átomo obedece las leyes clásicas de la mecánica newtoniana, por otro lado, cuando el átomo emite radiación, exhibe conducta discontinua (cuanto), de acuerdo con la primera ley propuesta por Planck en 1900.

Cabe mencionar que el artículo de Bohr de 1913 tuvo una recepción bastante opuesta en la comunidad científica de su época, especialmente por Thomson, quien objetó la concepción del átomo de Bohr en la mayoría de sus escritos desde 1913 hasta 1936. Sin embargo, Bohr no pudo explicar la existencia de órbitas estables, pero encontró que el momento angular del electrón era h/2π por un método el cual no pudo justificar. Pero sin lugar a dudas, el mayor éxito de Bohr fue dar la explicación al espectro de emisión del hidrógeno.

Relación de la luz con la materia

Entre finales del siglo XIX y comienzos del XX, parecía que el edificio del conocimiento se encontraba casi completo. Desde Newton, los casi doscientos años de trabajo teórico y experimental en el campo de las ciencias naturales hacían que, prácticamente todos los fenómenos conocidos en distintos campos: dinámica, mecánica, óptica, termodinámica, electricidad, magnetismo, etc, tuvieran una explicación racional, determinista y coherente con las observaciones y la lógica.

Repasando en la historia de la búsqueda del entendimiento de la naturaleza de la luz, se debería comenzar en el último tercio del siglo XIX, destacando la publicación de las ecuaciones de James Clerk Maxwell (Figura 6), basadas en previas investigaciones de Faraday, Coulomb, Ampere y Gauss, que unificaron las interacciones electromagnéticas con la luz. Por otra parte, la teoría ondulatoria de la luz, iniciada por el científico inglés Thomas Young (1773-1829) e impulsada a comienzos del siglo XIX por el físico francés Agustin Fresnel (1788-1827), proporcionó un marco teórico y una explicación racional a los fenómenos observados y se mostraba superior a la teoría corpuscular de Newton. Maxwell creía en la existencia de una sustancia, el éter, que proporcionaba el soporte necesario a la transmisión de las ondas luminosas. Las propiedades físicas de esa hipotética sustancia eran contradictorias: por una parte debía tener una densidad ínfima que permitiera la velocidad de transmisión de la luz y, por otra parte debería ser muy rígida y tener un gran coeficiente de elasticidad para poder transmitir las vibraciones de alta frecuencia, sin embargo, los planetas lo atravesaban fácilmente.

Figura 6. James Clerk Maxwell (1831-1879).

El propio Maxwell propuso un experimento que podía demostrar la existencia del éter y que consistía en dividir un rayo de luz en dos, haciendo que cada uno de estos rayos viajase la misma distancia en direcciones distintas (uno en la dirección del movimiento de la Tierra con respecto al éter, y otro en la dirección perpendicular a dicho movimiento), ambos rayos se reflejarían y se harían coincidir en un punto. Analizando el patrón de interferencia se podría determinar que en una dirección la luz viajaría más rápido que en la otra, demostrándose la existencia del éter.

Albert Abraham Michelson (Figura 7) realizó el experimento mientras estaba trabajando en el laboratorio de Helmholtz en 1881 y, al no obtener diferencias en las velocidades de propagación de la luz, concluyó que bien se había producido un error experimental o que la Tierra, en su movimiento, arrastraba al éter de forma similar a como arrastra su propia atmósfera. Posteriormente Michelson, en 1887, con la colaboración de Edward Morley (1838-1923), diseñó y llevó a la práctica un famoso experimento que probaría la no existencia del éter. Las teorías de Maxwell, hasta entonces intocables, empezaban a desvanecerse.

Figura 7. Albert Abraham Michelson (1852-1931).

En el estudio de la radiación electromagnética y, por lo tanto, de la luz se utilizaba un objeto ideal conocido como cuerpo negro (concepto introducido por Gustav Kirchhoff en 1862) que es un objeto que absorbe toda la energía radiante que incide sobre él. El cuerpo negro emite energía de acuerdo a un patrón que se conoce como radiación de cuerpo negro. En 1879, el físico esloveno Josef Stefan (1835-1893) descubrió que la energía emitida como radiación por unidad de tiempo por un cuerpo negro era proporcional a la cuarta potencia de la temperatura absoluta del cuerpo. Diez años después su alumno, Ludwig Boltzmann (1844-1906), deriva matemáticamente el descubrimiento de Stefan a partir de la segunda ley de la Termodinámica formulando lo que se conoce como ley de Stefan-Boltzmann.

En 1896, Wilhelm Wien (1864-1928) describe el espectro producido cuando un cuerpo negro emite radiación. Wien descubre que la longitud de onda a la que la máxima energía es radiada se hace más corta a medida que la temperatura se incrementa, enunciando la conocida como ley de Wien. Esta ley explicaba el conocido fenómeno que se producía al calentar un metal, adquiriendo un color rojo y, a medida que la temperatura aumenta, el color se va desplazando a longitudes de onda menores. Si bien, la ley de Wien se ajusta a los resultados experimentales, no existía, dentro del marco de la física de la época, una explicación a la misma. Lord Rayleigh (1842-1919), que realizó en 1899 una importante contribución al conocimiento de la luz al explicar la razón por la que el color del cielo es azul (dispersión de Rayleigh) intentó, conjuntamente con Jeans, proporcionar una explicación a la ley de Wien partiendo de postulados clásicos a través de la formulación de la conocida como ley de Rayleigh-Jeans. Dicha ley describe el espectro de emisión del cuerpo negro a frecuencias bajas, pero se aleja de los datos observados para frecuencias altas. A medida que aumentan las frecuencias (o disminuye la longitud de onda) la energía emitida por el cuerpo negro, calculada de acuerdo a la ley de Rayleigh-Jeans, crece hacia el infinito incumpliendo el principio de conservación de la energía, produciéndose lo que se conoce como catástrofe ultravioleta.

Max Planck (Figura 8), en 1900, demostró que una descripción matemática de la radiación de un cuerpo negro que se ajusta a lo observado, podía realizarse si se supone que la materia sólo puede tener estados de energía discretos y no cualquier valor como suponía la hipótesis clásica, evitándose así la catástrofe ultravioleta. Planck formula su hipótesis en lo que se conoce como ley de Planck, constituyendo el primer pilar hacia formulación de la teoría cuántica de la materia. La ley de Planck propone que la radiación se emite y se absorbe en cantidades discretas (cuantos) y que la energía de los cuantos de radiación está relacionada con la frecuencia de la radiación a través de una constante que se conoce como constante de Planck (h).

Figura 8. Max Planck (1858-1947).

Otro fenómeno que condujo a la teoría cuántica de la luz y a ofrecer explicación de la naturaleza de los cuantos, fue el conocido como efecto fotoeléctrico. El efecto fotoeléctrico consiste en la emisión de electrones al incidir la luz sobre ciertos materiales. En 1887, Hertz observó que cuando la luz ultravioleta incide sobre electrodos metálicos, el voltaje requerido para producir una chispa era menor que el necesario en ausencia de radiación.

En 1900, Philipp Lenard (1862-1947) demostró que el efecto fotoeléctrico era el resultado de arrancar electrones. Años más tarde, en 1905, Albert Einstein (Figura 9), explicó el efecto fotoeléctrico postulando que la luz estaba compuesta por partículas discretas (ahora denominadas fotones) que son esencialmente cuantos de energía. Einstein postuló que existía una determinada frecuencia para cada metal por debajo de la cual, el efecto fotoeléctrico no se producía. Por su estudio sobre el efecto fotoeléctrico se le concedió a Einstein el Premio Nobel de Física en el año 1921.

Figura 9. Albert Einstein (1879-1955).

La masa de la materia y el bosón de Higgs

Los humanos han manipulado los átomos desde siempre para crear nuevos materiales y generar energía aprovechable, aún cuando ni siquiera sabíamos que existía el átomo. Componentes más pequeños que los átomos, como los quarks, leptones y bosones, se estudian actualmente para refinar nuestro entendimiento del Universo. Al igual que la Química posee una Tabla Periódica de los Elementos que se combinan, la Física tiene una tabla de subpartículas elementales que está descrita en el llamado Modelo Estándar donde se establecen 12 partículas diferentes. Actualmente se han identificado estas y otras subpartículas con dispositivos de altísima resolución como los colosales aceleradores del CERN, y varios de sus detectores como el CMS y ATLAS.

Todas ellas han sido observadas en alguna ocasión por los experimentos. Este modelo predice que todas las partículas tienen masa cero, algo totalmente imposible, a menos que exista otra partícula: el bosón de Higgs. Esta partícula fue postulada por primera vez en 1964 por el físico inglés Peter Higgs (Premio Nobel de Física en 2013; Figura 10). Es como si se tratase de un rascacielos de 12 plantas que se mantiene en pie pero que nadie es capaz de ver la primera planta del mismo. Siguiendo las leyes fundamentales de la Física, debería estar ahí esa planta porque los edificios no flotan en el aire. Pues bueno, el bosón de Higgs sería esa primera planta. No se puede ver físicamente pero sí obtener su efecto, que es por el cual los objetos adquieren masa.

El mundo de las partículas subatómicas se divide principalmente en dos tipos: fermiones y bosones. Los fermiones son partículas que componen la materia, y los bosones portan las fuerzas o interacciones entre ella. Los componentes del átomo (electrones, protones y neutrones) son fermiones, mientras que el fotón, el gluón y los bosones W y Z, son responsables respectivamente de las fuerzas: electromagnética, nuclear fuerte y nuclear débil. Un bosón es una partícula de espín entero, como el fotón, cuyo espín es la unidad. Un fermión (como el electrón) es una partícula de espín semientero (½ en este caso). Los fermiones son independientes: solo cabe uno en un estado cuántico determinado. Los bosones son todo lo contrario: añadirlos sucesivamente en el mismo estado necesita cada vez menos energía.

Figura 10. Peter Higgs (1929- ).

Los mecanismos de formación de la materia se producen a una escala entre un millón y un billón de veces más pequeña que la escala atómica. No hay modo de imaginárselo, pero lo que sí se sabe es que todas las cosas tienen masa. A medida que se profundiza en la materia llega un momento en que sus constituyentes ya no se pueden trocear más y estamos ante las partículas elementales. Se ha conseguido investigar y entender prácticamente todo lo que ocurría con ellas, salvo su masa. Cuando hemos troceado algo hasta dejarlo sin estructura, ¿de qué depende su masa? Esa ha sido una preocupación de la física en los últimos cincuenta años. El bosón de Higgs da respuesta a ese problema, sirviendo para explicar cómo esas partículas adquieren su masa por interacción con el campo energético invisible.

Bibliografía

Achinstein, P. Particles and Waves: Historical Essays in the Philosophy of Science, United Kingdom, Oxford University Press, 1991.

Bohr, N. On the constitution of atoms and molecules, Philosophical Magazine, 26, 1-25, 1913.

Bransden, B.H., Joachain, C.J. Physics of Atoms and Molecules, Harlow-Essex-England, Longman Group Limited, 1992.

Falconer, I. Corpuscles, electrons and cathode rays – Thomson, J.J. and the discovery of electron, British Journal for the History of Science, 20, 241-276, 1987.

Goldstein, E. On the Electric Discharge in Rarefied Gases, Philosophical Magazine, 10, 173-190, 1880.

Higgs, P. Broken Symmetries and the Masses of Gauge Bosons, Phys. Rev. Lett. 13, 508-509, 1964.

Holton, G. Science and anti-science, Cambridge University Press, 1993.

Niaz, M. From cathode rays to alpha particles to quantum of action: A rational reconstruction of structure of the atom and its implications for chemistry textbooks, Science Education, 82, 527–552, 1998.

Rañada, A. Dinámica Clásica. Madrid, Alianza Editorial, 1990.

Schwab, J. J. The concept of the structure of a discipline, U.S.A., In E. W. Eisner & E. Vallance Eds, 1974.

Thomson, J. J. Cathode Rays, Philosophical Magazine, 44, 293-316, 1897.

Wilson, D. Rutherford. Simple genius, Cambridge, Massachusetts MIT Press, 1983.

MISIÓN, VISIÓN y VALORES

Cada uno de nosotros somos nuestra propia “Empresa S.A.” la cual debería estar guiada por nuestra MVV (misión, visión y valores). Mi YO como empresa educativa tiene las siguientes:

MISIÓN: Transmitir conocimientos y aportar nuevas técnicas y metodologías al alumnado mediante un compromiso serio y una interacción creativa, apoyado en las nuevas tecnologías.

VISIÓN: Ser reconocido por promover la innovación metodológica, la comunicación fluida y la profesionalidad de los recursos generados. Ser ejemplo de calidad educativa y un referente en la creatividad al transmitir información. Lograr alumnos formados de manera íntegra, capaces de enfrentarse al mundo con las herramientas que les haya proporcionado en el proceso de aprendizaje.

VALORES: Conocimiento – Creatividad – Tecnología, siempre aplicadas desde mi filosofía educativa:

  1. Tú importas (en referencia al alumno)
  2. Uno aprende mejor aquello que siente (transmitir motivación, refuerzo positivo, estimulación en el proceso de aprendizaje, etc.)

mvv jpg

¡Educar con cariño, respeto y entusiasmo!

Desde mi humilde opinión, quizás los alumnos no recuerden la materia que se les enseña; lo que sí recuerdan es el cariño, el entusiasmo y el respeto que se les prestas al educarlos. Nuestra humanidad es lo que nos une, nos fortifica y lo que le da a la vida la razón de ser. Gracias Profesor Kessel por formar a tantas personas con pasión y, con su ejemplo, hacernos cada día un poquito mejor.

Isi Kessel, Professor and Chair Department of World Languages at Thomas Nelson Community College (Norfolk, Virginia, EEUU). Hispanista

I am passionate about educating the public and expanding their vision of their immediate and outside worlds. It is only through education that one becomes the person one hopes to become. Only few people have the opportunity to love what they do and to do what they love. After more than thirty years, I still love teaching, mentoring, creating staff development opportunities for colleagues, and exploring ways to better educate the public. I wake up every morning rearing to go because I know that I am fulfilling an important function: bettering humanity one person at a time.

TRADUCCIÓN:   Soy un apasionado educando a las nuevas generaciones y ampliando su visión tanto de su mundo inmediato como del venidero. Es sólo a través de la educación que uno se convierte en la persona que uno espera llegar a ser. Sólo pocas personas tienen la oportunidad de amar lo que hacen y hacer lo que les gusta. Después de más de treinta años, todavía me encanta la enseñanza, la tutoría, la creación de oportunidades de desarrollo profesional para los colegas de profesión, y explorar nuevas y mejores maneras de educar mejor a la ciudadanía. Me levanto cada mañana entusiasmado porque sé que estoy cumpliendo una función importante: mejorar la humanidad de una persona en este tiempo.

Excelente entrada: http://antonioperezesclarin.com/2014/09/09/pasion-por-educar/