lunes, 16 de abril de 2012
sábado, 14 de abril de 2012
Libro parte 2
4
En busca, aún, del átomo: químicos y electricistas
El científico no desafía al universo. Lo acepta. El universo es el plato que saborea, el reino que explora; es su aventura y su delicia inagotable, es complaciente y huidizo, nunca obtuso; es maravilloso en lo grande y en lo pequeño. En pocas palabras, explorar el universo es la más alta ocupación para un caballero.
I. I. RASI
Hay que admitirlo: los físicos no han sido los únicos que han ido tras el átomo de Demócrito. Los Químicos han puesto sus hitos en el camino, sobre todo durante la larga era (de 1600 a 1900 aproximadamente) que vio el desarrollo de la física clásica. La diferencia entre los químicos y los físicos no es en realidad insuperable. Yo empecé como químico, pero me pasé a la física, en parte porque era más fácil. Desde entonces he observado con frecuencia que algunos de mis mejores amigos les dirigen la palabra a los químicos.
Los químicos hicieron algo que no habían hecho los físicos que los antecedieron: realizaron experimentos relativos a los átomos. Galileo, Newton et al., a pesar de sus considerables logros experimentales, trataron de los átomos de una forma puramente teórica. No es que fueran vagos; carecían del equipo necesario. Tocó a los químicos efectuar los primeros experimentos que manifestaron la presencia de los átomos. En este capítulo le prestaremos atención a la abundancia de pruebas experimentales que apoyaron la existencia del á-tomo de Demócrito. Veremos muchos arranques en falso, algunos despistes y resultados mal interpretados, la cruz siempre del experimentador.
El hombre que descubrió veinticuatro centímetros de nada
Antes de que hablemos de los químicos propiamente dichos hemos de mencionar a un científico, Evangelista Torricelli (1608-1647), que tendió un puente entre la mecánica y los químicos en un intento por restaurar el atomismo como concepto científico válido. Por repetir, Demócrito dijo: «Aparte de átomos y espacio vacío, nada existe; lo demás es opinión». Por lo tanto, para probar la validez del atomismo, hacen falta los átomos, pero también el espacio vacío entre ellos. Aristóteles se opuso a la mera idea del vacío, e incluso durante el Renacimiento la Iglesia siguió insistiendo en que «la naturaleza aborrece el vacío».
Ahí es donde Torricelli hace acto de presencia. En los últimos tiempos de Galileo, fue uno de sus discípulos, y en 1642 el maestro le encomendó un problema. Los poceros florentinos habían observado que en las bombas de succión el agua no subía más de diez metros. ¿Por qué? La hipótesis inicial, avanzada por Galileo y otros, consistía en que el vacío era una «fuerza» y que el vacío parcial producido por las bombas impulsaba el agua hacia arriba. Estaba claro que Galileo no quería molestarse personalmente en investigar el problema de los poceros, así que delegó en Torricelli.
Torricelli se figuró que el vacío no tiraba del agua en absoluto, sino que era más bien empujada hacia arriba por la presión normal del aire. Cuando la bomba hace que la presión del aire sobre la columna de agua disminuya, el aire normal que está fuera de la bomba aprieta con más fuerza al agua del fondo, con lo que se obliga al agua de la cañería a subir. Torricelli puso a prueba está teoría el año después de que Galileo muriera. Razonó que, como el mercurio es 13,5 veces más denso que el agua, el aire sólo podría elevar el mercurio a 1/13,5 veces la altura a la que elevaba el agua —unos 760 milímetros—. Torricelli consiguió un tubo de cristal grueso de alrededor de un metro de largo cerrado por el fondo y abierto por arriba, e hizo un experimento sencillo. Rellenó el tubo de mercurio hasta el borde, cubrió la abertura superior con un tapón, puso el tubo cabeza abajo, lo colocó en un recipiente con mercurio y sacó el tapón. Un poco de mercurio salió del tubo y se derramó en la vasija. Pero, como Torricelli había predicho, quedaron 760 milímetros de mercurio en el tubo.
Se suele describir este acontecimiento trascendente de la historia de la física diciendo que se trató del invento del primer barómetro, y desde luego así fue. Torricelli observó que la altura del mercurio variaba de día en día; estaba midiendo las fluctuaciones de la presión atmosférica. Para nuestros propósitos, sin embargo, significó algo más importante. Olvidémonos de los 760 milímetros de mercurio que llenan la mayor parte del tubo. Esos extraños 240 milímetros que quedan arriba son los que nos importan. Esos pocos centímetros en la parte de arriba del tubo —el extremo cerrado— no contienen nada. Nada, realmente. Ni mercurio, ni aire, nada. O mejor dicho, casi nada. Es un vacío bastante bueno, pero contiene un poco de vapor de mercurio, en una cantidad que depende de la temperatura. El vacío es de unos 10—6 torr. (Un torr, nombre que viene del de Evangelista, es una medida de presión; 10—6 torr viene a ser alrededor de una mil millonésima de la presión atmosférica normal.) Las bombas modernas pueden llegar a 10—11 torr y menos. En cualquier caso, Torricelli había logrado el primer vacío de alta calidad creado artificialmente. No había manera de escapar de esta conclusión. Puede que la naturaleza aborrezca el vacío o puede que no, pero no le queda más remedio que pechar con él. Ahora que hemos probado la existencia del espacio vacío, nos hacen falta unos átomos para ponerlos en él.
La compresión del gas
Entra Robert Boyle. A este químico irlandés (1627-1691) le criticaron sus compañeros. Porque pensaba demasiado como un físico y muy poco como un químico, pero esta claro que sus hallazgos pertenecen más que nada al dominio de la química. Fue un experimentador cuyos experimentos se quedaban a menudo en nada, pero contribuyó a que la idea del atomismo avanzase en Inglaterra y en el continente. Se le ha llamado a veces «el padre de la química y el tío del conde de Cork».
Influido por el trabajo de Torricelli, Boyle se apasionó por los vacíos. Contrató a Robert Hooke, el mismo Hooke que tanto quería a Newton, para que le construyese una bomba de aire mejor. La bomba de aire inspiró un interés por los gases, Boyle se dio pronto cuenta de que éstos eran una de las claves del atomismo Puede que le ayudase en esto un poco Hooke, quien señaló que la presión que un gas ejerce sobre las paredes de su recipiente —como el aire que tensa la superficie de un globo-podría tener su causa en el movimiento agitado de los átomos. No vernos que los átomos del globo marquen bultos en éste porque hay miríadas de ellos, lo que produce la impresión de un empuje hacia afuera regular.
Como en el experimento de Torricelli, en los de Boyle intervenía el mercurio. Sellaba el cabo del lado corto de un tubo de cinco metros en forma de «J», y vertía mercurio por la boca del lado largo hasta cegar la curva de la «J». Seguía añadiendo mercurio; cuanto más echaba, menos espacio le quedaba al aire atrapado en el extremo corto. En consecuencia, la presión del aire crecía en el volumen cada vez menor, como podía medir fácilmente por la altura adicional del mercurio en la rama abierta del tubo. Boyle descubrió que el volumen del gas variaba inversamente con la presión sobre él. La presión del gas atrapado en el lado corto se debe a la suma del peso adicional del mercurio más la atmósfera, que, en el cabo abierto, aprieta hacia abajo. Si al añadir el mercurio la presión se duplicaba, el volumen del aire se reducía a la mitad. Si la presión se triplicaba, el volumen se quedaba en la tercera parte, y así sucesivamente. A este fenómeno vino a llamársele ley de Boyle, una de las piedras angulares de la química hasta hoy.
Más importancia tiene una derivación sorprendente de este experimento: el aire, o cualquier gas, puede comprimirse. Una forma de explicarlo es pensar que el gas se compone de partículas separadas por espacio vacío. Bajo presión, las partículas se acercan. ¿Prueba esto que el átomo existe? Por desgracia, cabe imaginar otras explicaciones, y el experimento de Boyle sólo proporcionó pruebas observacionales compatibles con el atomismo. Estas pruebas, eso sí, eran lo bastante fuertes para que contribuyesen a convencer, entre otros, a Isaac Newton de que la teoría atómica de la naturaleza era el camino que debía seguirse. El experimento de la compresión de Boyle puso, como muy poco, en entredicho el supuesto aristotélico de que la materia era continua. Quedaba el problema de los líquidos y los sólidos, a los que no podía comprimirse con la misma facilidad que a los gases. Esto no quería decir que no estuviesen compuestos por átomos, sino, sólo, que tenían dentro menos espacio vacío.
Boyle fue un campeón de la experimentación; ésta, pese a las hazañas de Galileo y de otros, seguía siendo vista con suspicacia en el siglo XVII. Boyle mantuvo un largo debate con Baruch Spinoza, el filósofo (y fabricante de lentes) holandés, acerca de si el experimento podía proporcionar demostraciones. Para Spinoza sólo el pensamiento lógico podía valer como demostración; el experimento era simplemente un instrumento en la tarea de confirmar o refutar una idea. Científicos tan grandes como Huygens y Leibniz también ponían en duda el valor de los experimentos. Los experimentadores siempre hemos tenido la batalla cuesta arriba.
Los esfuerzos de Boyle por probar la existencia de los átomos (prefería la palabra «corpúsculos») hicieron que la ciencia de la química, por entonces sumida en cierta confusión, progresase. La creencia prevaleciente entonces era la vieja idea de los elementos, que se remontaba al aire, tierra, fuego y agua de Empédocles y que se había ido modificando a lo largo de los años para incluir la sal, el azufre, el mercurio, el flegma (¿flegma?), el aceite, el espíritu (de las bebidas espirituosas), el ácido y el álcali. A la altura del siglo XVII, estas no eran sólo las sustancias más simples que, según la teoría dominante, constituían la materia; se creía que eran los ingredientes esenciales de todo. Se esperaba que el ácido, por poner un ejemplo, estuviera presente en todos los compuestos. ¡Qué confusos tenían que estar los químicos! Con estos criterios, debía ser imposible analizar hasta las reacciones químicas más simples. Los corpúsculos de Boyle les llevaron a un método más reduccionista, y más simple, de analizar los compuestos.
El juego de los nombres
Uno de los problemas a los que se enfrentaron los químicos en los siglos XVII y XVIII era que los nombres que se habían dado a una variedad de sustancias químicas carecían de sentido. Antoine-Laurent Lavoisier (1743-1794) hizo que todo cambiara en 1787 con su obra clásica, Méthode de Nomenclature Chimique. A Lavoisier se le podría llamar el Isaac Newton de la química. (Quizá los químicos llamen a Newton el Lavoisier de la física.)
Fue un personaje asombroso. Competente geólogo, Lavoisier fue también pionero de la agricul-tura científica, financiero capaz y reformador social que hizo lo suyo por promover la Revolución francesa. Estableció un nuevo sistema de pesos y medidas que condujo al sistema métrico decimal, en uso hoy en las naciones civilizadas. (En los años noventa, los Estados Unidos, por no quedarse demasiado rezagados, se van acercando poco a poco al sistema métrico.)
El siglo anterior había producido una montaña de datos, pero en ellos reinaba una desorganiza-ción desesperante. Los nombres de las sustancias —pompholix, colcótar, mantequilla de arsénico, flores de zinc, oropimente, etíope marcial— eran llamativos, pero no indicaban que hubiese detrás orden alguno. Uno de sus mentores le dijo a Lavoisier: «El arte de razonar no es más que un lenguaje bien dispuesto», y Lavoisier hizo suya esta idea. El francés acabaría por asumir la tarea de reordenar la química y darle nuevos nombres. Cambió el etíope marcial por óxido de hierro; el oropimente se convirtió en el sulfuro arsénico.
Los distintos prefijos como «ox» y «sulf», y sufijos, como «uro» y «oso», sirvieron para organizar y catalogar los nombres incontables de los compuestos. ¿Qué importancia tiene un nombre? ¿Habría conseguido Archibald Leach tantos papeles en las películas si no hubiese cambiado el suyo y adoptado el de Cary Grant?
No fue tan sencillo en absoluto para Lavoisier. Antes de revisar la nomenclatura hubo de revisar la teoría química misma. Las mayores contribuciones de Lavoisier se refirieron a la naturaleza de los gases y la combustión. Los químicos del siglo XVIII creían que, si se calentaba agua, se transmutaba en aire; de este creían que era el único gas auténtico. Gracias a los estudios de Lavoisier se cayó por primera vez en la cuenta de que todo elemento puede existir en tres estados: sólido, líquido y «vapor». Determinó, además, que el acto de la combustión era una reacción química en la que ciertas sustancias, el carbono, el azufre, el fósforo, ve combinaban con el oxígeno. Arrumbó la teoría del flogisto, que era un obstáculo aristotélico para el verdadero conocimiento de las reacciones químicas. Aún más, el estilo investigador de Lavoisier —basado en la precisión, la técnica experimental más cuidadosa y el análisis crítico de los datos reunidos puso a la química en sus derroteros modernos. Si bien la contribución directa de Lavoisier al atomismo fue de orden menor, sin los fundamentos establecidos por su obra no habrían podido descubrir los científicos del siglo siguiente la primera prueba directa de la existencia de los átomos.
El pelícano y el globo
A Lavoisier le fascinaba el agua. Por aquella época, muchos científicos aún estaban convencidos de que era un elemento básico, que no se podía descomponer en elementos menores. Algunos creían además en la transmutación, y pensaban que el agua se podía transmutar en tierra, entre otras cosas. Había experimentos que lo respaldaban. Si se pone a hervir un cacharro con agua el suficiente tiempo, acabará por formarse un residuo sólido en la superficie. Se trata de agua transmutada en otro elemento, decían esos científicos. Incluso el gran Robert Boyle creía en la transmutación. Había hecho experimentos donde se demostraba que las plantas crecían al absorber agua. Por lo tanto, el agua se transformaba en tallos, hojas, flores y demás. Os daréis cuenta de por qué tantos desconfiaban de los experimentos. Conclusiones así bastan para que uno empiece a estar de acuerdo con Spinoza.
Lavoisier vio que el fallo de esos experimentos se encontraba en la medición. Realizó su propio experimento. Hirvió agua destilada en una vasija especial, a la que se daba el nombre de «pelícano». El pelícano estaba diseñado de manera que el vapor de agua que se producía al bullir el agua quedase atrapado y se condensara en una cabeza esférica, de la que retornaba a la vasija de ebullición a través de dos tubos con forma de asa. De esta manera no se perdía agua. Lavoisier pesó cuidadosamente el pelícano y el agua destilada, y puso a hervir el agua durante 101 días. El largo experimento produjo una cantidad apreciable de residuo sólido. Lavoisier pesó entonces cada elemento: el pelícano, el agua y el residuo. El agua pesaba exactamente lo mismo tras 101 días de ebullición; algo dice esto de lo meticulosa que era la técnica de Lavoisier. El pelícano sin embargo, pesaba un poco menos. El peso del residuo era igual al perdido por el recipiente. Por lo tanto, el residuo del agua en ebullición no era agua transmutada, sino vidrio disuelto, sílice, del pelícano. Lavoisier había demostrado que la experimentación, sin mediciones precisas, no vale para nada e incluso induce a error. La balanza química de Lavoisier era su violín; lo tocaba para revolucionar la química.
Esto por lo que se refiere a la transmutación. Pero muchos, Lavoisier incluido, creían aún que el agua era un elemento básico. Lavoisier acabó con esa ilusión al inventar un aparato que tenía dos pitones. La idea era inyectar un gas diferente por cada uno, con la esperanza de que se combinasen y se formara una tercera sustancia. Un día decidió trabajar con oxígeno e hidrógeno; creía que con ellos formaría algún tipo de ácido. Pero lo que le salió fue agua. Dijo que era «pura como el agua destilada». ¿Por qué no? La producía a partir de sus componentes básicos. Obviamente, el agua no era un elemento, sino una sustancia que se podía fabricar con dos partes de hidrógeno y una de oxígeno.
En 1783 ocurrió un acontecimiento histórico que contribuiría indirectamente al progreso de la química. Los hermanos Montgolfier efectuaron las primeras exhibiciones de vuelos tripulados de globos de aire caliente. Poco después, J. A. C. Charles, nada menos que profesor de física, se elevó a la altura de tres mil metros en un globo relleno de hidrógeno. Lavoisier quedó impresionado; vio en esos globos la posibilidad de subir por encima de las nubes para estudiar los fenómenos atmosféricos. Poco después se le nombró miembro de un comité que había de buscar métodos baratos para la producción del gas de los globos. Lavoisier puso en pie una operación a gran escala con el objetivo de producir hidrógeno mediante la descomposición del agua en sus partes constituyentes; para ello la colaba a través de un tubo de cañón relleno de anillas de hierro calientes.
En ese momento, nadie con un poco de sentido creía aún que el agua fuese un elemento. Pero Lavoisier se llevó una sorpresa mayor. Descomponía agua en grandes cantidades, y siempre le salían los mismos números. El agua producía unos pesos de oxígeno e hidrógeno en una razón que era siempre de ocho a uno.
Estaba claro que actuaba algún tipo de mecanismo muy bien definido, un mecanismo que podría explicarse mediante un argumento basado en los átomos. Lavoisier no le dio muchas vueltas al atomismo; se limitó a decir que en la química actuaban partículas indivisibles simples de las que no sabíamos mucho. Claro, nunca tuvo la oportunidad de retirarse a escribir sus memorias, donde podría haber reflexionado más sobre los átomos. Temprano partidario de la revolución, Lavoisier cayó en desgracia durante el reino del terror, y fue enviado a la guillotina en 1794, a los cincuenta años de edad.
El día siguiente a la ejecución de Lavoisier, el geómetra Joseph Louis Lagrange resumió la tragedia: «Hizo falta sólo un instante para cortar esa cabeza, y harán falta cien años para que salga otra igual».
De vuelta al átomo
Una generación después, un modesto maestro de escuela inglés, John Dalton (1766-1844), investigó las consecuencias de la obra de Lavoisier. En Dalton encontramos por fin la imagen del científico de una serie de televisión. Parece que llevó una vida privada absolutamente carente de acontecimientos. Nunca se casó; decía que «mi cabeza está demasiado llena de triángulos, procesos químicos y experimentos eléctricos, etcétera, para pensar demasiado en el matrimonio». Para el, un gran día consistía en dar una vuelta y puede que asistir a una reunión cuáquera.
En un principio, Dalton era un humilde maestro de un internado, donde llenaba sus horas libres leyendo las obras de Newton y de Boyle. Se tiró diez años en cale trabajo, hasta que pasó a ocupar un puesto de profesor de matemáticas en un college de Manchester. Cuando llegó, se le informó de que también tendría que enseñar química. ¡Se quejaba porque tenía que dar veintiuna horas de clase por Semana! En 1800 abandonó este trabajo para abrir su propia academia, lo que le dio tiempo para dedicarse a sus investigaciones químicas. Hasta que no hizo pública su teoría de la materia a poco de empezar el nuevo siglo (entre 1803 y 1808), se le consideraba en la comunidad científica poco más que un aficionado. Que sepamos, Dalton fue el primero en resucitar la palabra democritiana átomo para referirse a las minúsculas partículas invisibles que constituyen la materia. Había una diferencia, sin embargo. Recordad que Demócrito decía que los átomos de sustancias diferentes tenían diferentes formas. En el sistema de Dalton, el papel decisivo lo desempeñaba el peso.
La teoría atómica de Dalton fue su mayor contribución. Estuviera ya «en el aire» (lo estaba), fuese excesivo el mérito que la historia le atribuye a Dalton (como dicen algunos historiadores), nadie pone en duda el efecto tremendo que la teoría atómica tuvo en la química, disciplina que pronto iba a convertirse en una de las ciencias cuya influencia llegaría a más partes. Que la primera «prueba» experimental de la realidad de los átomos viniese de la química es muy apropiado. Recordad la pasión de los antiguos griegos: ver una «arche» inmutable en un mundo donde el cambio lo es todo. El á-tomo resolvió la crisis. Mediante la reordenación de los átomos se puede crear todo el cambio que se quiera, pero el pilar de nuestra existencia, el á-tomo, es inmutable. En química, un número de átomos hasta cierto punto pequeño da un enorme espacio para elegir, por las combinaciones posibles a que da lugar: el átomo de carbono con un átomo de oxígeno o dos, el hidrógeno con el oxígeno, el cloro o el azufre, y así sucesivamente. Pero los átomos de hidrógeno siempre son hidrógeno: idénticos unos a otros, inmutables. ¡Pero adónde vamos, que se nos olvida nuestro héroe Dalton!
Dalton, al observar que las propiedades de los gases se podían explicar mejor partiendo de la existencia de los átomos, aplicó esta idea a las reacciones químicas. Se percató de que un compuesto químico siempre contiene los mismos pesos de sus elementos constituyentes. Por ejemplo, el carbono y el oxígeno se combinan y forman monóxido de carbono (CO). Para hacer CO, siempre se necesitan 12 gramos de carbono y 16 gramos de oxígeno, o 12 libras y 16. Sea cual sea la unidad que se emplee, la proporción siempre ha de ser 12 a 16. ¿Cuál puede ser la explicación? Si un átomo de carbono pesa 12 unidades y un átomo de oxígeno pesa 16 unidades, los pesos macroscópicos del carbono y del oxígeno que desaparecen para generar el CO tendrán siempre la misma proporción. Esto solo no sería más que un argumento débil a favor de los átomos. Sin embargo, cuando se hacen compuestos de hidrógeno-oxígeno y de hidrógeno-carbono, los pesos relativos del hidrógeno, del carbono y del oxígeno son siempre 1, 12 y 16. Uno empieza a quedarse sin otras explicaciones. Cuando se aplica el mismo razonamiento a docenas y docenas de compuestos, los átomos son la única conclusión sensata.
Dalton revolucionó la ciencia al declarar que el átomo es la unidad básica de los elementos químicos y que cada átomo químico tiene su propio peso. En sus propias palabras, escritas en 1808:
Hay tres distinciones en los tipos de cuerpos, o tres estados, que han llamado más específicamente la atención de los químicos filosóficos; a saber, los que marcan las expresiones «fluidos elásticos», «líquidos» y «sólidos». Un caso muy famoso es el que se nos exhibe en el agua, el de un cuerpo que, en ciertas circunstancias, es capaz de tomar los tres estados. En el vapor reconocemos un fluido perfectamente elástico, en el agua un líquido perfecto y en el hielo un sólido completo. Estas observaciones han conducido, tácitamente, a la conclusión, que parece universalmente adoptada, de que todos los cuerpos de una magnitud sensible, sean líquidos o sólidos, están constituidos por un vasto número de partículas sumamente pequeñas, o átomos de materia a los que mantiene unidos una fuerza de atracción, que es más o menos poderosa según las circunstancias…
Los análisis y síntesis químicos no van más allá de organizar la separación de unas partículas de las otras y su reunión. Ni la creación de nueva materia ni su destrucción están al alcance de la acción química. Podríamos lo mismo intentar que hubiera un nuevo planeta en el sistema solar, o aniquilar uno ya existente, que crear o destruir una partícula de hidrógeno. Todos los cambios que podemos producir consisten en separar las partículas que están en un estado de cohesión o combinación, y juntar las que previamente se hallaban a distancia.
Es interesante el contraste entre los estilos científicos de Lavoisier y Dalton. Lavoisier fue un medidor meticuloso. Insistía en la precisión, y ello rindió el fruto de una reestructuración monumental de la metodología química. Dalton se equivocó en muchas cosas. Como peso relativo del oxígeno respecto al hidrógeno, usó 7 en vez de 8. La composición que les suponía al agua y al amoniaco era errónea. Pero hizo uno de los descubrimientos científicos más profundos de la época: tras unos 2.200 años de cábalas y vagas hipótesis, Dalton estableció la realidad de los átomos. Presentó una concepción nueva que, «si quedase establecida, como no dudo que ocurrirá con el tiempo, se producirán los más importantes cambios en el sistema de la química y se reducirá en conjunto a una ciencia de gran simplicidad». Sus aparatos no eran microscopios poderosos ni aceleradores de partículas, sino unos cuantos tubos de ensayo, una balanza química, la literatura química de su época y la inspiración creadora.
Lo que Dalton llamaba átono no era, ciertamente, el á-tomo que imaginaba Demócrito. Ahora sabernos que un átomo de oxígeno, por ejemplo, no es indivisible. Tiene una subestructura compleja. Pero el nombre siguió usándose: a lo que hoy llamamos átomo es al átomo de Dalton. Es un átomo químico, una unidad simple de elemento químico, como el hidrógeno, el oxígeno, el carbono o el uranio.
Titular del Royal Enquirer en 1815:
QUÍMICO HALLA LA PARTÍCULA ÚLTIMA,
ABANDONA LA BOA CONSTRICTOR Y LA ORINA
De ciento en ciento aparece un científico que hace una observación tan simple y elegante que tiene que ser cierta, una observación que parece resolver, de un plumazo, problemas que han atormentado a la ciencia durante siglos. De millar en millar resulta que el científico tenga razón.
Todo lo que cabe decir de William Prout es que le faltó muy poco. Prout propuso una de las grandes conjeturas «casi correctas» de su siglo. Fue rechazada por razones equivocadas y por el caprichoso dedo del destino. Alrededor de 1815, este químico inglés pensó que había hallado la partícula de la que estaba hecha toda la materia. Se trataba del átomo de hidrógeno.
Para ser justos, era una idea profunda, elegante, si bien «ligeramente» equivocada. Prout hacía lo que hace un buen científico: buscar la simplicidad, en la tradición griega. Buscaba un denominador común entre los veinticinco elementos químicos que se conocían en ese tiempo. Francamente, Prout estaba un poco fuera de su campo. Para los contemporáneos, su principal logro era haber escrito el libro definitivo sobre la orina. Realizó también amplios experimentos sobre el excremento de la boa constrictor. Cómo pudo esto conducirle al atomismo, no me molesto en intentar imaginármelo.
Prout sabía que el hidrógeno, con un peso atómico de 1, era el más ligero de todos los elementos conocidos. Quizá, decía Prout, el hidrógeno es la «materia primaria», y todos los demás elementos son, simplemente, combinaciones de hidrógenos. En el espíritu de los antiguos, llamó a su quintaesencia «protyle». Su idea tenía mucho sentido: los pesos atómicos de los elementos eran casi enteros, múltiplos del peso del hidrógeno. Así era porque, entonces, los pesos relativos se caracterizaban por su inexactitud. A medida que la precisión de los pesos atómicos mejoró, la hipótesis de Prout quedó aplastada (por una razón equivocada). Se halló, por ejemplo, que el cloro tenía un peso relativo de 35,5. Esto aventó la idea de Prout: no se puede tener medio átomo. Ahora sabemos que el cloro natural es una mezcla de dos variedades o isótopos. Uno tiene 35 «hidrógenos» y el otro 37. Esos «hidrógenos» son en realidad neutrones y protones, que tienen casi la misma masa.
Prout había adivinado, en realidad, la existencia del nucleón (una de las dos partículas, el protón o el neutrón, que constituyen los núcleos) como ladrillo que construye los átomos. Prout se apuntó un tanto buenísimo. La voluntad de ir a por un sistema más simple que el conjunto de alrededor de veintisiete elementos estaba destinada a triunfar.
No en el siglo XIX, sin embargo.
Jugando a las cartas con los elementos
Este viaje de placer, con la lengua fuera, a lo largo de doscientos años de química termina aquí con Dmitri Mendeleev (1834-1907), el químico siberiano a quien se debe la tabla periódica de los elementos. La tabla fue un paso adelante enorme en lo que se refería a la clasificación, y al mismo tiempo hizo que la búsqueda del átomo de Demócrito progresase.
Aun así, Mendeleev tuvo que soportar un montón de estupideces en su vida. Este hombre extraño —parece que sobrevivía con una dieta que se basaba en la leche agria (comprobaba alguna manía médica)— sufrió a causa de su tabla muchas burlas de parte de sus colegas. Fue además un gran defensor de sus alumnos de la Universidad de San Petersburgo, y cuando estuvo con ellos durante una protesta hacia el final de su vida, la administración le echó.
Sin alumnos, quizá no habría construido nunca la tabla periódica. Cuando se le nombró para la cátedra de química en 1867, Mendeleev no pudo encontrar un texto aceptable para sus clases, así que se puso a escribir uno. Mendeleev veía a la química como «la ciencia de la masa» —otra vez esa preocupación por la masa—, y en su libro propuso la sencilla idea de colocar los elementos conocidos según el orden de sus pesos atómicos.
Para ello jugó a las cartas. Escribió los símbolos de los elementos con sus pesos atómicos y diversas propiedades (por ejemplo, sodio: metal activo; argón: gas inerte) en tarjetas distintas. Mendeleev disfrutaba jugando a paciencia, un tipo de solitario. Jugó, pues, a paciencia con esa baraja de elementos que había hecho, dispuestas las cartas en orden creciente de pesos. Descubrió una cierta periodicidad. Cada ocho cartas, reaparecían en los correspondientes elementos propiedades químicas parecidas; por ejemplo, el litio, el sodio y el potasio eran metales activos químicamente, y sus posiciones la 3, la 11 y la 19. Similarmente, el hidrógeno (1), el flúor (9) y el cloro (17) son gases activos. Reordenó las cartas de forma que hubiera ocho columnas verticales, y tales que en cada una de ellas los elementos tuvieran propiedades similares.
Mendeleev hizo algo más, y no fue ortodoxo. No se sentía obligado a llenar todos los huecos de su rejilla de cartas. Como en un solitario, sabía que algunas cartas estaban ocultas todavía en el mazo. Quería que la tabla tuviese sentido leída no sólo fila a fila, a lo ancho, sino por las columnas hacia abajo. Si un hueco requería un elemento con unas propiedades particulares y ese elemento no existía, lo dejaba en blanco en vez de forzar un elemento existente en él. Hasta le puso nombre a los espacios vacíos. Utilizó el prefijo «eka», que en sánscrito significa «uno». Por ejemplo, el eka-aluminio y el eka-silicio eran los huecos que quedaban en las columnas verticales bajo el aluminio y el silicio, respectivamente.
Esos huecos en la tabla fueron una de las razones por las que Mendeleev recibió tantas burlas. Pero cinco años después, en 1875, se descubrió el galio y resultó que era el eka-aluminio, con todas las propiedades predichas por la tabla periódica. En 1886 se descubrió el germanio, y resultó ser el eka-silicio. Y el juego del solitario químico resultó no ser una chaladura tan grande.
Que los químicos hubieran conseguido ya una precisión mayor en la medición de los pesos atómicos de los elementos fue uno de los factores que hicieron posible la tabla de Mendeleev. El propio Mendeleev había corregido los pesos atómicos de varios elementos, y no es que ganase con ello muchos amigos entre los científicos importantes cuyas cifras había revisado.
Hasta que en el siglo siguiente no se descubrieron el núcleo y el átomo cuántico, nadie supo por qué aparecían esas regularidades en la tabla periódica. En realidad, el efecto que inicialmente tuvo la tabla periódica fue el de desanimar a los científicos. Había cincuenta sustancias o más llamadas «elementos», los ingredientes básicos del universo que, presumiblemente, no se podían subdividir más; es decir, más de cincuenta «átomos» diferentes, y el número pronto se inflaría hasta mas de noventa, lo que caía muy lejos de un ladrillo último. A finales del siglo pasado, los científicos debían de tirarse de los pelos cuando le echaban un vistazo o la tabla periódica. ¿Dónde estaba la sencilla unidad que buscábamos desde hacía más de dos mil años? Sin embargo, el orden que Mendeleev halló en ese caos apuntaba hacia una simplicidad más profunda. Retrospectivamente, se ve que la organización y las regularidades de la tabla periódica pedían a gritos un átomo dotado de una estructura que se repitiese periódicamente. Los químicos, sin embargo, no estaban dispuestos a abandonar la idea de que los átomos químicos —el hidrógeno, el oxígeno y los demás— eran indivisibles. El problema se atacó más fructíferamente desde otro ángulo.
Pero no hay que culpar a Mendeleev de la complejidad de la tabla periódica. Se limitó a organizar la confusión lo mejor que pudo, e hizo lo que los buenos científicos hacen: buscar el orden en medio de la complejidad. En vida, sus colegas no llegaron a apreciarlo del todo, y no ganó el premio Nobel pese a que vivió unos cuantos años tras la institución del premio. A su muerte, en 1907, recibió, sin embargo, el mayor honor que le cabe a un maestro. Un grupo de estudiantes acompañó el cortejo fúnebre llevando en alto la tabla periódica. El legado de Mendeleev es la famosa carta de los elementos presente en cada laboratorio, en cada aula de bachillerato de cualquier lugar del mundo donde se enseñe química.
Al llegar al último estadio del oscilante desarrollo de la física clásica, le damos la espalda a la materia y a las partículas y volvemos otra vez a una fuerza. En este caso se trata de la electricidad. En el siglo XIX se consideraba que el estudio de la electricidad era casi una ciencia en sí mismo.
Era una fuerza misteriosa. Y a primera vista no parecía que ocurriera naturalmente, como no fuese en la amedrentadora forma del rayo. Los investigadores, pues, habían de hacer algo que no era «natural» para estudiar la electricidad.
Tenían que «fabricar» el fenómeno antes de analizarlo. Hemos acabado por descubrir que la electricidad está en todas partes; la materia entera es eléctrica por naturaleza. Recordadlo cuando lleguemos a la época moderna y hablemos de las partículas exóticas que «fabricamos» en los aceleradores. A la electricidad se la consideraba tan exótica en el siglo XIX como a los quarks hoy. Y hoy la electricidad nos rodea por todas partes; es sólo un ejemplo más de cómo alteramos los seres humanos nuestro propio entorno.
En ese periodo inicial hubo muchos héroes de la electricidad y del magnetismo; la mayor parte de ellos han dejado su nombre en las diversas unidades eléctricas: Charles Augustin Coulomb (la unidad de carga), André Ampère (la de corriente), Georg Ohm (la de resistencia), James Watt (la de energía eléctrica) y James Joule (la de energía). Luigi Galvani nos dio el galvanómetro, aparato que sirve para medir las corrientes, y Alessandro Volta el voltio (unida de potencial o fuerza electromotriz). Análogamente, C. F. Gauss, Hans Christian Oersted y W. E. Weber dejaron su huella y sus nombres en magnitudes eléctricas calculadas para sembrar el pánico y el odio en los futuros estudiantes de ingeniería. Sólo Benjamin Franklin se quedó sin darle su nombre a una unidad eléctrica, pese a sus importantes contribuciones. ¡Pobre Ben! Bueno, tiene la estufa Franklin y su efigie en los billetes de cien dólares. Observó que hay dos tipos de electricidad. Podría haberle llamado a una Joe y a la otra Moe, pero eligió los nombres de positiva (+) y negativa (-). Franklin denominó a la cantidad de electricidad de un objeto, negativa, por ejemplo, «carga eléctrica». Introdujo también el concepto de conservación de la carga: cuando se transfiere electricidad de un cuerpo a otro, la carga total debe sumar cero. Pero entre todos estos científicos los gigantes fueron dos ingleses, Michael Faraday y James Clerk Maxwell.
Ranas eléctricas
Nuestra historia empieza a finales del siglo XVIII, con la invención por Galvani de la batería, que luego mejoraría otro italiano, Volta. El estudio de los reflejos de las ranas por Galvani —colgó músculos de rana en la celosía exterior de su ventana y vio que durante las tormentas eléctricas sufrían convulsiones— demostró la existencia de la «electricidad animal». Este trabajo fue el estímulo de la obra de Volta y, además, de algo que luego vendría muy bien. Imaginaos a Henry Ford instalando un cajón con ranas en sus coches y estas instrucciones para el conductor: «Hay que dar de comer a las ranas cada veinticinco kilómetros». Volta descubrió que la electricidad de las ranas tenía que ver con que alguna grosería de la rana separase dos metales diferentes; las ranas de Galvani estaban colgadas de ganchos de latón en una celosía de hierro. Volta fue capaz de producir corrientes eléctricas sin las ranas; para ello probó con pares de metales distintos separados por piezas de cuero (que hacían el papel de las ranas) empapadas de salmuera. Enseguida creó una «pila» de placas de cinc y cobre, y observó que cuanto mayor era la pila, más corriente impulsaba a lo largo de un circuito externo. El electrómetro (fue Volta inventó para medir la corriente tuvo un papel decisivo en esta investigación, que arrojó dos resultados importantes: un instrumento de laboratorio que producía corrientes y el descubrimiento de que podía generarse electricidad mediante reacciones químicas.
Otro progreso importante fue la medición que efectuó Coulomb de la intensidad y la naturaleza de la fuerza eléctrica entre dos bolas cargadas. Para ello inventó la balanza de torsión, aparato sumamente sensible a las fuerzas minúsculas. La fuerza que estudió fue, claro, la electricidad. Con su balanza de torsión, Coulomb determinó que la fuerza entre las cargas eléctricas variaba con el inverso del cuadrado de la distancia entre ellas. Descubrió además que las cargas del mismo signo (+ + o — —) se repelían y que las cargas de signo distinto (+ —) se atraían. La ley de Coulomb, que da la F de las cargas eléctricas, desempeñará un papel fundamental en nuestro conocimiento del átomo.
En un auténtico frenesí de actividad, se emprendieron muchos experimentos acerca de los fenómenos, que al principio se creían separados, de la electricidad y el magnetismo. En el breve periodo de cincuenta años que va, aproximadamente, de 1820 a 1870 esos experimentos condujeron a una gran síntesis que dio lugar a la teoría unificada que englobaría no sólo la electricidad y el magnetismo, sino también la luz.
El secreto del enlace químico: otra vez las partículas
Buena parte de lo que, en un principio, se fue sabiendo de la electricidad salió de descubrimientos químicos, en concreto de lo que hoy llamamos electroquímica. La batería de Volta enseñó a los científicos que una corriente eléctrica puede fluir, a lo largo de un circuito, por un cable que vaya de un polo de la batería al otro. Cuando se interrumpe el circuito mediante la conexión de los cables a unas piezas metálicas sumergidas en un líquido, circula corriente por éste y, como se descubrió, esa corriente genera un proceso químico de descomposición. Si el líquido es agua, aparecerá gas hidrógeno cerca de una de las piezas metálicas, y oxígeno junto a la otra. La proporción de 2 partes de hidrógeno por 1 de oxígeno indica que el agua se descompone en sus constituyentes. Una solución de cloruro de sodio hacía que uno de los «terminales» se cubriese de sodio y que en el otro apareciera el verdoso gas de cloro. Pronto nacería la industria del electrorrecubrimiento.
La descomposición de los compuestos químicos mediante una corriente eléctrica indicaba algo profundo: que el enlace atómico y las fuerzas eléctricas estaban relacionados. Fue ganando vigencia la idea de que las atracciones entre los átomos r. decir, la «afinidad» de una sustancia química por otra— era de naturaleza eléctrica.
El primer paso de la obra electroquímica de Michael Faraday fue la sistematización de la nomenclatura, lo que, como los nombres que Lavoisier les dio a las sustancias químicas, resultó muy útil. Faraday llamó a los metales sumergidos en el liquido «electrodos». El electrodo negativo era el «cátodo», el positivo el «ánodo» Cuando la electricidad corría por el agua, impelía un desplazamiento de los átomos cargados a través del líquido, del cátodo al ánodo. Por lo normal, los átomos son neutros, carentes de carga positiva o negativa. Pero la corriente eléctrica cargaba, de alguna forma, los átomos. Faraday llamó a esos átomos cargados «iones». Hoy sabemos que un ión es un átomo que está cargado porque ha perdido o ganado uno o más electrones. En la época de Faraday, no se conocían los electrones. No sabían qué era la electricidad. Pero ¿tuvo Faraday alguna idea de la existencia de los electrones? En la década de 1830 realizó una serie de espectaculares experimentos que se resumirían en dos sencillos enunciados a los que se conoce por el nombre de leyes de Faraday de la electrólisis:
1 La masa de los productos químicos desprendidos en un electrodo es proporcional a la corriente multiplicada por el lapso de tiempo durante el cual pasa. Es decir, la masa liberada es proporcional a la cantidad de electricidad que pasa por el líquido.
2 La masa liberada por una cantidad fija de electricidad es proporcional al peso atómico de la sustancia multiplicado por el número de átomos que haya en el compuesto.
Lo que estas leyes querían decir es que la electricidad no es continua, uniforme, sino que se divide en «pegotes». Dada la concepción atómica formulada por Dalton, las leyes de Faraday nos dicen que los átomos del líquido (los iones) se desplazan al electrodo, donde a cada ión se le entrega una cantidad unitaria de electricidad que lo convierte en un átomo libre de hidrógeno, oxígeno, plata o lo que sea. Las leyes de Faraday apuntan, pues, a una conclusión inevitable: hay partículas de electricidad. Esta conclusión, sin embargo, tuvo que esperar unos sesenta años a que el descubrimiento del electrón la confirmase rotundamente hacia el final del siglo.
Conmoción en Copenhague
Proseguimos la historia de la electricidad —eso que sale de los dos o tres agujeros de vuestros enchufes y que hay que pagar— yéndonos a Copenhague, Dinamarca. En 1820, Hans Christian Oersted hizo un descubrimiento decisivo —según algunos historiadores, el descubrimiento decisivo—. Generó una corriente eléctrica de la manera reconocida: con cables que conectaban los dos bornes de un dispositivo voltaico (una batería). La electricidad seguía siendo un misterio, pero se sabía que la corriente eléctrica tenía que ver con algo a lo que se llamaba carga eléctrica y que se movía por un hilo. No causaba sorpresa, hasta que Oersted colocó una aguja de brújula (un imán) cerca del circuito. Cuando pasaba la corriente, la aguja del compás viraba, y de apuntar al polo norte geográfico (su posición natural) iba a tomar una divertida posición perpendicular al cable. Oersted le dio vueltas a este fenómeno hasta que se le ocurrió que la brújula, al fin y al cabo, se había concebido de manera que detectase campos magnéticos. Por lo tanto, lo que ocurría es que la corriente del cable producía un campo magnético, ¿no? Oersted había descubierto una conexión entre la electricidad y el magnetismo: las corrientes producen campos magnéticos. También los imanes, claro, producen campos magnéticos, y estaba bien estudiada su capacidad de atraer pedazos de hierro (o de sujetar fotos a la puerta de la nevera). La noticia corrió por Europa y produjo un gran revuelo. Provisto de esta información, el parisiense André Marie Ampère halló una relación matemática entre la corriente y el campo magnético. La intensidad y la dirección precisas de este campo dependían de la corriente y de la forma (recta, circular o la que fuera) del cable por el que pasase la corriente. Con una combinación de razonamientos matemáticos y muchos experimentos realizados apresuradamente, Ampére generó una encendida polémica consigo mismo de la que, a su debido tiempo, saldría una prescripción para calcular el campo magnético que produce una corriente eléctrica que pase por un hilo de la configuración que sea, recta, doblada, como un lazo circular o enrollado densamente en forma cilíndrica. Si pasan corrientes por dos hilos rectos, cada una de ellas producirá su propio campo magnético, y cada uno de éstos actuará sobre el hilo contrario. Cada hilo ejerce, en efecto, una fuerza sobre el otro. Este descubrimiento hizo posible que Faraday inventase el motor eléctrico. También era profundo el hecho de que un lazo circular de corriente produjese un campo magnético. ¿Y si esas piedras a las que los antiguos llamaban piedras imanes —los imanes naturales— estuviesen compuestas a escala atómica por corrientes circulares? Otra pista de la naturaleza eléctrica de los átomos.
Oersted, como tantos otros científicos, se sentía atraído por la unificación, la simplificación, la reducción. Creía que la gravedad, la electricidad y el magnetismo eran manifestaciones de una sola fuerza; de ahí que su descubrimiento de una conexión directa entre dos de esas fuerzas apasionase (¿conmocionase?) tanto. Ampére, también, buscaba la simplicidad; en esencia, intentó eliminar el magnetismo considerándolo un aspecto de la electricidad en movimiento (la electrodinámica).
Otro déjà vu de cabo a cabo
Entra Michael Faraday (1791-1867). (De acuerdo, ya ha entrado, pero esta es la presentación formal. Fanfarrias, por favor.) Si Faraday no fue el mayor experimentador de su época, ciertamente opta al título. Se dice que hay más biografías suyas que de Newton, Einstein o Marilyn Monroe. ¿Por qué? En parte porque su vida tiene un aire que recuerda a la de la Cenicienta. Nacido en la pobreza, a veces hambriento (una vez se le dio un pan para que comiese una semana entera), Faraday apenas si asistió a la escuela; su educación fue muy religiosa. A los catorce años era aprendiz de un encuaderna-dor, y se las apañó para leer algunos de los libros a los que ponía tapas. Se educaba a si mismo mientras desarrollaba una habilidad manual que le vendría muy bien en sus experimentos. Un día, un cliente llevó un ejemplar de la tercera edición de la Encyclopaedia Britannica para que se lo encuadernasen de nuevo. Contenía un artículo sobre la electricidad. Faraday lo leyó, se quedó enganchado con el tema y el mundo cambió.
Pensad en esto. Las redacciones de las cadenas informativas reciben dos noticias que les transmite Associated Press:
FARADAY DESCUBRE LA ELECTRICIDAD, LA ROYAL SOCIETY FESTEJA LA HAZAÑA
y
NAPOLEÓN ESCAPA DE SANTA ELENA, LOS EJÉRCITOS DEL CONTINENTE EN PIE DE GUERRA
¿Qué noticia abre las noticias de las seis? ¡Correcto! Napoleón. Pero durante los cincuenta años siguientes el descubrimiento de Faraday electrificó Inglaterra y puso en marcha el cambio más radical en la manera en que la gente vivía que jamás haya dimanado de las invenciones de un solo ser humano. Con que en la universidad se les hubieran exigido a los responsables del periodismo televisivo unos conocimientos verdaderamente científicos…
Velas, motores, dinamos
Esto es lo que Michael Faraday hizo. Empezó su vida profesional, a los veintiún años, como químico; descubrió algunos compuestos orgánicos, el benceno entre ellos. El paso a la física lo dio al poner en claro la electroquímica. (Si esos químicos de la Universidad de Utah que creían haber descubierto la fusión fría en 1989 hubiesen entendido mejor las leyes de Faraday de la electrólisis, puede que se hubieran ahorrado una situación embarazosa, y que nos la hubieran ahorrado a los demás.) Faraday se dedicó a continuación a realizar una serie de grandes descubrimientos en los campos de la electricidad y del magnetismo:
• descubrió la ley (que lleva su nombre) de la inducción, según la cual un campo magnético crea un campo eléctrico
• fue el primero en producir una corriente eléctrica a partir de un campo magnético
• inventó el motor eléctrico y la dinamo
• demostró que hay una relación entre la electricidad y el enlace químico
• descubrió el efecto del magnetismo en la luz
• ¡y mucho más!
¡Y todo esto sin un doctorado, sin una licenciatura, sin el bachillerato siquiera! Era además analfabeto en lo que se refería a las matemáticas. Escribió sus descubrimientos no con ecuaciones, sino en un claro lenguaje descriptivo, a menudo acompañado por imágenes que explicaban los datos.
En 1990 la Universidad de Chicago produjo una serie de televisión llamada The Christmas Lectures [Las conferencias de Navidad], y tuve el honor de dar la primera. La titulé «La vela y el universo». La idea la tomé prestada de Faraday, que en 1826 dio a los niños las primeras de las originales lecciones de Navidad. En su primera charla arguyó que una vela encendida ilustraba todos los procesos físicos conocidos. Era verdad en 1826, pero en 1990 sabemos que hay muchos procesos que no ocurren en la vela porque la temperatura es demasiado baja. Pero las lecciones de Faraday sobre la vela eran claras y entretenidas, y sería un gran regalo de Navidad para vuestros hijos que un actor de voz argentada grabase con ellas unos discos compactos. Así que sumadle otra faceta a este hombre notable: la de divulgador.
Ya hemos hablado de sus investigaciones sobre la electrólisis, que prepararon el camino para el descubrimiento de la estructura eléctrica de los átomos químicos y, realmente, de la existencia del electrón. Quiero contar ahora las dos contribuciones más destacadas de Faraday: la inducción electromagnética y su concepto, casi místico, de «campo».
El camino hacia la concepción moderna de la electricidad (o dicho con más propiedad, del electromagnetismo y del campo electromagnético) recuerda al famoso chiste de la combinación doble de béisbol en la que Tinker se la pasa a Evers, que se la pasa a Chance. En este caso, Oersted se la pasa a Ampére, que se la pasa a Faraday. Oersted y Ampére dieron los primeros pasos hacia el conocimiento de las corrientes eléctricas y los campos magnéticos. Las corrientes eléctricas que pasan por cables como los que tenéis en casa crean campos magnéticos. Se puede, por lo tanto, hacer un imán tan poderoso como se quiera, desde los imanes minúsculos que funcionan con baterías y mueven pequeños ventiladores hasta los gigantescos que se utilizan en los aceleradores de partículas y se basan en una organización de corrientes. Este conocimiento de los electroimanes ilumina la idea de que los imanes naturales contienen elementos de corriente a escala atómica que colectivamente forman el imán. Los materiales no magnéticos también tienen esas corrientes atómicas amperianas, pero sus orientaciones al azar no producen un magnetismo apreciable.
Faraday luchó durante mucho tiempo por unificar la electricidad y el magnetismo. Si la electrici-dad puede generar campos magnéticos, se preguntaba, ¿no podrá el magnetismo generar electricidad? ¿Por qué no? La naturaleza ama la simetría, pero le llevó más de diez años (de 1820 a 1831) probarlo. Fue, seguramente, su mayor logro.
A este descubrimiento experimental de Faraday se le da el nombre de inducción electromagnéti-ca. La simetría tras la que andaba surgió de una forma inesperada. El camino a la fama está empedrado con buenos inventos. Faraday se preguntó primero si un imán no podría hacer que un cable por el que pasase corriente se moviera. Para que las fuerzas se hiciesen visibles, montó un artilugio que consistía en un cable conectado por un extremo a una batería y cuyo otro cabo pendía suelto dentro de un recipiente lleno de mercurio. Se dejaba suelto a ese extremo para que pudiera dar vueltas alrededor de un imán de hierro que se sumergía en el mercurio. En cuanto pasó corriente, el cable comenzó a moverse en círculos alrededor del imán. Hoy conocemos este extraño invento con el nombre de motor eléctrico. Faraday había convertido la electricidad en movimiento, capaz de efectuar trabajo.
Saltemos a 1831 y a otro invento. Faraday enrolló, dándole muchas vueltas, un hilo de cobre en un lado de una rosquilla de hierro dulce, y conectó los dos cabos de esa bobina a un dispositivo que medía con sensibilidad la corriente, llamado galvanómetro. Enrolló una longitud parecida de cable en el otro lado de la rosquilla, y conectó sus extremos a una batería de manera que la corriente fluyese por la bobina. A este aparato se le llama hoy transformador. Recordemos. Tenemos dos bobinas enrolladas en lados opuestos de una rosquilla. Una, llamémosla A, está conectada a una batería; la otra, B, a un galvanómetro. ¿Qué pasa cuando la savia corre?
La respuesta es importante en la historia de la ciencia. Cuando pasa corriente por la bobina A, la electricidad produce magnetismo. Faraday razonaba que este magnetismo debería inducir una corriente en la bobina B. Pero en vez de eso obtuvo un fenómeno extraño. Al conectar la corriente, la aguja del galvanómetro conectado a la bobina B se movió voilà!, ¡la electricidad!—, pero sólo momentáneamente. Tras pegar un salto súbito, la aguja apuntaba a cero con una inamovilidad desquiciadora. Cuando desconectó la batería, la aguja se movió un instante en dirección opuesta. No sirvió de nada aumentar la sensibilidad del galvanómetro. Tampoco aumentar el número de vueltas en cada bobina. Ni utilizar una batería mucho más potente. Y en ésas, vino el instante del ¡Eureka! (en Inglaterra lo llaman el instante del By Jove!, del ¡Por Júpiter!): a Faraday se le ocurrió que la corriente de la primera bobina inducía una corriente en la segunda, sí, pero sólo cuando la primera corriente variaba. Así, como los siguientes treinta años, más o menos, de investigación mostraron, un campo magnético variable genera un campo eléctrico.
La tecnología que, a su debido tiempo, saldría de todo esto fue la del generador eléctrico. Al rotar mecánicamente un imán, se produce un campo magnético que cambia constantemente y genera un campo eléctrico y, si éste se conecta a un circuito, una corriente eléctrica. Se puede hacer que un imán gire dándole vueltas con una manivela, mediante la fuerza de una caída de agua o gracias a una turbina de vapor. De esa forma tenemos una manera de generar electricidad, hacer que la noche se vuelva el día y darles energía a los enchufes que hay en casa y en la fábrica.
Pero somos científicos puros… Les seguimos la pista al á-tomo y la Partícula Divina; nos hemos detenido en la técnica sólo porque habría sido durísimo construir aceleradores de partículas sin la electricidad de Faraday. En cuanto a éste, lo más seguro es que la electrificación del mundo no le habría impresionado mucho, excepto porque así podría haber trabajado de noche.
El propio Faraday construyó el primer generador eléctrico; se accionaba a mano. Pero estaba demasiado centrado en el «descubrimiento de hechos nuevos… con la seguridad de que estas últimas [las aplicaciones prácticas] hallarán su desarrollo completo en adelante» para pensar en qué hacer con ellos. Se cuenta a menudo que el primer ministro británico visitó el laboratorio de Faraday en 1832 y, señalando a esa máquina tan divertida, le preguntó para qué servía. «No lo sé, pero apuesto a que algún día el gobierno le pondrá un impuesto», dijo Faraday. El impuesto sobre la generación de electricidad se estableció en Inglaterra en 1880.
Que el campo esté contigo
La mayor contribución conceptual de Faraday, crucial en nuestra historia del reduccionismo, fue el campo. Nos prepararemos para afrontar esta noción volviendo a Roger Boscovich, que había publicado una hipótesis radical unos setenta años antes de la época de Faraday y con ella hizo que la idea del á-tomo diese un importante paso hacia adelante. ¿Cómo chocan los á-tomos?, preguntó. Cuando las bolas de billar chocan, se deforman; su recuperación elástica impulsa las bolas y las aparta. Pero ¿y los átomos? ¿Cabe imaginarse un átomo deformado? ¿Qué se deformaría? ¿Qué se recuperaría? Esta línea de pensamiento condujo a que Boscovich redujese los átomos a puntos matemáticos carentes de dimensiones y de estructura. Ese punto es la fuente de las fuerzas, tanto de las atractivas como de las repulsivas. Elaboró un modelo geométrico detallado que abordaba las colisiones atómicas de una forma muy aceptable. El á-tomo puntual hacía todo lo que el «átomo duro y con masa» de Newton hacía, y ofrecía ventajas. Aunque no tenía extensión, sí poseía inercia (masa). El á-tomo de Boscovich influía más allá de sí mismo en el espacio mediante las fuerzas que radiaban de él. Es una idea de lo más presciente. También Faraday estaba convencido de que los á-tomos eran puntos, pero, como no podía ofrecer ninguna prueba, no lo defendió abiertamente. La idea de Boscovich-Faraday era esta: la materia está formada por á-tomos puntuales rodeados por fuerzas. Newton había dicho que las fuerzas actúan sobre la masa; por lo tanto, la concepción de Boscovich-Faraday era, claramente, una extensión de la newtoniana. ¿Cómo se manifiestan tales fuerzas?
«Vamos a hacer un juego», les digo a los estudiantes, en un aula grande. «Cuando el que esté a vuestra izquierda baje la mano, levantad y bajad la vuestra.» Al final de la fila, la señal salta a la fila de arriba y cambio la orden: ahora es «el que esté a vuestra derecha». Empezamos con la estudiante que esté más a la izquierda en la primera fila. Levanta la mano y, enseguida, la onda de «manos arriba» atraviesa la sala, sube, la atraviesa en dirección contraria y así hasta que se extingue al llegar arriba del todo. Lo que tenemos es una perturbación que se propaga a cierta velocidad por un medio de estudiantes. Es el mismo principio de la ola que hacen en los estadios de fútbol. Las ondas del agua tienen las mismas propiedades. La perturbación se propaga, pero las partículas del agua se quedan clavadas en su sitio; sólo oscilan arriba y abajo, y no participan de la velocidad horizontal de la perturbación. La «perturbación» es la altura de la onda. El medio es el agua, y la velocidad depende de sus propiedades. El sonido se propaga por el aire de una forma muy similar. Pero ¿cómo se extiende una fuerza de átomo a átomo a través del espacio entre ellos? Newton echó el balón fuera. «No urdo hipótesis», dijo. Urdida o no, la hipótesis común acerca de la propagación de la fuerza era la misteriosa acción a distancia, una especie de hipótesis interina, hasta que en el futuro se sepa cómo funciona la gravedad.
Faraday introdujo el concepto de campo, la capacidad que tiene el espacio de que una fuente que está en alguna parte lo perturbe. El ejemplo más común es el del imán que actúa sobre unas limaduras de hierro. Faraday caracterizaba el espacio alrededor del imán o de la bobina con la palabra «tensado», tensado a causa de la fuente. El concepto de campo se fue constituyendo, laboriosamente, a lo largo de muchos años, en muchos escritos, y los historiadores disfrutan no poniéndose de acuerdo acerca de cómo y cuándo nació, y bajo qué forma. Esta es una nota de Faraday, escrita en 1832: «Cuando un imán actúa sobre un imán o una pieza de hierro distantes, la causa que influye en ellos… procede gradualmente desde los cuerpos magnéticos y su transmisión requiere tiempo [la cursiva es mía]». Por lo tanto, la idea es que una «perturbación» —por ejemplo, un campo magnético con una intensidad de 0,1 tesla— viaja por el espacio y le comunica a un grano de polvo de hierro no sólo que ella, la perturbación, existe, sino que le está ejerciendo una fuerza. No otra cosa le hace una ola grande al bañista incauto. La ola —de un metro, digamos— necesita agua para propagarse. Hemos de vérnoslas todavía con lo que necesita el campo magnético. Lo haremos más adelante.
Las líneas magnéticas de fuerza se manifestaban en ese viejo experimento que hicisteis en el colegio: espolvorear polvo de hierro sobre una hoja de papel puesta sobre un imán. Le disteis al papel un golpecito para romper la fricción de la superficie, y el polvo de hierro se acumuló conforme a un patrón definido de líneas que conectaban los polos del imán. Faraday pensaba que esas líneas eran manifestaciones reales de su concepto de campo. No importan tanto las ambiguas descripciones que Faraday daba de esta alternativa a la acción a distancia como la manera en que la alteró y utilizó nuestro siguiente electricista, el escocés James Clerk (pronúnciese «clahk») Maxwell (1831-1879).
Antes de que dejemos a Faraday, deberíamos aclarar su actitud con respecto a los átomos. Nos dejó dos citas preciosas, de 1839:
Aunque nada sabemos de qué es un átomo, no podemos, sin embargo, resistirnos a formarnos cierta idea de una partícula pequeña que, ante la mente, lo representa; hay una inmensidad de hechos que justifican que creamos que los átomos de materia están asociados de alguna forma con las fuerzas eléctricas, a las que deben sus cualidades más llamativas, entre ellas la afinidad química [atracción entre átomos],
y
Debo confesar que veo con suspicacia el concepto de átomo, pues si bien es muy fácil hablar de los átomos, cuesta mucho formarse una idea clara de su naturaleza cuando se toman en consideración cuerpos compuestos.
Abraham Pais, tras citar estos párrafos en su libro Inward Bound, concluye: «Ese es el verdadero Faraday, experimentador hasta la médula, que sólo aceptaba lo que un fundamento experimental le obligaba a creer».
A la velocidad de la luz
Si en la primera jugada Oersted se la pasaba a Ampére y éste a Faraday, en la siguiente Faraday se la pasó a Maxwell y éste a Hertz. Faraday el inventor cambió el mundo, pero su ciencia no se aguantaba por sí sola y habría acabado en un calle sin salida de no haber sido por la síntesis de Maxwell. Faraday le proporcionó a Maxwell una intuición articulada a medias (es decir, sin forma matemática aún). Maxwell fue el Kepler del Brahe Faraday. Las líneas magnéticas de fuerza de Faraday hicieron las veces de andaderas hacia el concepto de campo, y su extraordinario comentario de 1832, según el cual las acciones electromagnéticas no se transmiten instantáneamente, sino que les lleva un tiempo bien definido hacerlo, desempeñó un papel decisivo en el gran descubrimiento de Maxwell.
Maxwell sentía la mayor admiración por Faraday, hasta por su analfabetismo matemático, que le obligaba a expresar sus ideas en un «lenguaje natural, no técnico». Maxwell afirmó que su propósito primario fue traducir la concepción de la electricidad y el magnetismo que había creado Faraday a una forma matemática. Pero el tratado que nació de ese propósito fue mucho más lejos que Faraday. Entre los años 1860 y 1865 se publicaron los artículos de Maxwell —modelos de densa, difícil, compleja matemática (¡aj!)— que serían la gloria más alta del periodo eléctrico de la ciencia desde que, con el ámbar y las piedras imanes, tuviese su origen en la oscuridad de la historia. En esta forma final, Maxwell no sólo le puso a Faraday música matemática (aunque atonal), sino que estableció con ello la existencia de ondas electromagnéticas que se propagan por el espacio a cierta velocidad finita, como había predicho Faraday. Fue trascendental; muchos contemporáneos de Faraday y Maxwell creían que las fuerzas se transmitían instantáneamente. Maxwell especificó la acción del campo de Faraday. Éste había hallado experimentalmente que un campo magnético variable genera un campo eléctrico. Maxwell, en pos de la simetría y coherencia de sus ecuaciones, propuso que los campos eléctricos variables generaban campos magnéticos. En el reino de las matemáticas, estos dos fenómenos producían un vaivén de campos eléctricos y magnéticos que, según los cuadernos de notas de Maxwell, partían, espacio adelante, de sus fuentes a una velocidad que dependía de todo tipo de magnitudes eléctricas y magnéticas.
Pero hubo una sorpresa. El mayor descubrimiento de Maxwell fue la velocidad concreta de esas ondas electromagnéticas, que Faraday no había predicho. Maxwell examinó sus ecuaciones y, tras incluir en ellas los números experimentales apropiados, le salió una velocidad de 3 x 108 metros por segundo. «Gor luv a duck!», dijo, o lo que digan los escoceses cuando se quedan asombrados. Es que 3 x 108 metros por segundo es la velocidad de la luz (que se había medido por vez primera hacía unos cuantos años). Como Newton y el misterio de las dos masas nos han enseñado, en la ciencia hay pocas coincidencias verdaderas. Maxwell llegó a la conclusión de que la luz no era sino un caso de onda electromagnética. La electricidad no tenía por qué estar encerrada en los cables, podía diseminarse por el espacio, como la luz. «A duras penas podremos dejar de inferir-escribió Maxwell —que la luz consiste en las ondulaciones transversales del mismo medio que causa los fenómenos eléctricos y magnéticos.» Maxwell abrió la posibilidad, que Einrich Hertz aprovechó, de que su teoría se verificase mediante la generación experimental de ondas electromagnéticas. Quedó para otros, como Guglielmo Marconi y un enjambre de inventores más recientes, desarrollar la segunda «ola» de (a tecnología electromagnética: las comunicaciones por radio, radar, televisión, microondas y láser.
Pasa de esta forma. Imaginaos un electrón en reposo. La carga que tiene genera un campo eléctrico en cada parte del espacio, más intenso cerca del electrón, más débil a medida que nos alejarnos. El campo eléctrico «apunta» hacia el electrón. ¿Como sabemos que hay un campo? Es sencillo: poned una carga positiva en cualquier sitio, y sentirá una fuerza que apunta hacia el electrón. Haced ahora que éste se vaya acelerando por un cable. Ocurrirán dos cosas: el campo eléctrico cambiará, no instantáneamente, pero sí tan pronto como la información llegue al punto del espacio donde lo midamos; y como una carga en movimiento es una corriente, se creará además un campo magnético.
Apliquémosle ahora unas fuerzas tales al electrón (y a muchos amigos suyos) que oscile por el cable arriba y abajo en un ciclo regular. El cambio resultante de los campos eléctricos y magnéticos se propaga desde el cable a una velocidad finita, la de la luz. Eso es una onda electromagnética. Al cable le llamamos a menudo antena; y a la fuerza que mueve al electrón, señal de radiofrecuencia. La señal, por lo tanto, con el mensaje, el que sea, que contenga, se propaga a partir de la antena a la velocidad de la luz. Cuando llega a otra antena, hallará una multitud de electrones, a los que, a su vez, hará que bailen arriba y abajo, creándose así una corriente oscilante que se podrá detectar y convertir en informaciones de vídeo y de audio.
A pesar de su contribución monumental, Maxwell no causó sensación precisamente de la noche a la mañana. Veamos qué dijeron los críticos del tratado de Maxwell:
• «La concepción es un tanto burda.» (sir Richard Glazebrook)
• «Una sensación de incomodidad, a menudo incluso de desconfianza se mezcla con la admira-ción …» (Henri Poincaré)
• «No prendió en Alemania, e incluso pasó casi desapercibido.» (Max Planck)
• «Debo decir una cosa acerca de ella [la teoría electromagnética de la luz]. No creo que sea admisible.» (lord Kelvin)
Con reseñas como estas cuesta convertirse en una superestrella. Hizo falta un experimentador para hacer de Maxwell una leyenda, pero no en su propio tiempo, pues, por unos diez años, murió demasiado pronto.
Hertz, al rescate
El verdadero héroe (para este aprendiz de historiador tan tendencioso) es Heinrich Hertz, quien en una serie de experimentos que se prolongaron durante más de diez años (1873-1888) confirmó todas las predicciones de la teoría de Maxwell.
Las ondas tienen una longitud de onda, que es la distancia entre las crestas. Las crestas de las olas en el mar suelen estar separadas de unos seis a nueve metros. Las longitudes de las ondas sonoras son del orden de unos cuantos centímetros. También el electromagnetismo adopta la forma de ondas. La diferencia entre las distintas ondas electromagnéticas —infrarrojas, microondas, rayos X, ondas de radio-estriba sólo en sus longitudes de onda. La luz visible —azul, verde, naranja, roja— cae por la mitad del espectro electromagnético. Las ondas de radio y las microondas tienen longitudes de onda mayores; la lux ultravioleta, los rayos X y los rayos gamma, más cortas.
Por medio de una bobina de alto voltaje y un dispositivo detector, Hertz halló una forma de generar ondas electromagnéticas y de medir su velocidad. Mostró que esas ondas tenían las mismas propiedades de reflexión, refracción y polarización que las luminosas, y que se podía enfocarlas. A pesar de las malas reseñas, Maxwell tenía razón. Hertz, al someter la teoría de Maxwell a experimentos rigurosos, la aclaró y la simplificó a un «sistema de cuatro ecuaciones», de las que trataremos en un momento.
Tras Hertz, se generalizó la aceptación de las ideas de Maxwell, y el viejo problema de la acción a distancia pasó a mejor vida. Las fuerzas, en forma de campos, se propagaban por el espacio a una velocidad finita, la de la luz. A Maxwell le parecía que necesitaba un medio que soportase los campos eléctricos y magnéticos, así que adoptó la idea de Faraday y Boscovich de un éter que lo impregnaba todo y donde vibraban los campos eléctricos y magnéticos. Lo mismo que el descartado éter de Newton, éste tenía extrañas propiedades, y pronto desempeñaría un papel crucial en la siguiente revolución científica.
El triunfo de Faraday-Maxwell-Hertz supuso otro éxito para el reduccionismo. Las universidades no tenían ya que contratar un profesor de electricidad, un profesor de magnetismo y un profesor de luz, de óptica. Estas tres ramas se habían unificado, y bastaba con cubrir una plaza (y así quedaba más dinero para el equipo de fútbol). Se abarcaba un vasto conjunto de fenómenos, cosas tanto creadas por la ciencia como naturales: motores, generadores y transformadores, la industria de la energía eléctrica entera, la luz solar y la de las estrellas, la radio, el radar y las microondas, la luz infrarroja, la ultravioleta, los rayos X, los rayos gamma y los láseres. La propagación de todas estas formas de radiación queda explicada por las cuatro ecuaciones de Maxwell, que, en su forma moderna y aplicadas a la electricidad en el espacio libre, se escriben:
C x E = — ( δB / δt )
C x E = — ( δE / δt )
• B = 0
• E = 0
En estas ecuaciones, E representa el campo eléctrico y B el magnético; c, la velocidad de la luz, es una combinación de magnitudes eléctricas y magnéticas que se pueden medir en la mesa del laboratorio. Observad la simetría de E y B. No os preocupéis por los garabatos incomprensibles; para nuestros propósitos, los entresijos de estas ecuaciones no son importantes. Lo que importa es la requisitoria científica que dictan: «¡Hágase la luz!».
En todo el mundo hay estudiantes de física e ingeniería que llevan camisetas donde hay escritas esas cuatro concisas ecuaciones. Las originales de Maxwell, sin embargo, no se parecían nada a las que hemos dado. Estas versiones simples son obra de Hertz, un raro ejemplo de alguien que fue algo más que el típico experimentador que de la teoría sólo sabe lo que necesita para ir tirando. Fue excepcional en ambas áreas. Como Faraday, era consciente de que su obra tenía una inmensa importancia práctica, pero no sentía interés por ello. Se lo dejó a mentes científicas menores, a Marconi y Larry King, por ejemplo. La obra teórica de Hertz consistió en buena medida en ponerle orden y claridad a Maxwell, en reducir y divulgar su teoría. Sin los esfuerzos de Hertz, los estudiantes de física habrían tenido que hacer pesas para llevar camisetas tres veces extralargas donde cupiesen las farragosas matemáticas de Maxwell.
Fieles a nuestra tradición y a la promesa que le hicimos a Demócrito, que hace poco nos ha mandado un fax para recordárnoslo, hemos de preguntarle a Maxwell (o a su legado) por los átomos. Ni que decir tiene que creía en su existencia. Fue también el autor de una teoría, que tuvo gran éxito, donde los gases consistían en una asamblea de átomos. Creía, correctamente, que los átomos químicos no eran tan sólo diminutos cuerpos rígidos, sino que tenían alguna estructura compleja. Le venía esta creencia de su conocimiento de los espectros ópticos, que serían, como veremos, importantes en el desarrollo de la teoría cuántica. Maxwell creía, incorrectamente, que sus átomos complejos eran indivisibles. Lo dijo de una bella manera en 1875: «Aunque ha habido catástrofes en el curso de las eras y puede que en los cielos todavía las haya, aunque puede que los sistemas antiguos se disuelvan y surjan otros nuevos de sus ruinas, los [átomos] de los que esos sistemas ¡la Tierra, el sistema solar y así sucesivamente] están hechos —las piedras angulares del universo material— siempre permanecerán enteros y sin desgaste alguno». Sólo con que hubiera usado las palabras «quarks y leptones» en vez de «átomos»…
El juicio definitivo sobre Maxwell procede otra vez de Einstein, quien afirmaba que la de Max-well fue la contribución concreta más importante del siglo XIX.
El imán y la bola
Hemos pasado demasiado deprisa sobre algunos aspectos importantes de nuestra historia. ¿Cómo sabemos que los campos se propagan a una velocidad finita? ¿Cómo supieron los físicos del siglo XIX siquiera cuál era la velocidad de la luz? Y ¿cuáles la diferencia entre la acción a distancia instantánea y la reacción diferida?
Imaginaos que hay un electroimán muy poderoso en un extremo de un campo de fútbol y, en el otro extremo, una bola de hierro a la que un fino alambre suspende de un soporte muy alto. La bola se vencerá, poco, muy poco, hacia el imán alejado. Suponed ahora que desconectamos muy deprisa la corriente del imán. Las observaciones precisas de la bola y el alambre deberían registrar la reacción, cuando la bola volviese a su posición de equilibrio. Pero ¿es instantánea la reacción? Sí, dicen los de la acción a distancia. El imán y la bola de hierro están estrechamente conectados y, cuando el imán se apaga, la bola empieza instantáneamente a retroceder a la posición de desviación nula. «¡No!», dice la gente de la velocidad finita. La información «el imán está apagado, ahora puedes descansar» viaja por el campo a una velocidad definida, con lo que la reacción de la bola se retrasa.
Hoy conocemos la respuesta. La bola tiene que esperar; no demasiado, porque la información viaja a la velocidad de la luz, pero el retraso es medible. En la época de Maxwell este problema era el centro de un encarnizado debate. Estaba en juego la validez del concepto de campo. ¿Por qué no hicieron un experimento y zanjaron la cuestión? Porque la luz es tan rápida que cruzar el campo de fútbol entero le lleva sólo tina millonésima de segundo. En el siglo pasado, ese era un lapso de tiempo difícil de medir. Hoy es una cosa corriente medir intervalos mil veces irás cortos, así que la propagación a velocidad finita de los campos se calibra con facilidad. Hacemos, por ejemplo, que un rayo láser rebote en un reflector nuevo situado en la Luna y medimos de esa forma la distancia entre la Luna y la Tierra. El viaje de ida y vuelta dura alrededor de 1,0 segundo.
Un ejemplo a mayor escala. El 23 de febrero de 1987, exactamente a las 7:36 de hora universal u hora media de Greenwich, se observó la explosión de una estrella en el cielo meridional. Esta supernova estaba nada menos que en la Gran Nube de Magallanes, un cúmulo de estrellas y polvo que se halla a 160.000 años luz. En otras palabras, la información electromagnética necesitó 160.000 años para ir de la supernova a la Tierra. Y la supernova 87A era una vecina hasta cierto punto cercana. El objeto más distante que se ha observado está a unos 8.000 millones de años luz. Su luz partió hacia nuestro telescopio no mucho después del Principio.
La velocidad de la luz se midió por primera vez en un laboratorio terrestre. Lo hizo Armand-Hippolyte-Louis Fizeau, en 1849. Como no había osciloscopios ni relojes gobernados por cristal utilizó una ingeniosa disposición de espejos (que extendían el camino recorrido por la luz) y una rueda dentada rotatoria. Si sabemos a qué velocidad gira la rueda y su radio, sabremos calcular el tiempo en que un diente reemplaza a un hueco. Podremos ajustar la velocidad de rotación de forma que ese tiempo sea precisamente el tiempo que tarda la luz en ir del hueco al espejo lejano y volver al hueco y pasar por él hasta el ojo de M. Fizeau. Mon Dieu! ¡Lo veo! Acelérese entonces la rueda poco a poco hasta que el rayo quede bloqueado. Eso es. Ahora sabemos la distancia que ha recorrido el haz —de la fuente de luz por el hueco hasta el espejo y de vuelta al diente de la rueda— y el tiempo que le ha llevado hacerlo. Trajinando con este montaje consiguió Fizeau su famoso número: 300 millones (3 x 108) de metros por segundo.
No deja de sorprenderme la hondura filosófica de estos tipos del renacimiento electromagnético. Oersted creía (al contrario que Newton) que todas las fuerzas de la naturaleza (las de entonces: la gravedad, la electricidad y el magnetismo) eran manifestaciones diferentes de una sola fuerza primordial. ¡Es taaaan moderno! Los esfuerzos de Faraday por establecer la simetría de la electricidad y el magnetismo invocan la herencia griega de la simplicidad y la unificación, 2 de los 137 objetivos del Fermilab para la década de los años noventa.
¿La hora de volver a casa?
En estos dos últimos capítulos hemos cubierto más de trescientos años de física clásica, de Galileo a Hertz. He dejado fuera a gente muy buena. El holandés Christian Huygens, por ejemplo, nos contó un montón de cosas sobre la luz y las ondas. El francés René Descartes, el fundador de la geometría analítica, fue un destacado defensor del atomismo, pero sus amplias teorías de la materia y la cosmología, aunque imaginativas, no dieron en el blanco.
Hemos considerado la física clásica desde un punto de vista, el de la búsqueda del á-tomo de Demócrito, que no es el ortodoxo. Se suele abordar la física clásica como un examen de fuerzas: la gravedad y el electromagnetismo. Como ya hemos visto, la gravedad deriva de la atracción entre las masas. En la electricidad, Faraday reconoció un fenómeno diferente; la materia aquí no cuenta, dijo. Fijémonos en los campos de fuerza. Claro está, en cuanto se tiene una fuerza hay que recurrir a la segunda ley de Newton (F = ma) para hallar el movimiento resultante, y entonces sí que importa la masa inercial. El enfoque adoptado por Faraday de que la materia no contase parte de una intuición de Boscovich, pionero del atomismo. Y, claro, Faraday dio los primeros indicios de que había «átomos de la electricidad». Puede que se suponga que uno no debe mirar la historia de la ciencia de esta manera, como la persecución de un concepto, el de partícula última. Y, sin embargo, ahí está, bajo la superficie de las vidas intelectuales de muchos de los héroes de la física.
A finales del siglo XIX, los físicos creían que lo tenían todo a la vez. Toda la electricidad, todo el magnetismo, toda la luz, toda la mecánica, todas las cosas en movimiento, y además toda la cosmología y la gravedad: todo se conocía gracias a unas cuantas ecuaciones sencillas. Respecto a los átomos, la mayoría de los químicos pensaba que se trataba de un tema casi cerrado. Estaba la tabla periódica de los elementos. El hidrógeno, el helio, el carbono, el oxígeno y demás eran elementos indivisibles, cada uno con su propio átomo, invisible e indivisible.
Había en el cuadro algunas grietas misteriosas. El Sol, por ejemplo, era desconcertante. Basándose en las creencias por entonces corrientes en la química y en la teoría atómica, el científico británico lord Rayleigh calculó que el Sol debería haber consumido todo su combustible en 30.000 años. Los científicos sabían que el Sol era mucho más viejo. El asunto ese del éter planteaba también problemas. Sus propiedades mecánicas tenían que ser verdaderamente extrañas: había de ser transparente del todo y capaz de deslizarse entre los átomos de la materia sin perturbarlos, y sin embargo tenía que ser tan rígido como el acero para aguantar la velocidad enorme de la luz. Pero se esperaba que esos y otros misterios se resolverían a su debido tiempo. Si yo hubiese enseñado en 1890, a lo mejor habría estado tentado de decirles a mis alumnos que se buscasen otra disciplina más interesante. Todas las grandes preguntas tenían ya su respuesta. Las cuestiones que aún no se comprendían bien —la energía del Sol, la radiactividad y unos cuantos quebraderos de cabeza más—, bueno, todos creían que más tarde o más temprano sucumbirían ante el poder del monstruo teórico de Newton y Maxwell. A la física la habían empaquetado cuidadosamente en una caja y atado con un lazo.
Entonces, de pronto, a finales del siglo, el paquete entero empezó a desenvolverse. La culpa, como suele pasar, la tuvo la ciencia experimental.
La primera verdadera partícula
A lo largo del siglo XIX, los físicos se enamoraron de las descargas eléctricas que se producían en los tubos de cristal rellenos de gas cuando se disminuía la presión. Un soplador de vidrio hacía un impecable tubo de cristal de un metro de largo. Dentro del tubo quedaban sellados unos electrodos de metal. El experimentador extraía lo mejor que podía todo el aire del tubo e introducía el gas que se desease (hidrógeno, aire, dióxido de carbono) a baja presión. Cada electrodo se conectaba a una batería externa mediante unos cables y se aplicaban grandes voltajes eléctricos. Entonces, en una sala a oscuras, los investigadores se maravillaban ante el resplandor espléndido que aparecía, cuyo aspecto y tamaño variaba a medida que la presión disminuía. Cualquiera que haya visto un anuncio de neón conoce este tipo de resplandor. Cuando la presión era lo bastante baja, el brillo se convertía en un rayo, que iba del cátodo, el terminal negativo, al ánodo. Como es lógico, se le denominó rayo catódico. Estos fenómenos, de los que hoy sabemos que son bastante complejos, apasionaron a una generación de físicos y profanos interesados de toda Europa.
Los científicos sabían algunos detalles, que daban lugar a controversia, contradictorios incluso, acerca de estos rayos. Llevaban carga negativa. Se movían por líneas rectas. Podían hacer que diese vueltas una rueda de palas encerrada en el tubo. Los campos eléctricos no los desviaban. Los campos magnéticos sí los desviaban. Un campo magnético hacía que un haz estrecho de rayos catódicos se doblase y describiese un arco circular. Un espesor de metal detenía los rayos, pero atravesaban las hojas metálicas finas.
Son hechos interesantes, pero el misterio fundamental persistía: ¿qué eran esos rayos? A finales del siglo XIX, se hacían dos suposiciones. Algunos investigadores pensaban que los rayos catódicos eran vibraciones electromagnéticas del éter, carentes de masa. No era una suposición mala. Al fin y al cabo, resplandecían como un haz de luz, otro tipo de vibración electromagnética. Y era obvio que la electricidad, que es una forma de electromagnetismo, tenía algo que ver con los rayos.
Otro bando creía que los rayos eran una forma de materia. Según una buena suposición, se componían de moléculas del gas presente en el tubo que habían cogido de la electricidad una carga. Otra hipótesis era que los rayos catódicos estaban hechos de una forma nueva de materia, de pequeñas partículas que hasta entonces no se habían aislado. Por una serie de razones, se «mascaba» la idea de que había un portador básico de la carga. Nos iremos de la lengua ahora mismo. Los rayos catódicos ni eran vibraciones electromagnéticas ni eran moléculas de gas. .
Si Faraday hubiese vivido a finales del siglo XIX, ¿qué habría dicho? Las leyes de Faraday daban a entender con fuerza que había «átomos de electricidad». Corno recordaréis, realizó algunos experimentos similares, sólo que él hizo que la electricidad pasase por líquidos en vez de por gases y obtuvo iones, átomos cargados. Ya en 1874, George Johnstone Stoney, físico irlandés, había acuñado la palabra «electrón» para referirse a la unidad de electricidad que se pierde cuando un Momo se convierte en un ión. Si Faraday hubiera visto un rayo catódico, quizá, (dentro de sí, habría sabido que estaba observando a los electrones en acción.
Puede que algunos científicos de este periodo sospechasen intensamente que los rayos catódicos eran partículas; quizá unos cuantos creyesen que por fin habían dado con el electrón. ¿Cómo saberlo? ¿Cómo probarlo? En el intenso periodo anterior a 1895, muchos investigadores destacados de Inglaterra, Escocia, Alemania y los Estados Unidos estudiaron las descargas eléctricas. Quien dio con el filón fue un inglés llamado J. J. Thomson. Otros anduvieron cerca. Nos fijaremos en dos de ellos y en lo que hicieron, sólo para que se vea lo despiadadamente cruel que es la vida científica.
El tipo que estuvo más cerca de ganar a Thomson fue Emil Weichert, físico prusiano. Exhibió su técnica a quienes asistieron a una de sus disertaciones en enero de 1887. Su tubo de cristal tenía unos cuarenta centímetros de largo y siete de ancho. Los luminosos rayos catódicos eran fácilmente visibles en una sala en penumbra.
Si queréis meter en el redil a una partícula, deberéis dar su carga (e) y su masa (m). Para solventar este problema, muchos investigadores recurrieron, cada uno por su lado, a una técnica inteligente: someter el rayo a unas fuerzas eléctricas y magnéticas conocidas, y medir su reacción. Recordad F = ma. Si los rayos estaban compuestos de verdad de partículas cargadas eléctricamente, la fuerza que experimentarían dependería de la cantidad de carga (e) que llevasen. La reacción quedaría amortiguada por su masa inercial (m). Por desgracia, pues, el efecto que se podía medir era el cociente de esas dos magnitudes, la razón e / m. En otras palabras, los investigadores no podían hallar los valores individuales de e o de m, sólo un número igual a uno de ellos dividido por el otro. Veamos un ejemplo sencillo. Se os da el número 21 y se os dice que es el cociente de dos números. El 21 es sólo una pista. Los dos números que buscáis podrían ser 21 y 1, 63 y 3, 7 y 1/3, 210 y 10, ad infinitum. Pero si tenéis una idea de cuál es uno de los números, podréis deducir el segundo.
En busca de e / m, Weichert puso su tubo en el entrehierro de un imán, que arqueó el haz de luz. El imán empuja la carga eléctrica de las partículas; cuanto más lentas sean, menos le costará al imán hacer que describan un arco de círculo. Una vez supo cuál era la velocidad, la desviación de las partículas por el imán le dio un valor bueno de e / m.
Weichert sabía que, si hacía una suposición justificada del valor de la carga eléctrica, podría deducir la masa aproximada de la partícula. Concluía: «No se trata de los átomos conocidos en química, pues la masa de estas partículas móviles [los rayos catódicos] resulta ser de unas 2.000 a unas 4.000 veces menor que e) átomo químico más ligero que se conoce, el de hidrógeno». Weichert casi dio en el blanco. Sabía que estaba buscando algún tipo nuevo de partícula. Estuvo cerquísima de su masa. (La masa del electrón es 1.837 veces menor que la del hidrógeno.) Entonces, ¿por qué Thomson es famoso y Weichert una nota a pie de página? Porque sólo presupuso (conjeturó) el valor de la carga; no tenía pruebas observacionales al respecto. Además, Weichert se distrajo con un cambio de puesto y porque repartía su interés con la geofísica. Fue un científico que llegó a la conclusión correcta pero no tenía todos los datos. ¡No hay puro, Emil!
El segundo clasificado fue Walter Kaufmann, de Berlín. Llegó a la línea de meta en abril de 1897, y su debilidad fue la contraria de la que padecía Weichert. Sus cartas eran unos datos buenos y un pensamiento malo. También dedujo e/In mediante el uso de campos magnéticos y eléctricos, pero llevó el experimento un importante paso más allá. Le interesaba en especial cómo cambiaría el valor de e / m al cambiar la presión y el gas —aire, hidrógeno, dióxido de carbono— que rellenaba el tubo. Al contrario que Weichert, Kaufmann pensaba que las partículas de los rayos catódicos eran simplemente átomos cargados del gas que había en el tubo, así que, según el gas que se usase, deberían tener una masa diferente. Sorpresa: descubrió que e / m no cambia. Le salía siempre el mismo número, no importaba cuál fuese el gas, cuál la presión. Kaufmann se quedó perplejo y perdió el barco. Una pena, pues sus experimentos eran muy elegantes. Consiguió un valor de e / m mejor que el del campeón, J. J. Es una cruel ironía de la ciencia que no se percatase de lo que sus datos le estaban diciendo a gritos: ¡tus partículas son una forma nueva de materia, dummkopf! Y son constituyentes universales de todos los átomos; por eso, e / m no cambia.
Joseph John Thomson (1856-1940) empezó en la física matemática, y se sorprendió cuando, en 1884, se le nombró profesor de física experimental del famoso Laboratorio Cavendish de la Universidad de Cambridge. Sería curioso saber si realmente quería ser experimentador. Era célebre su torpeza con los aparatos experimentales, pero tuvo la suerte de contar con unos ayudantes excelentes que podían ejecutar sus órdenes y mantenerle lejos de tanto cristal quebradizo.
En 1896 Thomson se propone conocer la naturaleza de los rayos catódicos. En un extremo de los cuarenta centímetros de largo del tubo de cristal, el cátodo emite sus rayos misteriosos. Se dirigen hacia un ánodo en el que se ha hecho un agujero por el que pasan los rayos (léase los electrones). El haz estrecho que se forma así sigue hasta el final del tubo, donde da en una pantalla fluorescente, sobre la que produce una pequeña mancha verde. La siguiente sorpresa de Thomson consiste en introducir en el tubo de cristal un par de placas de unos quince centímetros de largo. El haz del cátodo pasa por la ranura entre ambas placas, que Thomson ha conectado a una batería, con lo que se crea un campo eléctrico perpendicular al rayo catódico. Esa es la región de desviación.
Si el haz se mueve en respuesta al campo, es que lleva una carga eléctrica. Si, por otra parte, los rayos catódicos son fotones —partículas de luz—, ignorarán las placas de desviación y seguirán su camino en línea recta. Thomson, gracias a una batería muy potente, ve que la mancha de la pantalla fluorescente se mueve hacia abajo cuando la placa de arriba es negativa y hacia arriba cuando es positiva. Prueba, por lo tanto, que los rayos están cargados. Dicho sea de paso, si las placas desviadoras tienen un voltaje alterno (varían rápidamente de más a menos, de menos a más), la mancha verde se desplazará hacia arriba y hacia abajo deprisa y se creará una línea verde. Este es el primer paso hacia el tubo de televisión y ver a Dan Rather en las noticias de noche de la CBS.
Pero es 1896, y Thomson piensa en otras cosas. Como se sabe la fuerza (la intensidad del campo eléctrico), será fácil, si se ha podido determinar la velocidad de los rayos catódicos, calcular, con una sencilla mecánica newtoniana, a qué velocidad deberá moverse la mancha. En este punto, Thomson usa una treta. Coloca un campo magnético alrededor del tubo en una dirección tal que la desviación magnética anule exactamente la eléctrica. Como esta fuerza magnética depende de la velocidad desconocida, le hasta leer la intensidad del campo eléctrico y del campo magnético para deducir el valor de la velocidad. Determinada la velocidad, podemos volver a comprobar la desviación del rayo en los campos eléctricos. Se obtiene un valor preciso de e / m, la razón de la carga eléctrica que transporta el rayo catódico dividida por su masa.
Trabajosamente, Thomson aplica campos, mide desviaciones, las anula, mide los campos y le salen números para e / m. Como Kaufmann, comprueba sus resultados cambiando el material del cátodo —aluminio, platino, cobre, latón— y repitiendo el experimento. Siempre sale el mismo número. Cambia el gas del tubo: aire, hidrógeno, dióxido de carbono. El mismo resultado. Thomson no repite el error de Kaufmann. Llega a la conclusión de que los rayos catódicos no son moléculas de gas cargadas, sino partículas fundamentales que han de formar parte de toda materia.
No satisfecho con que esto fuese prueba suficiente, ataca de nuevo y aplica la idea de la conser-vación de la energía. Captura los rayos catódicos con un bloque metálico. Se sabe su energía; es, simplemente, la energía eléctrica que imparte a las partículas el voltaje de la batería. Mide el calor engendrado por los rayos catódicos, y observa que al relacionar la energía que adquieren los hipotéticos electrones con la energía que se genera en el bloque sale la razón e / m. En una larga serie de experimentos, Thomson obtiene un valor de e / m (2,0 x 1011 culombios por kilogramo), que no difiere mucho de su primer resultado. En 1897 anuncia el resultado: «Tenemos en los rayos catódicos materia en un estado nuevo, estado en el que la subdivisión de la materia se lleva mucho más lejos que en el estado gaseoso ordinario». Esta «subdivisión de la materia» es un ingrediente de toda la materia y parte de la «sustancia con que están hechos los elementos químicos».
¿Qué nombre darle a esta nueva partícula? La palabra de Stoney «electrón» estaba a mano, así que con «electrón» se quedó. Thomson disertó y escribió sobre las propiedades corpusculares de los rayos catódicos desde abril hasta agosto de 1897. A esto se le llama mercadotecnia de los resultados que uno ha obtenido.
Quedaba un problema por resolver: los valores separados de e y m. Thomson se encontraba en el mismo atolladero que Weichert unos pocos años antes. Hizo algo inteligente. Como veía que la e / m de la nueva partícula era unas mil veces mayor que la del hidrógeno, el más ligero de todos los átomos químicos, o la e del electrón era mucho mayor o su m mucho menor. ¿Qué era: la e grande o la m pequeña? Intuitivamente, se quedó con la m pequeña. Valiente elección, pues con ella suponía que la nueva partícula tenía una masa minúscula, mucho más pequeña que la del hidrógeno. Recordad que la mayoría de los físicos y de los químicos todavía creía que el átomo químico era el á-tomo indivisible. Thomson decía ahora que el resplandor de su tubo probaba que había un ingrediente universal, un constituyente menor de todos los átomos químicos.
En 1898, Thomson se dedicó a medir la carga eléctrica de sus rayos catódicos, con lo que indirectamente medía también su masa. Empleó una técnica nueva, la cámara de niebla, inventada por un alumno suyo, el escocés C. T. R. Wilson, para estudiar las propiedades de la lluvia, bien no escaso en Escocia. La lluvia se produce cuando el vapor de agua se condensa sobre el polvo y forma gotas. Cuando el aire está limpio, los iones cargados eléctricamente pueden desempeñar el papel del polvo, y eso es lo que pasa en la cámara de niebla. Thomson medía la carga total de la cámara con una técnica electrométrica y determinaba la carga individual de cada gotita contándolas y dividiendo el total.
Tuve que construir una cámara de niebla de Wilson para mi tesis doctoral, y ` desde entonces las odio, y odio a Wilson, y a cualquiera que haya tenido algo que ver con este aparato terco como una mula que siempre te lleva la contraria. Que Thomson obtuviera el valor correcto de e y midiese, pues, la masa del electrón es milagroso. Y eso no es todo. Durante el proceso completo de caracterización de la partícula su dedicación no pudo ceder en un instante. ¿Cómo sabe el campo eléctrico? ¿Lee la etiqueta de la batería? No hay etiquetas. ¿Cómo sabe el valor preciso de su campo magnético, a fin de medir la velocidad? ¿Cómo mide la corriente? Leer una aguja en un contador tiene sus problemas. La aguja es un poco gruesa. Puede temblar y moverse. ¿Cómo se calibra la escala? ¿Tiene sentido? En 1897 los patrones absolutos no eran artículos de catálogo. La medición de los voltajes, las corrientes, las temperaturas, las presiones, las distancias, los intervalos de tiempo eran, en cada caso, un problema formidable. Cada una de esas mediciones requería un conocimiento detallado del funcionamiento de la batería, de los imanes, de los aparatos de medida.
Y luego venía el problema político: para empezar, ¿cómo se convence a los poderes de que te den los recursos necesarios para hacer el experimento? Ser el jefe, como Thomson lo era, ayudaba, la verdad. Y me he dejado el problema más crucial de todos` cómo se decide qué experimento hay que hacer. Thomson tenía el talento, el saber hacer político, el vigor para salir adelante donde otros habían fracasado. En 1898 anunció que los electrones son componentes del átomo y que los rayos catódicos son electrones que han sido separados del átomo. Los científicos creían que el átomo carecía de estructura y no se podía partir. Thomson lo habían hecho trizas.
Se dividió el átomo, y hallamos nuestra primera partícula elemental, nuestro primer á-tomo. ¿Oís esa risa floja?
5
El átomo desnudo
Algo está pasando aquí.
El qué, no está demasiado claro.
BUFFALO SPRINGFIELD
En la nochevieja de 1999, mientras el resto del mundo se estará preparando para el último suspiro del siglo, los físicos, de Palo Alto a Novosibirsk, de Ciudad del Cabo a Reykiavik, descansarán, exhaustos aún de haber festejado el centenario del descubrimiento del electrón casi dos años atrás (en 1998). A los físicos les encantan las celebraciones. Celebrarán el cumpleaños de cualquier partícula, por oscura que sea. Pero el electrón, ¡caray! Bailarán por las calles.
Descubierto el electrón, en el Laboratorio Cavendish de la Universidad de Cambridge, el lugar donde nació, se solía brindar por él con estas palabras: «¡Por el electrón! ¡Por que nunca sirva para nada!». Mala suerte: hoy, menos de un siglo después, toda nuestra superestructura tecnológica se basa en este pequeño compañero.
Apenas había nacido y ya planteaba problemas. Aún hoy nos deja perplejos. La «imagen» con que se lo representa es una esfera de carga eléctrica que gira deprisa alrededor de un eje y crea un campo magnético. J. J. Thomson luchó vigorosamente por medir la carga y la masa del electrón, pero ahora se conocen ambas magnitudes con un alto grado de precisión.
Veamos ahora los rasgos fantasmagóricos que le caracterizan. En el curioso mundo del átomo, se le da al electrón un radio nulo. Ello da lugar a unos cuantos problemas obvios:
• Si el radio es cero, ¿qué es lo que gira?
• ¿Cómo puede tener masa?
• ¿Dónde está la carga?
• Para empezar, ¿cómo sabemos que el radio es cero?
• ¿Me pueden devolver el dinero?
Aquí nos topamos de frente con el problema de Boscovich. Boscovich resolvía el proble-ma de las colisiones de los «átomos» convirtiéndolos en puntos, en cosas sin dimensiones. Sus puntos eran literalmente puntos de matemático, pero dejaba que tuvieran propiedades corrientes: la masa y algo a lo que llamamos carga, la fuente de un campo de fuerza. Los puntos de Boscovich eran teóricos, especulativos. Pero el electrón es real. Es probable que sea una partícula puntual, pero con las demás propiedades intactas. Masa, sí. Carga, sí. Espín —giro alrededor de sí mismo—, sí. Radio, no.
Pensad en el gato de Cheshire de Lewis Carroll. Lentamente, el gato de Cheshire desaparece hasta que no queda de él más que la sonrisa. Nada de gato, sólo sonrisa. Imaginaos el radio de un fragmento de carga que se vaya contrayendo poco a poco hasta desaparecer, pero sin que su espín, su carga, su masa y su sonrisa cambien.
Este capítulo trata del nacimiento y del desarrollo de la teoría cuántica. Es la historia de lo que pasa dentro del átomo. Empiezo con el electrón, porque una partícula que gira alrededor de sí misma y tiene masa pero carece de dimensiones es, para la mayoría de las personas, contraria a la intuición. Pensar en semejante cosa viene a ser como hacer flexiones mentales. Podría hacerle un poco de daño al cerebro: habréis de usar ciertos oscuros músculos cerebrales que seguramente no son de mucho uso.
Pero la idea de que el electrón es una masa puntual, una carga puntual, un giro puntual no deja de suscitar problemas conceptuales. La Partícula Divina está íntimamente unida a esta dificultad estructural. Sigue escapándosenos un conocimiento profundo de la masa, y en los años treinta y cuarenta el electrón fue el heraldo de esas dificultades. La medición del tamaño del electrón se convirtió en un trabajo a destajo, y generó doctorados a granel, de Nueva Jersey a Lahore. A lo largo de los años, experimentos cada vez más sensibles dieron números cada vez menores, todos compatibles con un radio nulo. Como si Dios hubiese tomado el electrón en Su mano y lo hubiera comprimido tanto como fuese posible. Con los grandes aceleradores construidos en los años setenta y ochenta, las mediciones fueron cada vez más precisas. En 1990 se midió que el radio era menor que 0, 000.000.000.000.000.001 centímetros o, en notación científica, 10-18 centímetros. Este es el mejor «cero» que la física puede ofrecer… por ahora. Si tuviera una buena idea experimental para añadir un cero más, lo dejaría todo e intentaría que se aprobase.
Otra propiedad interesante del electrón es el magnetismo, que se describe con un número, el llamado factor g. Por medio de la mecánica cuántica se calcula que el factor g del electrón es:
2 x (1,001159652190)
¡Y qué cálculos! Para llegar a ese número hizo falta que unos teóricos capacitados dedica-ran a la tarea años y una impresionante cantidad de tiempo de superordenador Pero esa era la teoría. Para verificarla, los experimentadores idearon unos ingeniosos métodos a fin de medir el factor g con una precisión equivalente. El resultado:
2 x (1,001159652193)
Como veis, la verificación llega a casi doce decimales. Se trata de una concordancia entre la teoría y el experimento espectacular. Lo que aquí nos importa es que el cálculo del factor g es una derivación de la mecánica cuántica, y en el corazón mismo de la teoría cuántica están las que se conocen como relaciones de incertidumbre de Heisenberg. En 1927 un físico alemán propuso una idea chocante: que es imposible medir a la vez la velocidad y la posición de una partícula con una precisión arbitraria. Esta imposibilidad no depende de la brillantez y del presupuesto del experimentador. Es una ley fundamental de la naturaleza.
Y sin embargo, a pesar de que la incertidumbre es uno de los hilos con que se teje la mecánica cuántica, ésta hace como churros predicciones, del estilo del factor g de antes, precisas hasta el undécimo decimal. A primera vista, la mecánica cuántica es una revolución científica que forma la roca madre sobre la que florece la ciencia del siglo XX… y que empieza por una confesión de incertidumbre.
¿De dónde salió esta teoría? Es una buena historia de detectives, y como en todo misterio, hay pistas, unas válidas, otras falsas. Por todas partes hay mayordomos, para confusión de los detectives. Los policías municipales, los del Estado, el FBI chocan, discuten, cooperan, van cada uno por su lado. Hay muchos héroes. Hay golpes y contragolpes. Mi visión será muy parcial, en la esperanza de que podré dar una impresión de cómo evolucionaron las ideas desde 1900 hasta que, en los años treinta, los propios revolucionarios, ya maduros, le pusieron los toques «finales» a la teoría. Pero ¡andad sobre aviso! El micromundo ofende la intuición; las masas, las cargas, los giros puntuales son propiedades de las partículas que en el mundo atómico son experimentalmente coherentes, no magnitudes que podamos ver a nuestro alrededor en el mundo macroscópico normal. Si hemos de seguir siendo amigos hasta el final de este capítulo, habremos de aprender a reconocer las fijaciones que padecemos, debidas a nuestra estrecha experiencia como macrocriaturas. Así que olvidaos de la normalidad; esperad lo que os choque, lo que no os podréis creer. Niels Bohr, uno de los fundadores, decía que quien no quede conmocionado por la teoría cuántica es que no la entiende. Richard Feynman aseguraba que nadie entiende la teoría cuántica. («Entonces, ¿qué esperas de nosotros?», me dicen mis alumnos.) Einstein, Schrödinger y otros buenos científicos no aceptaron jamás lo que se desprendía de la teoría, pero en los años noventa se cree que sin ciertos elementos fantasmagóricos de naturaleza cuántica no cabe comprender el origen del universo.
En el arsenal de armas intelectuales que los exploradores llevaron consigo al nuevo mundo del átomo estaban la mecánica newtoniana y las ecuaciones de Maxwell. Todos los fenómenos macroscópicos parecían estar sujetos a esas síntesis poderosas. Pero los experimentos de la última década del siglo XIX empezaron a poner en apuros a los teóricos. Ya hemos hablado de los rayos catódicos, que condujeron al descubrimiento del electrón. En 1895 Wilhelm Roentgen descubrió los rayos X. En 1896 Antoine Becquerel descubrió por casualidad la radiactividad al guardar en un cajón unas placas fotográficas cerca de un poco de uranio. La radiactividad, llevó pronto al concepto de vida media. La materia radiactiva se desintegra en unos tiempos característicos cuyo promedio cabía medir, pero la desintegración de un átomo concreto era impredecible. ¿Qué quería decir esto? Nadie lo sabía. La verdad era que todos esos fenómenos desafiaban la explicación por medios clásicos.
Cuando el arco iris no basta
Los físicos empezaban también a estudiar en profundidad las propiedades de la luz. Newton, con un prisma de cristal, había mostrado que, cuando se desplegaba la luz blanca en su composición espectral, donde los colores van del rojo en un extremo del espectro al violeta en el otro según una gradación continua, se reproducía el arco iris. En 1815 Joseph von Fraunhofer, artesano muy hábil, refinó mucho el sistema óptico que se utilizaba para observar los colores que salían del prisma: al mirar por un pequeño telescopio, la gama de colores se distinguía con perfecta nitidez. Con este instrumento —¡bingo!— Fraunhofer hizo un descubrimiento. Sobre los espléndidos colores del espectro solar se veía una serie de finas rayas oscuras, que parecían estar irregularmente espaciadas. Fraunhofer llegó a registrar 576 de esas líneas. ¿Qué significaban? En los tiempos de Fraunhofer se sabía que la luz era un fenómeno ondulatorio. Más tarde, James Clerk Maxwell mostraría que las ondas de luz son campos eléctricos y magnéticos, y que la distancia entre las crestas de la onda, la longitud de onda, es un parámetro fundamental que determina el color.
Al conocer las longitudes de onda, podemos asignar una escala numérica a la banda de colores. La luz visible va del rojo oscuro, a 8.000 unidades angstrom (0,000.08 cm), al violeta brillante, a unas 4.000 unidades angstrom. Con esta escala, Fraunhofer pudo localizar de forma precisa cada una de las finas rayas. Por ejemplo, una línea famosa, la llamada Hα, o « subalfa» (si no os gusta hache subalfa, llamadla Irving), tiene una longitud de onda de 6.562,8 unidades angstrom, en el verde, cerca de la mitad del espectro.
¿Por qué nos interesan esas líneas? Porque en 1859 el físico alemán Gustav Robert Kirchhoff encontró una profunda conexión entre ellas y los elementos químicos. Este personaje calentaba diversos elementos —cobre, carbón, sodio, etcétera — con una llama caliente hasta que se volvían incandescentes, energizaba distintos gases encerrados en tubos y examinaba los espectros de la luz emitida por esos gases encendidos con aparatos visores aún más perfeccionados. Descubrió que cada elemento emitía una serie característica de líneas de color brillantes y muy nítidas, superpuestas a un resplandor más oscuro de colores continuos. Dentro del telescopio había una escala grabada, calibrada en longitudes de onda, de forma que pudiese precisarse la posición de cada línea brillante. Como el espaciamiento de las líneas era distinto para cada elemento, Kirchhoff y su colega, Robert Bunsen, pudieron caracterizar los elementos mediante sus líneas espectrales. Kirchhoff necesitaba a alguien que le ayudase a calentar los elementos; ¿quién mejor que el hombre que inventó el mechero Bunsen?) Con un poco de habilidad, los investigadores fueron capaces de identificar las pequeñas impurezas de un elemento químico que hubiera presentes en otro. La ciencia tenía ahora una herramienta para examinar la composición de todo lo que emitiera luz —del Sol, por ejemplo, y, con el tiempo, hasta de las estrellas lejanas—. El descubrimiento de líneas espectrales que no se habían registrado antes fue un filón de elementos nuevos. En el Sol se identificó uno, el helio, en 1878. Pasarían diecisiete años antes de que se descubriese en la Tierra este elemento estelar.
Imaginaos la emoción que produjo el descubrimiento cuando se analizó la luz de la primera estrella brillante… y se halló que estaba hecha ¡de la misma pasta que hay aquí en la Tierra! Como la luz de las estrellas es muy tenue, es preciso dominar bien el telescopio y el espectroscopio para estudiar los colores y las líneas, pero la conclusión es inevitable: el Sol y las estrellas están hechos de la misma materia que la Tierra. De hecho, no hemos hallado ningún elemento en el espacio que no tengamos aquí en la Tierra. Somos puro material de estrellas. Para toda concepción global del mundo en que vivimos, este descubrimiento es a todas luces de una importancia increíble. Refuerza a Copérnico: no somos especiales.
¡Ah!, pero ¿por qué Fraunhofer, el tipo que empezó todo esto, hallaba esas líneas oscuras en el espectro del Sol? La explicación pronto estuvo lista. El núcleo caliente del Sol (al blanco vivo) emitía luz de todas las longitudes de onda. Pero a medida que esta luz se filtraba a través de los gases, fríos en comparación, de la superficie del Sol, éstos absorbían la luz precisamente de las longitudes de onda que les gusta emitir. Las líneas oscuras de Fraunhofer, pues, representaban la absorción. Las líneas brillantes de Kirchhoff eran emisiones de luz.
Aquí estamos, a finales del siglo XIX, y ¿qué hacemos con todo esto? Se supone que los átomos químicos son á-tomos duros, con masa, sin estructura, indivisibles. Pero parece que cada uno puede emitir o absorber su propia serie característica de líneas nítidas de energía electromagnética. Para algunos científicos, esto decía a gritos una palabra: «¡estructura!». Era bien sabido que los objetos mecánicos tienen estructuras que resuenan con los impulsos regulares. Las cuerdas del piano y del violín vibran y dan notas musicales en los elaborados instrumentos a los que pertenecen, y las copas de vino se hacen pedazos cuando un gran tenor canta la nota perfecta. Si los soldados marchan con un paso desafortunado, el puente se moverá violentamente. Las ondas de luz son justo eso, impulsos cuyo «paso» es igual a la velocidad dividida por la longitud de onda. Estos ejemplos mecánicos suscitaron la cuestión: si los átomos carecían de estructura interna, ¿cómo podían exhibir propiedades resonantes del estilo de las líneas espectrales?
Y si los átomos tenían una estructura, ¿qué decían de ella las teorías de Newton y de Maxwell? Los rayos X, la radiactividad, el electrón y las líneas espectrales tenían una cosa en común: la teoría clásica era incapaz de explicarlos (aunque muchos científicos lo intentaron). Por otra parte, tampoco es que alguno de esos fenómenos contradijese abiertamente la teoría clásica de Newton-Maxwell. No podían ser explicados, nada más. Pero mientras no hubiese una prueba contundente en contra, quedaba la esperanza de que un tío listo acabara por dar con una forma de salvar la física clásica. Nunca pasaría eso. Pero la prueba contundente sí aparecería al fin. En realidad, aparecieron tres.
Prueba contundente número 1: la catástrofe ultravioleta
La primera prueba observacional que contradijo palmariamente a la teoría clásica fue «la radiación del cuerpo negro». Todos los objetos radian energía. Cuanto más calientes, más energía radian. Un ser humano vivo emite unos 200 vatios de radiación en la región infrarroja invisible del espectro. (Los teóricos emiten 210 y los políticos llegan a los 250.)
Los objetos también absorben energía de su entorno. Si su temperatura es mayor que la de ese entorno, se enfrían, pues entonces radian más energía de la que absorben. «Cuerpo negro» es la expresión técnica que nombra a un absorbedor ideal, el que absorbe el 100 por 100 de la radiación que le llega. A un objeto así, cuando está frío, se le ve negro porque no refleja luz. Los experimentadores gustan de emplearlos como patrón para la medición de luz emitida. Lo interesante de la radiación de estos objetos —trozos de carbón, herraduras de caballo, las resistencias de una tostadora— es el espectro de color de la luz: cuánta luz desprenden en las distintas longitudes de onda; cuando los calentamos, nuestros ojos perciben al principio un oscuro resplandor rojo; luego, a medida que van estando más calientes, el M se vuelve brillante y acaba por convertirse en amarillo, blancoazulado y (¡cuanto calor!) blanco brillante. ¿Por qué al final llegamos al blanco?
El desplazamiento del espectro de color quiere decir que el pico de intensidad de la luz se mueve, a medida que la temperatura se eleva, del infrarrojo al rojo, al amarillo y al azul. Según se va desplazando, la distribución de la luz entre las longitudes de onda se ensancha, y cuando el pico llega a ser azul se radian tanto los otros colores que vemos blanco al cuerpo caliente. Al blanco vivo, diríamos. Hoy, los astrofísicos estudian la radiación del cuerpo negro que ha quedado como resto (de la radiación más incandescente de la historia del universo: el big bang.
Pero me estoy desviando del tema. A finales del siglo XIX los datos acerca de la radiación del cuerpo negro no paraban de mejorar. ¿Qué decía la teoría de Maxwell de estos datos? ¡La catástrofe! Algo completamente equivocado. La teoría clásica predecía una forma de la curva de distribución de la intensidad de la luz entre los distintos colores, las distintas longitudes de onda, errónea. En particular, predecía que el pico de la cantidad de luz se emitía siempre en las longitudes de onda más cortas, hacia el extremo violeta del espectro e incluso en el ultravioleta invisible. Eso no es lo que pasa. De ahí la «catástrofe ultravioleta» y la prueba contundente.
En un principio se creyó que este fallo al aplicar las ecuaciones de Maxwell se resolvería cuando se conociese mejor la manera en que la materia generaba energía electromagnética. El primero que apreció la gravedad del fallo fue Albert Einstein en 1905, pero otro físico le había preparado el terreno al maestro.
Entra Max Planck, teórico berlinés cuarentón que tenía tras de sí una larga carrera de físico, experto en la teoría del calor. Era inteligente, y profesoral. Una vez se le olvidó en qué aula se suponía que debía dar clase y preguntó en la oficina de su cátedra: «Por favor, dígame en qué aula da clase hoy el profesor Planck». Se le dijo seriamente: «No vaya, joven. Es usted jovencísimo para entender las clases de nuestro sabio profesor Planck».
En cualquier caso, Planck tenía a mano los datos experimentales, buena parte de los cuales habían sido tomados por colegas de su laboratorio berlinés, y decidió que debía entenderlos. Tuvo la inspiración de encontrar una expresión matemática que casaba con los datos; no sólo con la distribución de la intensidad a una temperatura dada, sino también con la forma en que la curva (la distribución de longitudes de onda) cambia a medida que cambia la temperatura. Por lo que vendrá, conviene resaltar que una curva dada permite calcular la temperatura del cuerpo que emite la radiación. Planck tenía razones para estar orgulloso de sí mismo. «Hoy he hecho un descubrimiento tan importante como el de Newton», alardeó ante su hijo.
El siguiente problema de Planck era conectar su afortunada fórmula, que estaba basada en los hechos, con una ley de la naturaleza. Los cuerpos negros, insistían los datos, emiten muy poca radiación a longitudes de onda cortas. ¿Qué «ley de la naturaleza» daría lugar a la supresión de las longitudes de onda cortas, tan caras a la teoría de Maxwell clásica? Pocos meses después de haber publicado su exitosa ecuación, Planck dio con una posibilidad. El calor es una forma de energía, y por lo tanto el contenido de energía de un cuerpo radiante está limitado por su temperatura. Cuanto más caliente sea el objeto, más energía habrá disponible. En la teoría clásica esta energía se distribuye por igual entre las diferentes longitudes de onda. PERO (nos van a salir granos, maldita sea, estamos a punto de descubrir la teoría cuántica) suponed que la cantidad de energía depende de la longitud de onda. Suponed que las longitudes de onda cortas «cuestan» más energía. Entonces, cuando intentemos radiar con longitudes de onda más cortas, iremos quedándonos sin energía.
Planck halló que tenía que hacer explícitamente dos suposiciones para que su teoría tuviera sentido. En primer lugar, dijo que la energía radiada está relacionada con la longitud de onda de la luz; en segundo, que el fenómeno está inextricablemente vinculado a que su naturaleza sea corpuscular. Planck pudo justificar su fórmula y mantenerse en paz con las leyes del calor suponiendo que la luz se emitía en forma de puñados o «paquetes» discretos de energía o (ahí viene) «cuantos». La energía de cada puñado está relacionada con la frecuencia mediante una conexión simple: E = hf. Un cuanto de energía E es igual a la frecuencia, f, de la luz por una constante, h. Como la frecuencia guarda una relación inversa con la longitud de onda, las longitudes de onda cortas (o frecuencias altas) cuestan más energía. A cualquier temperatura dada, sólo se dispone de tanta energía, así que las frecuencias altas se suprimen. La naturaleza corpuscular fue esencial para que saliese la respuesta correcta. La frecuencia es la velocidad de la luz dividida por la longitud de onda.
La constante que Planck introdujo, h, venía determinada por los datos. Pero ¿qué es h? Planck la llamó el «cuanto de acción», pero la historia le da el nombre de constante de Planck, y por siempre jamás simbolizará la nueva física revolucionaria. La constante de Planck tiene un valor, 4,11 x 10—5 eV-segundo, que la mide. No os acordéis de memoria. Observad sólo que es un número muy pequeño, gracias al 10—15 (quince lugares tras la coma decimal ).
Esto —la introducción del cuanto o puñado de energía de luz-es el punto decisivo, si bien ni Planck ni sus colegas comprendieron la profundidad del descubrimiento. Einstein, que reconoció el verdadero significado de los cuantos de Planck, fue la excepción, pero el resto de la comunidad científica tardó veinticinco años en asimilarlo. A Planck le perturbaba su propia teoría; no quería ver destruida la física clásica. «Hemos de vivir con la teoría cuántica», aceptó por fin. «Y creedme, va a crecer. No será sólo en la óptica. Entrará en todos los campos.» ¡Cuánta razón tenía!
Un comentario final. En 1990, el satélite Explorador del Fondo Cósmico (COBE) transmitió a sus encantados dueños astrofísicos datos sobre la distribución espectral de la radiación cósmica de fondo que impregna el espacio entero. Los datos, de una precisión sin precedentes, concordaban de forma exacta con la fórmula de Planck para la radiación del cuerpo negro. Recordad que la curva de la distribución de la intensidad de la luz permite definir la temperatura del cuerpo que emite la radiación. Con los datos del satélite COBE y de la ecuación de Planck, los investigadores pudieron calcular la temperatura promedio del universo. Hace frío: 2,73 grados sobre el cero absoluto.
Prueba contundente número 2: el efecto fotoeléctrico
Saltemos ahora a Albert Einstein, funcionario de la oficina suiza de patentes en Berna. Es el año 1905. Einstein obtuvo su doctorado en 1903 y se pasó el año siguiente dándole vueltas al sistema y sentido de la vida. Pero 1905 fue un buen año para él. En su transcurso se las apañó para resolver tres de los problemas más importantes de la física: el efecto fotoeléctrico (nuestro tema), la teoría del movimiento browniano (¡buscadla en un libro!) y, ¡oh, sí!, la teoría de la relatividad especial. Einstein comprendió que la conjetura de Planck implica que la emisión de la luz, la energía electromagnética, ocurre a golpes discretos de energía, h f, y no idílicamente, como en la teoría clásica, en la que a cada longitud de onda le sigue continua y regularmente otra.
Puede que esta percepción le diese a Einstein la idea de explicar una observación experi-mental de Heinrich Hertz. Para confirmar la teoría de Maxwell, Hertz había generado ondas de radio. Para ello hacía saltar chispas entre dos bolas metálicas. En el curso de su trabajo se percató de que las chispas cruzaban con mayor facilidad el vano si las bolas acababan de ser pulidas. Como era curioso, pasó un tiempo estudiando el efecto de la luz en las superficies metálicas. Observó que la luz azul-violácea de la chispa era esencial para la extracción de cargas de la superficie metálica, que alimentaban el ciclo al contribuir a la formación de más chispas. Hertz razonó que el pulimentado retira los óxidos que interfieren la interacción de la luz y la superficie metálica.
La luz azul-violácea promovía que los electrones saltasen del metal, fenómeno que por entonces parecía una rareza. Los experimentadores estudiaron sistemáticamente el fenómeno y obtuvieron estos hechos curiosos:
1 La luz roja no puede liberar electrones, ni siquiera cuando es extraordinariamente intensa.
2 La luz violeta, aunque sea más bien débil, libera electrones con facilidad.
3 Cuanto más corta sea la longitud de onda (cuanto más violeta sea la luz), mayor será la energía de los electrones liberados.
Einstein cayó en la cuenta de que la idea de Planck según la cual la luz viene a puñados podía ser la clave para resolver el misterio fotoeléctrico. Imaginaos un electrón, a lo suyo en el metal de una de las bolas muy pulidas que utilizaba Hertz. ¿Qué tipo de luz podría darle energía suficiente para que saltase de la superficie? Einstein, por medio de la ecuación de Planck, vio que si la longitud de onda de la luz es suficientemente corta, el electrón recibirá una energía que bastará para que atraviese la superficie del metal y escape. O el electrón absorbe el puñado entero de energía o no lo hace, razonó Einstein. Ahora bien, si la longitud de onda del puñado absorbido es demasiado larga (no tiene la bastante energía), el electrón no puede escapar; no tiene energía suficiente. Empapar el metal con puñados de luz impotente (de longitud de onda larga) no sirve de nada. Según Einstein, es la energía del puñado lo que cuenta, no cuántos haya.
La idea de Einstein funciona a la perfección. En el efecto fotoeléctrico los cuantos de luz, o fotones, se absorben en vez de, como pasa en la teoría de Planck, emitirse. Parece que ambos procesos exigen cuantos cuya energía sea E = hf. El concepto de cuanto se llevaba el gato al agua. La idea del fotón no se probó de forma convincente hasta 1923, cuando el físico estadounidense Arthur Compton consiguió demostrar que un fotón podía chocar con un electrón como si fueran dos bolas de billar, cambiando con ello su dirección, energía y momento, y actuando en todo como una partícula, sólo que una muy especial, conectada de cierta forma a una frecuencia de vibración o longitud de onda.
Aquí apareció un fantasma. La naturaleza de la luz era de antiguo un campo de batalla. Acordaos de que Newton y Galileo sostenían que la luz estaba hecha de «corpúsculos». El astrónomo holandés Christian Huygens defendió una teoría ondulatoria. La batalla histórica entre los corpúsculos de Newton y las ondas de Huygens quedó zanjada a principios del siglo XIX por el experimento de la doble rendija de Thomas Young (del que hablaremos enseguida). En la teoría cuántica, el corpúsculo resucitó en la forma de fotón, y el dilema onda-corpúsculo revivió y tuvo un final sorprendente.
Pero la física clásica aún debió enfrentarse a más problemas, gracias a Ernest Rutherford y su descubrimiento del núcleo.
Prueba contundente número 3: ¿a quién le gusta el pudin de pasas?
Ernest Rutherford es uno de esos personajes que es casi demasiado bueno para ser de verdad, como si la Central de Repartos lo hubiera elegido para la continuidad científica. Rutherford, neozelandés grande y rudo que lucía un gran mostacho, fue el primer estudiante extranjero admitido en el célebre Laboratorio Cavendish, que por entonces dirigía J. J. Thomson. Rutherford llegó justo a tiempo para asistir al descubrimiento del electrón. Tenía, al contrario que su jefe, J. J., buenas manos, y fue un experimentador de experimentadores, digno de ser el rival de Faraday al título de mejor experimentador que haya habido jamás. Era bien conocida su creencia de que maldecir en un experimento hacía que funcionase mejor, idea que los resultados experimentales, si no la teoría, ratificaron. Al valorar a Rutherford hay que tener en cuenta especialmente a sus alumnos y posdoctorandos, quienes, bajo su terrible mirada, llevaron a cabo grandes experimentos. Fueron muchos: Charles D. Ellis (descubridor de la desintegración beta), James Chadwick (descubridor del neutrón) y Hans Geiger (famoso por el contador), entre otros. No penséis que es fácil supervisar a unos cincuenta estudiantes graduados. Para empezar, hay que leerse sus trabajos. Escuchad cómo empieza su tesis uno de mis mejores alumnos: «Este campo de la física es tan virgen que el ojo humano nunca ha puesto el pie en él». Pero volvamos a Ernest.
Rutherford a duras penas ocultaba su desprecio por los teóricos, aunque, como veremos, él mismo fue uno nada malo. Y es una suerte que a finales del siglo pasado la prensa no le hiciese tanto caso a la ciencia como ahora. De Rutherford se podrían haber citado tantas ocurrencias, que habría tenido que colgarse, de tantas toneladas de subvenciones. He aquí unos cuantos rutherfordismos que han llegado a nosotros a lo largo del tiempo:
• «Que no coja en mi departamento a alguien que hable del universo.»
• «¡Ah, eso [la relatividad]! En nuestro trabajo nunca nos hemos preocupado de ella.»
• «La ciencia, o es física, o es coleccionar sellos.»
• «Acabo de leer algunos de mis primeros artículos y, sabes, cuando terminé, me dije: “Rutherford, chico, eras un tío condenadamente listo”.»
Este tipo condenadamente listo terminó su tiempo con Thomson, cruzó el Atlántico, trabajó en la Universidad McGill de Montreal y volvió a Inglaterra para ocupar un puesto en la Universidad de Manchester. En 1908 ganó un premio Nobel por sus trabajos sobre la radiactividad. Para casi cualquiera, este habría sido el clímax adecuado de toda una carrera, pero no para Rutherford. Entonces fue cuando empezó en serio (earnest) su trabajo.
No se puede hablar de Rutherford sin hablar del laboratorio Cavendish, creado en 1874 en la Universidad de Cambridge como laboratorio de investigación. El primer teórico fue Maxwell (¿un teórico, director de laboratorio?). El segundo fue lord Rayleigh, al que siguió, en 1884, Thomson. Rutherford llegó del paraíso de Nueva Zelanda como estudiante investigador especial en 1895, un momento fantástico para los progresos rápidos. Uno de los ingredientes principales para tener éxito profesional en la ciencia es la suerte. Sin ella, olvidaos. Rutherford la tuvo. Sus trabajos sobre la recién descubierta radiactividad —rayos de Becquerel se la llamaba— le prepararon para su descubrimiento más importante, el núcleo atómico, en 1911. El descubrimiento lo efectuó en la Universidad de Manchester y volvió en triunfo al Cavendish, donde sucedió a Thomson como director.
Recordaréis que Thomson había complicado mucho el problema de la materia al descubrir el electrón. El átomo químico, del que se creía que era la partícula indivisible planteada por Demócrito, tenía ahora cositas que revoloteaban en su interior. La carga de estos electrones era negativa, lo que suponía un problema. La materia es neutral, ni positiva ni negativa. Así que ¿qué compensa a los electrones?
El drama empieza muy prosaicamente. El jefe entra en el laboratorio. Allí están un posdoctorando, Hans Geiger, y un meritorio aún no graduado, Ernest Marsden. Están liados con unos experimentos de dispersión de partículas alfa. Una fuente radiactiva —por ejemplo, el radón 222— emite natural y espontáneamente partículas alfa. Resulta que las partículas alfa no son más que átomos de helio sin los electrones, es decir, núcleos de helio, como descubrió Rutherford en 1908. La fuente de radón se coloca en un recipiente de plomo en el que ha abierto un agujero angosto que dirige las partículas alfa hacia una lámina de oro finísima. Cuando las alfas atraviesan la lámina, los átomos de oro les desvían la trayectoria. El objeto de su estudio son los ángulos de esas desviaciones. Rutherford había montado el que llegaría a ser el prototipo de los experimentos de dispersión. Se disparan partículas a un blanco y se ve adónde van a parar. En este caso las partículas alfa eran pequeñas sondas y el propósito era descubrir cómo se estructuran los átomos. La hoja de oro que hace de blanco está rodeada por todas partes —360 grados— de pantallas de sulfuro de zinc. Cuando una partícula alfa choca con una molécula de sulfuro de zinc, ésta emite un destello de luz que permite medir el ángulo de desviación. La partícula alfa se precipita a la lámina de oro, choca con un átomo y se desvía a una de las pantallas de sulfuro de zinc. ¡Flash! Muchas de las partículas alfa son desviadas sólo ligeramente y chocan con la pantalla de sulfuro de zinc directamente por detrás de la lámina de oro. Fue dura la realización del experimento. No tenían contadores de partículas —Geiger no los había inventado todavía—, así que Geiger y Marsden no tenían más remedio que permanecer en una sala a oscuras durante horas hasta que su vista se hacía a ver los destellos. Luego tenían que tomar nota y catalogar el número y las posiciones de las pequeñas chispas.
Rutherford —que no tenía que meterse en habitaciones a oscuras porque era el jefe— decía: «Ved si alguna de las partículas alfa se refleja en la lámina». En otras palabras, ved si alguna de las alfas da en la hoja de oro y retrocede hacia la fuente. Marsden recuerda que «para mi sorpresa observé ese fenómeno… Se lo dije a Rutherford cuando me lo encontré luego, en las escaleras que llevaban a su cuarto».
Los datos, publicados después por Geiger y Marsden, daban cuenta de que una de cada 8.000 partículas alfa se reflejaba en la lámina metálica. Esta fue la reacción de Rutherford, hoy célebre, a la noticia: «Fue el suceso más increíble que me haya pasado en la vida. Era como si disparases un cañón de artillería a una hoja de papel cebolla y la hala rebotase y te diera».
Esto fue en mayo de 1909. A principios de 1911 Rutherford, actuando esta vez como físico teórico, resolvió el problema. Saludó a sus alumnos con una amplia sonrisa: «Sé a qué se parecen los átomos y entiendo por qué se da la fuerte dispersión hacia atrás». En mayo de ese año se publicó el artículo donde declaraba la existencia del núcleo atómico. Fue el final de una era. Ahora se veía, correctamente, que el átomo era complejo, no simple, y divisible, en absoluto a-tómico. Fue el principio de una era nueva, la era de la física nuclear, y supuso la muerte de la física clásica, al menos dentro del átomo.
Rutherford hubo de pensar al menos dieciocho meses en un problema que hoy resuelven los estudiantes de primero de físicas. ¿Por qué le desconcertaron tanto las partículas alfa? La razón estribaba en la imagen que los científicos se hacían entonces del átomo. Ahí tenían la pesada y positivamente cargada partícula alfa que carga contra un átomo de oro y rebota hacia atrás. En 1909 había consenso en que la partícula alfa no debería hacer otra cosa que abrirse paso por la lámina de oro, como, por usar la metáfora de Rutherford, una bala de artillería a través del papel cebolla.
El modelo del papel cebolla del átomo se remontaba a Newton, quien decía que las fuerzas han de cancelarse para que haya estabilidad mecánica. Por lo tanto, las eléctricas de atracción y repulsión habían de equilibrarse en un átomo estable del que pudiera uno fiarse. Los teóricos del nuevo siglo se entregaron a un frenesí realizador de modelos, con los que intentaban disponer los electrones de forma que se constituyese un átomo estable. Se sabía que los átomos tienen muchos electrones cargados negativamente. Habían., pues, de tener una cantidad igual de carga positiva distribuida de una manera desconocida. Como los electrones son muy ligeros y el átomo es pesado, o éste había de tener miles de electrones (para reunir ese peso) o el peso tenía que estar en la carga positiva. De los muchos modelos propuestos, hacia 1905 el dominante era el formulado por el mismísimo J. J. Thomson, el señor Electrón. Se le llamó el modelo del pudin de pasas porque en él la carga positiva se repartía por una esfera que abarcaba el átomo entero, con los electrones insertados en ella como las pasas en el pudin. Esta disposición era mecánicamente estable y hasta dejaba que los electrones vibrasen alrededor de posiciones de equilibrio. Pero la naturaleza de la carga positiva era un completo misterio.
Rutherford, por otra parte, calculó que la única configuración capaz de hacer que una partícula alfa retroceda consistía en que toda la masa y la carga positiva se concentren en un volumen muy pequeño en el centro de una esfera, enorme en comparación (de tamaño atómico). ¡El núcleo! Los electrones estarían espaciados por la esfera. Con el tiempo y datos mejores, la teoría de Rutherford se refinó. La carga central positiva (el núcleo) ocupa un volumen de no más de una billonésima parte del volumen del átomo. Según el modelo de Rutherford, la materia es, más que nada, espacio vacío. Cuando tocamos una mesa, la percibimos sólida, pero es el juego entre las fuerzas eléctricas (y las reglas cuánticas) de los átomos y moléculas lo que crea la ilusión de solidez. El átomo está casi vacío. Aristóteles se habría quedado de piedra.
Puede apreciarse la sorpresa de Rutherford ante el rebote de las partículas alfa si abando-namos su cañón de artillería y pensamos mejor en una bola que va retumbando por la pista de la bolera hacia la fila de bolos. Imaginaos la conmoción del jugador si los bolos detuviesen la bola e hicieran que rebotara hacia él; tendría que correr para salvar el pellejo. ¿Podría pasar esto? Bueno, suponed que en medio de la disposición triangular de bolos hay un «bolo gordo» especial hecho de iridio sólido, el metal más denso que se conoce. ¡Ese bolo pesa! Cincuenta veces más que la bola. Una secuencia de fotos tomadas a intervalos de tiempo mostraría a la bola dando en el bolo gordo y deformándolo, y parándose. Entonces, el bolo, a medida que recuperase su forma original, y en realidad retrocediese un poco, impartiría una sonora fuerza a la bola, cuya velocidad original invertiría. Esto es lo que pasa en cualquier colisión elástica, la de una bola de billar y la banda de la mesa, por ejemplo. La metáfora militar, más pintoresca, que hizo Rutherford de la bala de artillería derivaba de su idea preconcebida, y de la de casi todos los físicos de ese momento, de que el átomo era una esfera de pudin tenuemente extendida por un gran volumen. Para un átomo de oro, éste se trataba de una «enorme» esfera de radio 10—9 metros.
Para hacernos una idea del átomo de Rutherford, representémonos el núcleo con el tama-ño de un guisante (alrededor de medio centímetro de diámetro); entonces el átomo será una esfera de unos cien metros de radio, que podría abarcar seis campos de fútbol empacados en un cuadrado aproximado. También aquí brilla la suerte de Rutherford. Su fuente radiactiva producía precisamente alfas con una energía de unos 5 millones de electronvoltios (lo escribimos 5 MeV), la ideal para descubrir el núcleo. Era lo bastante baja para que la partícula alfa no se acercase nunca demasiado al núcleo; la fuerte carga positiva de éste la volvía hacia atrás. La masa de la nube de electrones que había alrededor era demasiado pequeña para que tuviese algún efecto apreciable en la partícula alfa. Si la alfa hubiera tenido una energía mucho mayor, habría penetrado en el núcleo y sondeado la interacción nuclear fuerte (sabremos de ella más adelante), con lo que el patrón de las partículas alfa dispersadas se habría complicado mucho (la gran mayoría de las alfas cruzan el átomo tan lejos del núcleo que sus desviaciones son pequeñas); tal y como era el patrón, según midieron a continuación Geiger y Marsden y luego un enjambre de rivales continentales, equivalía matemáticamente a lo que cabría esperar si el núcleo fuese un punto. Ahora sabemos que los núcleos no son puntos, pero si las partículas alfa no se acercaban demasiado, la aritmética es la misma.
A Boscovich le habría encantado. Los experimentos de Manchester respaldaban su visión. El resultado de una colisión lo determinan los campos de fuerza que rodean las cosas «puntuales». El experimento de Rutherford tenía consecuencias que iban más allá del descubrimiento del núcleo. Estableció que de las desviaciones muy grandes se seguía la existencia de pequeñas concentraciones «puntuales», idea crucial que los experimentadores emplearían a su debido tiempo para ir tras los verdaderos puntos, los quarks. En la concepción de la estructura del átomo que poco a poco iba formándose, el modelo de Rutherford fue un auténtico hito. Se trataba en muy buena medida de un sistema solar en miniatura: un núcleo central cargado positivamente con cierto número de electrones en varias órbitas de forma que la carga total negativa cancelase la carga nuclear positiva. Se recurría cuando convenía a Maxwell y Newton. El electrón orbital, como los planetas, obedecía el mandato de Newton, F = ma. F era en este caso la fuerza eléctrica (la ley de Coulomb) entre las partículas cargadas. Como se trata, al igual que la gravedad, de una fuerza del inverso del cuadrado, cabría suponer a primera vista que de ahí se seguirían órbitas planetarias, estables. Ahí lo tenéis, el hermoso y diáfano modelo del átomo como un sistema solar. Todo iba bien.
Bueno, todo iba bien hasta que llegó a Manchester un joven físico danés, de inclinación teórica. «Mi nombre es Bohr, Niels Henrik David Bohr, profesor Rutherford. Soy un joven físico teórico y estoy aquí para ayudarle.» Os podréis imaginar la reacción del rudo neozelandés, que no se andaba por las ramas.
La lucha
La revolución en marcha que se conoce por el nombre de teoría cuántica no nació ya crecida del todo en las cabezas de los teóricos. Fue gestándose poco a poco a partir de los datos que generaba el átomo químico. Cabe considerar el esfuerzo por comprender este átomo como un ensayo de la verdadera lucha, la del conocimiento del subátomo, de la jungla subnuclear.
El lento desarrollo del mundo es seguramente una bendición. ¿Qué habrían hecho Galileo o Newton si todos los datos que salen del Fermilab les hubiesen sido comunicados de alguna forma? A un colega mío de Columbia, un profesor muy joven, muy brillante, con gran facilidad de palabra, entusiasta, se le asignó una tarea pedagógica singular. Toma los cuarenta o más novatos que han optado por la física como disciplina académica principal y dales dos años de instrucción intensiva: un profesor, cuarenta aspirantes a físicos, dos años. El experimento resultó un desastre. La mayoría de los estudiantes se pasaron a otros campos. La razón la dio más tarde un estudiante de matemáticas: «Mel era terrible, el mejor profesor que jamás haya tenido. En esos dos años, no sólo fuimos viendo lo usual —la mecánica newtoniana, la óptica, la electricidad y demás—, sino que abrió una ventana al mundo de la física moderna y nos hizo vislumbrar los problemas con que se enfrentaba en sus propias investigaciones. Me pareció que no había manera de que pudiese vérmelas con un conjunto de problemas tan difíciles, así que me pasé a las matemáticas».
Esto suscita una cuestión más honda, la de si el cerebro humano estará alguna ver preparado para los misterios de la física cuántica, que en los años noventa siguen conturbando a algunos de los mejores entre los mejores físicos. El teórico Heinz Pagels (que murió trágicamente hace unos pocos años escalando una montaña) sugirió, en su excelente libro The Cosmic Code, que el cerebro humano podría no estar lo suficientemente evolucionado para entender la realidad cuántica. Quizá tenga razón, si bien unos cuantos de sus colegas parecen convencidos de que han evolucionado mucho más que todos nosotros.
Por encima de todo está el que la teoría cuántica, teoría muy refinada, la dominante en los años noventa, funciona. Funciona en los átomos. Funciona en las moléculas. Funciona en los sólidos complejos, en los metales, en los aislantes, los semiconductores, los superconductores y allá donde se la haya aplicado. El éxito de la teoría cuántica esta tras una fracción considerable del producto nacional bruto (PNB) del mundo entero. Pero lo que para nosotros es más importante, no tenemos otra herramienta gracias a la cual podarnos abordar el núcleo, con sus constituyentes, y aún más allá, la vasta pequeñez de la materia primordial, donde nos enfrentaremos al á-tomo y la Partícula Divina. Y allí es donde las dificultades conceptuales de la teoría cuántica, despreciadas por la mayoría de los físicos ejercientes como mera «filosofía», desempeñarán quizá un papel importante.
Bohr: en las alas de una mariposa
El descubrimiento de Rutherford, que vino tras varios resultados experimentales que contradecían la física clásica, fue el último clavo del ataúd. En la pugna en marcha entre el experimento y la teoría, habría sido una buena oportunidad para insistir una vez más: «¿Hasta qué punto tendremos que dejar las cosas claras los experimentadores antes de que los teóricos os convenzáis de que os hace falta algo nuevo?». Parece que Rutherford no se dio cuenta de cuánta desolación iba a sembrar su nuevo átomo en la física clásica.
Y en éstas aparece Bohr, el que seria el Maxwell del Faraday Rutherford, el Kepler de su Brahe. El primer puesto de Bohr en Inglaterra fue en Cambridge, adonde fue a trabajar con el gran J. J., pero irritó al maestro porque, con veinticinco años de edad, le descubría errores. Mientras estudiaba en el Laboratorio Cavendish, nada más y nada menos que con una ayuda de las cervezas Carlsberg, Bohr asistió en el otoño de 1911 a una disertación de Rutherford sobre su nuevo modelo atómico. La tesis de Bohr había consistido en un estudio de los electrones «libres» en los metales, y era consciente de que no todo iba bien en la física clásica. Sabía, por supuesto, hasta qué punto Planck y Einstein se habían desviado de la ortodoxia clásica. Y las líneas espectrales que emitían ciertos elementos al calentarlos daban más pistas acerca de la naturaleza del átomo. A Bohr le impresionó tanto la disertación de Rutherford, y su átomo, que dispuso las cosas para visitar Manchester durante cuatro meses en 1912.
Bohr vio la verdadera importancia del nuevo modelo. Sabía que los electrones que describían órbitas circulares alrededor de un núcleo central tenían que radiar, según las leyes de Maxwell, energía, como un electrón que se acelera arriba y abajo por una antena. Para que se satisfagan las leyes de conservación de la energía, las órbitas deben contraerse y el electrón, en un abrir y cerrar de ojos, caerá en espiral hacia el núcleo. Si se cumpliesen todas esas condiciones, la materia sería inestable. ¡El modelo era un desastre clásico! Sin embargo, no había en realidad otra posibilidad.
A Bohr no le quedaba otra salida que intentar algo que fuera muy nuevo. El átomo más simple de todos es el hidrógeno, así que estudió los datos disponibles acerca de cómo las partículas alfa se frenan en el hidrógeno gaseoso, por ejemplo, y llegó a la conclusión de que el átomo de hidrógeno tiene un solo electrón en una órbita de Rutherford alrededor de un núcleo cargado positivamente. Otras curiosidades alentaron a Bohr a no achicarse a la hora de romper con la teoría clásica.
Observó que no hay nada en la física clásica que determine el radio de la órbita del electrón en el átomo de hidrógeno. En realidad, el sistema solar es un buen ejemplo de una variedad de órbitas planetarias. Según las leyes de Newton, se puede imaginar cualquier órbita planetaria; hasta con que se arranque de la forma apropiada. Una vez se fija un radio, la velocidad del planeta en la órbita y su periodo (el año) quedan determinados. Pero parecía que todos los átomos de hidrógeno son exactamente iguales. Los átomos no muestran en absoluto la variedad que exhibe el sistema solar. Bohr hizo la afirmación, sensata pero absolutamente anticlásica, de que sólo ciertas órbitas estaban permitidas.
Bohr propuso, además, que en esas órbitas especiales el electrón no radia. En el contexto histórico, esta hipótesis fue increíblemente audaz. Maxwell se revolvió en su tumba, pero Bohr sólo intentaba dar un sentido a los hechos. Uno importante tenía que ver con las líneas espectrales que, como Kirchhoff había descubierto hacía ya muchos años, emitían los átomos. El hidrógeno encendido, como otros elementos, emite una serie distintiva de líneas espectrales. Para obtenerlas, Bohr se percató de que tenía que permitirle al electrón la posibilidad de elegir entre distintas órbitas correspondientes a contenidos energéticos diferentes. Por lo tanto, le dio al único electrón del átomo de hidrógeno un conjunto de radios permitidos que representaban un conjunto de estados de energía cada vez mayor. Para explicar las líneas espectrales se sacó de la manga que la radiación se produce cuando un electrón «salta» de un nivel de energía a otro inferior; la energía del fotón radiado es la diferencia entre los dos niveles de energía. Propuso entonces un verdadero delirio de regla para esos radios especiales que determinan los niveles de energía. Sólo se permiten, dijo, las órbitas en las que el momento orbital, magnitud de uso corriente que mide el impulso rotacional del electrón, tome, medido en una nueva unidad cuántica, un valor entero. La unidad cuántica de Bohr no era sino la constante de Planck, h. Bohr diría después que «estaba al caer el que se empleasen las ideas cuánticas ya existentes».
¿Qué está haciendo Bohr en su buhardilla, tarde ya, de noche, en Manchester, con un mazo de papel en blanco, un lápiz, una cuchilla afilada, una regla de cálculo y unos cuantos libros de referencia? Busca reglas de la naturaleza, reglas que concuerden con los hechos que listan sus libros de referencia. ¿Qué derecho tiene a inventarse las reglas por las que se conducen los electrones invisibles que dan vueltas alrededor del núcleo (invisible también) del átomo de hidrógeno? En última instancia, la legitimidad se la da el éxito a la hora de explicar los datos. Parte del átomo más simple, el de hidrógeno. Comprende que sus reglas han de dimanar, al final, de algún principio profundo, pero lo primero son las reglas. Así trabajan los teóricos. En Manchester, Bohr quería, en palabras de Einstein, conocer el pensamiento de Dios.
Bohr volvió pronto a Copenhague, para que la semilla de su idea germinase. Finalmente, en tres artículos publicados en abril, junio y agosto de 1913 (la gran trilogía), presentó su teoría cuántica del átomo de hidrógeno, una combinación de leyes clásicas y suposiciones totalmente arbitrarias (hipótesis) cuyo claro designio era obtener la respuesta correcta. Manipuló su modelo del átomo para que explicase las líneas espectrales conocidas. Las tablas de esas líneas espectrales, una serie de números, habían sido compiladas laboriosamente por los seguidores de Kirchhoff y Bunsen, y contrastadas en Estrasburgo y en Gotinga, en Londres y en Milán. ¿De qué tipo eran esos números? Estos son algunos: λ1 = 4.100,4; λ2 = 4.339,0; λ3 = 4.858,5; λ4 = 6.560,6. (Perdón, ¿decía usted? No os preocupéis. No hace falta sabérselos de memoria.) ¿De dónde vienen estas vibraciones espectrales? ¿Y por qué sólo ésas, no importa cómo se le dé energía al hidrógeno? Extrañamente, Bohr le quitó luego importancia a las líneas espectrales: «Se creía que el espectro era maravilloso, pero con él no cabe hacer progresos. Es como si tuvieras un ala de mariposa, muy regular, qué duda cabe, con sus colores y todo eso. Pero a nadie se le ocurriría que uno pudiese sacar los fundamentos de la biología de un ala de mariposa». Y sin embargo, resultó que las líneas espectrales del hidrógeno proporcionaron una pista crucial.
La teoría de Bohr se confeccionó de forma que diese los números del hidrógeno que salen en los libros. En sus análisis fue decisivo el dominante concepto de energía, palabra que se definió con precisión en los tiempos de Newton, y que luego había ido evolucionando y creciendo. Dediquémosle, pues, un par de minutos a la energía.
Dos minutos para la energía
En la física de bachillerato se dice que un objeto de cierta masa y cierta velocidad tiene energía cinética (energía en virtud del movimiento). Los objetos tienen, además, energía por lo que son. Una bola de acero en lo más alto de las torres Sears tiene energía potencial porque alguien trabajó lo suyo para llevarla hasta allí. Si se la deja caer desde la torre, irá cambiando, durante la caída, su energía potencial por energía cinética.
La energía es interesante sólo porque se conserva. Imaginaos un sistema gaseoso complejo, con miles de millones de átomos que se mueven todos rápidamente y chocan con las paredes del recipiente y entre sí. Algunos átomos ganan energía; otros la pierden. Pero la energía total no cambia nunca. Hasta el siglo XVIII no se descubrió que el calor es una forma de energía. Las sustancias químicas desprenden energía por medio de reacciones como la combustión del carbón. La energía puede cambiar, y cambia, continuamente de una forma a otra. Hoy conocemos las energías mecánica, térmica, química, eléctrica y nuclear. Sabemos que la masa puede convertirse en energía mediante E = mc2. A pesar de estas complejidades, estamos convencidos aún a un 100 por 100 de que en las reacciones químicas la energía total (que incluye la masa) se conserva siempre. Ejemplo: déjese que un bloque se deslice por un plano liso. Se para. Su energía cinética se convierte en calor y calienta, muy, muy ligeramente, el plano. Ejemplo: llenáis el depósito del coche; sabéis que habéis comprado cincuenta litros de energía química (medida en julios), con los que podréis dar a vuestro Toyota cierta energía cinética. La gasolina se agota, pero es posible medir su energía: 500 kilómetros, de Newark a North Hero. La energía se conserva. Ejemplo: una caída de agua se precipita sobre el rotor de un generador eléctrico y convierte su energía potencial natural en energía eléctrica para calentar e iluminar una ciudad lejana. En los libros de contabilidad de la naturaleza todo cuadra. Acabas con lo que trajiste.
¿Entonces?
Vale, ¿qué tiene esto que ver con el átomo? En la imagen que de él ofrecía Bohr, el electrón debe mantenerse dentro de órbitas específicas, cada una de ellas definidas por su radio. Cada uno de los radios permitidos corresponde a un estado (o nivel) de energía bien definida del átomo. Al radio menor le toca la energía más baja, el llamado estado fundamental. Si metemos energía en un volumen de hidrógeno gaseoso, parte de ella se empleará en agitar los átomos, que se moverán más deprisa. Pero el electrón absorberá parte de la energía; será un puñado muy concreto (recordad el efecto fotoeléctrico), que permitirá que el electrón llegue a otro de sus niveles de energía o radios. Los niveles se numeran 1, 2, 3, 4…, y cada uno tiene su energía, E1, E2, E3, E4 y así sucesivamente. Bohr construyó su teoría de manera que incluyera la idea de Einstein de que la energía de un fotón determina su longitud de onda.
Si cayeran fotones de todas las longitudes de onda sobre un átomo de hidrógeno, el electrón acabaría por tragarse el fotón apropiado (un puñado de luz con una energía concreta) y saltaría de E1, a E2 o E3, por ejemplo. De esta forma los electrones pueblan niveles de energía más altos. Esto es lo que pasa, por ejemplo, en un tubo de descarga. Cuando entra la energía eléctrica, el tubo resplandece con los colores característicos del hidrógeno. La energía mueve a algunos electrones de los billones de átomos que hay allí a saltar a niveles de energía altos. Sí la cantidad de energía eléctrica que entra es suficientemente grande, muchos de los átomos tendrán electrones que ocuparán prácticamente todos los niveles ¿altos de energía posibles.
En la concepción de Bohr los electrones de los estados de energía altos saltan espontá-neamente a los niveles más bajos. Acordaos ahora de nuestra pequeña clase sobre la conservación de la energía. Si los electrones saltan hacia abajo, pierden energía, y de esa energía perdida hay que dar cuenta. Bohr dijo: «no es problema». Un electrón que cae emite un fotón cuya energía es igual a la diferencia de la energía de las órbitas. Si el electrón salta del nivel 4 al 2, por ejemplo, la energía del fotón es igual a E4 → E2. Hay muchas posibilidades de salto, como E4 → E1; E4 → E3; E4 → E1. También se permiten los saltos multinivel, como E4 → E2 y entonces E2 → E1. Cada cambio de energía da lugar a la emisión de una longitud de onda correspondiente, y se observa una serie de líneas espectrales.
La explicación del átomo ad hoc, cuasiclásica de Bohr, fue una obra, aunque heterodoxa, de virtuoso. Echó mano de Newton y Maxwell cuando convenía. Los descartó cuando no. Recurrió a Planck y Einstein allí donde funcionaban. Algo monstruoso. Pero Bohr era brillante y obtuvo la solución correcta.
Repasemos. Gracias a la obra de Fraunhofer y Kirchhoff en el siglo XIX conocemos las líneas espectrales. Supimos que los átomos (y las moléculas) emiten y absorben radiación a longitudes de onda específicas, y que cada átomo tiene su patrón de longitudes de onda característico. Gracias a Planck, supimos que la luz se emite en forma de cuantos. Gracias a Hertz y Einstein, supimos que se absorbe también en forma de cuantos. Gracias a Thomson, supimos que hay electrones. Gracias a Rutherford, supimos que el átomo tiene un núcleo pequeño y denso, vastos vacíos y electrones dispersos por ellos. Gracias a mi madre y a mi padre, aprendí todo eso. Bohr reunió estos datos, y muchos más. A los electrones sólo se les permiten ciertas órbitas, dijo Bohr. Absorben energía en forma de cuantos, que les hacen saltar a órbitas más altas. Cuando caen de nuevo a las órbitas más bajas emiten fotones, cuantos de luz, que se observan en la forma de longitudes de onda específicas, las líneas espectrales peculiares de cada elemento.
A la teoría de Bohr, desarrollada entre 1913 y 1925, se le da el nombre de «vieja teoría cuántica». Planck, Einstein y Bohr habían ido haciendo caso omiso de la mecánica clásica en uno u otro aspecto. Todos tenían datos experimentales sólidos que les decían que tenían razón. La teoría de Planck concordaba espléndidamente con el espectro del cuerpo negro, la de Einstein con las mediciones detalladas de los fotoelectrones. En la fórmula matemática de Bohr aparecen la carga y la masa del electrón, la constante de Planck, unos cuantos π, números —el 3— y un entero importante (el número cuántico) que numera los estados de energía. Todas estas magnitudes, multiplicadas y divididas oportunamente, dan una fórmula con la que se pueden calcular todas las líneas espectrales del hidrógeno. Su acuerdo con los datos era notable.
A Rutherford le encantó la teoría de Bohr. Planteó, sin embargo, la cuestión de cuándo y cómo el electrón decide que va a saltar de un estado a otro, algo de lo que Bohr no había tratado. Rutherford recordaba un problema anterior: ¿cuándo decide un átomo radiactivo que va a desintegrarse? En la física clásica, no hay acción que no tenga una causa. En el dominio atómico no parece que se dé ese tipo de causalidad. Bohr reconoció la crisis (que no se resolvió en realidad hasta el trabajo que publicó Einstein en 1916 sobre las «transiciones espontáneas») y apuntó una dirección posible. Pero los experimentadores, que seguían explorando los fenómenos del mundo atómico, hallaron una serie de cosas con las que Bohr no había contado.
Cuando el físico estadounidense Albert Michelson, un fanático de la precisión, examinó con mayor atención las líneas espectrales, observó que cada una de las líneas espectrales del hidrógeno consistía en realidad en dos líneas muy juntas, dos longitudes de onda muy parecidas. Esta duplicación de las líneas significaba que cuando el electrón va a saltar a un nivel inferior puede optar por dos estados de energía más bajos. El modelo de Bohr no predecía ese desdoblamiento, al que se llamó «estructura fina». Arnold Sommerfeld, contemporáneo y colaborador de Bohr, percibió que la velocidad de los electrones en el átomo de hidrógeno es una fracción considerable de la velocidad de la luz, así que había que tratarlos conforme a la teoría de la relatividad de Einstein de 1905; dio así el primer paso hacia la unión de las dos revoluciones, la teoría cuántica y la teoría de la relatividad. Cuando incluyó los efectos de la relatividad, vio que donde la teoría de Bohr predecía una órbita, la nueva teoría predecía dos muy próximas. Esto explicaba el desdoblamiento de las líneas. Al efectuar sus cálculos, Sommerfeld introdujo una «nueva abreviatura» de algunas constantes que aparecían con frecuencia en sus ecuaciones. Se trataba de 2πe2 / hc, que abrevió con la letra griega alfa (α). No os preocupéis de la ecuación. Lo interesante es esto: cuando se meten los números conocidos de la carga del electrón, e, la constante de Planck, h, y la velocidad de la luz, c, sale α = 1/137. Otra vez el 137, número puro.
Los experimentadores siguieron añadiéndole piezas al modelo del átomo de Bohr. En 1896, antes de que se descubriese el electrón, un holandés, Pieter Zeeman, puso un mechero Bunsen entre los polos de un imán potente y en el mechero un puñado de sal de mesa. Examinó la luz amarilla del sodio con un espectrómetro muy preciso que él mismo había construido. Podemos estar seguros de que las amarillas líneas espectrales se ensancharon, lo que quería decir que el campo magnético dividía en realidad las líneas. Mediciones más precisas fueron confirmando este efecto, y en 1925 dos físicos holandeses, Samuel Goudsmit y George Uhlenbeck, plantearon la peculiar idea de que el efecto podría explicarse si se confería a los electrones la propiedad del giro o «espín». En un objeto clásico, una peonza, digamos, el giro alrededor de sí misma es la rotación de la punta de arriba alrededor de su eje de simetría. El espín del electrón es la propiedad cuántica análoga a ésa.
Todas estas ideas nuevas eran válidas en sí mismas, pero estaban conectadas al modelo atómico de Bohr de 1913 con muy poca gracia, como si fuesen productos cogidos de aquí y allá en una tienda de accesorios. Con todos esos pertrechos; la teoría de Bohr ahora tan potenciada, un viejo Ford remozado con aire acondicionado, tapacubos giratorios y aletas postizas, podía explicar una cantidad muy impresionante de datos experimentales exactos brillantemente obtenidos.
El modelo sólo tenía un problema. Que estaba equivocado.
Un vistazo bajo el velo
La teoría de retales iniciada por Niels Bohr en 1912 se iba viendo en dificultades rada vez mayores. En ésas, un estudiante de doctorado francés descubrió en 1924 una pista decisiva, que reveló en una fuente improbable, la farragosa prosa de una tesis doctoral, y que en tres años haría que se produjese una concepción de la realidad del micromundo totalmente nueva. El autor era un joven aristócrata, el príncipe Louis-Victor de Broglie, que pechaba con su doctorado en París. Le inspiró un artículo de Einstein, quien en 1909 había estado dándole vueltas al significado de los cuantos de luz. ¿Cómo era posible que la luz actuara como un enjambre de puñados de energía —es decir, como partículas— y al mismo tiempo exhibiera todos los comportamientos de las ondas, la interferencia, la difracción y otras propiedades que requerían que hubiese una longitud de onda?
De Broglie pensó que este curioso carácter dual de la luz podría ser una propiedad funda-mental de la naturaleza y que cabría aplicarla también a objetos materiales como los electrones. En su teoría fotoeléctrica, siguiendo a Planck, Einstein había asignado una cierta energía al cuanto de luz relacionada con su longitud de onda o frecuencia. De Broglie sacó entonces a colación una simetría nueva: si las ondas pueden ser partículas, las partículas (los electrones) pueden ser ondas. Concibió un método para asignar a los electrones una longitud de onda relacionada con su energía. Su idea rindió inmediatamente frutos en cuanto se la aplicó a los electrones del átomo de hidrógeno. La asignación de una longitud de onda dio una explicación de la misteriosa regla ad hoc de Bohr según la cual al electrón sólo se le permiten ciertos radios. ¡Está claro como el agua! ¿Lo está? Seguro que sí. Si en una órbita de Bohr el electrón tiene una longitud de onda de una pizca de centímetro, sólo se permitirán aquellas en cuya circunferencia quepa un número entero de longitudes de onda. Probad con la cruda visualización siguiente. Coged una moneda de cinco centavos y un puñado de peniques. Colocad la moneda de cinco centavos (el núcleo) en una mesa y disponed un número de peniques en círculo (la órbita del electrón) a su alrededor. Veréis que os harán falta siete peniques para formar la órbita menor. Esta define un radio. Si queréis poner ocho peniques, habréis de hacer un círculo mayor, pero no cualquier círculo mayor; sólo saldrá con cierto radio. Con radios mayores podréis poner nueve, diez, once o más peniques. De este tonto ejemplo podréis ver que si os limitáis a poner peniques enteros —o longitudes de onda enteras— sólo estarán permitidos ciertos radios. Para obtener círculos intermedios habrá que superponer los peniques, y si representan longitudes de onda, éstas no casarán regularmente alrededor de la órbita. La idea de De Broglie era que la longitud de onda del electrón (el diámetro del penique) determina el radio permitido. La clave de esta idea era la asignación de una longitud de onda al electrón.
De Broglie, en su tesis, hizo cábalas acerca de si sería posible que los electrones mostrasen otros efectos ondulatorios, como la interferencia y la difracción. Sus tutores de la Universidad de París, aunque les impresionaba el virtuosismo del joven príncipe, estaban desconcertados con la noción de las ondas de partícula. Uno de sus examinadores quiso contar con una opinión ajena, y le envió una copia a Einstein, quien remitió este cumplido hacia De Broglie: «Ha levantado una punta del gran velo». Su tesis doctoral se aceptó en 1924, y al final le valdría un premio Nobel, con lo que De Broglie ha sido hasta ahora el único físico que haya ganado el premio gracias a una tesis doctoral. Pero el mayor triunfador sería Erwin Schrödinger; él fue quien vio el auténtico potencial de la obra de De Broglie.
Ahora viene un interesante pas de deux de la teoría y el experimento. La idea de De Broglie no tenía respaldo experimental. ¿Una onda de electrón? ¿Qué quiere decir? El respaldo necesario apareció en 1927, y, de todos los sitios, tuvo que ser en Nueva Jersey, no la isla del canal de la Mancha, sino un estado norteamericano cercano a Newark. Los laboratorios de Teléfonos Bell, la famosa institución dedicada a la investigación industrial, estaban estudiando las válvulas de vacío, viejo dispositivo electrónico que se utilizaba antes del alba de la civilización y la invención de los transistores. Dos científicos, Clinton Davisson y Lester Germer, bombardeaban varias superficies metálicas recubiertas de óxido con chorros de electrones. Germer, que trabajaba bajo la dirección de Davisson, observó que ciertas superficies metálicas que no estaban recubiertas de óxido reflejaban un curioso patrón de electrones.
En 1926 Davisson viajó a un congreso en Inglaterra, y allí conoció la idea de De Broglie. Corrió de vuelta a los laboratorios Bell y se puso a analizar sus datos desde el punto de vista del comportamiento ondulatorio. Los patrones que había observado casaban perfectamente con la teoría de que los electrones actúan como ondas cuya longitud de onda está relacionada con la energía de las partículas del bombardeo. Él y Germer no perdieron un momento antes de publicar sus datos. No fue demasiado pronto. En el laboratorio Cavendish, George P. Thomson, hijo del famoso J. J., estaba realizando unas investigaciones similares. Davisson y Germer compartieron el premio Nobel de 1938 por haber sido los primeros en observar las ondas de electrón.
Dicho sea de paso, hay sobradas pruebas de la afección filial de J. J. y G. P. en su cálida correspondencia. En una de sus cartas más emotivas, se lee esta efusión de G. P.:
Estimado Padre:
Dado un triángulo esférico de lados ABC…
[Y, tras tres páginas densamente escritas del mismo tenor,] Tu hijo, George
Así, pues, ahora el electrón lleva asociada una onda, esté encerrado en un átomo o viaje por una válvula de vacío. Pero ¿en qué consiste ese electrón que hace ondas?
El hombre que no sabía nada de baterías
Si Rutherford era el experimentador prototípico, Werner Heisenberg (1901-1976) tiene todas las cualidades para que se le considere su homólogo teórico. Habría satisfecho la definición que I. I. Rabi daba de un teórico: uno «que no sabe atarse los cordones de los zapatos». Heisenberg fue uno de los estudiantes más brillantes de Europa, y sin embargo estuvo a punto de suspender su examen oral de doctorado en la Universidad de Munich; a uno de sus examinadores, Wilhelm Wien, pionero en el estudio de los cuerpos negros, le cayó mal. Wien empezó por preguntarle cuestiones prácticas, como esta: ¿Cómo funciona una batería? Heisenberg no tenía ni idea. Wien, tras achicharrarle con más preguntas sobre cuestiones experimentales, quiso catearlo. Quienes tenían la cabeza más fría prevalecieron, y Heisenberg salió con el equivalente a un aprobado: un acuerdo de caballeros.
Su padre fue profesor de griego en Munich; de adolescente, Heisenberg leyó el Timeo, donde se encuentra toda la teoría atómica de Platón. Heisenberg pensó que Platón estaba chiflado —sus «átomos» eran pequeños cubos y pirámides—, pero le apasionó el supuesto básico de Platón: no se podrá entender el universo huma que no se conozcan los componentes menores de la materia. El joven Heisenberg decidió que dedicaría su vida a estudiar las menores partículas de la materia.
Heisenberg probó con ganas hacerse una imagen mental del átomo de Rutherford-Bohr, pero no sacó nada en limpio. Las órbitas electrónicas de Bohr no se parecían a nada que pudiese imaginar. El pequeño, hermoso átomo que sería el logotipo de la Comisión de Energía Atómica durante tantos años —un núcleo circundado por órbitas con radios «mágicos» donde los electrones no radian carecía del menor sentido. Heisenberg vio que las órbitas de Bohr no eran más que construcciones artificiales que servían para que los números saliesen bien y librarse o (mejor) burlar las objeciones clásicas al modelo atómico de Rutherford. Pero ¿eran reales esas órbitas? No. La teoría cuántica de Bohr no se había despojado hasta donde era necesario del bagaje de la física clásica. La única forma de que el espacio atómico permitiese sólo ciertas órbitas requería una proposición más radical. Heisenberg acabó por caer en la cuenta de que este nuevo átomo no era visualizable en absoluto. Concibió una guía firme: no trates de nada que no se pueda medir. Las órbitas no se podían medir. Pero las líneas espectrales .sí. Heisenberg escribió una teoría llamada «mecánica de matrices», basada en unas formas matemáticas, las matrices. Sus métodos eran difíciles matemáticamente, y aún era más difícil visualizarlos, pero estaba claro que había logrado una mejora de gran fuste de la vieja teoría de Bohr. Con el tiempo, la mecánica de matrices repitió todos los triunfos de la teoría de Bohr sin recurrir a radios mágicos arbitrarios. Y además las matrices de Heisenberg obtuvieron nuevos éxitos donde la vieja teoría había fracasado. Pero a los físicos les parecía que las matrices eran difíciles de usar.
Y fue entonces cuando hubo las más famosas vacaciones de la historia de la física.
Las ondas de materia y la dama en la villa
Pocos meses después de que Heisenberg hubiese completado su formulación matricial, Erwin Schrödinger decidió que necesitaba unas vacaciones. Sería unos diez días antes de la Navidad de 1925. Schrödinger era profesor de física de la Universidad de Zurich, competente pero poco notable, y todos los profesores de universidad se merecen unas vacaciones de Navidad. Pero estas no fueron unas vacaciones ordinarias. Schrödinger dejó a su esposa en casa, alquiló durante dos semanas y media una villa en los Alpes suizos y marchó allá con sus cuadernos de notas, dos perlas y una vieja amiga vienesa. Schrödinger se había impuesto a sí mismo la misión de salvar la remendada y chirriante teoría cuántica de esa época. El físico vienés se ponía una perla en cada oído para que no lo distrajese ningún ruido, y en la cama, para inspirarse, a su amiga. Schrödinger había cortado la tarea a su medida. Tenía que crear una nueva teoría y contentar a la dama. Por fortuna, estuvo a la altura de las circunstancias. (No os hagáis físicos si no estáis preparados para exigencias así.)
Schrödinger empezó siendo experimentador, pero se pasó a la teoría bastante pronto. Era viejo para ser un teórico: treinta y ocho años tenía esas navidades. Claro está, hay montones de teóricos de mediana edad y aún más viejos, pero lo usual es que hagan sus mejores trabajos cuando tienen veintitantos años; luego, a los treinta y tantos, se retiran, intelectualmente hablando, y se convierten en «veteranos hombres de estado» de la física. Este fenómeno meteórico fue especialmente cierto en los primeros días de la mecánica cuántica, que vieron a Dirac, Werner Heisenberg, Wolfgang Pauli y Niels Bohr concebir sus mejores teorías cuando eran muy jóvenes. Cuando Dirac y Heisenberg fueron a Estocolmo a recibir sus premios Nobel, les acompañaban sus madres. Dirac escribió:
La edad, claro está, es un mal frío
que temer debe todo físico.
Mejor muerto estará que vivo
en cuanto sus años treinta hayan sido.
(Ganó el premio Nobel de física, no el de literatura.) Por suerte para la ciencia, Dirac no se tomó en serio sus versos, y vivió hasta bien pasados los ochenta años.
Una de las cosas que Schrödinger se llevó a sus vacaciones fue el artículo de De Broglie sobre las partículas y las ondas. Trabajó febrilmente y extendió aún más la concepción cuántica. No se limitó a tratar los electrones como partículas con características ondulatorias. Enunció una ecuación en la que los electrones son ondas, ondas de materia. Un actor clave en la famosa ecuación de Schrödinger es el símbolo griego psi, o Ψ. A los físicos les encanta decir que la ecuación lo reduce, pues, todo a suspiros, porque psi puede leerse en inglés de forma que suene como suspiro (sigh). A Ψ se le llama función de ondas, y contiene todo lo que sabemos o podamos saber sobre el electrón. Cuando se resuelve la ecuación de Schrödinger, da cómo varía * en el espacio y con el tiempo. Luego se aplicó la ecuación a sistemas de muchos electrones y al final a cualquier sistema que haya que tratar cuánticamente. En otras palabras, la ecuación de Schrödinger, o la «mecánica ondulatoria», se aplica a los átomos, las moléculas, los protones, los neutrones y, lo que hoy es especialmente importante para nosotros, a los cúmulos de quarks, entre otras partículas.
Schrödinger quería rescatar la física clásica. Insistía en que los electrones eran verdadera-mente ondas clásicas, como las del sonido, las del agua o las ondas electromagnéticas maxwellianas de luz o de radio, y que su aspecto de partículas era ilusorio. Eran ondas de materia. Las ondas se conocían bien y visualizarlas era fácil, al contrario de lo que pasaba con los electrones del átomo de Bohr y sus saltos aleatorios de órbita en órbita. En la interpretación de Schrödinger, Ψ (en realidad el cuadrado de Ψ, o Ψ2) describía la distribución de esta onda de materia. Su ecuación describía esas ondas sujetas a la influencia de las fuerzas eléctricas del átomo. En el aluno de hidrógeno, por ejemplo, las ondas de Schrödinger se concentraban donde la vieja teoría de Bohr hablaba de órbitas. La ecuación daba el radio de Bohr automáticamente, sin ajustes, y proporcionaba las líneas espectrales, no sólo del hidrógeno sino también de otros elementos.
Schrödinger publicó su ecuación de ondas unas semanas después de que dejara la villa. Causó sensación de inmediato; era una de las herramientas matemáticas más poderosas que jamás se hubiesen concebido para abordar la estructura de la materia. (Hacia 1960 se habían publicado más de 100.000 artículos científicos basados en la aplicación de la ecuación de Schrödinger.) Escribió cinco artículos más, en rápida sucesión; los seis artículos se publicaron en un periodo de seis meses que cuenta entre los mayores estallidos de creatividad científica de la historia de la ciencia. J. Robert Oppenheimer decía de la teoría de la mecánica ondulatoria que era «quizá una de las más perfectas, más precisas y más hermosas que el hombre haya descubierto». Arthur Sommerfeld, el gran físico y matemático, decía que la teoría de Schrödinger «era el más asombroso de todos los asombrosos descubrimientos del siglo XX».
Por todo esto, yo, en lo que a mí respecta, perdono las veleidades románticas de Schrödinger; al fin y al cabo, sólo les interesan a los biógrafos, historiadores sociológicos y colegas envidiosos.
La onda de probabilidad
Los físicos se enamoraron de la ecuación de Schrödinger porque podían resolverla y funcionaba bien. Parecía que tanto la mecánica de matrices de Heisenberg como la ecuación de Schrödinger daban las respuestas correctas, pero la mayoría de los físicos se quedó con el método de Schrödinger porque se trataba de una ecuación diferencial de las de toda la vida, una forma cálida y familiar de matemáticas. Pocos años después se demostró que las ideas físicas y las consecuencias numéricas de las teorías de Heisenberg y Schrödinger eran idénticas. Lo único que ocurría es que estaban escritas en lenguajes matemáticos diferentes. Hoy se usa una mezcla de los aspectos más convenientes de ambas teorías.
El único problema de la ecuación de Schrödinger es que la interpretación que él le daba era errónea. Resultó que el objeto Ψ no podía representar ondas de materia. No había duda de que representaba alguna forma de onda, pero la pregunta era: ¿Qué se ondula?
La respuesta la dio el físico alemán Max Born, todavía en el año 1926, tan lleno de acontecimientos. Born recalcó que la única interpretación coherente de la función de onda de Schrödinger era que Ψ2 representase la probabilidad de hallar la partícula, el electrón, en las diversas localizaciones. Ψ varía en el espacio y en el tiempo. Donde Ψ2 es grande, es muy probable que se encuentre el electrón. Donde Ψ = 0, el electrón no se halla nunca. La función de onda es una onda de probabilidad.
A Born le influyeron unos experimentos en los que se dirigía una corriente de electrones hacia algún tipo de barrera de energía. Ésta podía ser, por ejemplo, una pantalla de hilos conectada al polo negativo de una batería, digamos que a —10 voltios. Si los electrones tenían una energía de sólo 5 voltios, según la concepción clásica la «barrera de 10 voltios» debería repelerlos. Si la energía de los electrones es mayor que la de la barrera, la sobrepasarán como una pelota arrojada por encima de un muro. Si es menor, el electrón se reflejará, como una pelota a la que se tira contra la pared. Pero la ecuación de Schrödinger indica que una parte de la onda Ψ penetra en la barrera y parte se refleja. Es un comportamiento típico de la luz. Cuando pasáis ante un escaparate veis los artículos, pero también vuestra propia imagen, difusa. A la vez, las ondas de luz se transmiten a través del cristal y se reflejan en él. La ecuación de Schrödinger predice unos resultados similares. ¡Pero nunca veremos una fracción de electrón!
El experimento se realiza de la manera siguiente: enviamos 1.000 electrones hacia la barrera. Los contadores Geiger hallan que 550 penetran en la barrera y 450 se reflejan, pero en cualquier caso siempre se detectan electrones enteros. Las ondas de Schrödinger, cuando se toma adecuadamente su cuadrado, dan 550 y 450 como predicción estadística. Si aceptamos la interpretación de Born, un solo electrón tiene una probabilidad del 55 por 100 de penetrar y un 45 por 100 de reflejarse. Como un solo electrón nunca se divide, la onda de Schrödinger no puede ser el electrón. Sólo puede ser una probabilidad.
Born, con Heisenberg, formaba parte de la escuela de Gotinga, un grupo compuesto por varios de los físicos más brillantes de aquellos días, cuyas vidas profesionales e intelectuales giraban alrededor de la Universidad alemana de Gotinga. La interpretación estadística dada por Born a la psi de Schrödinger procedía del convencimiento que tenía la escuela de Gotinga de que los electrones son partículas. Hacían que los contadores Geiger sonasen a golpes. Dejaban rastros definidos en las cámaras de niebla de Wilson. Chocaban con otras partículas y rebotaban. Y ahí está la ecuación de Schrödinger, que da las respuestas correctas pero describe los electrones como ondas. ¿Cómo se podía convertirla en una ecuación de partículas?
La ironía es compañera constante de la historia, y la idea que todo lo cambió fue dada (¡otra vez!) por Einstein, en un ejercicio especulativo de 1911 que trataba de la relación entre los fotones y las ecuaciones clásicas del campo electromagnético formuladas por Maxwell. Einstein apuntaba que las magnitudes del campo guiaban a los fotones a los lugares de mayor probabilidad. La solución que Born le dio al conflicto entre partículas y ondas fue simplemente esta: el electrón (y amigos) actúa como una partícula por lo menos cuando se le ha detectado, pero su distribución en el espacio entre las mediciones sigue los patrones ondulatorios de probabilidad que salen de la ecuación de Schrödinger. En otras palabras, la magnitud psi de Schrödinger describe la localización probable de los electrones. Y esa probabilidad se porta como una onda. Schrödinger hizo la parte dura: elaborar la ecuación en que se cimenta la teoría. Pero fue a Born, inspirado por el artículo de Einstein, a quien se le ocurrió qué predecía en realidad la ecuación. La ironía está en que Einstein nunca aceptó la interpretación probabilista de la función de onda concebida por Born
Qué quiere decir esto, o la física del corte de trajes
La interpretación de Born de la ecuación de Schrödinger es el cambio concreto más espectacular y de mayor fuste en nuestra visión del mundo desde Newton. No sorprende que a Schrödinger le pareciera la idea totalmente inaceptable y lamentase haber ideado una ecuación que daba lugar a semejante locura. Sin embargo, Bohr, Heisenberg, Sommerfeld y otros la aceptaron sin apenas protestar porque «la probabilidad se mascaba en el ambiente». El artículo de Born hacía una afirmación reveladora: la ecuación sólo puede predecir la probabilidad pero la forma matemática de ésta va por caminos perfectamente predecibles.
En esta nueva interpretación, la ecuación trata de las ondas de probabilidad, Ψ, que predicen qué hace el electrón, cuál es su energía, dónde estará, etc. Sin embargo, esas predicciones tienen la forma de probabilidades. En el electrón, son esas predicciones de probabilidad las que se «ondulan». Estas soluciones ondulatorias de las ecuaciones pueden concentrarse en un lugar y generar una probabilidad grande, y anularse en otros lugares y dar probabilidades pequeñas. Cuando se comprueban estas predicciones, hay, en efecto, que hacer el experimento un número enorme de veces. Y en la mayor parte de las pruebas el electrón acaba donde la ecuación dice que la probabilidad es alta; sólo en muy raras ocasiones acaba donde es baja. Hay una concordancia cuantitativa. Lo chocante es que en dos experimentos manifiestamente iguales puedan obtenerse resultados del todo diferentes.
La ecuación de Schrödinger con la interpretación probabilista de Born de la función de ondas, ha tenido un éxito gigantesco. Es fundamental a la hora de conocer el hidrógeno y el helio y, si se tiene un ordenador lo bastante grande, el uranio. Sirvió para saber cómo se combinan dos elementos y forman una molécula, con lo que se dio a la química un derrotero mucho más científico. Gracias a la ecuación pueden diseñarse microscopios electrónicos e incluso protónicos; en el periodo 1930-1950 se la llevó al núcleo y se vio que allí era tan productiva como en el átomo.
La ecuación de Schrödinger predice con un grado de exactitud muy alto, pero lo que predice, repito, es una probabilidad. ¿Qué quiere decir esto? La probabilidad se parece en la física y en la vida. Es un negocio de mil millones de dólares; te certifican los ejecutivos de las compañías de seguros, los fabricantes de ropa y buena parte de la lista de las quinientas empresas más importantes que publica la revista Fortune. Los actuarios nos dicen que el varón norteamericano blanco no fumador nacido en, digamos, 1941, vivirá hasta los 76,4 años. Pero no podrán tomarte el pelo con tu hermano Sal, que nació ese mismo año. Que sepamos, podría atropellarle un camión mañana o morir de una uña infectada dentro de dos años.
En una de mis clases en la Universidad de Chicago, hago de magnate de la industria del vestido para mis alumnos. Tener éxito en el negocio de los trapos es como hacer una carrera en la física de partículas. En ambos casos hace falta un fuerte sentido de la probabilidad y un conocimiento efectivo de las chaquetas de tweed. Les pido a mis alumnos que vayan cantando sus estaturas mientras las represento en un gráfico. Tengo dos alumnos que miden uno 1,42 y otro 1,47 metros, cuatro 1,58 y así sucesivamente. Hay uno que mide 1,98, mucho más que los otros. (¡Si Chicago sólo tuviera un equipo de baloncesto!) El promedio es de 1,70. Tras encuestar a 166 estudiantes tengo una estupenda línea escalonada con forma de campana que sube hasta 1,70 metros y luego baja hasta la anomalía de los 1,98 metros. Ahora tengo una «curva de distribución» de estaturas de alumnos de primero, y si puedo estar razonablemente seguro de que escoger ciencias no distorsiona la curva, tengo una muestra representativa de las estaturas de los estudiantes de la Universidad de Chicago. Puedo leer los porcentajes mediante la escala vertical; por ejemplo, puedo sacar el porcentaje de alumnos que están entre 1,58 y 1,63. Con mi gráfica puedo además leer que hay una probabilidad del 26 por 100 de que el próximo estudiante que aparezca mida entre 1,62 y 1,67, si es que me interesa saberlo.
Ya estoy listo para hacer trajes. Si esos estudiantes fuesen mi mercado (previsión improbable si estuviera en el negocio de la confección), puedo calcular qué tanto por ciento de mis trajes tendrían que ser de las tallas 36, 38 y así sucesivamente. Si no tuviera la gráfica de las estaturas, tendría que adivinarlo, y si me equivocase, al final de la temporada tendría 137 trajes de la talla 46 sin vender (y le echaría la culpa a mi socio Jake, ¡el muy bruto!).
Cuando se resuelve la ecuación de Schrödinger para cualquier situación en la que intervengan procesos atómicos, se genera una curva análoga a la distribución de estaturas de los estudiantes. Sin embargo, puede que el perfil sea muy distinto. Si quiero saber por dónde está el electrón en el átomo de hidrógeno —a qué distancia está del núcleo—, hallaremos una distribución que caerá bruscamente a unos 10—8 centímetros, con una probabilidad de un 80 por 100 de que el electrón esté dentro de la esfera de 10—8 centímetros. Ese es el estado fundamental. Si excitamos el electrón al siguiente nivel de energía, obtendremos una curva de Bell cuyo radio medio es unas cuatro veces mayor. Podemos también computar las curvas de probabilidad de otros procesos. Aquí debemos diferenciar claramente las predicciones de probabilidad de las posibilidades. Los niveles de energía posibles se conocen con mucha precisión, pero si preguntamos en qué estado de energía se encontrará el electrón, calculamos sólo una probabilidad, que depende de la historia del sistema. Si el electrón tiene más de una opción a la hora de saltar aun estado de energía inferior, podemos también calcular las probabilidades; por ejemplo, un 82 por 100 de saltar a E1, un 9 por 100 de saltar a E2, etc. Demócrito lo dijo mejor cuando proclamó: «Nada hay en el universo que no sea fruto del azar y la necesidad». Los distintos estados de energía son necesidades, las únicas condiciones posibles. Pero sólo podemos predecir las probabilidades de que el electrón esté en cualquiera de ellos. Es cosa del azar.
Los expertos actuariales conocen hoy bien los conceptos de probabilidad. Pero eran perturbadores para los físicos educados en la física clásica de principios de siglo (y siguen perturbando a muchos hoy). Newton describió un mundo determinista. Si tirases una piedra, lanzaras un cohete o introdujeras un planeta nuevo en el sistema solar, podrías predecir adónde irían a parar con toda certidumbre, al menos en principio, mientras conozcas las fuerzas y las condiciones iniciales. La teoría cuántica decía que no: las condiciones iniciales son inherentemente inciertas. Sólo se obtienen probabilidades como predicciones de lo que se mida: la posición de la partícula, su energía, su velocidad o lo que sea. La interpretación de Schrödinger que dio Born perturbó a muchos físicos, que en los tres siglos pasados desde Galileo y Newton habían llegado a aceptar el determinismo como una forma de vida. La teoría cuántica amenazaba con transformarlos en actuarios de alto nivel.
Sorpresa en la cima de una montaña
En 1927, el físico inglés Paul Dirac intentaba extender la teoría cuántica, que en ese momento no casaba con la teoría especial de la relatividad de Einstein. Sommerfeld ya había presentado una teoría a la otra. Dirac, con la intención de hacer que las dos teorías fuesen felizmente compatibles, supervisó el matrimonio y su consumación. Al hacerlo dio con una ecuación nueva y elegante para el electrón (curiosamente, la llamamos ecuación de Dirac). De esta poderosa ecuación sale la orden a posteriori de que los electrones deben tener espín y producir magnetismo. Recordad el factor g del principio de este capítulo. Los cálculos de Dirac mostraron que la intensidad del magnetismo del electrón tal y como lo medía g era 2,0. (Sólo mucho más tarde vinieron los refinamientos que condujeron al valor preciso dado antes.) ¡Aún más! Dirac (que tenía veinticuatro años o así) halló, al obtener las ondas de electrón que resolvían su ecuación, que había otra solución con extrañas consecuencias. Tenía que haber otra partícula cuyas propiedades fuesen idénticas a las del electrón, pero con carga eléctrica opuesta. Matemáticamente, se trata de un concepto sencillo. Como sabe hasta un niño, la raíz cuadrada de cuatro es más dos, pero además está menos dos porque menos dos por menos dos es también cuatro: 2 x 2 = 4 y —2 x —2 = 4. Así que hay dos soluciones. La raíz cuadrada de cuatro es más o menos dos.
El problema es que la simetría implícita en la ecuación de Dirac quería decir que para cada partícula tenía que existir otra partícula de la misma masa pero carga opuesta. Por eso, Dirac, conservador caballero que carecía hasta tal punto de carisma que ha dado lugar a leyendas, luchó con esa solución negativa y acabó por predecir que la naturaleza tiene que contener electrones positivos además de electrones negativos. Alguien acuñó la palabra antimateria. Esta antimateria debería estar en todas partes, y sin embargo nadie había dado con ella.
En 1932, un joven físico del Cal Tech, Carl Anderson, construyó una cámara de niebla diseñada para registrar y fotografiar las partículas subatómicas. El aparato estaba circundado por un imán poderoso; su misión era doblar la trayectoria de las partículas, lo que daba una medida de su energía. Anderson metió en el saco una partícula nueva y rara —o, mejor dicho, su traza— gracias a la cámara de niebla. Llamó a este extraño objeto nuevo positrón, porque era idéntico al electrón excepto porque tenía carga positiva en vez de negativa. La comunicación de Anderson no hacía referencia a la teoría de Dirac, pero enseguida se ataron los cabos. Había hallado una nueva forma de materia, la antipartícula que había saltado de la ecuación de Dirac unos pocos años antes. Las trazas habían sido dejadas por los rayos cósmicos, la radiación que viene de las partículas que dan en la atmósfera procedente de los confines de nuestra galaxia. Anderson, para obtener mejores datos todavía, transportó el aparato de Pasadena a lo alto de una montaña de Colorado, donde el aire es fino y los rayos cósmicos más intensos.
Una fotografía de Anderson que apareció en la primera plana del New York Times anun-ciando el descubrimiento inspiró al joven Lederman, y por primera vez cayó bajo el influjo de la romántica aventura de llevar a cuestas un equipo científico a la cima de una montaña muy alta para hacer mediciones de importancia. La antimateria dio mucho de sí y se unió inextricablemente a la vida de los físicos de partículas; prometo decir más de ella en los capítulos siguientes. Otro triunfo de la teoría cuántica.
La incertidumbre y esas cosas
En 1927 Heisenberg concibió sus relaciones de incertidumbre, que coronaron la gran revolución científica a la que damos el nombre de teoría cuántica. La verdad es que la teoría cuántica no se completó hasta finales de los años cuarenta. En realidad, su evolución sigue hoy, en su versión de teoría cuántica de campos, y la teoría no estará completa hasta que se combine plenamente con la gravitación. Pero para nuestros propósitos el principio de incertidumbre es un buen sitio para acabar. Las relaciones de incertidumbre de Heisenberg son una consecuencia matemática de la ecuación de Schrödinger. También podrían haber sido postulados lógicos, o supuestos, de la nueva mecánica cuántica. Como las ideas de Heisenberg son fundamentales para entender cómo es el nuevo mundo cuántico, hemos de demorarnos aquí un poco.
Los ideadores cuánticos insisten en que sólo las mediciones, tan caras a los experimentadores, cuentan. Todo lo que podemos pedirle a una teoría es que prediga los resultados de los hechos que quepa medir. Parecerá una obviedad, pero olvidarla conduce a las paradojas que tanto les gusta explotar a los escritores populares carentes de cultura. Y, debería añadir, es en la teoría de la medición donde la teoría cuántica encuentra sus críticos pasados, presentes y, sin duda, futuros.
Revisada ortografía hasta aquí
Heisenberg anunció que nuestro conocimiento simultáneo de la posición de una partícula y de su movimiento es limitado y que la incertidumbre combinada de esas dos propiedades debe ser mayor que…, cómo no, la constante de Planck, h, que encontramos por vez primera en la fórmula E = hf. Nuestras mediciones de la posición de una partícula y de su movimiento (en realidad, de su momento) guardan una relación recíproca. Cuanto más sabemos de una, menos sabemos de la otra. La ecuación de Schrödinger nos da las probabilidades de esos factores. Si concebimos un experimento que determine con exactitud la posición de una partícula —es decir, que está en alguna coordenada con una incertidumbre sumamente pequeña—, la dispersión de los valores posibles del momento será, en la medida correspondiente, grande, como dicta la relación de Heisenberg. El producto de las dos incertidumbres (podemos asignarles números) es siempre mayor que la ubicua h de Planck. Las relaciones de Heisenberg prescinden, de una vez por todas, de la representación clásica de las órbitas. El mismo concepto de posición o lugar es ahora menos definido. Volvamos a Newton y a algo que podamos visualizar.
Suponed que tenemos una carretera recta por la que va tirando un Toyota a una velocidad respetable. Decidimos que vamos a medir su posición en un instante de tiempo determinado mientras pasa zumbando ante nosotros. Queremos saber además lo deprisa que va. En la física newtoniana, la determinación exacta de la posición y la velocidad de un objeto en un instante concreto de tiempo le permite a uno predecir con precisión dónde estará en cualquier momento futuro. Sin embargo, al montar nuestras reglas y relojes, flases y cámaras, vemos que cuando medimos con más cuidado la posición, menor es nuestra capacidad de medir la velocidad y viceversa. (Recordad que la velocidad es el cambio de la posición dividido por el tiempo.) Sin embargo, en la física clásica podemos mejorar sin cesar nuestra exactitud en ambas magnitudes hasta un grado de precisión indefinido. Basta con que le pidamos a una oficina gubernamental más fondos para construir un equipo mejor.
En el dominio atómico, por el contrario, Heisenberg propuso que hay una incognoscibili-dad básica que no se puede reducir por mucho equipo, ingenio o fondos que se inviertan. Enunció que es una propiedad fundamental de la naturaleza que el producto de las dos incertidumbres es siempre mayor que la constante de Planck. Por extraño que suene, esta incertidumbre en la mensurabilidad del micromundo tiene una base física firme. Intentemos, por ejemplo, determinar la posición de un electrón. Para ello, debemos «verlo». Es decir, hay que hacer que la luz, un haz de fotones, rebote en el electrón. ¡Vale, ahí está! Ahora vemos el electrón. Sabemos su posición en un momento dado. Pero un fotón que dé en un electrón cambia el estado de movimiento de éste. Una medición socava a la otra. En la mecánica cuántica, la medición produce inevitablemente un cambio porque uno se las ve con sistemas atómicos, y los instrumentos de medición no se pueden hacer más pequeños, suaves o amables que ellos. Los átomos tienen una diez mil millonésima de centímetro de radio y pesan una billonésima de una billonésima de gramo, así que no cuesta mucho afectarlos a fondo. Por el contrario, en un sistema clásico se puede estar seguro de que el acto de medir apenas influye en el sistema que se mide. Suponed que queremos medir la temperatura del agua. No cambiamos la temperatura de un lago, digamos, cuando metemos en él un pequeño termómetro. Pero sumergir un termómetro gordo en un dedal de agua sería una estupidez, pues el termómetro cambiaría la temperatura del agua. En los sistemas atómicos, dice la teoría cuántica, debemos incluir la medición como parte del sistema.
La tortura de la rendija doble
El ejemplo más famoso e instructivo de que la naturaleza de la teoría cuántica va contra la intuición es el experimento de la rendija doble; el médico Thomas Young fue el primero que lo realizó, en 1804, y se celebró como la prueba experimental de la naturaleza ondulatoria de la luz. El experimentador dirigía un haz de luz amarilla, por ejemplo, a una pared donde había abierto dos rendijas paralelas muy finas y separadas por una distancia muy pequeña. Una pantalla alejada recoge la luz que brota a través de las rendijas. Cuando Young cubría una de ellas, se proyectaba en la pantalla una imagen simple, brillante, ligeramente ensanchada de la otra. Pero cuando estaban descubiertas las dos rendijas, el resultado era sorprendente. Un examen cuidadoso del área encendida sobre la pantalla mostraba una serie de franjas brillantes y oscuras igualmente espaciadas. Las franjas oscuras son lugares donde no llega la luz.
Las franjas son la prueba, decía Young, de que la luz es una onda. ¿Por qué? Forman parte de un patrón de interferencia, de los que se producen cuando las ondas del tipo que sean chocan entre sí. Cuando dos ondas de agua, por ejemplo, chocan cresta con cresta, se refuerzan mutuamente y se crea una onda mayor. Cuando chocan valle con cresta, se anulan y la onda se allana.
Young interpretó que en el experimento de la rendija doble las perturbaciones ondulatorias de las dos rendijas llegaban a la pantalla en ciertos sitios con las fases justas para anularse mutuamente: un pico de la onda de luz de la rendija uno llega exactamente en el valle de luz de la rendija dos. Se produce una franja oscura. Estas anulaciones son las indicaciones quintaesenciales de la interferencia ondulatoria. Cuando coinciden sobre la pantalla dos picos o dos valles tenemos una franja brillante. Se aceptó que el patrón de franjas era la prueba de que la luz era un fenómeno ondulatorio.
Ahora bien, en principio cabe efectuar el mismo experimento con electrones. En cierta forma, eso es lo que Davisson hizo en los laboratorios Bell. Cuando se usan electrones, el experimento arroja también un patrón de interferencia. La pantalla se cubre con contadores Geiger minúsculos, que suenan cuando un electrón da en ellos. El contador Geiger detecta partículas. Para comprobar que los contadores funcionan, ponemos una pieza de plomo gruesa sobre la rendija dos: los electrones no pueden atravesarla. En este caso, todos los contadores Geiger sonarán si esperamos lo suficiente para que unos miles de electrones pasen a través de la otra rendija, la que está abierta. Pero cuando las dos rendijas lo están, ¡hay columnas de contadores Geiger que no suenan nunca!
Esperad un minuto. Prestad atención a esto. Cuando se cierra una rendija, los electrones, que brotan a través de la otra, se dispersan, y unos van a la izquierda, otras en línea recta, otros a la derecha, y hacen que se forme a lo largo y ancho de la pantalla un patrón más o menos uniforme de ruidos de contadores, lo mismo que la luz amarilla de Young creaba una ancha línea brillante en su experimento de una sola rendija. En otras palabras, los electrones se comportan, lo que es bastante lógico, como partículas. Pero si retiramos el plomo y dejamos que pasen algunos electrones por la rendija dos, el patrón cambia y ningún electrón llega a esas columnas de contadores Geiger que están donde caen las franjas oscuras. Los electrones actúan entonces como ondas. Sin embargo, sabemos que son partículas porque los contadores suenan.
Quizá, podríais argüir, pasen dos o más electrones a la vez por las rendijas y simulen un patrón de interferencia ondulatoria. Para que quede claro que no pasan dos electrones a la vez por las rendijas, reducimos el ritmo de los electrones a uno por minuto. Los mismos patrones. Conclusión: los electrones que atraviesan la rendija uno «saben» que la rendija dos está abierta o cerrada porque según sea lo uno o lo otro sus patrones cambian.
¿Cómo se nos ocurre esta idea de los electrones «inteligentes»? Poneos en el lugar del experimentador. Tenéis un cañón de electrones, así que sabéis que estáis disparando partículas a las rendijas. Sabéis también que al final tenéis partículas en el lugar de destino, la pantalla, pues los contadores Geiger suenan. Un ruido significa una partícula. Luego, tengamos una rendija abierta o las dos, empezamos y terminamos con partículas. Sin embargo, dónde aterricen las partículas dependerá de que estén abiertas una o dos rendijas. Por lo tanto, da la impresión de que una partícula que pase por la rendija uno sabrá si la rendija dos está abierta o cerrada, ya que parece que cambia su camino conforme a esa información. Si la rendija dos está cerrada, se dice a sí misma: «Muy bien, puedo caer donde quiera en la pantalla». Si la rendija dos está abierta, se dice: «¡Oh!, ¡ah!, tengo que evitar ciertas bandas de la pantalla, para que se cree un patrón de franjas». Como las partículas no pueden «saber», nuestra ambigüedad entre ondas y partículas crea una crisis lógica.
La mecánica cuántica dice que podemos predecir la probabilidad de que los electrones pasen por las rendijas y lleguen a continuación a la pantalla. La probabilidad es una onda, y las ondas exhiben patrones de interferencia para las dos rendijas. Cuando las dos están abiertas, las ondas de probabilidad Ψ pueden interferir de forma que resulte una probabilidad nula (Ψ = 0) en ciertos lugares de la pantalla. La queja antropomórfica del párrafo anterior es un atolladero clásico; en el mundo cuántico, «¿cómo sabe el electrón por qué rendija ha de pasar?» no es una pregunta que la medición pueda responder. La trayectoria detallada, punto a punto, del electrón, no se está observando, y por lo tanto la pregunta «¿por qué rendija pasa el electrón?» no es una cuestión operativa. Las relaciones de incertidumbre de Heisenberg resuelven, además, nuestra fijación clásica al señalar que, cuando se trata de medir la trayectoria del electrón entre el cañón de electrones y la pared, se cambia por completo el movimiento del electrón y se destruye el experimento. Podemos conocer las condiciones iniciales (el electrón que dispara el cañón); podemos conocer los resultados (el electrón da en alguna parte de la pantalla); no podemos conocer el camino de A a B a menos que estemos dispuestos a cargarnos el experimento. Esta es la naturaleza fantasmagórica del nuevo mundo atómico.
La solución que da la mecánica cuántica, «¡no te preocupes!, ¡no podemos medirlo», es bastante lógica, pero no satisface a la mayoría de los espíritus humanos, que luchan por comprender los detalles del mundo que nos rodea. Para algunas almas torturadas, la incognoscibilidad cuántica es aún un precio demasiado alto que hay que pagar. Nuestra defensa: esta es la única teoría que por ahora conozcamos que funciona.
Newton frente a Schrödinger
Hay que cultivar una nueva intuición. Nos pasamos años enseñando a los estudiantes de física la física clásica, para luego dar un giro y enseñarles la teoría cuántica. Los estudiantes graduados necesitan dos o más años para desarrollar una intuición cuántica. (Se espera que vosotros, afortunados lectores, realicéis esta pirueta en el espacio de sólo un capítulo.)
La pregunta obvia es: ¿cuál es correcta?, ¿la teoría de Newton o la de Schrödinger? El sobre, por favor. Y el ganador es… ¡Schrödinger! La física de Newton se desarrolló para las cosas grandes; no vale dentro del átomo. La teoría de Schrödinger se concibió para los microfenómenos. Sin embargo, cuando se aplica la ecuación de Schrödinger a las situaciones macroscópicas da resultados idénticos a la de Newton.
Veamos un ejemplo clásico. La Tierra da vueltas alrededor del Sol. Un electrón da vueltas —por usar el viejo lenguaje de Bohr— alrededor de un núcleo. Pero el electrón está obligado a moverse en ciertas órbitas. ¿Le están permitidas a la Tierra sólo ciertas órbitas cuánticas alrededor del Sol? Newton diría que no, que el planeta puede orbitar por donde quiera. Pero la respuesta correcta es sí. Podemos aplicar la ecuación de Schrödinger al sistema Tierra-Sol. La ecuación de Schrödinger nos daría el usual conjunto discreto de órbitas, pero habría un número enorme de ellas. Al usar la ecuación, se metería la masa de la Tierra (en vez de la masa del electrón) en el denominador, con lo que el espaciamiento entre las órbitas allá donde la Tierra está, es decir, a 150 millones de kilómetros del Sol, resultaría tan pequeño —una millonésima de billonésima de centímetro— que sería de hecho continuo. Para todos los propósitos prácticos, se llega al resultado newtoniano de que todas las órbitas se permiten. Cuando tomas la ecuación de Schrödinger y la aplicas a los macroobjetos, ante tus ojos se convierte en… ¡F = ma! O casi. Fue Roger Boscovich, dicho sea de paso, quien conjeturó en el siglo XVIII que las fórmulas de Newton eran meras aproximaciones que valían en las grandes distancias pero no sobrevivirían en el micromundo. Por lo tanto, nuestros estudiantes graduados no tienen que tirar sus libros de mecánica. Quizá consigan un trabajo en la NASA o con los Chicago Cubs, preparando trayectorias de reentrada para los cohetes o tarjetas de esas que se levantan al abrirlas con las buenas y viejas ecuaciones newtonianas.
En la teoría cuántica, el concepto de órbita, o qué hace el electrón en el átomo o en un haz, no es útil. Lo que importa es el resultado de la medición, y ahí los métodos cuánticos sólo pueden predecir la probabilidad de cualquier resultado posible. Si se mide dónde está el electrón, en el átomo de hidrógeno por ejemplo, el resultado será un número, la distancia del electrón al núcleo. Y se hará, no midiendo un solo electrón, sino repitiendo la medición muchas veces. Se obtiene un resultado diferente cada vez, y al final se dibuja una curva que represente gráficamente todos los resultados. Ese gráfico es el que se puede comparar con la teoría. La teoría no puede predecir el resultado de una medición dada cualquiera. Es una cuestión estadística. Volviendo a mi comparación con la confección de trajes, aunque sepamos que la estatura media de los alumnos de primero de la Universidad de Chicago es de 1,70 metros, el próximo alumno de primero que entre en ella podría medir 1,60 o 1,85. No podemos predecir la estatura del próximo alumno de primero; sólo podemos dibujar una especie de curva actuarial.
Donde se vuelve fantasmagórica es al predecir el paso de una partícula por una barrera o el tiempo que tarda en desintegrarse un átomo radiactivo. Preparamos muchos montajes idénticos, Disparamos un electrón de 5,00 MeV a una barrera de potencial de 5,50 MeV. Predecimos que 45 veces de cada 100 penetrará en ella.
Pero nunca podemos estar seguros de qué hará un electrón dado. Uno la atraviesa; el siguiente, idéntico en todos los aspectos, no. Experimentos idénticos arrojan resultados diferentes. Ese es el mundo cuántico. En la ciencia clásica insistimos en lo importante que es que se repitan los experimentos. En el mundo cuántico podemos repetirlo todo menos el resultado.
De la misma forma, tomad el neutrón, que tiene una «semivida» de 10,3 minutos, lo que quiere decir que si se empieza con 1.000 neutrones, la mitad se habrá desintegrado en 10,3 minutos. Pero ¿y un neutrón dado? Puede que se desintegre en 3 segundos o en 29 minutos. El momento exacto en que se desintegrará es desconocido. Einstein odiaba esta idea. «Dios no juega a los dados con el universo», decía. Otros críticos decían: suponed que hay, en cada neutrón o en cada electrón, un mecanismo, un muelle, una «variable oculta» que haga que cada neutrón sea diferente, como los seres humanos, que también tienen una vida media. En el caso de los seres humanos hay una multitud de cosas no tan ocultas —genes, arterias obstruidas y cosas así— que pueden en principio servir para predecir el día en que un individuo fallecerá, excepción hecha de ascensores que se caigan, líos amorosos catastróficos o un Mercedes fuera de control.
La hipótesis de la variable oculta está en esencia refutada por dos razones: en todos los millones y millones de experimentos hechos con electrones no se han manifestado nunca, y nuevas y mejoradas teorías relativas a los experimentos mecanocuánticos las han descartado.
Tres cosas que hay que recordar sobre la mecánica cuántica
Se puede decir que la mecánica cuántica tiene tres cualidades destacables: 1) va contra la intuición; 2) funciona; y 3) tiene aspectos que la hicieron inaceptable a los afines a Einstein y Schrödinger y que han hecho que en los años noventa sea una fuente continua de estudios. Veamos cada una de ellas.
1 Va contra la intuición. La mecánica cuántica sustituye la continuidad por lo discreto. Metafóricamente, no es un líquido que se vierte en un vaso, sino una arena muy fina. El zumbido regular que oís es el impacto de números enormes de átomos en vuestros tímpanos. Y está el carácter fantasmagórico del experimento de la rendija doble, que ya hemos comentado.
Otro fenómeno que va contra la intuición es el «efecto túnel». Hemos hablado del envío de electrones hacia una barrera de energía. La analogía clásica es hacer que una bola ruede cuesta arriba. Si se le da a la bola el suficiente empuje (energía) inicial, llegará a lo más alto. Si la energía inicial es demasiado pequeña, la bola volverá a bajar. O imaginaos una montaña rusa, el coche en una hondonada entre dos subidas terroríficas. Suponed que el coche rueda hasta la mitad de una de las subidas y se queda sin fuerza motriz. Se deslizará hacia abajo, subirá casi hasta la mitad de la otra pendiente y oscilará atrás y adelante, atrapado en la hondonada. Si pudiésemos eliminar la fricción, el coche oscilaría para siempre, aprisionado entre dos subidas insuperables. En la teoría atómica cuántica, a un sistema así se le conoce con el nombre de «estado ligado». Sin embargo, nuestra descripción de lo que les pasa a los electrones que se dirigen hacia una barrera de energía o a un electrón atrapado entre dos barreras debe tener en cuenta las ondas probabilistas. Resulta que parte de la onda puede «gotear» a través de la barrera (en los sistemas atómicos o nucleares la barrera es una fuerza o de tipo eléctrico o del tipo fuerte), y por lo tanto hay una probabilidad finita de que la partícula atrapada aparezca fuera de la trampa. Esto no sólo iba contra la intuición, sino que se consideró una paradoja de orden mayor, pues el electrón a su paso por la barrera debía tener una energía cinética negativa, lo que, desde el punto de vista clásico, es absurdo. Pero cuando se desarrolla la intuición cuántica, uno responde que la condición de que el electrón «esté en el túnel» no es observable y por lo tanto no es un problema de la física. Lo que uno observa es que sale fuera. Este fenómeno, el paso por efecto túnel, se utilizó para explicar la radiactividad alfa. Es la base de un importante dispositivo electrónico, el diodo túnel. Por fantasmagórico que sea, este efecto túnel les es esencial a los ordenadores modernos y a otros dispositivos electrónicos.
Partículas puntuales, paso por efecto túnel, radiactividad, la tortura de la rendija doble: todo esto contribuyó a las nuevas intuiciones que los físicos cuánticos necesitaban a medida que fueron desplegando su nuevo armamento intelectual a finales de los años veinte y durante los treinta en busca de fenómenos inexplicados.
2 Funciona. Gracias a los acontecimientos de 1923-1927, se comprendió el átomo. Aun así, en esos días previos a los ordenadores, sólo se podían analizar adecuadamente los átomos simples —el hidrógeno, el helio, el litio y los átomos a (as que se les han quitado algunos electrones (ionizado)—. Logró un gran avance Wolfgang Pauli, uno de los «wunderkinder», que entendió la teoría de la relatividad a los diecinueve años y, en sus días de «hombre de estado veterano», se convirtió en el «enfant terrible» de la física.
No se puede evitar aquí una digresión sobre Pauli. Se caracterizaba por su severa vara de medir y por su irascibilidad, y fue la conciencia de la física de su época. ¿O era, simplemente, sincero? Abraham Pais cuenta que Pauli se quejó una vez ante él de las dificultades que tenía para encontrar un problema en el que trabajar que le plantease retos: «Quizá es porque sé demasiado». No era una baladronada, sino el mero enunciado de un hecho. Os podréis imaginar que era duro con los ayudantes. Cuando uno nuevo, joven, Victor Weisskopf, que habría de ser uno de los teóricos más destacados, se presentó ante él en Zurich, Pauli le miró de arriba abajo, meneó la cabeza y murmuró: «Ach, tan joven y todavía es usted desconocido». Unos cuantos meses después, Weisskopf le presentó a Pauli un trabajo teórico. Pauli le echó un vistazo y dijo: «Ach, ¡no está ni equivocado! ». A un posdoctorando le dijo: «No me importa que piense despacio. Me importa que publique más deprisa de lo que piensa». Nadie estaba a salvo de Pauli. Al recomendarle a Einstein una persona como ayudante, Pauli le escribió a aquél, sumergido en sus últimos años en el exotismo matemático de su estéril persecución de una teoría unificada: «Querido Einstein. Este estudiante es bueno, pro no capta con claridad la diferencia entre las matemáticas y la física. Por otra parte, a usted, querido Maestro, se le ha escapado esa distinción hace mucho». Ese es nuestro chico Wolfgang.
En 1924 propuso un principio fundamental que explicaba la tabla periódica de los ele-mentos de Mendeleev. El problema: formamos los átomos de los elementos químicos más pesados añadiendo cargas positivas al núcleo y electrones a los distintos estados de energía permitidos del átomo (órbitas, en la vieja teoría cuántica). ¿Adónde van los electrones? Pauli enunció el que ha venido a llamarse principio de exclusión de Pauli: no hay dos electrones que puedan ocupar el mismo estado cuántico. Al principio fue una suposición inspirada, pero, como se vería, derivaba de una profunda y hermosa simetría.
Veamos cómo hace Santa Claus, en su taller, los elementos químicos. Tiene que hacerlo bien porque trabaja para Él, y Él es duro. El hidrógeno es fácil. Lleva un protón, el núcleo. Le añade un electrón, que ocupa el estado de energía más bajo posible; en la vieja teoría de Bohr (que aún es útil pictóricamente), la órbita con el menor radio permitido. Santa no tiene que poner cuidado; le basta con dejar caer el electrón en cualquier parte cerca del protón, que ya acabará por «saltar» a su estado más bajo o «fundamental», emitiendo fotones por el camino. Ahora el helio. Ensambla el núcleo de helio, que tiene dos cargas positivas. Por lo tanto, ha de dejar caer dos electrones. Y con el litio hacen falta tres para formar el átomo eléctricamente neutro. El problema es: ¿adónde van a parar los electrones? En el mundo cuántico, sólo se permiten ciertos estados. ¿Se acumulan todos los electrones en el fundamental, tres, cuatro, cinco… electrones? Ahí es donde entra el principio de Pauli. No, dice Pauli, no pueden estar dos electrones en el mismo estado cuántico. En el helio se permite que el segundo electrón se una al primero en el estado de menor energía sólo si su espín va en sentido opuesto al de su compañero. Cuando se añade el tercer electrón, para el átomo de litio, queda excluido del nivel más bajo de energía y ha de ir al siguiente nivel más bajo. Éste tiene un radio mucho mayor (de nuevo dicho a la manera de la teoría de Bohr), lo que explica la actividad química del litio, es decir, la facilidad con que emplea ese electrón solitario para combinarse con otros átomos. Tras el litio tenemos el átomo de cuatro electrones, el berilio, en el que el cuarto electrón se une al tercero en la misma «capa» de éste, como se llama a los niveles de energía.
A medida que procedemos alegremente —el berilio, el boro, el carbono, el nitrógeno, el oxígeno, el neón—, añadimos electrones hasta que cada capa se llene. Ni uno más en esa capa, dice Pauli. Empieza una nueva. En pocas palabras, la regularidad de las propiedades y de los comportamientos químicos procede por completo de esta construcción cuántica por medio del principio de Pauli. Unos decenios antes, los científicos se habían burlado de la insistencia de Mendeleev en alinear los elementos en filas y columnas de acuerdo con sus características. Pauli mostró que esa periodicidad estaba ligada de forma precisa a las capas y estados cuánticos distintos de los electrones: en la primera capa se pueden acomodar dos, ocho en la segunda, dieciocho en la tercera y así sucesivamente (2 x n2). La tabla periódica tenía, en efecto, un significado más profundo.
Resumamos esta importante idea. Pauli inventó una regla que se aplicaba .1 la manera en que los elementos químicos cambiaban su estructura electrónica. Esta regla explica las propiedades químicas (gas inerte, metal activo y demás) ligándolas al número de electrones y a sus estados, especialmente de los que están en las capas más exteriores, donde es más fácil que entren en contacto con otros átomos. La consecuencia más lla-mativa del principio de Pauli es que, si se llena una capa, es imposible añadirle un electrón más. La fuerza que se resiste a ello es enorme. Esta es la verdadera razón de la impenetrabilidad de la materia. Aunque los átomos son en mucho más de un 99,99 por 100 espacio vacío, atravesar una pared me supone un auténtico problema. Lo más probable es que compartáis conmigo esta frustración. ¿Por qué? En los sólidos, donde los átomos se unen mediante complicadas atracciones eléctricas, la imposición de los electrones de vuestro cuerpo sobre el sistema de los átomos de la «pared» topa con la prohibición de Pauli de que los electrones estén demasiado juntos. Una bala puede pe-netrar en una pared porque rompe las ligaduras entre átomos y, como un bloqueador del fútbol norteamericano, deja sitio para sus propios electrones. El principio de Pauli desempeña también un papel crucial en sistemas tan peculiares y románticos como las estrellas de neutrones y los agujeros negros. Pero me salgo del tema.
Una vez que sabemos cómo están hechos los átomos, resolvemos el problema de cómo se combinan para construir moléculas, H20 o NaCl, por ejemplo. Las moléculas se forman gracias a complejos de fuerzas que actúan entre los electrones y los núcleos de los átomos que se combinan. La disposición de los electrones en sus capas proporciona la clave para crear una molécula estable. La teoría cuántica le dio a la química una firme base científica, y la química cuántica es hoy un campo floreciente, del que han salido nuevas disciplinas, como la biología molecular, la ingeniería genética y la medicina molecular. En la ciencia de materiales, la teoría cuántica nos sirve para explicar y controlar las propiedades de los metales, los aislantes, los superconductores y los semiconductores. Los semiconductores llevaron al descubrimiento del transistor, cuyos inventores reconocen que toda su inspiración les vino de la teoría cuántica de los metales. Y de ese descubrimiento salieron los ordenadores y la microelectrónica y la revolución en las comunicaciones y en la información. Y además están los máseres y los láseres, que son sistemas cuánticos por completo.
Cuando nuestras mediciones llegaron al núcleo atómico —una escala 100.000 veces menor que la del átomo—, la teoría cuántica era un instrumento esencial en ese nuevo régimen. En la astrofísica, los procesos estelares producen objetos de lo más peculiar: soles, gigantes rojas, enanas blancas, estrellas de neutrones y agujeros negros. El curso de la vida de estos objetos se basa en la teoría cuántica. Desde el punto de vista de la utilidad social, como hemos calculado, la teoría cuántica da cuenta de más del 25 por 100 del PNB de todas las potencias industriales. Pensad solo en esto: unos físicos europeos se obsesionan con la manera en que funciona el átomo, y sus esfuerzos acaban por generar billones de dólares de actividad económica. Con que a unos gobiernos sabios y prescientes se les hubiera ocurrido poner una tasa del 0,1 por 100 a los productos de tecnología cuántica, destinada a la investigación y a la educación… En cualquier caso, ya lo creo que funciona.
3 Tiene problemas. Tienen que ver con la función de onda (psi, o Ψ) y lo que significa. A pesar de su gran éxito práctico e intelectual, no podernos estar seguros de qué significa la teoría cuántica. Puede que nuestra incomodidad sea intrínseca a la mente humana, o quizás un genio acabará por hallar un esquema conceptual que haga felices a todos. Si no la podéis tragar, no os preocupéis. Estáis en buena compañía. La teoría cuántica ha hecho infelices a muchos físicos, Planck, Einstein, De Broglie y Schrödinger entre ellos.
Hay una rica literatura sobre las objeciones a la naturaleza probabilista de la teoría cuántica. Einstein dirigió la batalla, y sus numerosos intentos (cuesta seguirlos) de socavar las relaciones de incertidumbre fueron una y otra vez desbaratados por Bohr, quien había establecido lo que ahora se llama la «interpretación de Copenhague» de la función de onda. Einstein y Bohr se lo tomaron realmente en serio. Einstein concebía un experimento mental que era una flecha disparada al corazón de la nueva teoría cuántica, y Bohr, por lo general tras un largo fin de semana de duro trabajo, hallaba el fallo en el argumento de Einstein. Einstein era el chico malo, el que azuzaba en los debates. Como al niño que crea problemas en la clase de catecismo («Si Dios es todopoderoso, ¿puede hacer una roca tan pesada que ni siquiera Él pueda levantarla?»), a Einstein no dejaban de ocurrírsele paradojas de la teoría cuántica. Bohr era el sacerdote que no dejaba de responder a las objeciones de Einstein.
Se cuenta que muchas de las discusiones tuvieron lugar durante paseos por el bosque. Me imagino lo que pasaba cuando se encontraban con un oso enorme. Bohr sacaba in-mediatamente de su mochila un par de zapatillas Reebok Pump de 300 dólares y se ponía a atárselas. «¿Qué haces, Niels? Sabes que no puedes correr más que un oso —le decía Einstein con lógica—. ¡Ah!, no tengo que correr más que el oso, querido Albert», respondía Bohr. «Sólo tengo que correr más que tú.»
Hacia 1936 Einstein había aceptado a regañadientes que la teoría cuántica describe correctamente todos los experimentos posibles, al menos los que se pueden imaginar. Hizo entonces un cambio de marchas y decidió que la mecánica cuántica no podía ser una descripción completa del mundo, aun cuando diese correctamente la probabilidad de los distintos resultados de las mediciones. La defensa de Bohr fue que la imperfec-ción que preocupaba a Einstein no era un fallo de la teoría, sino una cualidad del mundo en el que vivimos. Estos dos siguieron discutiendo sobre la mecánica cuántica en la tumba, y estoy completamente seguro de que no han dejado de hacerlo, a no ser que el «Viejo», como Einstein llamaba a Dios, por una preocupación fuera de lugar, les haya zanjado la cuestión.
Hacen falta libros enteros para contar el debate entre Einstein y Bohr, pero intentaré ilustrar el problema con un ejemplo. Recuerdo el punto principal de Heisenberg: nunca podrá tener un éxito completo ningún intento de medir a la vez dónde está una partícula y adónde va. Preparad una medición para localizar el átomo; ahí lo tendréis, con tanta precisión como queráis. Preparad una medición para ver lo deprisa que va; presto, tenemos su velocidad. Pero no podemos tener las dos. La realidad que descubren esos experimentos depende de la estrategia que adopte el experimentador. Esta subjetividad pone en entredicho nuestros conceptos de causa y efecto tan queridos. Si un electrón parte del punto A y se ve que llega al punto B, parece «natural» que se dé por sentado que tomó un camino concreto entre A y B. La teoría cuántica lo niega, y dice que no se puede conocer el camino. Todos los caminos son posibles, y cada uno tiene su probabilidad.
Para exponer la imperfección de esta noción de la trayectoria fantasma, Einstein propuso un experimento decisivo. No puedo hacer justicia a su idea, pero intentaré dejar claro lo esencial. Se le llama el experimento mental EPR, por Einstein, Podolski y Rosen, los tres que lo concibieron. Propusieron un experimento con dos partículas en el que el destino de cada una está ligado al de la otra. Hay maneras de crear un par de partículas que se mueven separándose entre sí de forma que si una tiene el espín hacia arriba la otra lo tenga hacia abajo, o si una lo tiene hacia la derecha la otra lo tenga hacia la izquierda. Enviamos una partícula a toda velocidad a Bangkok, la otra a Chicago. Einstein decía: muy bien, aceptemos que no podemos saber nada de una partícula hasta que la midamos. Midamos, pues, la partícula A en Chicago y descubramos que tiene el espín hacia la derecha. Ergo, ahora sabemos lo que respecta a la partícula B, en Bangkok, cuyo espín está a punto de medirse. Antes de la medición de Chicago, la probabilidad del espín hacia la izquierda y del espín hacia la derecha es de l/2. Tras la medición de Chicago, sabemos que la partícula B tiene el espín hacia la izquierda. Pero ¿cómo sabe la partícula B el resultado del experimento de Chicago? Aunque llevase una pequeña radio, las ondas de radio viajan a la velocidad de la luz y al mensaje le llevaría un tiempo el llegar. ¿Qué mecanismo de comunicación es ese, que ni siquiera tiene la cortesía de viajar a la velocidad de la luz? Einstein lo llamó «acción fantasmagórica a distancia». La conclusión de EPR es que la única manera de comprender la conexión entre lo que pasa en A (la decisión de medir en A) y el resultado de B es proporcionar más detalles, lo que la mecánica cuántica no puede hacer. ¡Ajá!, gritó Albert, la mecánica cuántica no es completa.
Cuando Einstein dio a Bohr de lleno con el EPR, hasta el tráfico se paró en Copen-hague mientras Bohr ponderaba el problema. Einstein intentaba burlar las relaciones de incertidumbre de Heisenberg mediante la medición de una partícula cómplice. Finalmente, la réplica de Bohr sería que no cabe separar los sucesos A y B, que el sistema debe incluir A, B y el observador que decide cuándo se hace una medición. Se pensó que esta respuesta holística tenía ciertos ingredientes de misticismo religioso oriental y se han escrito (demasiados) libros sobre esas conexiones. El problema es si la partícula A y el observador, o detector, A tienen una existencia einsteiniana real o si sólo son unos fantasmas intermedios carentes de importancia antes de la medición. Este problema en particular se resolvió gracias a un gran avance teórico y (¡ajá!) un experimento brillante.
Gracias a un teorema desarrollado en 1964 por un teórico de partículas llamado John Bell, quedó claro que una forma modificada del experimento EPR podría efectuarse de verdad en el laboratorio. Bell concibió un experimento para el que se predecía una cantidad diferente de correlación a larga distancia entre las partículas A y B dependiendo de que la razón la tuviese el punto de vista de Einstein o el de Bohr. El teorema de Bell tiene casi el predicamento de una secta actual, en parte a causa de que cabe en una camiseta. Por ejemplo, hay por lo menos un club de mujeres, en Springfield seguramente, que se reúne cada jueves por la tarde para discutir sobre él. Para disgusto de Bell, algunos proclamaron que su teorema era la «prueba» de que había fenómenos paranormales y psíquicos.
La idea de Bell dio lugar a una serie de experimentos, de los cuales el que mayor éxito ha tenido fue el realizado por Alain Aspect y sus colegas en 1982 en París. El experi-mento midió el número de veces que el detector A se correlacionaba con los resultados del detector B, es decir, espín hacia la izquierda y espín hacia la izquierda, o espín hacia la derecha y espín hacia la derecha. El análisis de Bohr permitía predecir esa correlación mediante la interpretación de Bohr de una «teoría cuántica todo lo completa que es posible» en contraposición a la noción de Einstein de que tiene que haber variables ocultas que determinen la correlación. El experimento mostró claramente que el análisis de Bohr era correcto y el de Einstein, erróneo. Se ve que esas correlaciones a larga distancia entre las partículas son la manera en que la naturaleza actúa.
¿Se acabó así el debate? En absoluto. Hoy es tumultuoso. Uno de los lugares que más dan que pensar dónde ha aparecido la fantasmagoría cuántica es en la misma creación del universo. En la primera fase de la creación, el universo tenía dimensiones subatómicas y la física cuántica se aplicaba al universo entero. Puede que hable por la muchedumbre de físicos al decir que seguiré investigando con los aceleradores, pero estoy contentísimo de que alguien se preocupe aún por los fundamentos conceptuales de la teoría cuántica.
Para los demás, Schrödinger, Dirac y las más recientes ecuaciones de la teoría cuántica de campos son nuestras armas pesadas. El camino hacia la Partícula Divina —o al menos su arranque— se nos muestra ahora muy claro.
Interludio B
Los maestros danzantes de Moo-Shu
Durante el proceso incesante de avivar, y volver a avivar, el entusiasmo por la construcción del SSC (el Supercolisionador Superconductor), visité la oficina del senador Bennett Johnston, demócrata de Luisiana cuyo apoyo fue importante para el destino del Supercolisionador, del que se espera que cueste ocho mil millones de dólares. Para ser un senador de los Estados Unidos, Johnston es un tipo curioso. Le gusta hablar de los agujeros negros, de las distorsiones del tiempo y de otros fenómenos. Cuando entré en su despacho, se levantó tras la mesa y agitó un libro ante mi cara. «Lederman —me rogó—, tengo que hacerle un montón de preguntas sobre esto.» El libro era The Dancing Wu Li Masters, de Gary Zukav. Durante nuestra conversación, alargó mis «quince minutos» hasta el punto de que nos pasamos una hora hablando de física. Estuve buscando un pie, una pausa, una frase que me sirviese para meter baza con mi perorata sobre el Supercolisionador. («Hablando de protones, tengo esta máquina…») Pero Johnston no cejaba. Hablaba de física sin parar. Cuando su secretaria de citas le interrumpió por cuarta vez, se sonrió y dijo: «Mire, sé por qué ha venido. Si usted me hubiese soltado su perorata le habría prometido “hacer lo que pueda”. ¡Pero esto ha sido mucho más divertido! Y haré lo que pueda». En realidad, hizo mucho.
Para mí fue un poco perturbador que este senador de los Estados Unidos, hambriento de conocimiento, satisficiese su curiosidad con el libro de Zukav. En los últimos años ha habido una lluvia de libros —The Tao of Physics es otro ejemplo— que intentan explicar la física moderna a partir de la religión oriental y del misticismo. Los autores son capaces de concluir extasiadamente que todos somos parte del cosmos y que el cosmos es parte de nosotros. ¡Todos somos uno! (Pero, inexplicablemente, American Express nos pasa las facturas por separado.) Lo que me preocupaba era que un senador pudiese sacar algunas ideas alarmantes de esos libros justo antes de que tuviese lugar una votación relativa a una máquina de ocho mil millones de dólares o más que se pondría en manos de los físicos. Por supuesto, Johnston está instruido científicamente y conoce a muchos científicos.
Esos libros se inspiran por lo normal en la teoría cuántica y en lo que hay en ella de inherentemente fantasmagórico. Uno de los libros, del que no diremos el título, presenta unas sobrias explicaciones de las relaciones de incertidumbre de Heisenberg, del experimento mental de Einstein-Podolski-Rosen y del teorema de Bell, y a continuación se lanza a una arrobada discusión de los viajes de LSD, los poltergeists y un ente muerto hace mucho, Seth, que comunicaba sus ideas por medio de la voz y la mano escritora de un ama de casa de Elmira, Nueva York. Es evidente que una de las premisas de ese libro, y de muchos otros por el estilo, es que la teoría cuántica es fantasmagórica, así que ¿por qué no aceptar otras materias extrañas también como hechos científicos?
Por lo general, uno no se preocuparía de libros así si se los encontrase en las secciones de religión, fenómenos paranormales o poltergeist de las librerías. Por desgracia, están puestos a menudo en la categoría de ciencia, probablemente porque se usan en sus títulos palabras como «cuántico» y «física». Una parte excesiva de lo que el público lector sabe de física lo sabe por haber leído esos libros. Cojamos sólo dos de ellos, los más prominentes: The Tao of Physics y The Dance Wu Li Masters, ambos publicados en los años setenta. Para ser justos, Tao, de Fritjof Capra, que tiene un doctorado por la Universidad de Viena, y Wu Li, de Gary Zukav, que es un escritor, han introducido a mucha gente en la física, lo que es bueno. Y lo cierto es que nada malo hay en encontrar paralelismos entre la nueva física cuántica y el hinduismo, el budismo, el taoísmo, el Zen o, tanto da, la cocina de Hunan. Capra y Zukav han hecho además muchas cosas bien. En ambos libros no faltan buenas páginas de física, lo que les da una sensación de credibilidad. Por desgracia, los autores saltan de conceptos científicos sólidos, bien probados, a conceptos ajenos a la física y hacia los cuales el puente lógico apenas si se tiene en pie o no existe.
En Wu Li, por ejemplo, Zukav hace un trabajo excelente al explicar el famoso experimento de la rendija doble de Thomas Young. Pero su análisis de los resultados es bastante peculiar. Como ya se ha comentado, salen patrones diferentes de fotones (o electrones) según haya una o dos rendijas abiertas, así que una experimentadora podría preguntarse: «¿Cómo sabe la partícula cuántas rendijas están abiertas?». Esta es, claro, una forma caprichosa de expresar un problema de mecanismos. El principio de incertidumbre de Heisenberg, noción que es la base de la teoría cuántica, dice que no se puede determinar por qué rendija se cuela la partícula sin destruir el experimento. Según el curioso pero eficaz rigor de la teoría cuántica, esas preguntas no son pertinentes.
Pero Zukav extrae un mensaje diferente del experimento de la rendija doble: la partícula sabe si hay una rendija o dos abiertas. ¡Los fotones son inteligentes! Esperad, es todavía mejor. «Apenas si nos queda otra salida; hemos de reconocer —escribe Zukav— que los fotones, que son energía, parecen procesar información y actuar en consecuencia, y, por lo tanto, por extraño que parezca, da la impresión de que son orgánicos.» Es divertido, puede que filosófico, pero nos hemos apartado de la ciencia.
Paradójicamente, Zukav está dispuesto a atribuirles conciencia a los fotones, pero se niega a aceptar la existencia de los átomos. Escribe: «Los átomos nunca fueron en absoluto cosas “reales”. Los átomos son entes hipotéticos construidos para que las observaciones experimentales sean inteligibles. Nadie, ni una sola persona, ha visto jamás un átomo». Ahí sale otra vez la señora del público que nos quiere poner en apuros con la pregunta: «¿Ha visto usted alguna vez un átomo?». En favor de la señora, hay que decir que estaba dispuesta a escuchar la respuesta. Zukav ya la ha respondido, con un no. Incluso literalmente está hoy fuera de lugar. Desde que se publicó su libro, son muchos los que han visto átomos gracias al microscopio de barrido por efecto túnel, que toma bellas imágenes de estos pequeños chismes.
En cuanto a Capra, es mucho más inteligente y juega a dos barajas en sus apuestas y con su lenguaje, pero, en lo esencial, tampoco es creyente. Insiste en que «la simple imagen mecanicista de los ladrillos con que se construyen las cosas» debería abandonarse. A partir de una descripción razonable de la mecánica cuántica, construye unas elaboradas ampliaciones de la misma carentes de la menor comprensión de la delicadeza con que se entrelazan el experimento y la teoría y hasta qué punto ha habido sangre, sudor y lágrimas en cada penoso avance.
Si la descuidada falta de seriedad de estos autores carece de interés para mí, los verdaderos charlatanes hacen que me desconecte. En realidad, Tao y Wu Li constituyen un nivel medio relativamente respetable entre los libros científicos buenos y el sector lunático de timadores, charlatanes y locos. Esta gente te garantiza la vida eterna si no comes otra cosa que raíces de zumaque. Te dan pruebas de primera de mano de la visita de extraterrestres. Sacan a la luz la falacia de la relatividad en favor de una versión sumeria del Almanaque del Granjero. Escriben para el New York Inquirer y contribuyen al correo delirante que todo científico destacado recibe. La mayoría de estas personas son inofensivas, como la mujer de setenta años de edad que me contaba, en ocho páginas de apretada caligrafía, la conversación que tuvo con unos pequeños visitantes verdes del espacio. Pero no todos son inofensivos. Una secretaria de la revista Physical Review fue asesinada a tiros por un hombre al que se le rechazó un artículo incoherente.
Lo importante, creo, es esto: todas las disciplinas, todo campo de actividad, tienen un «orden establecido», sea la colectividad de los profesores de físicas de cierta edad de las universidades prestigiosas, los magnates del negocio de las comidas rápidas, los dirigentes de la Asociación Norteamericana de la Abogacía o los viejos jefes de la Orden Fraternal de los Trabajadores Postales. En ciencia, el camino del progreso es más rápido cuando se derriba a los gigantes. (Sabía que me saldría de todo esto una buena metáfora mezclada.) Por lo tanto, se buscan con celo iconoclastas y rebeldes con bombas (intelectuales); hasta el propio régimen científico los busca. Por supuesto, a ningún teórico le divierte que tiren su teoría a lo basura; algunos hasta pueden reaccionar —momentánea, instintivamente, como un régimen político ante una rebelión. Pero la tradición del derrocamiento está demasiado enraizada. Alimentar y premiar al joven y creativo es una obligación sagrada del régimen científico. (Lo más triste que te pueden decir de fulano de tal es que no hasta con ser joven.) Esta lección moral —que debemos mantenernos abiertos a lo joven, lo heterodoxo y lo rebelde— deja un resquicio pura los charlatanes y los descarriados, que pueden hacer presa en los periodistas y editores —y otros responsables de los medios de comunicación— descuidados y científicamente analfabetos. Algunos timadores han tenido notable éxito, como el mago israelí Uri Geller o el escritor Immanuel Velikovsky, incluso ciertos doctores en ciencias (un doctorado es aún una garantía de la verdad menor que un premio Nobel) que han promovido cosas tan fuera de quicio como las «manos que ven», la «psicoquinesia», la «ciencia de la creación», la «poliagua», la «fusión fría» y tantas otras ideas fraudulentas. Lo usual es que se diga que la verdad revelada está siendo suprimida por el acomodado régimen, que quiere así preservar el statu quo con todos sus derechos y privilegios.
Sin duda, eso puede pasar. Pero en nuestra disciplina, hasta los miembros del orden establecido hacen campaña contra el régimen. Nuestro santo patrón, Richard Feynman, en el ensayo «¿Qué es la ciencia?», hacía al estudiante esta admonición: «Aprende de la ciencia que debes dudar de los expertos. … La ciencia es la creencia en la ignorancia de los expertos». Y más adelante: «Cada generación que descubre algo a partir de su experiencia debe transmitirlo, pero debe transmitirlo guardando un delicado equilibrio entre el respeto y la falta de respeto, para que la raza… no imponga con demasiada rigidez sus errores a sus jóvenes, sino que transmita junto a la sabiduría acumulada la sabiduría de que quizá no sea tal sabiduría».
Este elocuente pasaje expresa la educación que todos los que laboramos en el viñedo de la ciencia tenemos profundamente imbuida. Por supuesto, no todos los científicos pueden reunir la agudeza crítica, la mezcla de pasión y percepción que Feynman era capaz de ponerle a un problema: Eso es lo que diferencia a los científicos, y también es verdad que muchos grandes científicos se toman a sí mismos demasiado en serio. Se ven entonces lastrados a la hora de aplicar su capacidad crítica a su propio trabajo o, lo que es peor todavía, al trabajo de los chicos que les están poniendo en la estacada. No hay especialidad perfecta. Pero lo que raras veces entienden los profanos es lo presta, ansiosa, desesperadamente que la comunidad científica de una disciplina dada le abre los brazos al iconoclasta intelectual… si él o ella tienen lo que hace falta.
En todo esto lo trágico no son los escritores pseudocientíficos chapuceros, ni el vendedor de seguros de Wichita que sabe exactamente dónde se equivocó Einstein y publica su propio libro al respecto, ni el timador que dirá lo que sea por ganar unos duros, los Geller o los Velikovsky. Lo trágico es el daño que se le hace al público común, crédulo y científicamente analfabeto, a quien con tanta facilidad se le toma el pelo. Ese público construirá pirámides, pagará una fortuna por inyecciones de glándula de mono, mascará huesos de albaricoque, irá adonde sea y hará lo que sea tras los pasos del charlatán de feria que, habiendo progresado de la trasera de un carromato a la hora punta de un canal de televisión, venderá lenitivos aún más escandalosos en el nombre de la «ciencia».
¿Por qué somos, y me refiero a nosotros, el público, tan vulnerables? Una respuesta posible es que los profanos se sienten incómodos con la ciencia, porque la manera en que se desenvuelve y progresa no les es familiar. El público ve la ciencia como un edificio monolítico de reglas y creencias inflexibles, y si los científicos —gracias al retrato que ofrecen los meditas de ellos como envarados ratones de biblioteca de bata blanca— como unos plúmbeos, vetustos, escleróticos defensores del statu quo. En verdad, la ciencia es algo mucho más flexible. La ciencia no tiene que ver con el statu quo. La ciencia tiene que ver con la revolución.
El rumor de la revolución
La teoría cuántica es un blanco fácil para los escritores que la declaran afín a alguna forma de religión o misticismo. Se suele pintar a menudo a la física clásica newtoniana como segura, lógica, intuitiva. Y la teoría cuántica, contraria a la intuición, fantasmagórica, viene y la «reemplaza». Cuesta entenderla. Es amenazadora. Una solución —la solución de algunos de los libros que se han comentado antes— es pensar en la física cuántica como si fuese una religión. ¿Por qué no considerarla una forma del hinduismo (o del budismo, etc.)? De esa manera podemos, simplemente, abandonar la lógica por completo.
Otra vía es pensar en la teoría cuántica como, bueno, una ciencia. Y no dejarse engañar por esa idea de que «reemplaza» a lo que vino antes. La ciencia no tira por la ventana ideas que tienen cientos de años, por capricho, sobre todo si esas ideas han funcionado. Merece la pena hacer aquí una breve digresión, para explorar cómo suceden las revoluciones en la física.
La nueva física no tiene por qué, necesariamente, tomar al asalto a la vieja. Las revoluciones tienden en la ciencia a ejecutarse conservadoramente y buscándole el mayor rendimiento a lo que cuestan. Quizá tengan consecuencias filosóficas anonadantes, y puede que parezca que abandonan lo que se daba por sabido acerca de la manera en que el mundo actúa. Pero lo que en realidad pasa es que el dogma establecido se extiende a un nuevo dominio.
Pensad en Arquímedes, de la Grecia antigua. En el año 100 a.C. resumió los principios de la estática y de la hidrostática. La estática es el estudio de la estabilidad de las estructuras, de las escaleras, los puentes y los arcos, por ejemplo, de cosas habitualmente que el hombre ha concebido para sentirse más a gusto. La obra de Arquímedes sobre la hidrostática tenía que ver con los líquidos y con qué flota y qué se hunde, con qué cosas flotan de pie y cuáles se tumban, con los principios de la flotabilidad y por qué uno grita «¡Eureka!» en la bañera, y más cosas. Estos problemas y el tratamiento que Arquímedes les dio son hoy tan válidos como hace dos mil años.
En 1600 Galileo examinó las leyes de la estática y de la hidrostática, pero extendió sus mediciones a los objetos en movimiento, a los objetos que ruedan por los planos inclinados, a las bolas que se dejan caer desde una torre, a las cuerdas de laúd, tensadas por pesos, que oscilaban de un lado a otro en el taller de su padre. La obra de Galileo incluía en sí la de Arquímedes, pero explicaba mucho más. Hasta explicaba las características de la superficie de la Luna y de las lunas de Júpiter. Galileo no tornó al asalto a Arquímedes. Lo englobó. Si hemos de representar gráficamente su obra, sería algo parecido a esto:
Newton llegó mucho más lejos que Galileo. Al añadir la causación, pudo examinar el sistema solar y las mareas diurnas. La síntesis de Newton incluyó nuevas mediciones del movimiento de los planetas y de sus lunas. Nada había en la revolución newtoniana que arrojase duda alguna sobre las contribuciones de Galileo o Arquímedes, pero extendió las regiones del universo que quedaban sujetas a esa gran síntesis.
En los siglos XVIII y XIX, los científicos empezaron a estudiar un fenómeno que estaba más allá de la experiencia humana normal. Excepción hecha de los amedrentadores relámpagos, si se quería estudiar un fenómeno eléctrico había que prepararlo (lo mismo que algunas partículas han de ser «fabricadas» en los aceleradores). La electricidad era entonces tan exótica como los quarks hoy. Lentamente, las corrientes y los voltajes, los campos eléctricos y magnéticos fueron siendo conocidos e incluso controlados. James Maxwell extendió y codificó las leyes de la electricidad y del magnetismo. A medida que Maxwell, y luego Heinrich Hertz, y luego Guglielmo Marconi, y luego Charles Steinmetz, y luego muchos otros dieron utilidad a esas ideas, el entorno humano fue cambiando. La electricidad nos rodea, las comunicaciones vibran en el aire que respiramos. Pero el respeto de Maxwell por todos los que le precedieron no tenía quiebras.
¿Había algo más allá de Maxwell y Newton o no? Einstein centró su atención en el borde del universo newtoniano. Sus ideas conceptuales fueron más hondas; le preocuparon algunos aspectos de las suposiciones de Galileo y Newton y ocasionalmente le llevaron a especular con nuevas premisas. No obstante, el dominio de sus ` observaciones incluía cosas que se movían a velocidad considerable. Tales fenómenos eran considerados irrelevantes por los observadores anteriores al siglo XX, pero como los seres humanos examinaban los átomos, ideaban ingenios nucleares y empezaban a considerar los acontecimientos acaecidos en los primeros momentos de la existencia del universo, las observaciones de Einstein adquirieron relevancia.
La teoría de la gravedad de Einstein fue también más allá que la de Newton; abarcaba la dinámica del universo (Newton creía en un universo estático) y su expansión a partir de un cataclismo inicial. Pero cuando se dirigen las ecuaciones de Einstein al universo newtoniano, dan resultados newtonianos.
Pues ya tenemos todo el pastel, ¿no? ¡No!
Todavía teníamos que mirar en el átomo, y cuando lo hicimos, nos hicieron falta concep-tos que iban mucho más allá de Newton (y que fueron inaceptables para Einstein), que extendieron el mundo hasta el átomo, el núcleo y, por lo que sabemos, aún más allá. (¿Dentro?) Nos hacía falta la física cuántica. Otra vez, nada había en la revolución cuántica que retirase a Arquímedes, pusiese en almoneda a Galileo, empalase a Newton o bajase de su pedestal a la relatividad de Einstein. En vez de eso, se había vislumbrado un nuevo dominio, se habían encontrado nuevos fenómenos. Se vio que la ciencia de Newton era inadecuada, y al llegar el momento se descubrió una nueva síntesis.
Recordad que en el capítulo 5 dijimos que la ecuación de Schrödinger se creó para los electrones y otras partículas, pero que al aplicarla a las pelotas de béisbol y a otros objetos grandes se transforma ante nuestros ojos en la F = ma de Newton, o casi. La ecuación de Dirac, la que predijo la antimateria, fue un «refinamiento» de la ecuación de Schrödinger, concebida para tratar los electrones «rápidos» que se muevan a una fracción considerable de la velocidad de la luz. Sin embargo, cuando la ecuación de Dirac se aplica a los electrones que se mueven despacio, sale… la ecuación de Schrödinger, sólo que mágicamente revisada de forma que incluye el espín del electrón. Pero ¿arrumbar a Newton? En absoluto.
Si esta marcha del progreso suena maravillosamente eficiente, merece la pena señalar que genera también una buena cantidad de desechos. Cuando abrimos nuevas áreas a la observación con nuestras invenciones y nuestra indomable curiosidad (y cantidad de ayudas federales a la investigación), los datos suelen dar lugar a una cornucopia de ideas, teorías y sugerencias, la mayor parte de las cuales son erróneas. En el duelo por el control de la frontera hay, por lo que se refiere a los conceptos, sólo un ganador. Los perdedores se desvanecen en la ceniza de las notas a pie de página de la historia.
¿Cómo ocurre una revolución? Durante cualquier periodo de tranquilidad intelectual, como el que hubo a finales del siglo XIX, siempre existe un conjunto de fenómenos que «no se han explicado todavía». Los científicos experimentales tienen la esperanza de que sus observaciones maten la teoría reinante; entonces una teoría mejor tomará su lugar y se crearán nuevas reputaciones. Lo más corriente es que las mediciones sean erróneas o que un uso inteligente de la teoría explique los datos. Pero no siempre es así. Como hay siempre tres posibilidades —1) los datos son erróneos, 2) la teoría vieja aguanta, y 3) hace falta una teoría nueva—, el experimento hace de la ciencia un oficio vivo.
Una revolución extiende el dominio de la ciencia, y puede que influya además profunda-mente en nuestra concepción del mundo. Un ejemplo: Newton creó no sólo la ley universal de la gravitación, sino también una filosofía determinista que hizo que los teólogos le diesen a Dios un papel nuevo. Las reglas newtonianas establecieron las ecuaciones matemáticas que determinaban el futuro de cualquier sistema si se conocían las condiciones iniciales. Por el contrario, la física cuántica, aplicable al mundo atómico, suaviza la concepción determinista y permite a los sucesos atómicos individuales los placeres de la incertidumbre. En realidad, los desarrollos posteriores indican que incluso fuera del mundo subatómico el orden determinista newtoniano es una idealización excesiva. Las complejidades que componen el mundo macroscópico prevalecen hasta tal punto en muchos sistemas, que el cambio más insignificante en las condiciones iniciales produce cambios enormes en el resultado. Sistemas tan simples como el agua que fluye por una cuesta abajo o un par de péndulos oscilantes exhibirán un comportamiento «caótico». La ciencia de la dinámica no lineal, o «caos», nos dice que el mundo real no es tan determinista como antes se pensaba.
Lo que no quiere decir que la ciencia y las religiones orientales hayan descubierto de pronto que tienen mucho en común. En cualquier caso, si las metáforas religiosas ofrecidas por los autores de los textos que comparan la nueva física con el misticismo oriental os ayudan, de una forma u otra, a apreciar las revoluciones modernas de la física, entonces no dudéis en usarlas. Pero las metáforas sólo son metáforas. Son mapas burdos. Y tomando prestado un viejo dicho: no confundáis nunca el mapa con el territorio. La física no es una religión. Si lo fuese, nos sería mucho más fácil conseguir dinero.
En busca, aún, del átomo: químicos y electricistas
El científico no desafía al universo. Lo acepta. El universo es el plato que saborea, el reino que explora; es su aventura y su delicia inagotable, es complaciente y huidizo, nunca obtuso; es maravilloso en lo grande y en lo pequeño. En pocas palabras, explorar el universo es la más alta ocupación para un caballero.
I. I. RASI
Hay que admitirlo: los físicos no han sido los únicos que han ido tras el átomo de Demócrito. Los Químicos han puesto sus hitos en el camino, sobre todo durante la larga era (de 1600 a 1900 aproximadamente) que vio el desarrollo de la física clásica. La diferencia entre los químicos y los físicos no es en realidad insuperable. Yo empecé como químico, pero me pasé a la física, en parte porque era más fácil. Desde entonces he observado con frecuencia que algunos de mis mejores amigos les dirigen la palabra a los químicos.
Los químicos hicieron algo que no habían hecho los físicos que los antecedieron: realizaron experimentos relativos a los átomos. Galileo, Newton et al., a pesar de sus considerables logros experimentales, trataron de los átomos de una forma puramente teórica. No es que fueran vagos; carecían del equipo necesario. Tocó a los químicos efectuar los primeros experimentos que manifestaron la presencia de los átomos. En este capítulo le prestaremos atención a la abundancia de pruebas experimentales que apoyaron la existencia del á-tomo de Demócrito. Veremos muchos arranques en falso, algunos despistes y resultados mal interpretados, la cruz siempre del experimentador.
El hombre que descubrió veinticuatro centímetros de nada
Antes de que hablemos de los químicos propiamente dichos hemos de mencionar a un científico, Evangelista Torricelli (1608-1647), que tendió un puente entre la mecánica y los químicos en un intento por restaurar el atomismo como concepto científico válido. Por repetir, Demócrito dijo: «Aparte de átomos y espacio vacío, nada existe; lo demás es opinión». Por lo tanto, para probar la validez del atomismo, hacen falta los átomos, pero también el espacio vacío entre ellos. Aristóteles se opuso a la mera idea del vacío, e incluso durante el Renacimiento la Iglesia siguió insistiendo en que «la naturaleza aborrece el vacío».
Ahí es donde Torricelli hace acto de presencia. En los últimos tiempos de Galileo, fue uno de sus discípulos, y en 1642 el maestro le encomendó un problema. Los poceros florentinos habían observado que en las bombas de succión el agua no subía más de diez metros. ¿Por qué? La hipótesis inicial, avanzada por Galileo y otros, consistía en que el vacío era una «fuerza» y que el vacío parcial producido por las bombas impulsaba el agua hacia arriba. Estaba claro que Galileo no quería molestarse personalmente en investigar el problema de los poceros, así que delegó en Torricelli.
Torricelli se figuró que el vacío no tiraba del agua en absoluto, sino que era más bien empujada hacia arriba por la presión normal del aire. Cuando la bomba hace que la presión del aire sobre la columna de agua disminuya, el aire normal que está fuera de la bomba aprieta con más fuerza al agua del fondo, con lo que se obliga al agua de la cañería a subir. Torricelli puso a prueba está teoría el año después de que Galileo muriera. Razonó que, como el mercurio es 13,5 veces más denso que el agua, el aire sólo podría elevar el mercurio a 1/13,5 veces la altura a la que elevaba el agua —unos 760 milímetros—. Torricelli consiguió un tubo de cristal grueso de alrededor de un metro de largo cerrado por el fondo y abierto por arriba, e hizo un experimento sencillo. Rellenó el tubo de mercurio hasta el borde, cubrió la abertura superior con un tapón, puso el tubo cabeza abajo, lo colocó en un recipiente con mercurio y sacó el tapón. Un poco de mercurio salió del tubo y se derramó en la vasija. Pero, como Torricelli había predicho, quedaron 760 milímetros de mercurio en el tubo.
Se suele describir este acontecimiento trascendente de la historia de la física diciendo que se trató del invento del primer barómetro, y desde luego así fue. Torricelli observó que la altura del mercurio variaba de día en día; estaba midiendo las fluctuaciones de la presión atmosférica. Para nuestros propósitos, sin embargo, significó algo más importante. Olvidémonos de los 760 milímetros de mercurio que llenan la mayor parte del tubo. Esos extraños 240 milímetros que quedan arriba son los que nos importan. Esos pocos centímetros en la parte de arriba del tubo —el extremo cerrado— no contienen nada. Nada, realmente. Ni mercurio, ni aire, nada. O mejor dicho, casi nada. Es un vacío bastante bueno, pero contiene un poco de vapor de mercurio, en una cantidad que depende de la temperatura. El vacío es de unos 10—6 torr. (Un torr, nombre que viene del de Evangelista, es una medida de presión; 10—6 torr viene a ser alrededor de una mil millonésima de la presión atmosférica normal.) Las bombas modernas pueden llegar a 10—11 torr y menos. En cualquier caso, Torricelli había logrado el primer vacío de alta calidad creado artificialmente. No había manera de escapar de esta conclusión. Puede que la naturaleza aborrezca el vacío o puede que no, pero no le queda más remedio que pechar con él. Ahora que hemos probado la existencia del espacio vacío, nos hacen falta unos átomos para ponerlos en él.
La compresión del gas
Entra Robert Boyle. A este químico irlandés (1627-1691) le criticaron sus compañeros. Porque pensaba demasiado como un físico y muy poco como un químico, pero esta claro que sus hallazgos pertenecen más que nada al dominio de la química. Fue un experimentador cuyos experimentos se quedaban a menudo en nada, pero contribuyó a que la idea del atomismo avanzase en Inglaterra y en el continente. Se le ha llamado a veces «el padre de la química y el tío del conde de Cork».
Influido por el trabajo de Torricelli, Boyle se apasionó por los vacíos. Contrató a Robert Hooke, el mismo Hooke que tanto quería a Newton, para que le construyese una bomba de aire mejor. La bomba de aire inspiró un interés por los gases, Boyle se dio pronto cuenta de que éstos eran una de las claves del atomismo Puede que le ayudase en esto un poco Hooke, quien señaló que la presión que un gas ejerce sobre las paredes de su recipiente —como el aire que tensa la superficie de un globo-podría tener su causa en el movimiento agitado de los átomos. No vernos que los átomos del globo marquen bultos en éste porque hay miríadas de ellos, lo que produce la impresión de un empuje hacia afuera regular.
Como en el experimento de Torricelli, en los de Boyle intervenía el mercurio. Sellaba el cabo del lado corto de un tubo de cinco metros en forma de «J», y vertía mercurio por la boca del lado largo hasta cegar la curva de la «J». Seguía añadiendo mercurio; cuanto más echaba, menos espacio le quedaba al aire atrapado en el extremo corto. En consecuencia, la presión del aire crecía en el volumen cada vez menor, como podía medir fácilmente por la altura adicional del mercurio en la rama abierta del tubo. Boyle descubrió que el volumen del gas variaba inversamente con la presión sobre él. La presión del gas atrapado en el lado corto se debe a la suma del peso adicional del mercurio más la atmósfera, que, en el cabo abierto, aprieta hacia abajo. Si al añadir el mercurio la presión se duplicaba, el volumen del aire se reducía a la mitad. Si la presión se triplicaba, el volumen se quedaba en la tercera parte, y así sucesivamente. A este fenómeno vino a llamársele ley de Boyle, una de las piedras angulares de la química hasta hoy.
Más importancia tiene una derivación sorprendente de este experimento: el aire, o cualquier gas, puede comprimirse. Una forma de explicarlo es pensar que el gas se compone de partículas separadas por espacio vacío. Bajo presión, las partículas se acercan. ¿Prueba esto que el átomo existe? Por desgracia, cabe imaginar otras explicaciones, y el experimento de Boyle sólo proporcionó pruebas observacionales compatibles con el atomismo. Estas pruebas, eso sí, eran lo bastante fuertes para que contribuyesen a convencer, entre otros, a Isaac Newton de que la teoría atómica de la naturaleza era el camino que debía seguirse. El experimento de la compresión de Boyle puso, como muy poco, en entredicho el supuesto aristotélico de que la materia era continua. Quedaba el problema de los líquidos y los sólidos, a los que no podía comprimirse con la misma facilidad que a los gases. Esto no quería decir que no estuviesen compuestos por átomos, sino, sólo, que tenían dentro menos espacio vacío.
Boyle fue un campeón de la experimentación; ésta, pese a las hazañas de Galileo y de otros, seguía siendo vista con suspicacia en el siglo XVII. Boyle mantuvo un largo debate con Baruch Spinoza, el filósofo (y fabricante de lentes) holandés, acerca de si el experimento podía proporcionar demostraciones. Para Spinoza sólo el pensamiento lógico podía valer como demostración; el experimento era simplemente un instrumento en la tarea de confirmar o refutar una idea. Científicos tan grandes como Huygens y Leibniz también ponían en duda el valor de los experimentos. Los experimentadores siempre hemos tenido la batalla cuesta arriba.
Los esfuerzos de Boyle por probar la existencia de los átomos (prefería la palabra «corpúsculos») hicieron que la ciencia de la química, por entonces sumida en cierta confusión, progresase. La creencia prevaleciente entonces era la vieja idea de los elementos, que se remontaba al aire, tierra, fuego y agua de Empédocles y que se había ido modificando a lo largo de los años para incluir la sal, el azufre, el mercurio, el flegma (¿flegma?), el aceite, el espíritu (de las bebidas espirituosas), el ácido y el álcali. A la altura del siglo XVII, estas no eran sólo las sustancias más simples que, según la teoría dominante, constituían la materia; se creía que eran los ingredientes esenciales de todo. Se esperaba que el ácido, por poner un ejemplo, estuviera presente en todos los compuestos. ¡Qué confusos tenían que estar los químicos! Con estos criterios, debía ser imposible analizar hasta las reacciones químicas más simples. Los corpúsculos de Boyle les llevaron a un método más reduccionista, y más simple, de analizar los compuestos.
El juego de los nombres
Uno de los problemas a los que se enfrentaron los químicos en los siglos XVII y XVIII era que los nombres que se habían dado a una variedad de sustancias químicas carecían de sentido. Antoine-Laurent Lavoisier (1743-1794) hizo que todo cambiara en 1787 con su obra clásica, Méthode de Nomenclature Chimique. A Lavoisier se le podría llamar el Isaac Newton de la química. (Quizá los químicos llamen a Newton el Lavoisier de la física.)
Fue un personaje asombroso. Competente geólogo, Lavoisier fue también pionero de la agricul-tura científica, financiero capaz y reformador social que hizo lo suyo por promover la Revolución francesa. Estableció un nuevo sistema de pesos y medidas que condujo al sistema métrico decimal, en uso hoy en las naciones civilizadas. (En los años noventa, los Estados Unidos, por no quedarse demasiado rezagados, se van acercando poco a poco al sistema métrico.)
El siglo anterior había producido una montaña de datos, pero en ellos reinaba una desorganiza-ción desesperante. Los nombres de las sustancias —pompholix, colcótar, mantequilla de arsénico, flores de zinc, oropimente, etíope marcial— eran llamativos, pero no indicaban que hubiese detrás orden alguno. Uno de sus mentores le dijo a Lavoisier: «El arte de razonar no es más que un lenguaje bien dispuesto», y Lavoisier hizo suya esta idea. El francés acabaría por asumir la tarea de reordenar la química y darle nuevos nombres. Cambió el etíope marcial por óxido de hierro; el oropimente se convirtió en el sulfuro arsénico.
Los distintos prefijos como «ox» y «sulf», y sufijos, como «uro» y «oso», sirvieron para organizar y catalogar los nombres incontables de los compuestos. ¿Qué importancia tiene un nombre? ¿Habría conseguido Archibald Leach tantos papeles en las películas si no hubiese cambiado el suyo y adoptado el de Cary Grant?
No fue tan sencillo en absoluto para Lavoisier. Antes de revisar la nomenclatura hubo de revisar la teoría química misma. Las mayores contribuciones de Lavoisier se refirieron a la naturaleza de los gases y la combustión. Los químicos del siglo XVIII creían que, si se calentaba agua, se transmutaba en aire; de este creían que era el único gas auténtico. Gracias a los estudios de Lavoisier se cayó por primera vez en la cuenta de que todo elemento puede existir en tres estados: sólido, líquido y «vapor». Determinó, además, que el acto de la combustión era una reacción química en la que ciertas sustancias, el carbono, el azufre, el fósforo, ve combinaban con el oxígeno. Arrumbó la teoría del flogisto, que era un obstáculo aristotélico para el verdadero conocimiento de las reacciones químicas. Aún más, el estilo investigador de Lavoisier —basado en la precisión, la técnica experimental más cuidadosa y el análisis crítico de los datos reunidos puso a la química en sus derroteros modernos. Si bien la contribución directa de Lavoisier al atomismo fue de orden menor, sin los fundamentos establecidos por su obra no habrían podido descubrir los científicos del siglo siguiente la primera prueba directa de la existencia de los átomos.
El pelícano y el globo
A Lavoisier le fascinaba el agua. Por aquella época, muchos científicos aún estaban convencidos de que era un elemento básico, que no se podía descomponer en elementos menores. Algunos creían además en la transmutación, y pensaban que el agua se podía transmutar en tierra, entre otras cosas. Había experimentos que lo respaldaban. Si se pone a hervir un cacharro con agua el suficiente tiempo, acabará por formarse un residuo sólido en la superficie. Se trata de agua transmutada en otro elemento, decían esos científicos. Incluso el gran Robert Boyle creía en la transmutación. Había hecho experimentos donde se demostraba que las plantas crecían al absorber agua. Por lo tanto, el agua se transformaba en tallos, hojas, flores y demás. Os daréis cuenta de por qué tantos desconfiaban de los experimentos. Conclusiones así bastan para que uno empiece a estar de acuerdo con Spinoza.
Lavoisier vio que el fallo de esos experimentos se encontraba en la medición. Realizó su propio experimento. Hirvió agua destilada en una vasija especial, a la que se daba el nombre de «pelícano». El pelícano estaba diseñado de manera que el vapor de agua que se producía al bullir el agua quedase atrapado y se condensara en una cabeza esférica, de la que retornaba a la vasija de ebullición a través de dos tubos con forma de asa. De esta manera no se perdía agua. Lavoisier pesó cuidadosamente el pelícano y el agua destilada, y puso a hervir el agua durante 101 días. El largo experimento produjo una cantidad apreciable de residuo sólido. Lavoisier pesó entonces cada elemento: el pelícano, el agua y el residuo. El agua pesaba exactamente lo mismo tras 101 días de ebullición; algo dice esto de lo meticulosa que era la técnica de Lavoisier. El pelícano sin embargo, pesaba un poco menos. El peso del residuo era igual al perdido por el recipiente. Por lo tanto, el residuo del agua en ebullición no era agua transmutada, sino vidrio disuelto, sílice, del pelícano. Lavoisier había demostrado que la experimentación, sin mediciones precisas, no vale para nada e incluso induce a error. La balanza química de Lavoisier era su violín; lo tocaba para revolucionar la química.
Esto por lo que se refiere a la transmutación. Pero muchos, Lavoisier incluido, creían aún que el agua era un elemento básico. Lavoisier acabó con esa ilusión al inventar un aparato que tenía dos pitones. La idea era inyectar un gas diferente por cada uno, con la esperanza de que se combinasen y se formara una tercera sustancia. Un día decidió trabajar con oxígeno e hidrógeno; creía que con ellos formaría algún tipo de ácido. Pero lo que le salió fue agua. Dijo que era «pura como el agua destilada». ¿Por qué no? La producía a partir de sus componentes básicos. Obviamente, el agua no era un elemento, sino una sustancia que se podía fabricar con dos partes de hidrógeno y una de oxígeno.
En 1783 ocurrió un acontecimiento histórico que contribuiría indirectamente al progreso de la química. Los hermanos Montgolfier efectuaron las primeras exhibiciones de vuelos tripulados de globos de aire caliente. Poco después, J. A. C. Charles, nada menos que profesor de física, se elevó a la altura de tres mil metros en un globo relleno de hidrógeno. Lavoisier quedó impresionado; vio en esos globos la posibilidad de subir por encima de las nubes para estudiar los fenómenos atmosféricos. Poco después se le nombró miembro de un comité que había de buscar métodos baratos para la producción del gas de los globos. Lavoisier puso en pie una operación a gran escala con el objetivo de producir hidrógeno mediante la descomposición del agua en sus partes constituyentes; para ello la colaba a través de un tubo de cañón relleno de anillas de hierro calientes.
En ese momento, nadie con un poco de sentido creía aún que el agua fuese un elemento. Pero Lavoisier se llevó una sorpresa mayor. Descomponía agua en grandes cantidades, y siempre le salían los mismos números. El agua producía unos pesos de oxígeno e hidrógeno en una razón que era siempre de ocho a uno.
Estaba claro que actuaba algún tipo de mecanismo muy bien definido, un mecanismo que podría explicarse mediante un argumento basado en los átomos. Lavoisier no le dio muchas vueltas al atomismo; se limitó a decir que en la química actuaban partículas indivisibles simples de las que no sabíamos mucho. Claro, nunca tuvo la oportunidad de retirarse a escribir sus memorias, donde podría haber reflexionado más sobre los átomos. Temprano partidario de la revolución, Lavoisier cayó en desgracia durante el reino del terror, y fue enviado a la guillotina en 1794, a los cincuenta años de edad.
El día siguiente a la ejecución de Lavoisier, el geómetra Joseph Louis Lagrange resumió la tragedia: «Hizo falta sólo un instante para cortar esa cabeza, y harán falta cien años para que salga otra igual».
De vuelta al átomo
Una generación después, un modesto maestro de escuela inglés, John Dalton (1766-1844), investigó las consecuencias de la obra de Lavoisier. En Dalton encontramos por fin la imagen del científico de una serie de televisión. Parece que llevó una vida privada absolutamente carente de acontecimientos. Nunca se casó; decía que «mi cabeza está demasiado llena de triángulos, procesos químicos y experimentos eléctricos, etcétera, para pensar demasiado en el matrimonio». Para el, un gran día consistía en dar una vuelta y puede que asistir a una reunión cuáquera.
En un principio, Dalton era un humilde maestro de un internado, donde llenaba sus horas libres leyendo las obras de Newton y de Boyle. Se tiró diez años en cale trabajo, hasta que pasó a ocupar un puesto de profesor de matemáticas en un college de Manchester. Cuando llegó, se le informó de que también tendría que enseñar química. ¡Se quejaba porque tenía que dar veintiuna horas de clase por Semana! En 1800 abandonó este trabajo para abrir su propia academia, lo que le dio tiempo para dedicarse a sus investigaciones químicas. Hasta que no hizo pública su teoría de la materia a poco de empezar el nuevo siglo (entre 1803 y 1808), se le consideraba en la comunidad científica poco más que un aficionado. Que sepamos, Dalton fue el primero en resucitar la palabra democritiana átomo para referirse a las minúsculas partículas invisibles que constituyen la materia. Había una diferencia, sin embargo. Recordad que Demócrito decía que los átomos de sustancias diferentes tenían diferentes formas. En el sistema de Dalton, el papel decisivo lo desempeñaba el peso.
La teoría atómica de Dalton fue su mayor contribución. Estuviera ya «en el aire» (lo estaba), fuese excesivo el mérito que la historia le atribuye a Dalton (como dicen algunos historiadores), nadie pone en duda el efecto tremendo que la teoría atómica tuvo en la química, disciplina que pronto iba a convertirse en una de las ciencias cuya influencia llegaría a más partes. Que la primera «prueba» experimental de la realidad de los átomos viniese de la química es muy apropiado. Recordad la pasión de los antiguos griegos: ver una «arche» inmutable en un mundo donde el cambio lo es todo. El á-tomo resolvió la crisis. Mediante la reordenación de los átomos se puede crear todo el cambio que se quiera, pero el pilar de nuestra existencia, el á-tomo, es inmutable. En química, un número de átomos hasta cierto punto pequeño da un enorme espacio para elegir, por las combinaciones posibles a que da lugar: el átomo de carbono con un átomo de oxígeno o dos, el hidrógeno con el oxígeno, el cloro o el azufre, y así sucesivamente. Pero los átomos de hidrógeno siempre son hidrógeno: idénticos unos a otros, inmutables. ¡Pero adónde vamos, que se nos olvida nuestro héroe Dalton!
Dalton, al observar que las propiedades de los gases se podían explicar mejor partiendo de la existencia de los átomos, aplicó esta idea a las reacciones químicas. Se percató de que un compuesto químico siempre contiene los mismos pesos de sus elementos constituyentes. Por ejemplo, el carbono y el oxígeno se combinan y forman monóxido de carbono (CO). Para hacer CO, siempre se necesitan 12 gramos de carbono y 16 gramos de oxígeno, o 12 libras y 16. Sea cual sea la unidad que se emplee, la proporción siempre ha de ser 12 a 16. ¿Cuál puede ser la explicación? Si un átomo de carbono pesa 12 unidades y un átomo de oxígeno pesa 16 unidades, los pesos macroscópicos del carbono y del oxígeno que desaparecen para generar el CO tendrán siempre la misma proporción. Esto solo no sería más que un argumento débil a favor de los átomos. Sin embargo, cuando se hacen compuestos de hidrógeno-oxígeno y de hidrógeno-carbono, los pesos relativos del hidrógeno, del carbono y del oxígeno son siempre 1, 12 y 16. Uno empieza a quedarse sin otras explicaciones. Cuando se aplica el mismo razonamiento a docenas y docenas de compuestos, los átomos son la única conclusión sensata.
Dalton revolucionó la ciencia al declarar que el átomo es la unidad básica de los elementos químicos y que cada átomo químico tiene su propio peso. En sus propias palabras, escritas en 1808:
Hay tres distinciones en los tipos de cuerpos, o tres estados, que han llamado más específicamente la atención de los químicos filosóficos; a saber, los que marcan las expresiones «fluidos elásticos», «líquidos» y «sólidos». Un caso muy famoso es el que se nos exhibe en el agua, el de un cuerpo que, en ciertas circunstancias, es capaz de tomar los tres estados. En el vapor reconocemos un fluido perfectamente elástico, en el agua un líquido perfecto y en el hielo un sólido completo. Estas observaciones han conducido, tácitamente, a la conclusión, que parece universalmente adoptada, de que todos los cuerpos de una magnitud sensible, sean líquidos o sólidos, están constituidos por un vasto número de partículas sumamente pequeñas, o átomos de materia a los que mantiene unidos una fuerza de atracción, que es más o menos poderosa según las circunstancias…
Los análisis y síntesis químicos no van más allá de organizar la separación de unas partículas de las otras y su reunión. Ni la creación de nueva materia ni su destrucción están al alcance de la acción química. Podríamos lo mismo intentar que hubiera un nuevo planeta en el sistema solar, o aniquilar uno ya existente, que crear o destruir una partícula de hidrógeno. Todos los cambios que podemos producir consisten en separar las partículas que están en un estado de cohesión o combinación, y juntar las que previamente se hallaban a distancia.
Es interesante el contraste entre los estilos científicos de Lavoisier y Dalton. Lavoisier fue un medidor meticuloso. Insistía en la precisión, y ello rindió el fruto de una reestructuración monumental de la metodología química. Dalton se equivocó en muchas cosas. Como peso relativo del oxígeno respecto al hidrógeno, usó 7 en vez de 8. La composición que les suponía al agua y al amoniaco era errónea. Pero hizo uno de los descubrimientos científicos más profundos de la época: tras unos 2.200 años de cábalas y vagas hipótesis, Dalton estableció la realidad de los átomos. Presentó una concepción nueva que, «si quedase establecida, como no dudo que ocurrirá con el tiempo, se producirán los más importantes cambios en el sistema de la química y se reducirá en conjunto a una ciencia de gran simplicidad». Sus aparatos no eran microscopios poderosos ni aceleradores de partículas, sino unos cuantos tubos de ensayo, una balanza química, la literatura química de su época y la inspiración creadora.
Lo que Dalton llamaba átono no era, ciertamente, el á-tomo que imaginaba Demócrito. Ahora sabernos que un átomo de oxígeno, por ejemplo, no es indivisible. Tiene una subestructura compleja. Pero el nombre siguió usándose: a lo que hoy llamamos átomo es al átomo de Dalton. Es un átomo químico, una unidad simple de elemento químico, como el hidrógeno, el oxígeno, el carbono o el uranio.
Titular del Royal Enquirer en 1815:
QUÍMICO HALLA LA PARTÍCULA ÚLTIMA,
ABANDONA LA BOA CONSTRICTOR Y LA ORINA
De ciento en ciento aparece un científico que hace una observación tan simple y elegante que tiene que ser cierta, una observación que parece resolver, de un plumazo, problemas que han atormentado a la ciencia durante siglos. De millar en millar resulta que el científico tenga razón.
Todo lo que cabe decir de William Prout es que le faltó muy poco. Prout propuso una de las grandes conjeturas «casi correctas» de su siglo. Fue rechazada por razones equivocadas y por el caprichoso dedo del destino. Alrededor de 1815, este químico inglés pensó que había hallado la partícula de la que estaba hecha toda la materia. Se trataba del átomo de hidrógeno.
Para ser justos, era una idea profunda, elegante, si bien «ligeramente» equivocada. Prout hacía lo que hace un buen científico: buscar la simplicidad, en la tradición griega. Buscaba un denominador común entre los veinticinco elementos químicos que se conocían en ese tiempo. Francamente, Prout estaba un poco fuera de su campo. Para los contemporáneos, su principal logro era haber escrito el libro definitivo sobre la orina. Realizó también amplios experimentos sobre el excremento de la boa constrictor. Cómo pudo esto conducirle al atomismo, no me molesto en intentar imaginármelo.
Prout sabía que el hidrógeno, con un peso atómico de 1, era el más ligero de todos los elementos conocidos. Quizá, decía Prout, el hidrógeno es la «materia primaria», y todos los demás elementos son, simplemente, combinaciones de hidrógenos. En el espíritu de los antiguos, llamó a su quintaesencia «protyle». Su idea tenía mucho sentido: los pesos atómicos de los elementos eran casi enteros, múltiplos del peso del hidrógeno. Así era porque, entonces, los pesos relativos se caracterizaban por su inexactitud. A medida que la precisión de los pesos atómicos mejoró, la hipótesis de Prout quedó aplastada (por una razón equivocada). Se halló, por ejemplo, que el cloro tenía un peso relativo de 35,5. Esto aventó la idea de Prout: no se puede tener medio átomo. Ahora sabemos que el cloro natural es una mezcla de dos variedades o isótopos. Uno tiene 35 «hidrógenos» y el otro 37. Esos «hidrógenos» son en realidad neutrones y protones, que tienen casi la misma masa.
Prout había adivinado, en realidad, la existencia del nucleón (una de las dos partículas, el protón o el neutrón, que constituyen los núcleos) como ladrillo que construye los átomos. Prout se apuntó un tanto buenísimo. La voluntad de ir a por un sistema más simple que el conjunto de alrededor de veintisiete elementos estaba destinada a triunfar.
No en el siglo XIX, sin embargo.
Jugando a las cartas con los elementos
Este viaje de placer, con la lengua fuera, a lo largo de doscientos años de química termina aquí con Dmitri Mendeleev (1834-1907), el químico siberiano a quien se debe la tabla periódica de los elementos. La tabla fue un paso adelante enorme en lo que se refería a la clasificación, y al mismo tiempo hizo que la búsqueda del átomo de Demócrito progresase.
Aun así, Mendeleev tuvo que soportar un montón de estupideces en su vida. Este hombre extraño —parece que sobrevivía con una dieta que se basaba en la leche agria (comprobaba alguna manía médica)— sufrió a causa de su tabla muchas burlas de parte de sus colegas. Fue además un gran defensor de sus alumnos de la Universidad de San Petersburgo, y cuando estuvo con ellos durante una protesta hacia el final de su vida, la administración le echó.
Sin alumnos, quizá no habría construido nunca la tabla periódica. Cuando se le nombró para la cátedra de química en 1867, Mendeleev no pudo encontrar un texto aceptable para sus clases, así que se puso a escribir uno. Mendeleev veía a la química como «la ciencia de la masa» —otra vez esa preocupación por la masa—, y en su libro propuso la sencilla idea de colocar los elementos conocidos según el orden de sus pesos atómicos.
Para ello jugó a las cartas. Escribió los símbolos de los elementos con sus pesos atómicos y diversas propiedades (por ejemplo, sodio: metal activo; argón: gas inerte) en tarjetas distintas. Mendeleev disfrutaba jugando a paciencia, un tipo de solitario. Jugó, pues, a paciencia con esa baraja de elementos que había hecho, dispuestas las cartas en orden creciente de pesos. Descubrió una cierta periodicidad. Cada ocho cartas, reaparecían en los correspondientes elementos propiedades químicas parecidas; por ejemplo, el litio, el sodio y el potasio eran metales activos químicamente, y sus posiciones la 3, la 11 y la 19. Similarmente, el hidrógeno (1), el flúor (9) y el cloro (17) son gases activos. Reordenó las cartas de forma que hubiera ocho columnas verticales, y tales que en cada una de ellas los elementos tuvieran propiedades similares.
Mendeleev hizo algo más, y no fue ortodoxo. No se sentía obligado a llenar todos los huecos de su rejilla de cartas. Como en un solitario, sabía que algunas cartas estaban ocultas todavía en el mazo. Quería que la tabla tuviese sentido leída no sólo fila a fila, a lo ancho, sino por las columnas hacia abajo. Si un hueco requería un elemento con unas propiedades particulares y ese elemento no existía, lo dejaba en blanco en vez de forzar un elemento existente en él. Hasta le puso nombre a los espacios vacíos. Utilizó el prefijo «eka», que en sánscrito significa «uno». Por ejemplo, el eka-aluminio y el eka-silicio eran los huecos que quedaban en las columnas verticales bajo el aluminio y el silicio, respectivamente.
Esos huecos en la tabla fueron una de las razones por las que Mendeleev recibió tantas burlas. Pero cinco años después, en 1875, se descubrió el galio y resultó que era el eka-aluminio, con todas las propiedades predichas por la tabla periódica. En 1886 se descubrió el germanio, y resultó ser el eka-silicio. Y el juego del solitario químico resultó no ser una chaladura tan grande.
Que los químicos hubieran conseguido ya una precisión mayor en la medición de los pesos atómicos de los elementos fue uno de los factores que hicieron posible la tabla de Mendeleev. El propio Mendeleev había corregido los pesos atómicos de varios elementos, y no es que ganase con ello muchos amigos entre los científicos importantes cuyas cifras había revisado.
Hasta que en el siglo siguiente no se descubrieron el núcleo y el átomo cuántico, nadie supo por qué aparecían esas regularidades en la tabla periódica. En realidad, el efecto que inicialmente tuvo la tabla periódica fue el de desanimar a los científicos. Había cincuenta sustancias o más llamadas «elementos», los ingredientes básicos del universo que, presumiblemente, no se podían subdividir más; es decir, más de cincuenta «átomos» diferentes, y el número pronto se inflaría hasta mas de noventa, lo que caía muy lejos de un ladrillo último. A finales del siglo pasado, los científicos debían de tirarse de los pelos cuando le echaban un vistazo o la tabla periódica. ¿Dónde estaba la sencilla unidad que buscábamos desde hacía más de dos mil años? Sin embargo, el orden que Mendeleev halló en ese caos apuntaba hacia una simplicidad más profunda. Retrospectivamente, se ve que la organización y las regularidades de la tabla periódica pedían a gritos un átomo dotado de una estructura que se repitiese periódicamente. Los químicos, sin embargo, no estaban dispuestos a abandonar la idea de que los átomos químicos —el hidrógeno, el oxígeno y los demás— eran indivisibles. El problema se atacó más fructíferamente desde otro ángulo.
Pero no hay que culpar a Mendeleev de la complejidad de la tabla periódica. Se limitó a organizar la confusión lo mejor que pudo, e hizo lo que los buenos científicos hacen: buscar el orden en medio de la complejidad. En vida, sus colegas no llegaron a apreciarlo del todo, y no ganó el premio Nobel pese a que vivió unos cuantos años tras la institución del premio. A su muerte, en 1907, recibió, sin embargo, el mayor honor que le cabe a un maestro. Un grupo de estudiantes acompañó el cortejo fúnebre llevando en alto la tabla periódica. El legado de Mendeleev es la famosa carta de los elementos presente en cada laboratorio, en cada aula de bachillerato de cualquier lugar del mundo donde se enseñe química.
Al llegar al último estadio del oscilante desarrollo de la física clásica, le damos la espalda a la materia y a las partículas y volvemos otra vez a una fuerza. En este caso se trata de la electricidad. En el siglo XIX se consideraba que el estudio de la electricidad era casi una ciencia en sí mismo.
Era una fuerza misteriosa. Y a primera vista no parecía que ocurriera naturalmente, como no fuese en la amedrentadora forma del rayo. Los investigadores, pues, habían de hacer algo que no era «natural» para estudiar la electricidad.
Tenían que «fabricar» el fenómeno antes de analizarlo. Hemos acabado por descubrir que la electricidad está en todas partes; la materia entera es eléctrica por naturaleza. Recordadlo cuando lleguemos a la época moderna y hablemos de las partículas exóticas que «fabricamos» en los aceleradores. A la electricidad se la consideraba tan exótica en el siglo XIX como a los quarks hoy. Y hoy la electricidad nos rodea por todas partes; es sólo un ejemplo más de cómo alteramos los seres humanos nuestro propio entorno.
En ese periodo inicial hubo muchos héroes de la electricidad y del magnetismo; la mayor parte de ellos han dejado su nombre en las diversas unidades eléctricas: Charles Augustin Coulomb (la unidad de carga), André Ampère (la de corriente), Georg Ohm (la de resistencia), James Watt (la de energía eléctrica) y James Joule (la de energía). Luigi Galvani nos dio el galvanómetro, aparato que sirve para medir las corrientes, y Alessandro Volta el voltio (unida de potencial o fuerza electromotriz). Análogamente, C. F. Gauss, Hans Christian Oersted y W. E. Weber dejaron su huella y sus nombres en magnitudes eléctricas calculadas para sembrar el pánico y el odio en los futuros estudiantes de ingeniería. Sólo Benjamin Franklin se quedó sin darle su nombre a una unidad eléctrica, pese a sus importantes contribuciones. ¡Pobre Ben! Bueno, tiene la estufa Franklin y su efigie en los billetes de cien dólares. Observó que hay dos tipos de electricidad. Podría haberle llamado a una Joe y a la otra Moe, pero eligió los nombres de positiva (+) y negativa (-). Franklin denominó a la cantidad de electricidad de un objeto, negativa, por ejemplo, «carga eléctrica». Introdujo también el concepto de conservación de la carga: cuando se transfiere electricidad de un cuerpo a otro, la carga total debe sumar cero. Pero entre todos estos científicos los gigantes fueron dos ingleses, Michael Faraday y James Clerk Maxwell.
Ranas eléctricas
Nuestra historia empieza a finales del siglo XVIII, con la invención por Galvani de la batería, que luego mejoraría otro italiano, Volta. El estudio de los reflejos de las ranas por Galvani —colgó músculos de rana en la celosía exterior de su ventana y vio que durante las tormentas eléctricas sufrían convulsiones— demostró la existencia de la «electricidad animal». Este trabajo fue el estímulo de la obra de Volta y, además, de algo que luego vendría muy bien. Imaginaos a Henry Ford instalando un cajón con ranas en sus coches y estas instrucciones para el conductor: «Hay que dar de comer a las ranas cada veinticinco kilómetros». Volta descubrió que la electricidad de las ranas tenía que ver con que alguna grosería de la rana separase dos metales diferentes; las ranas de Galvani estaban colgadas de ganchos de latón en una celosía de hierro. Volta fue capaz de producir corrientes eléctricas sin las ranas; para ello probó con pares de metales distintos separados por piezas de cuero (que hacían el papel de las ranas) empapadas de salmuera. Enseguida creó una «pila» de placas de cinc y cobre, y observó que cuanto mayor era la pila, más corriente impulsaba a lo largo de un circuito externo. El electrómetro (fue Volta inventó para medir la corriente tuvo un papel decisivo en esta investigación, que arrojó dos resultados importantes: un instrumento de laboratorio que producía corrientes y el descubrimiento de que podía generarse electricidad mediante reacciones químicas.
Otro progreso importante fue la medición que efectuó Coulomb de la intensidad y la naturaleza de la fuerza eléctrica entre dos bolas cargadas. Para ello inventó la balanza de torsión, aparato sumamente sensible a las fuerzas minúsculas. La fuerza que estudió fue, claro, la electricidad. Con su balanza de torsión, Coulomb determinó que la fuerza entre las cargas eléctricas variaba con el inverso del cuadrado de la distancia entre ellas. Descubrió además que las cargas del mismo signo (+ + o — —) se repelían y que las cargas de signo distinto (+ —) se atraían. La ley de Coulomb, que da la F de las cargas eléctricas, desempeñará un papel fundamental en nuestro conocimiento del átomo.
En un auténtico frenesí de actividad, se emprendieron muchos experimentos acerca de los fenómenos, que al principio se creían separados, de la electricidad y el magnetismo. En el breve periodo de cincuenta años que va, aproximadamente, de 1820 a 1870 esos experimentos condujeron a una gran síntesis que dio lugar a la teoría unificada que englobaría no sólo la electricidad y el magnetismo, sino también la luz.
El secreto del enlace químico: otra vez las partículas
Buena parte de lo que, en un principio, se fue sabiendo de la electricidad salió de descubrimientos químicos, en concreto de lo que hoy llamamos electroquímica. La batería de Volta enseñó a los científicos que una corriente eléctrica puede fluir, a lo largo de un circuito, por un cable que vaya de un polo de la batería al otro. Cuando se interrumpe el circuito mediante la conexión de los cables a unas piezas metálicas sumergidas en un líquido, circula corriente por éste y, como se descubrió, esa corriente genera un proceso químico de descomposición. Si el líquido es agua, aparecerá gas hidrógeno cerca de una de las piezas metálicas, y oxígeno junto a la otra. La proporción de 2 partes de hidrógeno por 1 de oxígeno indica que el agua se descompone en sus constituyentes. Una solución de cloruro de sodio hacía que uno de los «terminales» se cubriese de sodio y que en el otro apareciera el verdoso gas de cloro. Pronto nacería la industria del electrorrecubrimiento.
La descomposición de los compuestos químicos mediante una corriente eléctrica indicaba algo profundo: que el enlace atómico y las fuerzas eléctricas estaban relacionados. Fue ganando vigencia la idea de que las atracciones entre los átomos r. decir, la «afinidad» de una sustancia química por otra— era de naturaleza eléctrica.
El primer paso de la obra electroquímica de Michael Faraday fue la sistematización de la nomenclatura, lo que, como los nombres que Lavoisier les dio a las sustancias químicas, resultó muy útil. Faraday llamó a los metales sumergidos en el liquido «electrodos». El electrodo negativo era el «cátodo», el positivo el «ánodo» Cuando la electricidad corría por el agua, impelía un desplazamiento de los átomos cargados a través del líquido, del cátodo al ánodo. Por lo normal, los átomos son neutros, carentes de carga positiva o negativa. Pero la corriente eléctrica cargaba, de alguna forma, los átomos. Faraday llamó a esos átomos cargados «iones». Hoy sabemos que un ión es un átomo que está cargado porque ha perdido o ganado uno o más electrones. En la época de Faraday, no se conocían los electrones. No sabían qué era la electricidad. Pero ¿tuvo Faraday alguna idea de la existencia de los electrones? En la década de 1830 realizó una serie de espectaculares experimentos que se resumirían en dos sencillos enunciados a los que se conoce por el nombre de leyes de Faraday de la electrólisis:
1 La masa de los productos químicos desprendidos en un electrodo es proporcional a la corriente multiplicada por el lapso de tiempo durante el cual pasa. Es decir, la masa liberada es proporcional a la cantidad de electricidad que pasa por el líquido.
2 La masa liberada por una cantidad fija de electricidad es proporcional al peso atómico de la sustancia multiplicado por el número de átomos que haya en el compuesto.
Lo que estas leyes querían decir es que la electricidad no es continua, uniforme, sino que se divide en «pegotes». Dada la concepción atómica formulada por Dalton, las leyes de Faraday nos dicen que los átomos del líquido (los iones) se desplazan al electrodo, donde a cada ión se le entrega una cantidad unitaria de electricidad que lo convierte en un átomo libre de hidrógeno, oxígeno, plata o lo que sea. Las leyes de Faraday apuntan, pues, a una conclusión inevitable: hay partículas de electricidad. Esta conclusión, sin embargo, tuvo que esperar unos sesenta años a que el descubrimiento del electrón la confirmase rotundamente hacia el final del siglo.
Conmoción en Copenhague
Proseguimos la historia de la electricidad —eso que sale de los dos o tres agujeros de vuestros enchufes y que hay que pagar— yéndonos a Copenhague, Dinamarca. En 1820, Hans Christian Oersted hizo un descubrimiento decisivo —según algunos historiadores, el descubrimiento decisivo—. Generó una corriente eléctrica de la manera reconocida: con cables que conectaban los dos bornes de un dispositivo voltaico (una batería). La electricidad seguía siendo un misterio, pero se sabía que la corriente eléctrica tenía que ver con algo a lo que se llamaba carga eléctrica y que se movía por un hilo. No causaba sorpresa, hasta que Oersted colocó una aguja de brújula (un imán) cerca del circuito. Cuando pasaba la corriente, la aguja del compás viraba, y de apuntar al polo norte geográfico (su posición natural) iba a tomar una divertida posición perpendicular al cable. Oersted le dio vueltas a este fenómeno hasta que se le ocurrió que la brújula, al fin y al cabo, se había concebido de manera que detectase campos magnéticos. Por lo tanto, lo que ocurría es que la corriente del cable producía un campo magnético, ¿no? Oersted había descubierto una conexión entre la electricidad y el magnetismo: las corrientes producen campos magnéticos. También los imanes, claro, producen campos magnéticos, y estaba bien estudiada su capacidad de atraer pedazos de hierro (o de sujetar fotos a la puerta de la nevera). La noticia corrió por Europa y produjo un gran revuelo. Provisto de esta información, el parisiense André Marie Ampère halló una relación matemática entre la corriente y el campo magnético. La intensidad y la dirección precisas de este campo dependían de la corriente y de la forma (recta, circular o la que fuera) del cable por el que pasase la corriente. Con una combinación de razonamientos matemáticos y muchos experimentos realizados apresuradamente, Ampére generó una encendida polémica consigo mismo de la que, a su debido tiempo, saldría una prescripción para calcular el campo magnético que produce una corriente eléctrica que pase por un hilo de la configuración que sea, recta, doblada, como un lazo circular o enrollado densamente en forma cilíndrica. Si pasan corrientes por dos hilos rectos, cada una de ellas producirá su propio campo magnético, y cada uno de éstos actuará sobre el hilo contrario. Cada hilo ejerce, en efecto, una fuerza sobre el otro. Este descubrimiento hizo posible que Faraday inventase el motor eléctrico. También era profundo el hecho de que un lazo circular de corriente produjese un campo magnético. ¿Y si esas piedras a las que los antiguos llamaban piedras imanes —los imanes naturales— estuviesen compuestas a escala atómica por corrientes circulares? Otra pista de la naturaleza eléctrica de los átomos.
Oersted, como tantos otros científicos, se sentía atraído por la unificación, la simplificación, la reducción. Creía que la gravedad, la electricidad y el magnetismo eran manifestaciones de una sola fuerza; de ahí que su descubrimiento de una conexión directa entre dos de esas fuerzas apasionase (¿conmocionase?) tanto. Ampére, también, buscaba la simplicidad; en esencia, intentó eliminar el magnetismo considerándolo un aspecto de la electricidad en movimiento (la electrodinámica).
Otro déjà vu de cabo a cabo
Entra Michael Faraday (1791-1867). (De acuerdo, ya ha entrado, pero esta es la presentación formal. Fanfarrias, por favor.) Si Faraday no fue el mayor experimentador de su época, ciertamente opta al título. Se dice que hay más biografías suyas que de Newton, Einstein o Marilyn Monroe. ¿Por qué? En parte porque su vida tiene un aire que recuerda a la de la Cenicienta. Nacido en la pobreza, a veces hambriento (una vez se le dio un pan para que comiese una semana entera), Faraday apenas si asistió a la escuela; su educación fue muy religiosa. A los catorce años era aprendiz de un encuaderna-dor, y se las apañó para leer algunos de los libros a los que ponía tapas. Se educaba a si mismo mientras desarrollaba una habilidad manual que le vendría muy bien en sus experimentos. Un día, un cliente llevó un ejemplar de la tercera edición de la Encyclopaedia Britannica para que se lo encuadernasen de nuevo. Contenía un artículo sobre la electricidad. Faraday lo leyó, se quedó enganchado con el tema y el mundo cambió.
Pensad en esto. Las redacciones de las cadenas informativas reciben dos noticias que les transmite Associated Press:
FARADAY DESCUBRE LA ELECTRICIDAD, LA ROYAL SOCIETY FESTEJA LA HAZAÑA
y
NAPOLEÓN ESCAPA DE SANTA ELENA, LOS EJÉRCITOS DEL CONTINENTE EN PIE DE GUERRA
¿Qué noticia abre las noticias de las seis? ¡Correcto! Napoleón. Pero durante los cincuenta años siguientes el descubrimiento de Faraday electrificó Inglaterra y puso en marcha el cambio más radical en la manera en que la gente vivía que jamás haya dimanado de las invenciones de un solo ser humano. Con que en la universidad se les hubieran exigido a los responsables del periodismo televisivo unos conocimientos verdaderamente científicos…
Velas, motores, dinamos
Esto es lo que Michael Faraday hizo. Empezó su vida profesional, a los veintiún años, como químico; descubrió algunos compuestos orgánicos, el benceno entre ellos. El paso a la física lo dio al poner en claro la electroquímica. (Si esos químicos de la Universidad de Utah que creían haber descubierto la fusión fría en 1989 hubiesen entendido mejor las leyes de Faraday de la electrólisis, puede que se hubieran ahorrado una situación embarazosa, y que nos la hubieran ahorrado a los demás.) Faraday se dedicó a continuación a realizar una serie de grandes descubrimientos en los campos de la electricidad y del magnetismo:
• descubrió la ley (que lleva su nombre) de la inducción, según la cual un campo magnético crea un campo eléctrico
• fue el primero en producir una corriente eléctrica a partir de un campo magnético
• inventó el motor eléctrico y la dinamo
• demostró que hay una relación entre la electricidad y el enlace químico
• descubrió el efecto del magnetismo en la luz
• ¡y mucho más!
¡Y todo esto sin un doctorado, sin una licenciatura, sin el bachillerato siquiera! Era además analfabeto en lo que se refería a las matemáticas. Escribió sus descubrimientos no con ecuaciones, sino en un claro lenguaje descriptivo, a menudo acompañado por imágenes que explicaban los datos.
En 1990 la Universidad de Chicago produjo una serie de televisión llamada The Christmas Lectures [Las conferencias de Navidad], y tuve el honor de dar la primera. La titulé «La vela y el universo». La idea la tomé prestada de Faraday, que en 1826 dio a los niños las primeras de las originales lecciones de Navidad. En su primera charla arguyó que una vela encendida ilustraba todos los procesos físicos conocidos. Era verdad en 1826, pero en 1990 sabemos que hay muchos procesos que no ocurren en la vela porque la temperatura es demasiado baja. Pero las lecciones de Faraday sobre la vela eran claras y entretenidas, y sería un gran regalo de Navidad para vuestros hijos que un actor de voz argentada grabase con ellas unos discos compactos. Así que sumadle otra faceta a este hombre notable: la de divulgador.
Ya hemos hablado de sus investigaciones sobre la electrólisis, que prepararon el camino para el descubrimiento de la estructura eléctrica de los átomos químicos y, realmente, de la existencia del electrón. Quiero contar ahora las dos contribuciones más destacadas de Faraday: la inducción electromagnética y su concepto, casi místico, de «campo».
El camino hacia la concepción moderna de la electricidad (o dicho con más propiedad, del electromagnetismo y del campo electromagnético) recuerda al famoso chiste de la combinación doble de béisbol en la que Tinker se la pasa a Evers, que se la pasa a Chance. En este caso, Oersted se la pasa a Ampére, que se la pasa a Faraday. Oersted y Ampére dieron los primeros pasos hacia el conocimiento de las corrientes eléctricas y los campos magnéticos. Las corrientes eléctricas que pasan por cables como los que tenéis en casa crean campos magnéticos. Se puede, por lo tanto, hacer un imán tan poderoso como se quiera, desde los imanes minúsculos que funcionan con baterías y mueven pequeños ventiladores hasta los gigantescos que se utilizan en los aceleradores de partículas y se basan en una organización de corrientes. Este conocimiento de los electroimanes ilumina la idea de que los imanes naturales contienen elementos de corriente a escala atómica que colectivamente forman el imán. Los materiales no magnéticos también tienen esas corrientes atómicas amperianas, pero sus orientaciones al azar no producen un magnetismo apreciable.
Faraday luchó durante mucho tiempo por unificar la electricidad y el magnetismo. Si la electrici-dad puede generar campos magnéticos, se preguntaba, ¿no podrá el magnetismo generar electricidad? ¿Por qué no? La naturaleza ama la simetría, pero le llevó más de diez años (de 1820 a 1831) probarlo. Fue, seguramente, su mayor logro.
A este descubrimiento experimental de Faraday se le da el nombre de inducción electromagnéti-ca. La simetría tras la que andaba surgió de una forma inesperada. El camino a la fama está empedrado con buenos inventos. Faraday se preguntó primero si un imán no podría hacer que un cable por el que pasase corriente se moviera. Para que las fuerzas se hiciesen visibles, montó un artilugio que consistía en un cable conectado por un extremo a una batería y cuyo otro cabo pendía suelto dentro de un recipiente lleno de mercurio. Se dejaba suelto a ese extremo para que pudiera dar vueltas alrededor de un imán de hierro que se sumergía en el mercurio. En cuanto pasó corriente, el cable comenzó a moverse en círculos alrededor del imán. Hoy conocemos este extraño invento con el nombre de motor eléctrico. Faraday había convertido la electricidad en movimiento, capaz de efectuar trabajo.
Saltemos a 1831 y a otro invento. Faraday enrolló, dándole muchas vueltas, un hilo de cobre en un lado de una rosquilla de hierro dulce, y conectó los dos cabos de esa bobina a un dispositivo que medía con sensibilidad la corriente, llamado galvanómetro. Enrolló una longitud parecida de cable en el otro lado de la rosquilla, y conectó sus extremos a una batería de manera que la corriente fluyese por la bobina. A este aparato se le llama hoy transformador. Recordemos. Tenemos dos bobinas enrolladas en lados opuestos de una rosquilla. Una, llamémosla A, está conectada a una batería; la otra, B, a un galvanómetro. ¿Qué pasa cuando la savia corre?
La respuesta es importante en la historia de la ciencia. Cuando pasa corriente por la bobina A, la electricidad produce magnetismo. Faraday razonaba que este magnetismo debería inducir una corriente en la bobina B. Pero en vez de eso obtuvo un fenómeno extraño. Al conectar la corriente, la aguja del galvanómetro conectado a la bobina B se movió voilà!, ¡la electricidad!—, pero sólo momentáneamente. Tras pegar un salto súbito, la aguja apuntaba a cero con una inamovilidad desquiciadora. Cuando desconectó la batería, la aguja se movió un instante en dirección opuesta. No sirvió de nada aumentar la sensibilidad del galvanómetro. Tampoco aumentar el número de vueltas en cada bobina. Ni utilizar una batería mucho más potente. Y en ésas, vino el instante del ¡Eureka! (en Inglaterra lo llaman el instante del By Jove!, del ¡Por Júpiter!): a Faraday se le ocurrió que la corriente de la primera bobina inducía una corriente en la segunda, sí, pero sólo cuando la primera corriente variaba. Así, como los siguientes treinta años, más o menos, de investigación mostraron, un campo magnético variable genera un campo eléctrico.
La tecnología que, a su debido tiempo, saldría de todo esto fue la del generador eléctrico. Al rotar mecánicamente un imán, se produce un campo magnético que cambia constantemente y genera un campo eléctrico y, si éste se conecta a un circuito, una corriente eléctrica. Se puede hacer que un imán gire dándole vueltas con una manivela, mediante la fuerza de una caída de agua o gracias a una turbina de vapor. De esa forma tenemos una manera de generar electricidad, hacer que la noche se vuelva el día y darles energía a los enchufes que hay en casa y en la fábrica.
Pero somos científicos puros… Les seguimos la pista al á-tomo y la Partícula Divina; nos hemos detenido en la técnica sólo porque habría sido durísimo construir aceleradores de partículas sin la electricidad de Faraday. En cuanto a éste, lo más seguro es que la electrificación del mundo no le habría impresionado mucho, excepto porque así podría haber trabajado de noche.
El propio Faraday construyó el primer generador eléctrico; se accionaba a mano. Pero estaba demasiado centrado en el «descubrimiento de hechos nuevos… con la seguridad de que estas últimas [las aplicaciones prácticas] hallarán su desarrollo completo en adelante» para pensar en qué hacer con ellos. Se cuenta a menudo que el primer ministro británico visitó el laboratorio de Faraday en 1832 y, señalando a esa máquina tan divertida, le preguntó para qué servía. «No lo sé, pero apuesto a que algún día el gobierno le pondrá un impuesto», dijo Faraday. El impuesto sobre la generación de electricidad se estableció en Inglaterra en 1880.
Que el campo esté contigo
La mayor contribución conceptual de Faraday, crucial en nuestra historia del reduccionismo, fue el campo. Nos prepararemos para afrontar esta noción volviendo a Roger Boscovich, que había publicado una hipótesis radical unos setenta años antes de la época de Faraday y con ella hizo que la idea del á-tomo diese un importante paso hacia adelante. ¿Cómo chocan los á-tomos?, preguntó. Cuando las bolas de billar chocan, se deforman; su recuperación elástica impulsa las bolas y las aparta. Pero ¿y los átomos? ¿Cabe imaginarse un átomo deformado? ¿Qué se deformaría? ¿Qué se recuperaría? Esta línea de pensamiento condujo a que Boscovich redujese los átomos a puntos matemáticos carentes de dimensiones y de estructura. Ese punto es la fuente de las fuerzas, tanto de las atractivas como de las repulsivas. Elaboró un modelo geométrico detallado que abordaba las colisiones atómicas de una forma muy aceptable. El á-tomo puntual hacía todo lo que el «átomo duro y con masa» de Newton hacía, y ofrecía ventajas. Aunque no tenía extensión, sí poseía inercia (masa). El á-tomo de Boscovich influía más allá de sí mismo en el espacio mediante las fuerzas que radiaban de él. Es una idea de lo más presciente. También Faraday estaba convencido de que los á-tomos eran puntos, pero, como no podía ofrecer ninguna prueba, no lo defendió abiertamente. La idea de Boscovich-Faraday era esta: la materia está formada por á-tomos puntuales rodeados por fuerzas. Newton había dicho que las fuerzas actúan sobre la masa; por lo tanto, la concepción de Boscovich-Faraday era, claramente, una extensión de la newtoniana. ¿Cómo se manifiestan tales fuerzas?
«Vamos a hacer un juego», les digo a los estudiantes, en un aula grande. «Cuando el que esté a vuestra izquierda baje la mano, levantad y bajad la vuestra.» Al final de la fila, la señal salta a la fila de arriba y cambio la orden: ahora es «el que esté a vuestra derecha». Empezamos con la estudiante que esté más a la izquierda en la primera fila. Levanta la mano y, enseguida, la onda de «manos arriba» atraviesa la sala, sube, la atraviesa en dirección contraria y así hasta que se extingue al llegar arriba del todo. Lo que tenemos es una perturbación que se propaga a cierta velocidad por un medio de estudiantes. Es el mismo principio de la ola que hacen en los estadios de fútbol. Las ondas del agua tienen las mismas propiedades. La perturbación se propaga, pero las partículas del agua se quedan clavadas en su sitio; sólo oscilan arriba y abajo, y no participan de la velocidad horizontal de la perturbación. La «perturbación» es la altura de la onda. El medio es el agua, y la velocidad depende de sus propiedades. El sonido se propaga por el aire de una forma muy similar. Pero ¿cómo se extiende una fuerza de átomo a átomo a través del espacio entre ellos? Newton echó el balón fuera. «No urdo hipótesis», dijo. Urdida o no, la hipótesis común acerca de la propagación de la fuerza era la misteriosa acción a distancia, una especie de hipótesis interina, hasta que en el futuro se sepa cómo funciona la gravedad.
Faraday introdujo el concepto de campo, la capacidad que tiene el espacio de que una fuente que está en alguna parte lo perturbe. El ejemplo más común es el del imán que actúa sobre unas limaduras de hierro. Faraday caracterizaba el espacio alrededor del imán o de la bobina con la palabra «tensado», tensado a causa de la fuente. El concepto de campo se fue constituyendo, laboriosamente, a lo largo de muchos años, en muchos escritos, y los historiadores disfrutan no poniéndose de acuerdo acerca de cómo y cuándo nació, y bajo qué forma. Esta es una nota de Faraday, escrita en 1832: «Cuando un imán actúa sobre un imán o una pieza de hierro distantes, la causa que influye en ellos… procede gradualmente desde los cuerpos magnéticos y su transmisión requiere tiempo [la cursiva es mía]». Por lo tanto, la idea es que una «perturbación» —por ejemplo, un campo magnético con una intensidad de 0,1 tesla— viaja por el espacio y le comunica a un grano de polvo de hierro no sólo que ella, la perturbación, existe, sino que le está ejerciendo una fuerza. No otra cosa le hace una ola grande al bañista incauto. La ola —de un metro, digamos— necesita agua para propagarse. Hemos de vérnoslas todavía con lo que necesita el campo magnético. Lo haremos más adelante.
Las líneas magnéticas de fuerza se manifestaban en ese viejo experimento que hicisteis en el colegio: espolvorear polvo de hierro sobre una hoja de papel puesta sobre un imán. Le disteis al papel un golpecito para romper la fricción de la superficie, y el polvo de hierro se acumuló conforme a un patrón definido de líneas que conectaban los polos del imán. Faraday pensaba que esas líneas eran manifestaciones reales de su concepto de campo. No importan tanto las ambiguas descripciones que Faraday daba de esta alternativa a la acción a distancia como la manera en que la alteró y utilizó nuestro siguiente electricista, el escocés James Clerk (pronúnciese «clahk») Maxwell (1831-1879).
Antes de que dejemos a Faraday, deberíamos aclarar su actitud con respecto a los átomos. Nos dejó dos citas preciosas, de 1839:
Aunque nada sabemos de qué es un átomo, no podemos, sin embargo, resistirnos a formarnos cierta idea de una partícula pequeña que, ante la mente, lo representa; hay una inmensidad de hechos que justifican que creamos que los átomos de materia están asociados de alguna forma con las fuerzas eléctricas, a las que deben sus cualidades más llamativas, entre ellas la afinidad química [atracción entre átomos],
y
Debo confesar que veo con suspicacia el concepto de átomo, pues si bien es muy fácil hablar de los átomos, cuesta mucho formarse una idea clara de su naturaleza cuando se toman en consideración cuerpos compuestos.
Abraham Pais, tras citar estos párrafos en su libro Inward Bound, concluye: «Ese es el verdadero Faraday, experimentador hasta la médula, que sólo aceptaba lo que un fundamento experimental le obligaba a creer».
A la velocidad de la luz
Si en la primera jugada Oersted se la pasaba a Ampére y éste a Faraday, en la siguiente Faraday se la pasó a Maxwell y éste a Hertz. Faraday el inventor cambió el mundo, pero su ciencia no se aguantaba por sí sola y habría acabado en un calle sin salida de no haber sido por la síntesis de Maxwell. Faraday le proporcionó a Maxwell una intuición articulada a medias (es decir, sin forma matemática aún). Maxwell fue el Kepler del Brahe Faraday. Las líneas magnéticas de fuerza de Faraday hicieron las veces de andaderas hacia el concepto de campo, y su extraordinario comentario de 1832, según el cual las acciones electromagnéticas no se transmiten instantáneamente, sino que les lleva un tiempo bien definido hacerlo, desempeñó un papel decisivo en el gran descubrimiento de Maxwell.
Maxwell sentía la mayor admiración por Faraday, hasta por su analfabetismo matemático, que le obligaba a expresar sus ideas en un «lenguaje natural, no técnico». Maxwell afirmó que su propósito primario fue traducir la concepción de la electricidad y el magnetismo que había creado Faraday a una forma matemática. Pero el tratado que nació de ese propósito fue mucho más lejos que Faraday. Entre los años 1860 y 1865 se publicaron los artículos de Maxwell —modelos de densa, difícil, compleja matemática (¡aj!)— que serían la gloria más alta del periodo eléctrico de la ciencia desde que, con el ámbar y las piedras imanes, tuviese su origen en la oscuridad de la historia. En esta forma final, Maxwell no sólo le puso a Faraday música matemática (aunque atonal), sino que estableció con ello la existencia de ondas electromagnéticas que se propagan por el espacio a cierta velocidad finita, como había predicho Faraday. Fue trascendental; muchos contemporáneos de Faraday y Maxwell creían que las fuerzas se transmitían instantáneamente. Maxwell especificó la acción del campo de Faraday. Éste había hallado experimentalmente que un campo magnético variable genera un campo eléctrico. Maxwell, en pos de la simetría y coherencia de sus ecuaciones, propuso que los campos eléctricos variables generaban campos magnéticos. En el reino de las matemáticas, estos dos fenómenos producían un vaivén de campos eléctricos y magnéticos que, según los cuadernos de notas de Maxwell, partían, espacio adelante, de sus fuentes a una velocidad que dependía de todo tipo de magnitudes eléctricas y magnéticas.
Pero hubo una sorpresa. El mayor descubrimiento de Maxwell fue la velocidad concreta de esas ondas electromagnéticas, que Faraday no había predicho. Maxwell examinó sus ecuaciones y, tras incluir en ellas los números experimentales apropiados, le salió una velocidad de 3 x 108 metros por segundo. «Gor luv a duck!», dijo, o lo que digan los escoceses cuando se quedan asombrados. Es que 3 x 108 metros por segundo es la velocidad de la luz (que se había medido por vez primera hacía unos cuantos años). Como Newton y el misterio de las dos masas nos han enseñado, en la ciencia hay pocas coincidencias verdaderas. Maxwell llegó a la conclusión de que la luz no era sino un caso de onda electromagnética. La electricidad no tenía por qué estar encerrada en los cables, podía diseminarse por el espacio, como la luz. «A duras penas podremos dejar de inferir-escribió Maxwell —que la luz consiste en las ondulaciones transversales del mismo medio que causa los fenómenos eléctricos y magnéticos.» Maxwell abrió la posibilidad, que Einrich Hertz aprovechó, de que su teoría se verificase mediante la generación experimental de ondas electromagnéticas. Quedó para otros, como Guglielmo Marconi y un enjambre de inventores más recientes, desarrollar la segunda «ola» de (a tecnología electromagnética: las comunicaciones por radio, radar, televisión, microondas y láser.
Pasa de esta forma. Imaginaos un electrón en reposo. La carga que tiene genera un campo eléctrico en cada parte del espacio, más intenso cerca del electrón, más débil a medida que nos alejarnos. El campo eléctrico «apunta» hacia el electrón. ¿Como sabemos que hay un campo? Es sencillo: poned una carga positiva en cualquier sitio, y sentirá una fuerza que apunta hacia el electrón. Haced ahora que éste se vaya acelerando por un cable. Ocurrirán dos cosas: el campo eléctrico cambiará, no instantáneamente, pero sí tan pronto como la información llegue al punto del espacio donde lo midamos; y como una carga en movimiento es una corriente, se creará además un campo magnético.
Apliquémosle ahora unas fuerzas tales al electrón (y a muchos amigos suyos) que oscile por el cable arriba y abajo en un ciclo regular. El cambio resultante de los campos eléctricos y magnéticos se propaga desde el cable a una velocidad finita, la de la luz. Eso es una onda electromagnética. Al cable le llamamos a menudo antena; y a la fuerza que mueve al electrón, señal de radiofrecuencia. La señal, por lo tanto, con el mensaje, el que sea, que contenga, se propaga a partir de la antena a la velocidad de la luz. Cuando llega a otra antena, hallará una multitud de electrones, a los que, a su vez, hará que bailen arriba y abajo, creándose así una corriente oscilante que se podrá detectar y convertir en informaciones de vídeo y de audio.
A pesar de su contribución monumental, Maxwell no causó sensación precisamente de la noche a la mañana. Veamos qué dijeron los críticos del tratado de Maxwell:
• «La concepción es un tanto burda.» (sir Richard Glazebrook)
• «Una sensación de incomodidad, a menudo incluso de desconfianza se mezcla con la admira-ción …» (Henri Poincaré)
• «No prendió en Alemania, e incluso pasó casi desapercibido.» (Max Planck)
• «Debo decir una cosa acerca de ella [la teoría electromagnética de la luz]. No creo que sea admisible.» (lord Kelvin)
Con reseñas como estas cuesta convertirse en una superestrella. Hizo falta un experimentador para hacer de Maxwell una leyenda, pero no en su propio tiempo, pues, por unos diez años, murió demasiado pronto.
Hertz, al rescate
El verdadero héroe (para este aprendiz de historiador tan tendencioso) es Heinrich Hertz, quien en una serie de experimentos que se prolongaron durante más de diez años (1873-1888) confirmó todas las predicciones de la teoría de Maxwell.
Las ondas tienen una longitud de onda, que es la distancia entre las crestas. Las crestas de las olas en el mar suelen estar separadas de unos seis a nueve metros. Las longitudes de las ondas sonoras son del orden de unos cuantos centímetros. También el electromagnetismo adopta la forma de ondas. La diferencia entre las distintas ondas electromagnéticas —infrarrojas, microondas, rayos X, ondas de radio-estriba sólo en sus longitudes de onda. La luz visible —azul, verde, naranja, roja— cae por la mitad del espectro electromagnético. Las ondas de radio y las microondas tienen longitudes de onda mayores; la lux ultravioleta, los rayos X y los rayos gamma, más cortas.
Por medio de una bobina de alto voltaje y un dispositivo detector, Hertz halló una forma de generar ondas electromagnéticas y de medir su velocidad. Mostró que esas ondas tenían las mismas propiedades de reflexión, refracción y polarización que las luminosas, y que se podía enfocarlas. A pesar de las malas reseñas, Maxwell tenía razón. Hertz, al someter la teoría de Maxwell a experimentos rigurosos, la aclaró y la simplificó a un «sistema de cuatro ecuaciones», de las que trataremos en un momento.
Tras Hertz, se generalizó la aceptación de las ideas de Maxwell, y el viejo problema de la acción a distancia pasó a mejor vida. Las fuerzas, en forma de campos, se propagaban por el espacio a una velocidad finita, la de la luz. A Maxwell le parecía que necesitaba un medio que soportase los campos eléctricos y magnéticos, así que adoptó la idea de Faraday y Boscovich de un éter que lo impregnaba todo y donde vibraban los campos eléctricos y magnéticos. Lo mismo que el descartado éter de Newton, éste tenía extrañas propiedades, y pronto desempeñaría un papel crucial en la siguiente revolución científica.
El triunfo de Faraday-Maxwell-Hertz supuso otro éxito para el reduccionismo. Las universidades no tenían ya que contratar un profesor de electricidad, un profesor de magnetismo y un profesor de luz, de óptica. Estas tres ramas se habían unificado, y bastaba con cubrir una plaza (y así quedaba más dinero para el equipo de fútbol). Se abarcaba un vasto conjunto de fenómenos, cosas tanto creadas por la ciencia como naturales: motores, generadores y transformadores, la industria de la energía eléctrica entera, la luz solar y la de las estrellas, la radio, el radar y las microondas, la luz infrarroja, la ultravioleta, los rayos X, los rayos gamma y los láseres. La propagación de todas estas formas de radiación queda explicada por las cuatro ecuaciones de Maxwell, que, en su forma moderna y aplicadas a la electricidad en el espacio libre, se escriben:
C x E = — ( δB / δt )
C x E = — ( δE / δt )
• B = 0
• E = 0
En estas ecuaciones, E representa el campo eléctrico y B el magnético; c, la velocidad de la luz, es una combinación de magnitudes eléctricas y magnéticas que se pueden medir en la mesa del laboratorio. Observad la simetría de E y B. No os preocupéis por los garabatos incomprensibles; para nuestros propósitos, los entresijos de estas ecuaciones no son importantes. Lo que importa es la requisitoria científica que dictan: «¡Hágase la luz!».
En todo el mundo hay estudiantes de física e ingeniería que llevan camisetas donde hay escritas esas cuatro concisas ecuaciones. Las originales de Maxwell, sin embargo, no se parecían nada a las que hemos dado. Estas versiones simples son obra de Hertz, un raro ejemplo de alguien que fue algo más que el típico experimentador que de la teoría sólo sabe lo que necesita para ir tirando. Fue excepcional en ambas áreas. Como Faraday, era consciente de que su obra tenía una inmensa importancia práctica, pero no sentía interés por ello. Se lo dejó a mentes científicas menores, a Marconi y Larry King, por ejemplo. La obra teórica de Hertz consistió en buena medida en ponerle orden y claridad a Maxwell, en reducir y divulgar su teoría. Sin los esfuerzos de Hertz, los estudiantes de física habrían tenido que hacer pesas para llevar camisetas tres veces extralargas donde cupiesen las farragosas matemáticas de Maxwell.
Fieles a nuestra tradición y a la promesa que le hicimos a Demócrito, que hace poco nos ha mandado un fax para recordárnoslo, hemos de preguntarle a Maxwell (o a su legado) por los átomos. Ni que decir tiene que creía en su existencia. Fue también el autor de una teoría, que tuvo gran éxito, donde los gases consistían en una asamblea de átomos. Creía, correctamente, que los átomos químicos no eran tan sólo diminutos cuerpos rígidos, sino que tenían alguna estructura compleja. Le venía esta creencia de su conocimiento de los espectros ópticos, que serían, como veremos, importantes en el desarrollo de la teoría cuántica. Maxwell creía, incorrectamente, que sus átomos complejos eran indivisibles. Lo dijo de una bella manera en 1875: «Aunque ha habido catástrofes en el curso de las eras y puede que en los cielos todavía las haya, aunque puede que los sistemas antiguos se disuelvan y surjan otros nuevos de sus ruinas, los [átomos] de los que esos sistemas ¡la Tierra, el sistema solar y así sucesivamente] están hechos —las piedras angulares del universo material— siempre permanecerán enteros y sin desgaste alguno». Sólo con que hubiera usado las palabras «quarks y leptones» en vez de «átomos»…
El juicio definitivo sobre Maxwell procede otra vez de Einstein, quien afirmaba que la de Max-well fue la contribución concreta más importante del siglo XIX.
El imán y la bola
Hemos pasado demasiado deprisa sobre algunos aspectos importantes de nuestra historia. ¿Cómo sabemos que los campos se propagan a una velocidad finita? ¿Cómo supieron los físicos del siglo XIX siquiera cuál era la velocidad de la luz? Y ¿cuáles la diferencia entre la acción a distancia instantánea y la reacción diferida?
Imaginaos que hay un electroimán muy poderoso en un extremo de un campo de fútbol y, en el otro extremo, una bola de hierro a la que un fino alambre suspende de un soporte muy alto. La bola se vencerá, poco, muy poco, hacia el imán alejado. Suponed ahora que desconectamos muy deprisa la corriente del imán. Las observaciones precisas de la bola y el alambre deberían registrar la reacción, cuando la bola volviese a su posición de equilibrio. Pero ¿es instantánea la reacción? Sí, dicen los de la acción a distancia. El imán y la bola de hierro están estrechamente conectados y, cuando el imán se apaga, la bola empieza instantáneamente a retroceder a la posición de desviación nula. «¡No!», dice la gente de la velocidad finita. La información «el imán está apagado, ahora puedes descansar» viaja por el campo a una velocidad definida, con lo que la reacción de la bola se retrasa.
Hoy conocemos la respuesta. La bola tiene que esperar; no demasiado, porque la información viaja a la velocidad de la luz, pero el retraso es medible. En la época de Maxwell este problema era el centro de un encarnizado debate. Estaba en juego la validez del concepto de campo. ¿Por qué no hicieron un experimento y zanjaron la cuestión? Porque la luz es tan rápida que cruzar el campo de fútbol entero le lleva sólo tina millonésima de segundo. En el siglo pasado, ese era un lapso de tiempo difícil de medir. Hoy es una cosa corriente medir intervalos mil veces irás cortos, así que la propagación a velocidad finita de los campos se calibra con facilidad. Hacemos, por ejemplo, que un rayo láser rebote en un reflector nuevo situado en la Luna y medimos de esa forma la distancia entre la Luna y la Tierra. El viaje de ida y vuelta dura alrededor de 1,0 segundo.
Un ejemplo a mayor escala. El 23 de febrero de 1987, exactamente a las 7:36 de hora universal u hora media de Greenwich, se observó la explosión de una estrella en el cielo meridional. Esta supernova estaba nada menos que en la Gran Nube de Magallanes, un cúmulo de estrellas y polvo que se halla a 160.000 años luz. En otras palabras, la información electromagnética necesitó 160.000 años para ir de la supernova a la Tierra. Y la supernova 87A era una vecina hasta cierto punto cercana. El objeto más distante que se ha observado está a unos 8.000 millones de años luz. Su luz partió hacia nuestro telescopio no mucho después del Principio.
La velocidad de la luz se midió por primera vez en un laboratorio terrestre. Lo hizo Armand-Hippolyte-Louis Fizeau, en 1849. Como no había osciloscopios ni relojes gobernados por cristal utilizó una ingeniosa disposición de espejos (que extendían el camino recorrido por la luz) y una rueda dentada rotatoria. Si sabemos a qué velocidad gira la rueda y su radio, sabremos calcular el tiempo en que un diente reemplaza a un hueco. Podremos ajustar la velocidad de rotación de forma que ese tiempo sea precisamente el tiempo que tarda la luz en ir del hueco al espejo lejano y volver al hueco y pasar por él hasta el ojo de M. Fizeau. Mon Dieu! ¡Lo veo! Acelérese entonces la rueda poco a poco hasta que el rayo quede bloqueado. Eso es. Ahora sabemos la distancia que ha recorrido el haz —de la fuente de luz por el hueco hasta el espejo y de vuelta al diente de la rueda— y el tiempo que le ha llevado hacerlo. Trajinando con este montaje consiguió Fizeau su famoso número: 300 millones (3 x 108) de metros por segundo.
No deja de sorprenderme la hondura filosófica de estos tipos del renacimiento electromagnético. Oersted creía (al contrario que Newton) que todas las fuerzas de la naturaleza (las de entonces: la gravedad, la electricidad y el magnetismo) eran manifestaciones diferentes de una sola fuerza primordial. ¡Es taaaan moderno! Los esfuerzos de Faraday por establecer la simetría de la electricidad y el magnetismo invocan la herencia griega de la simplicidad y la unificación, 2 de los 137 objetivos del Fermilab para la década de los años noventa.
¿La hora de volver a casa?
En estos dos últimos capítulos hemos cubierto más de trescientos años de física clásica, de Galileo a Hertz. He dejado fuera a gente muy buena. El holandés Christian Huygens, por ejemplo, nos contó un montón de cosas sobre la luz y las ondas. El francés René Descartes, el fundador de la geometría analítica, fue un destacado defensor del atomismo, pero sus amplias teorías de la materia y la cosmología, aunque imaginativas, no dieron en el blanco.
Hemos considerado la física clásica desde un punto de vista, el de la búsqueda del á-tomo de Demócrito, que no es el ortodoxo. Se suele abordar la física clásica como un examen de fuerzas: la gravedad y el electromagnetismo. Como ya hemos visto, la gravedad deriva de la atracción entre las masas. En la electricidad, Faraday reconoció un fenómeno diferente; la materia aquí no cuenta, dijo. Fijémonos en los campos de fuerza. Claro está, en cuanto se tiene una fuerza hay que recurrir a la segunda ley de Newton (F = ma) para hallar el movimiento resultante, y entonces sí que importa la masa inercial. El enfoque adoptado por Faraday de que la materia no contase parte de una intuición de Boscovich, pionero del atomismo. Y, claro, Faraday dio los primeros indicios de que había «átomos de la electricidad». Puede que se suponga que uno no debe mirar la historia de la ciencia de esta manera, como la persecución de un concepto, el de partícula última. Y, sin embargo, ahí está, bajo la superficie de las vidas intelectuales de muchos de los héroes de la física.
A finales del siglo XIX, los físicos creían que lo tenían todo a la vez. Toda la electricidad, todo el magnetismo, toda la luz, toda la mecánica, todas las cosas en movimiento, y además toda la cosmología y la gravedad: todo se conocía gracias a unas cuantas ecuaciones sencillas. Respecto a los átomos, la mayoría de los químicos pensaba que se trataba de un tema casi cerrado. Estaba la tabla periódica de los elementos. El hidrógeno, el helio, el carbono, el oxígeno y demás eran elementos indivisibles, cada uno con su propio átomo, invisible e indivisible.
Había en el cuadro algunas grietas misteriosas. El Sol, por ejemplo, era desconcertante. Basándose en las creencias por entonces corrientes en la química y en la teoría atómica, el científico británico lord Rayleigh calculó que el Sol debería haber consumido todo su combustible en 30.000 años. Los científicos sabían que el Sol era mucho más viejo. El asunto ese del éter planteaba también problemas. Sus propiedades mecánicas tenían que ser verdaderamente extrañas: había de ser transparente del todo y capaz de deslizarse entre los átomos de la materia sin perturbarlos, y sin embargo tenía que ser tan rígido como el acero para aguantar la velocidad enorme de la luz. Pero se esperaba que esos y otros misterios se resolverían a su debido tiempo. Si yo hubiese enseñado en 1890, a lo mejor habría estado tentado de decirles a mis alumnos que se buscasen otra disciplina más interesante. Todas las grandes preguntas tenían ya su respuesta. Las cuestiones que aún no se comprendían bien —la energía del Sol, la radiactividad y unos cuantos quebraderos de cabeza más—, bueno, todos creían que más tarde o más temprano sucumbirían ante el poder del monstruo teórico de Newton y Maxwell. A la física la habían empaquetado cuidadosamente en una caja y atado con un lazo.
Entonces, de pronto, a finales del siglo, el paquete entero empezó a desenvolverse. La culpa, como suele pasar, la tuvo la ciencia experimental.
La primera verdadera partícula
A lo largo del siglo XIX, los físicos se enamoraron de las descargas eléctricas que se producían en los tubos de cristal rellenos de gas cuando se disminuía la presión. Un soplador de vidrio hacía un impecable tubo de cristal de un metro de largo. Dentro del tubo quedaban sellados unos electrodos de metal. El experimentador extraía lo mejor que podía todo el aire del tubo e introducía el gas que se desease (hidrógeno, aire, dióxido de carbono) a baja presión. Cada electrodo se conectaba a una batería externa mediante unos cables y se aplicaban grandes voltajes eléctricos. Entonces, en una sala a oscuras, los investigadores se maravillaban ante el resplandor espléndido que aparecía, cuyo aspecto y tamaño variaba a medida que la presión disminuía. Cualquiera que haya visto un anuncio de neón conoce este tipo de resplandor. Cuando la presión era lo bastante baja, el brillo se convertía en un rayo, que iba del cátodo, el terminal negativo, al ánodo. Como es lógico, se le denominó rayo catódico. Estos fenómenos, de los que hoy sabemos que son bastante complejos, apasionaron a una generación de físicos y profanos interesados de toda Europa.
Los científicos sabían algunos detalles, que daban lugar a controversia, contradictorios incluso, acerca de estos rayos. Llevaban carga negativa. Se movían por líneas rectas. Podían hacer que diese vueltas una rueda de palas encerrada en el tubo. Los campos eléctricos no los desviaban. Los campos magnéticos sí los desviaban. Un campo magnético hacía que un haz estrecho de rayos catódicos se doblase y describiese un arco circular. Un espesor de metal detenía los rayos, pero atravesaban las hojas metálicas finas.
Son hechos interesantes, pero el misterio fundamental persistía: ¿qué eran esos rayos? A finales del siglo XIX, se hacían dos suposiciones. Algunos investigadores pensaban que los rayos catódicos eran vibraciones electromagnéticas del éter, carentes de masa. No era una suposición mala. Al fin y al cabo, resplandecían como un haz de luz, otro tipo de vibración electromagnética. Y era obvio que la electricidad, que es una forma de electromagnetismo, tenía algo que ver con los rayos.
Otro bando creía que los rayos eran una forma de materia. Según una buena suposición, se componían de moléculas del gas presente en el tubo que habían cogido de la electricidad una carga. Otra hipótesis era que los rayos catódicos estaban hechos de una forma nueva de materia, de pequeñas partículas que hasta entonces no se habían aislado. Por una serie de razones, se «mascaba» la idea de que había un portador básico de la carga. Nos iremos de la lengua ahora mismo. Los rayos catódicos ni eran vibraciones electromagnéticas ni eran moléculas de gas. .
Si Faraday hubiese vivido a finales del siglo XIX, ¿qué habría dicho? Las leyes de Faraday daban a entender con fuerza que había «átomos de electricidad». Corno recordaréis, realizó algunos experimentos similares, sólo que él hizo que la electricidad pasase por líquidos en vez de por gases y obtuvo iones, átomos cargados. Ya en 1874, George Johnstone Stoney, físico irlandés, había acuñado la palabra «electrón» para referirse a la unidad de electricidad que se pierde cuando un Momo se convierte en un ión. Si Faraday hubiera visto un rayo catódico, quizá, (dentro de sí, habría sabido que estaba observando a los electrones en acción.
Puede que algunos científicos de este periodo sospechasen intensamente que los rayos catódicos eran partículas; quizá unos cuantos creyesen que por fin habían dado con el electrón. ¿Cómo saberlo? ¿Cómo probarlo? En el intenso periodo anterior a 1895, muchos investigadores destacados de Inglaterra, Escocia, Alemania y los Estados Unidos estudiaron las descargas eléctricas. Quien dio con el filón fue un inglés llamado J. J. Thomson. Otros anduvieron cerca. Nos fijaremos en dos de ellos y en lo que hicieron, sólo para que se vea lo despiadadamente cruel que es la vida científica.
El tipo que estuvo más cerca de ganar a Thomson fue Emil Weichert, físico prusiano. Exhibió su técnica a quienes asistieron a una de sus disertaciones en enero de 1887. Su tubo de cristal tenía unos cuarenta centímetros de largo y siete de ancho. Los luminosos rayos catódicos eran fácilmente visibles en una sala en penumbra.
Si queréis meter en el redil a una partícula, deberéis dar su carga (e) y su masa (m). Para solventar este problema, muchos investigadores recurrieron, cada uno por su lado, a una técnica inteligente: someter el rayo a unas fuerzas eléctricas y magnéticas conocidas, y medir su reacción. Recordad F = ma. Si los rayos estaban compuestos de verdad de partículas cargadas eléctricamente, la fuerza que experimentarían dependería de la cantidad de carga (e) que llevasen. La reacción quedaría amortiguada por su masa inercial (m). Por desgracia, pues, el efecto que se podía medir era el cociente de esas dos magnitudes, la razón e / m. En otras palabras, los investigadores no podían hallar los valores individuales de e o de m, sólo un número igual a uno de ellos dividido por el otro. Veamos un ejemplo sencillo. Se os da el número 21 y se os dice que es el cociente de dos números. El 21 es sólo una pista. Los dos números que buscáis podrían ser 21 y 1, 63 y 3, 7 y 1/3, 210 y 10, ad infinitum. Pero si tenéis una idea de cuál es uno de los números, podréis deducir el segundo.
En busca de e / m, Weichert puso su tubo en el entrehierro de un imán, que arqueó el haz de luz. El imán empuja la carga eléctrica de las partículas; cuanto más lentas sean, menos le costará al imán hacer que describan un arco de círculo. Una vez supo cuál era la velocidad, la desviación de las partículas por el imán le dio un valor bueno de e / m.
Weichert sabía que, si hacía una suposición justificada del valor de la carga eléctrica, podría deducir la masa aproximada de la partícula. Concluía: «No se trata de los átomos conocidos en química, pues la masa de estas partículas móviles [los rayos catódicos] resulta ser de unas 2.000 a unas 4.000 veces menor que e) átomo químico más ligero que se conoce, el de hidrógeno». Weichert casi dio en el blanco. Sabía que estaba buscando algún tipo nuevo de partícula. Estuvo cerquísima de su masa. (La masa del electrón es 1.837 veces menor que la del hidrógeno.) Entonces, ¿por qué Thomson es famoso y Weichert una nota a pie de página? Porque sólo presupuso (conjeturó) el valor de la carga; no tenía pruebas observacionales al respecto. Además, Weichert se distrajo con un cambio de puesto y porque repartía su interés con la geofísica. Fue un científico que llegó a la conclusión correcta pero no tenía todos los datos. ¡No hay puro, Emil!
El segundo clasificado fue Walter Kaufmann, de Berlín. Llegó a la línea de meta en abril de 1897, y su debilidad fue la contraria de la que padecía Weichert. Sus cartas eran unos datos buenos y un pensamiento malo. También dedujo e/In mediante el uso de campos magnéticos y eléctricos, pero llevó el experimento un importante paso más allá. Le interesaba en especial cómo cambiaría el valor de e / m al cambiar la presión y el gas —aire, hidrógeno, dióxido de carbono— que rellenaba el tubo. Al contrario que Weichert, Kaufmann pensaba que las partículas de los rayos catódicos eran simplemente átomos cargados del gas que había en el tubo, así que, según el gas que se usase, deberían tener una masa diferente. Sorpresa: descubrió que e / m no cambia. Le salía siempre el mismo número, no importaba cuál fuese el gas, cuál la presión. Kaufmann se quedó perplejo y perdió el barco. Una pena, pues sus experimentos eran muy elegantes. Consiguió un valor de e / m mejor que el del campeón, J. J. Es una cruel ironía de la ciencia que no se percatase de lo que sus datos le estaban diciendo a gritos: ¡tus partículas son una forma nueva de materia, dummkopf! Y son constituyentes universales de todos los átomos; por eso, e / m no cambia.
Joseph John Thomson (1856-1940) empezó en la física matemática, y se sorprendió cuando, en 1884, se le nombró profesor de física experimental del famoso Laboratorio Cavendish de la Universidad de Cambridge. Sería curioso saber si realmente quería ser experimentador. Era célebre su torpeza con los aparatos experimentales, pero tuvo la suerte de contar con unos ayudantes excelentes que podían ejecutar sus órdenes y mantenerle lejos de tanto cristal quebradizo.
En 1896 Thomson se propone conocer la naturaleza de los rayos catódicos. En un extremo de los cuarenta centímetros de largo del tubo de cristal, el cátodo emite sus rayos misteriosos. Se dirigen hacia un ánodo en el que se ha hecho un agujero por el que pasan los rayos (léase los electrones). El haz estrecho que se forma así sigue hasta el final del tubo, donde da en una pantalla fluorescente, sobre la que produce una pequeña mancha verde. La siguiente sorpresa de Thomson consiste en introducir en el tubo de cristal un par de placas de unos quince centímetros de largo. El haz del cátodo pasa por la ranura entre ambas placas, que Thomson ha conectado a una batería, con lo que se crea un campo eléctrico perpendicular al rayo catódico. Esa es la región de desviación.
Si el haz se mueve en respuesta al campo, es que lleva una carga eléctrica. Si, por otra parte, los rayos catódicos son fotones —partículas de luz—, ignorarán las placas de desviación y seguirán su camino en línea recta. Thomson, gracias a una batería muy potente, ve que la mancha de la pantalla fluorescente se mueve hacia abajo cuando la placa de arriba es negativa y hacia arriba cuando es positiva. Prueba, por lo tanto, que los rayos están cargados. Dicho sea de paso, si las placas desviadoras tienen un voltaje alterno (varían rápidamente de más a menos, de menos a más), la mancha verde se desplazará hacia arriba y hacia abajo deprisa y se creará una línea verde. Este es el primer paso hacia el tubo de televisión y ver a Dan Rather en las noticias de noche de la CBS.
Pero es 1896, y Thomson piensa en otras cosas. Como se sabe la fuerza (la intensidad del campo eléctrico), será fácil, si se ha podido determinar la velocidad de los rayos catódicos, calcular, con una sencilla mecánica newtoniana, a qué velocidad deberá moverse la mancha. En este punto, Thomson usa una treta. Coloca un campo magnético alrededor del tubo en una dirección tal que la desviación magnética anule exactamente la eléctrica. Como esta fuerza magnética depende de la velocidad desconocida, le hasta leer la intensidad del campo eléctrico y del campo magnético para deducir el valor de la velocidad. Determinada la velocidad, podemos volver a comprobar la desviación del rayo en los campos eléctricos. Se obtiene un valor preciso de e / m, la razón de la carga eléctrica que transporta el rayo catódico dividida por su masa.
Trabajosamente, Thomson aplica campos, mide desviaciones, las anula, mide los campos y le salen números para e / m. Como Kaufmann, comprueba sus resultados cambiando el material del cátodo —aluminio, platino, cobre, latón— y repitiendo el experimento. Siempre sale el mismo número. Cambia el gas del tubo: aire, hidrógeno, dióxido de carbono. El mismo resultado. Thomson no repite el error de Kaufmann. Llega a la conclusión de que los rayos catódicos no son moléculas de gas cargadas, sino partículas fundamentales que han de formar parte de toda materia.
No satisfecho con que esto fuese prueba suficiente, ataca de nuevo y aplica la idea de la conser-vación de la energía. Captura los rayos catódicos con un bloque metálico. Se sabe su energía; es, simplemente, la energía eléctrica que imparte a las partículas el voltaje de la batería. Mide el calor engendrado por los rayos catódicos, y observa que al relacionar la energía que adquieren los hipotéticos electrones con la energía que se genera en el bloque sale la razón e / m. En una larga serie de experimentos, Thomson obtiene un valor de e / m (2,0 x 1011 culombios por kilogramo), que no difiere mucho de su primer resultado. En 1897 anuncia el resultado: «Tenemos en los rayos catódicos materia en un estado nuevo, estado en el que la subdivisión de la materia se lleva mucho más lejos que en el estado gaseoso ordinario». Esta «subdivisión de la materia» es un ingrediente de toda la materia y parte de la «sustancia con que están hechos los elementos químicos».
¿Qué nombre darle a esta nueva partícula? La palabra de Stoney «electrón» estaba a mano, así que con «electrón» se quedó. Thomson disertó y escribió sobre las propiedades corpusculares de los rayos catódicos desde abril hasta agosto de 1897. A esto se le llama mercadotecnia de los resultados que uno ha obtenido.
Quedaba un problema por resolver: los valores separados de e y m. Thomson se encontraba en el mismo atolladero que Weichert unos pocos años antes. Hizo algo inteligente. Como veía que la e / m de la nueva partícula era unas mil veces mayor que la del hidrógeno, el más ligero de todos los átomos químicos, o la e del electrón era mucho mayor o su m mucho menor. ¿Qué era: la e grande o la m pequeña? Intuitivamente, se quedó con la m pequeña. Valiente elección, pues con ella suponía que la nueva partícula tenía una masa minúscula, mucho más pequeña que la del hidrógeno. Recordad que la mayoría de los físicos y de los químicos todavía creía que el átomo químico era el á-tomo indivisible. Thomson decía ahora que el resplandor de su tubo probaba que había un ingrediente universal, un constituyente menor de todos los átomos químicos.
En 1898, Thomson se dedicó a medir la carga eléctrica de sus rayos catódicos, con lo que indirectamente medía también su masa. Empleó una técnica nueva, la cámara de niebla, inventada por un alumno suyo, el escocés C. T. R. Wilson, para estudiar las propiedades de la lluvia, bien no escaso en Escocia. La lluvia se produce cuando el vapor de agua se condensa sobre el polvo y forma gotas. Cuando el aire está limpio, los iones cargados eléctricamente pueden desempeñar el papel del polvo, y eso es lo que pasa en la cámara de niebla. Thomson medía la carga total de la cámara con una técnica electrométrica y determinaba la carga individual de cada gotita contándolas y dividiendo el total.
Tuve que construir una cámara de niebla de Wilson para mi tesis doctoral, y ` desde entonces las odio, y odio a Wilson, y a cualquiera que haya tenido algo que ver con este aparato terco como una mula que siempre te lleva la contraria. Que Thomson obtuviera el valor correcto de e y midiese, pues, la masa del electrón es milagroso. Y eso no es todo. Durante el proceso completo de caracterización de la partícula su dedicación no pudo ceder en un instante. ¿Cómo sabe el campo eléctrico? ¿Lee la etiqueta de la batería? No hay etiquetas. ¿Cómo sabe el valor preciso de su campo magnético, a fin de medir la velocidad? ¿Cómo mide la corriente? Leer una aguja en un contador tiene sus problemas. La aguja es un poco gruesa. Puede temblar y moverse. ¿Cómo se calibra la escala? ¿Tiene sentido? En 1897 los patrones absolutos no eran artículos de catálogo. La medición de los voltajes, las corrientes, las temperaturas, las presiones, las distancias, los intervalos de tiempo eran, en cada caso, un problema formidable. Cada una de esas mediciones requería un conocimiento detallado del funcionamiento de la batería, de los imanes, de los aparatos de medida.
Y luego venía el problema político: para empezar, ¿cómo se convence a los poderes de que te den los recursos necesarios para hacer el experimento? Ser el jefe, como Thomson lo era, ayudaba, la verdad. Y me he dejado el problema más crucial de todos` cómo se decide qué experimento hay que hacer. Thomson tenía el talento, el saber hacer político, el vigor para salir adelante donde otros habían fracasado. En 1898 anunció que los electrones son componentes del átomo y que los rayos catódicos son electrones que han sido separados del átomo. Los científicos creían que el átomo carecía de estructura y no se podía partir. Thomson lo habían hecho trizas.
Se dividió el átomo, y hallamos nuestra primera partícula elemental, nuestro primer á-tomo. ¿Oís esa risa floja?
5
El átomo desnudo
Algo está pasando aquí.
El qué, no está demasiado claro.
BUFFALO SPRINGFIELD
En la nochevieja de 1999, mientras el resto del mundo se estará preparando para el último suspiro del siglo, los físicos, de Palo Alto a Novosibirsk, de Ciudad del Cabo a Reykiavik, descansarán, exhaustos aún de haber festejado el centenario del descubrimiento del electrón casi dos años atrás (en 1998). A los físicos les encantan las celebraciones. Celebrarán el cumpleaños de cualquier partícula, por oscura que sea. Pero el electrón, ¡caray! Bailarán por las calles.
Descubierto el electrón, en el Laboratorio Cavendish de la Universidad de Cambridge, el lugar donde nació, se solía brindar por él con estas palabras: «¡Por el electrón! ¡Por que nunca sirva para nada!». Mala suerte: hoy, menos de un siglo después, toda nuestra superestructura tecnológica se basa en este pequeño compañero.
Apenas había nacido y ya planteaba problemas. Aún hoy nos deja perplejos. La «imagen» con que se lo representa es una esfera de carga eléctrica que gira deprisa alrededor de un eje y crea un campo magnético. J. J. Thomson luchó vigorosamente por medir la carga y la masa del electrón, pero ahora se conocen ambas magnitudes con un alto grado de precisión.
Veamos ahora los rasgos fantasmagóricos que le caracterizan. En el curioso mundo del átomo, se le da al electrón un radio nulo. Ello da lugar a unos cuantos problemas obvios:
• Si el radio es cero, ¿qué es lo que gira?
• ¿Cómo puede tener masa?
• ¿Dónde está la carga?
• Para empezar, ¿cómo sabemos que el radio es cero?
• ¿Me pueden devolver el dinero?
Aquí nos topamos de frente con el problema de Boscovich. Boscovich resolvía el proble-ma de las colisiones de los «átomos» convirtiéndolos en puntos, en cosas sin dimensiones. Sus puntos eran literalmente puntos de matemático, pero dejaba que tuvieran propiedades corrientes: la masa y algo a lo que llamamos carga, la fuente de un campo de fuerza. Los puntos de Boscovich eran teóricos, especulativos. Pero el electrón es real. Es probable que sea una partícula puntual, pero con las demás propiedades intactas. Masa, sí. Carga, sí. Espín —giro alrededor de sí mismo—, sí. Radio, no.
Pensad en el gato de Cheshire de Lewis Carroll. Lentamente, el gato de Cheshire desaparece hasta que no queda de él más que la sonrisa. Nada de gato, sólo sonrisa. Imaginaos el radio de un fragmento de carga que se vaya contrayendo poco a poco hasta desaparecer, pero sin que su espín, su carga, su masa y su sonrisa cambien.
Este capítulo trata del nacimiento y del desarrollo de la teoría cuántica. Es la historia de lo que pasa dentro del átomo. Empiezo con el electrón, porque una partícula que gira alrededor de sí misma y tiene masa pero carece de dimensiones es, para la mayoría de las personas, contraria a la intuición. Pensar en semejante cosa viene a ser como hacer flexiones mentales. Podría hacerle un poco de daño al cerebro: habréis de usar ciertos oscuros músculos cerebrales que seguramente no son de mucho uso.
Pero la idea de que el electrón es una masa puntual, una carga puntual, un giro puntual no deja de suscitar problemas conceptuales. La Partícula Divina está íntimamente unida a esta dificultad estructural. Sigue escapándosenos un conocimiento profundo de la masa, y en los años treinta y cuarenta el electrón fue el heraldo de esas dificultades. La medición del tamaño del electrón se convirtió en un trabajo a destajo, y generó doctorados a granel, de Nueva Jersey a Lahore. A lo largo de los años, experimentos cada vez más sensibles dieron números cada vez menores, todos compatibles con un radio nulo. Como si Dios hubiese tomado el electrón en Su mano y lo hubiera comprimido tanto como fuese posible. Con los grandes aceleradores construidos en los años setenta y ochenta, las mediciones fueron cada vez más precisas. En 1990 se midió que el radio era menor que 0, 000.000.000.000.000.001 centímetros o, en notación científica, 10-18 centímetros. Este es el mejor «cero» que la física puede ofrecer… por ahora. Si tuviera una buena idea experimental para añadir un cero más, lo dejaría todo e intentaría que se aprobase.
Otra propiedad interesante del electrón es el magnetismo, que se describe con un número, el llamado factor g. Por medio de la mecánica cuántica se calcula que el factor g del electrón es:
2 x (1,001159652190)
¡Y qué cálculos! Para llegar a ese número hizo falta que unos teóricos capacitados dedica-ran a la tarea años y una impresionante cantidad de tiempo de superordenador Pero esa era la teoría. Para verificarla, los experimentadores idearon unos ingeniosos métodos a fin de medir el factor g con una precisión equivalente. El resultado:
2 x (1,001159652193)
Como veis, la verificación llega a casi doce decimales. Se trata de una concordancia entre la teoría y el experimento espectacular. Lo que aquí nos importa es que el cálculo del factor g es una derivación de la mecánica cuántica, y en el corazón mismo de la teoría cuántica están las que se conocen como relaciones de incertidumbre de Heisenberg. En 1927 un físico alemán propuso una idea chocante: que es imposible medir a la vez la velocidad y la posición de una partícula con una precisión arbitraria. Esta imposibilidad no depende de la brillantez y del presupuesto del experimentador. Es una ley fundamental de la naturaleza.
Y sin embargo, a pesar de que la incertidumbre es uno de los hilos con que se teje la mecánica cuántica, ésta hace como churros predicciones, del estilo del factor g de antes, precisas hasta el undécimo decimal. A primera vista, la mecánica cuántica es una revolución científica que forma la roca madre sobre la que florece la ciencia del siglo XX… y que empieza por una confesión de incertidumbre.
¿De dónde salió esta teoría? Es una buena historia de detectives, y como en todo misterio, hay pistas, unas válidas, otras falsas. Por todas partes hay mayordomos, para confusión de los detectives. Los policías municipales, los del Estado, el FBI chocan, discuten, cooperan, van cada uno por su lado. Hay muchos héroes. Hay golpes y contragolpes. Mi visión será muy parcial, en la esperanza de que podré dar una impresión de cómo evolucionaron las ideas desde 1900 hasta que, en los años treinta, los propios revolucionarios, ya maduros, le pusieron los toques «finales» a la teoría. Pero ¡andad sobre aviso! El micromundo ofende la intuición; las masas, las cargas, los giros puntuales son propiedades de las partículas que en el mundo atómico son experimentalmente coherentes, no magnitudes que podamos ver a nuestro alrededor en el mundo macroscópico normal. Si hemos de seguir siendo amigos hasta el final de este capítulo, habremos de aprender a reconocer las fijaciones que padecemos, debidas a nuestra estrecha experiencia como macrocriaturas. Así que olvidaos de la normalidad; esperad lo que os choque, lo que no os podréis creer. Niels Bohr, uno de los fundadores, decía que quien no quede conmocionado por la teoría cuántica es que no la entiende. Richard Feynman aseguraba que nadie entiende la teoría cuántica. («Entonces, ¿qué esperas de nosotros?», me dicen mis alumnos.) Einstein, Schrödinger y otros buenos científicos no aceptaron jamás lo que se desprendía de la teoría, pero en los años noventa se cree que sin ciertos elementos fantasmagóricos de naturaleza cuántica no cabe comprender el origen del universo.
En el arsenal de armas intelectuales que los exploradores llevaron consigo al nuevo mundo del átomo estaban la mecánica newtoniana y las ecuaciones de Maxwell. Todos los fenómenos macroscópicos parecían estar sujetos a esas síntesis poderosas. Pero los experimentos de la última década del siglo XIX empezaron a poner en apuros a los teóricos. Ya hemos hablado de los rayos catódicos, que condujeron al descubrimiento del electrón. En 1895 Wilhelm Roentgen descubrió los rayos X. En 1896 Antoine Becquerel descubrió por casualidad la radiactividad al guardar en un cajón unas placas fotográficas cerca de un poco de uranio. La radiactividad, llevó pronto al concepto de vida media. La materia radiactiva se desintegra en unos tiempos característicos cuyo promedio cabía medir, pero la desintegración de un átomo concreto era impredecible. ¿Qué quería decir esto? Nadie lo sabía. La verdad era que todos esos fenómenos desafiaban la explicación por medios clásicos.
Cuando el arco iris no basta
Los físicos empezaban también a estudiar en profundidad las propiedades de la luz. Newton, con un prisma de cristal, había mostrado que, cuando se desplegaba la luz blanca en su composición espectral, donde los colores van del rojo en un extremo del espectro al violeta en el otro según una gradación continua, se reproducía el arco iris. En 1815 Joseph von Fraunhofer, artesano muy hábil, refinó mucho el sistema óptico que se utilizaba para observar los colores que salían del prisma: al mirar por un pequeño telescopio, la gama de colores se distinguía con perfecta nitidez. Con este instrumento —¡bingo!— Fraunhofer hizo un descubrimiento. Sobre los espléndidos colores del espectro solar se veía una serie de finas rayas oscuras, que parecían estar irregularmente espaciadas. Fraunhofer llegó a registrar 576 de esas líneas. ¿Qué significaban? En los tiempos de Fraunhofer se sabía que la luz era un fenómeno ondulatorio. Más tarde, James Clerk Maxwell mostraría que las ondas de luz son campos eléctricos y magnéticos, y que la distancia entre las crestas de la onda, la longitud de onda, es un parámetro fundamental que determina el color.
Al conocer las longitudes de onda, podemos asignar una escala numérica a la banda de colores. La luz visible va del rojo oscuro, a 8.000 unidades angstrom (0,000.08 cm), al violeta brillante, a unas 4.000 unidades angstrom. Con esta escala, Fraunhofer pudo localizar de forma precisa cada una de las finas rayas. Por ejemplo, una línea famosa, la llamada Hα, o « subalfa» (si no os gusta hache subalfa, llamadla Irving), tiene una longitud de onda de 6.562,8 unidades angstrom, en el verde, cerca de la mitad del espectro.
¿Por qué nos interesan esas líneas? Porque en 1859 el físico alemán Gustav Robert Kirchhoff encontró una profunda conexión entre ellas y los elementos químicos. Este personaje calentaba diversos elementos —cobre, carbón, sodio, etcétera — con una llama caliente hasta que se volvían incandescentes, energizaba distintos gases encerrados en tubos y examinaba los espectros de la luz emitida por esos gases encendidos con aparatos visores aún más perfeccionados. Descubrió que cada elemento emitía una serie característica de líneas de color brillantes y muy nítidas, superpuestas a un resplandor más oscuro de colores continuos. Dentro del telescopio había una escala grabada, calibrada en longitudes de onda, de forma que pudiese precisarse la posición de cada línea brillante. Como el espaciamiento de las líneas era distinto para cada elemento, Kirchhoff y su colega, Robert Bunsen, pudieron caracterizar los elementos mediante sus líneas espectrales. Kirchhoff necesitaba a alguien que le ayudase a calentar los elementos; ¿quién mejor que el hombre que inventó el mechero Bunsen?) Con un poco de habilidad, los investigadores fueron capaces de identificar las pequeñas impurezas de un elemento químico que hubiera presentes en otro. La ciencia tenía ahora una herramienta para examinar la composición de todo lo que emitiera luz —del Sol, por ejemplo, y, con el tiempo, hasta de las estrellas lejanas—. El descubrimiento de líneas espectrales que no se habían registrado antes fue un filón de elementos nuevos. En el Sol se identificó uno, el helio, en 1878. Pasarían diecisiete años antes de que se descubriese en la Tierra este elemento estelar.
Imaginaos la emoción que produjo el descubrimiento cuando se analizó la luz de la primera estrella brillante… y se halló que estaba hecha ¡de la misma pasta que hay aquí en la Tierra! Como la luz de las estrellas es muy tenue, es preciso dominar bien el telescopio y el espectroscopio para estudiar los colores y las líneas, pero la conclusión es inevitable: el Sol y las estrellas están hechos de la misma materia que la Tierra. De hecho, no hemos hallado ningún elemento en el espacio que no tengamos aquí en la Tierra. Somos puro material de estrellas. Para toda concepción global del mundo en que vivimos, este descubrimiento es a todas luces de una importancia increíble. Refuerza a Copérnico: no somos especiales.
¡Ah!, pero ¿por qué Fraunhofer, el tipo que empezó todo esto, hallaba esas líneas oscuras en el espectro del Sol? La explicación pronto estuvo lista. El núcleo caliente del Sol (al blanco vivo) emitía luz de todas las longitudes de onda. Pero a medida que esta luz se filtraba a través de los gases, fríos en comparación, de la superficie del Sol, éstos absorbían la luz precisamente de las longitudes de onda que les gusta emitir. Las líneas oscuras de Fraunhofer, pues, representaban la absorción. Las líneas brillantes de Kirchhoff eran emisiones de luz.
Aquí estamos, a finales del siglo XIX, y ¿qué hacemos con todo esto? Se supone que los átomos químicos son á-tomos duros, con masa, sin estructura, indivisibles. Pero parece que cada uno puede emitir o absorber su propia serie característica de líneas nítidas de energía electromagnética. Para algunos científicos, esto decía a gritos una palabra: «¡estructura!». Era bien sabido que los objetos mecánicos tienen estructuras que resuenan con los impulsos regulares. Las cuerdas del piano y del violín vibran y dan notas musicales en los elaborados instrumentos a los que pertenecen, y las copas de vino se hacen pedazos cuando un gran tenor canta la nota perfecta. Si los soldados marchan con un paso desafortunado, el puente se moverá violentamente. Las ondas de luz son justo eso, impulsos cuyo «paso» es igual a la velocidad dividida por la longitud de onda. Estos ejemplos mecánicos suscitaron la cuestión: si los átomos carecían de estructura interna, ¿cómo podían exhibir propiedades resonantes del estilo de las líneas espectrales?
Y si los átomos tenían una estructura, ¿qué decían de ella las teorías de Newton y de Maxwell? Los rayos X, la radiactividad, el electrón y las líneas espectrales tenían una cosa en común: la teoría clásica era incapaz de explicarlos (aunque muchos científicos lo intentaron). Por otra parte, tampoco es que alguno de esos fenómenos contradijese abiertamente la teoría clásica de Newton-Maxwell. No podían ser explicados, nada más. Pero mientras no hubiese una prueba contundente en contra, quedaba la esperanza de que un tío listo acabara por dar con una forma de salvar la física clásica. Nunca pasaría eso. Pero la prueba contundente sí aparecería al fin. En realidad, aparecieron tres.
Prueba contundente número 1: la catástrofe ultravioleta
La primera prueba observacional que contradijo palmariamente a la teoría clásica fue «la radiación del cuerpo negro». Todos los objetos radian energía. Cuanto más calientes, más energía radian. Un ser humano vivo emite unos 200 vatios de radiación en la región infrarroja invisible del espectro. (Los teóricos emiten 210 y los políticos llegan a los 250.)
Los objetos también absorben energía de su entorno. Si su temperatura es mayor que la de ese entorno, se enfrían, pues entonces radian más energía de la que absorben. «Cuerpo negro» es la expresión técnica que nombra a un absorbedor ideal, el que absorbe el 100 por 100 de la radiación que le llega. A un objeto así, cuando está frío, se le ve negro porque no refleja luz. Los experimentadores gustan de emplearlos como patrón para la medición de luz emitida. Lo interesante de la radiación de estos objetos —trozos de carbón, herraduras de caballo, las resistencias de una tostadora— es el espectro de color de la luz: cuánta luz desprenden en las distintas longitudes de onda; cuando los calentamos, nuestros ojos perciben al principio un oscuro resplandor rojo; luego, a medida que van estando más calientes, el M se vuelve brillante y acaba por convertirse en amarillo, blancoazulado y (¡cuanto calor!) blanco brillante. ¿Por qué al final llegamos al blanco?
El desplazamiento del espectro de color quiere decir que el pico de intensidad de la luz se mueve, a medida que la temperatura se eleva, del infrarrojo al rojo, al amarillo y al azul. Según se va desplazando, la distribución de la luz entre las longitudes de onda se ensancha, y cuando el pico llega a ser azul se radian tanto los otros colores que vemos blanco al cuerpo caliente. Al blanco vivo, diríamos. Hoy, los astrofísicos estudian la radiación del cuerpo negro que ha quedado como resto (de la radiación más incandescente de la historia del universo: el big bang.
Pero me estoy desviando del tema. A finales del siglo XIX los datos acerca de la radiación del cuerpo negro no paraban de mejorar. ¿Qué decía la teoría de Maxwell de estos datos? ¡La catástrofe! Algo completamente equivocado. La teoría clásica predecía una forma de la curva de distribución de la intensidad de la luz entre los distintos colores, las distintas longitudes de onda, errónea. En particular, predecía que el pico de la cantidad de luz se emitía siempre en las longitudes de onda más cortas, hacia el extremo violeta del espectro e incluso en el ultravioleta invisible. Eso no es lo que pasa. De ahí la «catástrofe ultravioleta» y la prueba contundente.
En un principio se creyó que este fallo al aplicar las ecuaciones de Maxwell se resolvería cuando se conociese mejor la manera en que la materia generaba energía electromagnética. El primero que apreció la gravedad del fallo fue Albert Einstein en 1905, pero otro físico le había preparado el terreno al maestro.
Entra Max Planck, teórico berlinés cuarentón que tenía tras de sí una larga carrera de físico, experto en la teoría del calor. Era inteligente, y profesoral. Una vez se le olvidó en qué aula se suponía que debía dar clase y preguntó en la oficina de su cátedra: «Por favor, dígame en qué aula da clase hoy el profesor Planck». Se le dijo seriamente: «No vaya, joven. Es usted jovencísimo para entender las clases de nuestro sabio profesor Planck».
En cualquier caso, Planck tenía a mano los datos experimentales, buena parte de los cuales habían sido tomados por colegas de su laboratorio berlinés, y decidió que debía entenderlos. Tuvo la inspiración de encontrar una expresión matemática que casaba con los datos; no sólo con la distribución de la intensidad a una temperatura dada, sino también con la forma en que la curva (la distribución de longitudes de onda) cambia a medida que cambia la temperatura. Por lo que vendrá, conviene resaltar que una curva dada permite calcular la temperatura del cuerpo que emite la radiación. Planck tenía razones para estar orgulloso de sí mismo. «Hoy he hecho un descubrimiento tan importante como el de Newton», alardeó ante su hijo.
El siguiente problema de Planck era conectar su afortunada fórmula, que estaba basada en los hechos, con una ley de la naturaleza. Los cuerpos negros, insistían los datos, emiten muy poca radiación a longitudes de onda cortas. ¿Qué «ley de la naturaleza» daría lugar a la supresión de las longitudes de onda cortas, tan caras a la teoría de Maxwell clásica? Pocos meses después de haber publicado su exitosa ecuación, Planck dio con una posibilidad. El calor es una forma de energía, y por lo tanto el contenido de energía de un cuerpo radiante está limitado por su temperatura. Cuanto más caliente sea el objeto, más energía habrá disponible. En la teoría clásica esta energía se distribuye por igual entre las diferentes longitudes de onda. PERO (nos van a salir granos, maldita sea, estamos a punto de descubrir la teoría cuántica) suponed que la cantidad de energía depende de la longitud de onda. Suponed que las longitudes de onda cortas «cuestan» más energía. Entonces, cuando intentemos radiar con longitudes de onda más cortas, iremos quedándonos sin energía.
Planck halló que tenía que hacer explícitamente dos suposiciones para que su teoría tuviera sentido. En primer lugar, dijo que la energía radiada está relacionada con la longitud de onda de la luz; en segundo, que el fenómeno está inextricablemente vinculado a que su naturaleza sea corpuscular. Planck pudo justificar su fórmula y mantenerse en paz con las leyes del calor suponiendo que la luz se emitía en forma de puñados o «paquetes» discretos de energía o (ahí viene) «cuantos». La energía de cada puñado está relacionada con la frecuencia mediante una conexión simple: E = hf. Un cuanto de energía E es igual a la frecuencia, f, de la luz por una constante, h. Como la frecuencia guarda una relación inversa con la longitud de onda, las longitudes de onda cortas (o frecuencias altas) cuestan más energía. A cualquier temperatura dada, sólo se dispone de tanta energía, así que las frecuencias altas se suprimen. La naturaleza corpuscular fue esencial para que saliese la respuesta correcta. La frecuencia es la velocidad de la luz dividida por la longitud de onda.
La constante que Planck introdujo, h, venía determinada por los datos. Pero ¿qué es h? Planck la llamó el «cuanto de acción», pero la historia le da el nombre de constante de Planck, y por siempre jamás simbolizará la nueva física revolucionaria. La constante de Planck tiene un valor, 4,11 x 10—5 eV-segundo, que la mide. No os acordéis de memoria. Observad sólo que es un número muy pequeño, gracias al 10—15 (quince lugares tras la coma decimal ).
Esto —la introducción del cuanto o puñado de energía de luz-es el punto decisivo, si bien ni Planck ni sus colegas comprendieron la profundidad del descubrimiento. Einstein, que reconoció el verdadero significado de los cuantos de Planck, fue la excepción, pero el resto de la comunidad científica tardó veinticinco años en asimilarlo. A Planck le perturbaba su propia teoría; no quería ver destruida la física clásica. «Hemos de vivir con la teoría cuántica», aceptó por fin. «Y creedme, va a crecer. No será sólo en la óptica. Entrará en todos los campos.» ¡Cuánta razón tenía!
Un comentario final. En 1990, el satélite Explorador del Fondo Cósmico (COBE) transmitió a sus encantados dueños astrofísicos datos sobre la distribución espectral de la radiación cósmica de fondo que impregna el espacio entero. Los datos, de una precisión sin precedentes, concordaban de forma exacta con la fórmula de Planck para la radiación del cuerpo negro. Recordad que la curva de la distribución de la intensidad de la luz permite definir la temperatura del cuerpo que emite la radiación. Con los datos del satélite COBE y de la ecuación de Planck, los investigadores pudieron calcular la temperatura promedio del universo. Hace frío: 2,73 grados sobre el cero absoluto.
Prueba contundente número 2: el efecto fotoeléctrico
Saltemos ahora a Albert Einstein, funcionario de la oficina suiza de patentes en Berna. Es el año 1905. Einstein obtuvo su doctorado en 1903 y se pasó el año siguiente dándole vueltas al sistema y sentido de la vida. Pero 1905 fue un buen año para él. En su transcurso se las apañó para resolver tres de los problemas más importantes de la física: el efecto fotoeléctrico (nuestro tema), la teoría del movimiento browniano (¡buscadla en un libro!) y, ¡oh, sí!, la teoría de la relatividad especial. Einstein comprendió que la conjetura de Planck implica que la emisión de la luz, la energía electromagnética, ocurre a golpes discretos de energía, h f, y no idílicamente, como en la teoría clásica, en la que a cada longitud de onda le sigue continua y regularmente otra.
Puede que esta percepción le diese a Einstein la idea de explicar una observación experi-mental de Heinrich Hertz. Para confirmar la teoría de Maxwell, Hertz había generado ondas de radio. Para ello hacía saltar chispas entre dos bolas metálicas. En el curso de su trabajo se percató de que las chispas cruzaban con mayor facilidad el vano si las bolas acababan de ser pulidas. Como era curioso, pasó un tiempo estudiando el efecto de la luz en las superficies metálicas. Observó que la luz azul-violácea de la chispa era esencial para la extracción de cargas de la superficie metálica, que alimentaban el ciclo al contribuir a la formación de más chispas. Hertz razonó que el pulimentado retira los óxidos que interfieren la interacción de la luz y la superficie metálica.
La luz azul-violácea promovía que los electrones saltasen del metal, fenómeno que por entonces parecía una rareza. Los experimentadores estudiaron sistemáticamente el fenómeno y obtuvieron estos hechos curiosos:
1 La luz roja no puede liberar electrones, ni siquiera cuando es extraordinariamente intensa.
2 La luz violeta, aunque sea más bien débil, libera electrones con facilidad.
3 Cuanto más corta sea la longitud de onda (cuanto más violeta sea la luz), mayor será la energía de los electrones liberados.
Einstein cayó en la cuenta de que la idea de Planck según la cual la luz viene a puñados podía ser la clave para resolver el misterio fotoeléctrico. Imaginaos un electrón, a lo suyo en el metal de una de las bolas muy pulidas que utilizaba Hertz. ¿Qué tipo de luz podría darle energía suficiente para que saltase de la superficie? Einstein, por medio de la ecuación de Planck, vio que si la longitud de onda de la luz es suficientemente corta, el electrón recibirá una energía que bastará para que atraviese la superficie del metal y escape. O el electrón absorbe el puñado entero de energía o no lo hace, razonó Einstein. Ahora bien, si la longitud de onda del puñado absorbido es demasiado larga (no tiene la bastante energía), el electrón no puede escapar; no tiene energía suficiente. Empapar el metal con puñados de luz impotente (de longitud de onda larga) no sirve de nada. Según Einstein, es la energía del puñado lo que cuenta, no cuántos haya.
La idea de Einstein funciona a la perfección. En el efecto fotoeléctrico los cuantos de luz, o fotones, se absorben en vez de, como pasa en la teoría de Planck, emitirse. Parece que ambos procesos exigen cuantos cuya energía sea E = hf. El concepto de cuanto se llevaba el gato al agua. La idea del fotón no se probó de forma convincente hasta 1923, cuando el físico estadounidense Arthur Compton consiguió demostrar que un fotón podía chocar con un electrón como si fueran dos bolas de billar, cambiando con ello su dirección, energía y momento, y actuando en todo como una partícula, sólo que una muy especial, conectada de cierta forma a una frecuencia de vibración o longitud de onda.
Aquí apareció un fantasma. La naturaleza de la luz era de antiguo un campo de batalla. Acordaos de que Newton y Galileo sostenían que la luz estaba hecha de «corpúsculos». El astrónomo holandés Christian Huygens defendió una teoría ondulatoria. La batalla histórica entre los corpúsculos de Newton y las ondas de Huygens quedó zanjada a principios del siglo XIX por el experimento de la doble rendija de Thomas Young (del que hablaremos enseguida). En la teoría cuántica, el corpúsculo resucitó en la forma de fotón, y el dilema onda-corpúsculo revivió y tuvo un final sorprendente.
Pero la física clásica aún debió enfrentarse a más problemas, gracias a Ernest Rutherford y su descubrimiento del núcleo.
Prueba contundente número 3: ¿a quién le gusta el pudin de pasas?
Ernest Rutherford es uno de esos personajes que es casi demasiado bueno para ser de verdad, como si la Central de Repartos lo hubiera elegido para la continuidad científica. Rutherford, neozelandés grande y rudo que lucía un gran mostacho, fue el primer estudiante extranjero admitido en el célebre Laboratorio Cavendish, que por entonces dirigía J. J. Thomson. Rutherford llegó justo a tiempo para asistir al descubrimiento del electrón. Tenía, al contrario que su jefe, J. J., buenas manos, y fue un experimentador de experimentadores, digno de ser el rival de Faraday al título de mejor experimentador que haya habido jamás. Era bien conocida su creencia de que maldecir en un experimento hacía que funcionase mejor, idea que los resultados experimentales, si no la teoría, ratificaron. Al valorar a Rutherford hay que tener en cuenta especialmente a sus alumnos y posdoctorandos, quienes, bajo su terrible mirada, llevaron a cabo grandes experimentos. Fueron muchos: Charles D. Ellis (descubridor de la desintegración beta), James Chadwick (descubridor del neutrón) y Hans Geiger (famoso por el contador), entre otros. No penséis que es fácil supervisar a unos cincuenta estudiantes graduados. Para empezar, hay que leerse sus trabajos. Escuchad cómo empieza su tesis uno de mis mejores alumnos: «Este campo de la física es tan virgen que el ojo humano nunca ha puesto el pie en él». Pero volvamos a Ernest.
Rutherford a duras penas ocultaba su desprecio por los teóricos, aunque, como veremos, él mismo fue uno nada malo. Y es una suerte que a finales del siglo pasado la prensa no le hiciese tanto caso a la ciencia como ahora. De Rutherford se podrían haber citado tantas ocurrencias, que habría tenido que colgarse, de tantas toneladas de subvenciones. He aquí unos cuantos rutherfordismos que han llegado a nosotros a lo largo del tiempo:
• «Que no coja en mi departamento a alguien que hable del universo.»
• «¡Ah, eso [la relatividad]! En nuestro trabajo nunca nos hemos preocupado de ella.»
• «La ciencia, o es física, o es coleccionar sellos.»
• «Acabo de leer algunos de mis primeros artículos y, sabes, cuando terminé, me dije: “Rutherford, chico, eras un tío condenadamente listo”.»
Este tipo condenadamente listo terminó su tiempo con Thomson, cruzó el Atlántico, trabajó en la Universidad McGill de Montreal y volvió a Inglaterra para ocupar un puesto en la Universidad de Manchester. En 1908 ganó un premio Nobel por sus trabajos sobre la radiactividad. Para casi cualquiera, este habría sido el clímax adecuado de toda una carrera, pero no para Rutherford. Entonces fue cuando empezó en serio (earnest) su trabajo.
No se puede hablar de Rutherford sin hablar del laboratorio Cavendish, creado en 1874 en la Universidad de Cambridge como laboratorio de investigación. El primer teórico fue Maxwell (¿un teórico, director de laboratorio?). El segundo fue lord Rayleigh, al que siguió, en 1884, Thomson. Rutherford llegó del paraíso de Nueva Zelanda como estudiante investigador especial en 1895, un momento fantástico para los progresos rápidos. Uno de los ingredientes principales para tener éxito profesional en la ciencia es la suerte. Sin ella, olvidaos. Rutherford la tuvo. Sus trabajos sobre la recién descubierta radiactividad —rayos de Becquerel se la llamaba— le prepararon para su descubrimiento más importante, el núcleo atómico, en 1911. El descubrimiento lo efectuó en la Universidad de Manchester y volvió en triunfo al Cavendish, donde sucedió a Thomson como director.
Recordaréis que Thomson había complicado mucho el problema de la materia al descubrir el electrón. El átomo químico, del que se creía que era la partícula indivisible planteada por Demócrito, tenía ahora cositas que revoloteaban en su interior. La carga de estos electrones era negativa, lo que suponía un problema. La materia es neutral, ni positiva ni negativa. Así que ¿qué compensa a los electrones?
El drama empieza muy prosaicamente. El jefe entra en el laboratorio. Allí están un posdoctorando, Hans Geiger, y un meritorio aún no graduado, Ernest Marsden. Están liados con unos experimentos de dispersión de partículas alfa. Una fuente radiactiva —por ejemplo, el radón 222— emite natural y espontáneamente partículas alfa. Resulta que las partículas alfa no son más que átomos de helio sin los electrones, es decir, núcleos de helio, como descubrió Rutherford en 1908. La fuente de radón se coloca en un recipiente de plomo en el que ha abierto un agujero angosto que dirige las partículas alfa hacia una lámina de oro finísima. Cuando las alfas atraviesan la lámina, los átomos de oro les desvían la trayectoria. El objeto de su estudio son los ángulos de esas desviaciones. Rutherford había montado el que llegaría a ser el prototipo de los experimentos de dispersión. Se disparan partículas a un blanco y se ve adónde van a parar. En este caso las partículas alfa eran pequeñas sondas y el propósito era descubrir cómo se estructuran los átomos. La hoja de oro que hace de blanco está rodeada por todas partes —360 grados— de pantallas de sulfuro de zinc. Cuando una partícula alfa choca con una molécula de sulfuro de zinc, ésta emite un destello de luz que permite medir el ángulo de desviación. La partícula alfa se precipita a la lámina de oro, choca con un átomo y se desvía a una de las pantallas de sulfuro de zinc. ¡Flash! Muchas de las partículas alfa son desviadas sólo ligeramente y chocan con la pantalla de sulfuro de zinc directamente por detrás de la lámina de oro. Fue dura la realización del experimento. No tenían contadores de partículas —Geiger no los había inventado todavía—, así que Geiger y Marsden no tenían más remedio que permanecer en una sala a oscuras durante horas hasta que su vista se hacía a ver los destellos. Luego tenían que tomar nota y catalogar el número y las posiciones de las pequeñas chispas.
Rutherford —que no tenía que meterse en habitaciones a oscuras porque era el jefe— decía: «Ved si alguna de las partículas alfa se refleja en la lámina». En otras palabras, ved si alguna de las alfas da en la hoja de oro y retrocede hacia la fuente. Marsden recuerda que «para mi sorpresa observé ese fenómeno… Se lo dije a Rutherford cuando me lo encontré luego, en las escaleras que llevaban a su cuarto».
Los datos, publicados después por Geiger y Marsden, daban cuenta de que una de cada 8.000 partículas alfa se reflejaba en la lámina metálica. Esta fue la reacción de Rutherford, hoy célebre, a la noticia: «Fue el suceso más increíble que me haya pasado en la vida. Era como si disparases un cañón de artillería a una hoja de papel cebolla y la hala rebotase y te diera».
Esto fue en mayo de 1909. A principios de 1911 Rutherford, actuando esta vez como físico teórico, resolvió el problema. Saludó a sus alumnos con una amplia sonrisa: «Sé a qué se parecen los átomos y entiendo por qué se da la fuerte dispersión hacia atrás». En mayo de ese año se publicó el artículo donde declaraba la existencia del núcleo atómico. Fue el final de una era. Ahora se veía, correctamente, que el átomo era complejo, no simple, y divisible, en absoluto a-tómico. Fue el principio de una era nueva, la era de la física nuclear, y supuso la muerte de la física clásica, al menos dentro del átomo.
Rutherford hubo de pensar al menos dieciocho meses en un problema que hoy resuelven los estudiantes de primero de físicas. ¿Por qué le desconcertaron tanto las partículas alfa? La razón estribaba en la imagen que los científicos se hacían entonces del átomo. Ahí tenían la pesada y positivamente cargada partícula alfa que carga contra un átomo de oro y rebota hacia atrás. En 1909 había consenso en que la partícula alfa no debería hacer otra cosa que abrirse paso por la lámina de oro, como, por usar la metáfora de Rutherford, una bala de artillería a través del papel cebolla.
El modelo del papel cebolla del átomo se remontaba a Newton, quien decía que las fuerzas han de cancelarse para que haya estabilidad mecánica. Por lo tanto, las eléctricas de atracción y repulsión habían de equilibrarse en un átomo estable del que pudiera uno fiarse. Los teóricos del nuevo siglo se entregaron a un frenesí realizador de modelos, con los que intentaban disponer los electrones de forma que se constituyese un átomo estable. Se sabía que los átomos tienen muchos electrones cargados negativamente. Habían., pues, de tener una cantidad igual de carga positiva distribuida de una manera desconocida. Como los electrones son muy ligeros y el átomo es pesado, o éste había de tener miles de electrones (para reunir ese peso) o el peso tenía que estar en la carga positiva. De los muchos modelos propuestos, hacia 1905 el dominante era el formulado por el mismísimo J. J. Thomson, el señor Electrón. Se le llamó el modelo del pudin de pasas porque en él la carga positiva se repartía por una esfera que abarcaba el átomo entero, con los electrones insertados en ella como las pasas en el pudin. Esta disposición era mecánicamente estable y hasta dejaba que los electrones vibrasen alrededor de posiciones de equilibrio. Pero la naturaleza de la carga positiva era un completo misterio.
Rutherford, por otra parte, calculó que la única configuración capaz de hacer que una partícula alfa retroceda consistía en que toda la masa y la carga positiva se concentren en un volumen muy pequeño en el centro de una esfera, enorme en comparación (de tamaño atómico). ¡El núcleo! Los electrones estarían espaciados por la esfera. Con el tiempo y datos mejores, la teoría de Rutherford se refinó. La carga central positiva (el núcleo) ocupa un volumen de no más de una billonésima parte del volumen del átomo. Según el modelo de Rutherford, la materia es, más que nada, espacio vacío. Cuando tocamos una mesa, la percibimos sólida, pero es el juego entre las fuerzas eléctricas (y las reglas cuánticas) de los átomos y moléculas lo que crea la ilusión de solidez. El átomo está casi vacío. Aristóteles se habría quedado de piedra.
Puede apreciarse la sorpresa de Rutherford ante el rebote de las partículas alfa si abando-namos su cañón de artillería y pensamos mejor en una bola que va retumbando por la pista de la bolera hacia la fila de bolos. Imaginaos la conmoción del jugador si los bolos detuviesen la bola e hicieran que rebotara hacia él; tendría que correr para salvar el pellejo. ¿Podría pasar esto? Bueno, suponed que en medio de la disposición triangular de bolos hay un «bolo gordo» especial hecho de iridio sólido, el metal más denso que se conoce. ¡Ese bolo pesa! Cincuenta veces más que la bola. Una secuencia de fotos tomadas a intervalos de tiempo mostraría a la bola dando en el bolo gordo y deformándolo, y parándose. Entonces, el bolo, a medida que recuperase su forma original, y en realidad retrocediese un poco, impartiría una sonora fuerza a la bola, cuya velocidad original invertiría. Esto es lo que pasa en cualquier colisión elástica, la de una bola de billar y la banda de la mesa, por ejemplo. La metáfora militar, más pintoresca, que hizo Rutherford de la bala de artillería derivaba de su idea preconcebida, y de la de casi todos los físicos de ese momento, de que el átomo era una esfera de pudin tenuemente extendida por un gran volumen. Para un átomo de oro, éste se trataba de una «enorme» esfera de radio 10—9 metros.
Para hacernos una idea del átomo de Rutherford, representémonos el núcleo con el tama-ño de un guisante (alrededor de medio centímetro de diámetro); entonces el átomo será una esfera de unos cien metros de radio, que podría abarcar seis campos de fútbol empacados en un cuadrado aproximado. También aquí brilla la suerte de Rutherford. Su fuente radiactiva producía precisamente alfas con una energía de unos 5 millones de electronvoltios (lo escribimos 5 MeV), la ideal para descubrir el núcleo. Era lo bastante baja para que la partícula alfa no se acercase nunca demasiado al núcleo; la fuerte carga positiva de éste la volvía hacia atrás. La masa de la nube de electrones que había alrededor era demasiado pequeña para que tuviese algún efecto apreciable en la partícula alfa. Si la alfa hubiera tenido una energía mucho mayor, habría penetrado en el núcleo y sondeado la interacción nuclear fuerte (sabremos de ella más adelante), con lo que el patrón de las partículas alfa dispersadas se habría complicado mucho (la gran mayoría de las alfas cruzan el átomo tan lejos del núcleo que sus desviaciones son pequeñas); tal y como era el patrón, según midieron a continuación Geiger y Marsden y luego un enjambre de rivales continentales, equivalía matemáticamente a lo que cabría esperar si el núcleo fuese un punto. Ahora sabemos que los núcleos no son puntos, pero si las partículas alfa no se acercaban demasiado, la aritmética es la misma.
A Boscovich le habría encantado. Los experimentos de Manchester respaldaban su visión. El resultado de una colisión lo determinan los campos de fuerza que rodean las cosas «puntuales». El experimento de Rutherford tenía consecuencias que iban más allá del descubrimiento del núcleo. Estableció que de las desviaciones muy grandes se seguía la existencia de pequeñas concentraciones «puntuales», idea crucial que los experimentadores emplearían a su debido tiempo para ir tras los verdaderos puntos, los quarks. En la concepción de la estructura del átomo que poco a poco iba formándose, el modelo de Rutherford fue un auténtico hito. Se trataba en muy buena medida de un sistema solar en miniatura: un núcleo central cargado positivamente con cierto número de electrones en varias órbitas de forma que la carga total negativa cancelase la carga nuclear positiva. Se recurría cuando convenía a Maxwell y Newton. El electrón orbital, como los planetas, obedecía el mandato de Newton, F = ma. F era en este caso la fuerza eléctrica (la ley de Coulomb) entre las partículas cargadas. Como se trata, al igual que la gravedad, de una fuerza del inverso del cuadrado, cabría suponer a primera vista que de ahí se seguirían órbitas planetarias, estables. Ahí lo tenéis, el hermoso y diáfano modelo del átomo como un sistema solar. Todo iba bien.
Bueno, todo iba bien hasta que llegó a Manchester un joven físico danés, de inclinación teórica. «Mi nombre es Bohr, Niels Henrik David Bohr, profesor Rutherford. Soy un joven físico teórico y estoy aquí para ayudarle.» Os podréis imaginar la reacción del rudo neozelandés, que no se andaba por las ramas.
La lucha
La revolución en marcha que se conoce por el nombre de teoría cuántica no nació ya crecida del todo en las cabezas de los teóricos. Fue gestándose poco a poco a partir de los datos que generaba el átomo químico. Cabe considerar el esfuerzo por comprender este átomo como un ensayo de la verdadera lucha, la del conocimiento del subátomo, de la jungla subnuclear.
El lento desarrollo del mundo es seguramente una bendición. ¿Qué habrían hecho Galileo o Newton si todos los datos que salen del Fermilab les hubiesen sido comunicados de alguna forma? A un colega mío de Columbia, un profesor muy joven, muy brillante, con gran facilidad de palabra, entusiasta, se le asignó una tarea pedagógica singular. Toma los cuarenta o más novatos que han optado por la física como disciplina académica principal y dales dos años de instrucción intensiva: un profesor, cuarenta aspirantes a físicos, dos años. El experimento resultó un desastre. La mayoría de los estudiantes se pasaron a otros campos. La razón la dio más tarde un estudiante de matemáticas: «Mel era terrible, el mejor profesor que jamás haya tenido. En esos dos años, no sólo fuimos viendo lo usual —la mecánica newtoniana, la óptica, la electricidad y demás—, sino que abrió una ventana al mundo de la física moderna y nos hizo vislumbrar los problemas con que se enfrentaba en sus propias investigaciones. Me pareció que no había manera de que pudiese vérmelas con un conjunto de problemas tan difíciles, así que me pasé a las matemáticas».
Esto suscita una cuestión más honda, la de si el cerebro humano estará alguna ver preparado para los misterios de la física cuántica, que en los años noventa siguen conturbando a algunos de los mejores entre los mejores físicos. El teórico Heinz Pagels (que murió trágicamente hace unos pocos años escalando una montaña) sugirió, en su excelente libro The Cosmic Code, que el cerebro humano podría no estar lo suficientemente evolucionado para entender la realidad cuántica. Quizá tenga razón, si bien unos cuantos de sus colegas parecen convencidos de que han evolucionado mucho más que todos nosotros.
Por encima de todo está el que la teoría cuántica, teoría muy refinada, la dominante en los años noventa, funciona. Funciona en los átomos. Funciona en las moléculas. Funciona en los sólidos complejos, en los metales, en los aislantes, los semiconductores, los superconductores y allá donde se la haya aplicado. El éxito de la teoría cuántica esta tras una fracción considerable del producto nacional bruto (PNB) del mundo entero. Pero lo que para nosotros es más importante, no tenemos otra herramienta gracias a la cual podarnos abordar el núcleo, con sus constituyentes, y aún más allá, la vasta pequeñez de la materia primordial, donde nos enfrentaremos al á-tomo y la Partícula Divina. Y allí es donde las dificultades conceptuales de la teoría cuántica, despreciadas por la mayoría de los físicos ejercientes como mera «filosofía», desempeñarán quizá un papel importante.
Bohr: en las alas de una mariposa
El descubrimiento de Rutherford, que vino tras varios resultados experimentales que contradecían la física clásica, fue el último clavo del ataúd. En la pugna en marcha entre el experimento y la teoría, habría sido una buena oportunidad para insistir una vez más: «¿Hasta qué punto tendremos que dejar las cosas claras los experimentadores antes de que los teóricos os convenzáis de que os hace falta algo nuevo?». Parece que Rutherford no se dio cuenta de cuánta desolación iba a sembrar su nuevo átomo en la física clásica.
Y en éstas aparece Bohr, el que seria el Maxwell del Faraday Rutherford, el Kepler de su Brahe. El primer puesto de Bohr en Inglaterra fue en Cambridge, adonde fue a trabajar con el gran J. J., pero irritó al maestro porque, con veinticinco años de edad, le descubría errores. Mientras estudiaba en el Laboratorio Cavendish, nada más y nada menos que con una ayuda de las cervezas Carlsberg, Bohr asistió en el otoño de 1911 a una disertación de Rutherford sobre su nuevo modelo atómico. La tesis de Bohr había consistido en un estudio de los electrones «libres» en los metales, y era consciente de que no todo iba bien en la física clásica. Sabía, por supuesto, hasta qué punto Planck y Einstein se habían desviado de la ortodoxia clásica. Y las líneas espectrales que emitían ciertos elementos al calentarlos daban más pistas acerca de la naturaleza del átomo. A Bohr le impresionó tanto la disertación de Rutherford, y su átomo, que dispuso las cosas para visitar Manchester durante cuatro meses en 1912.
Bohr vio la verdadera importancia del nuevo modelo. Sabía que los electrones que describían órbitas circulares alrededor de un núcleo central tenían que radiar, según las leyes de Maxwell, energía, como un electrón que se acelera arriba y abajo por una antena. Para que se satisfagan las leyes de conservación de la energía, las órbitas deben contraerse y el electrón, en un abrir y cerrar de ojos, caerá en espiral hacia el núcleo. Si se cumpliesen todas esas condiciones, la materia sería inestable. ¡El modelo era un desastre clásico! Sin embargo, no había en realidad otra posibilidad.
A Bohr no le quedaba otra salida que intentar algo que fuera muy nuevo. El átomo más simple de todos es el hidrógeno, así que estudió los datos disponibles acerca de cómo las partículas alfa se frenan en el hidrógeno gaseoso, por ejemplo, y llegó a la conclusión de que el átomo de hidrógeno tiene un solo electrón en una órbita de Rutherford alrededor de un núcleo cargado positivamente. Otras curiosidades alentaron a Bohr a no achicarse a la hora de romper con la teoría clásica.
Observó que no hay nada en la física clásica que determine el radio de la órbita del electrón en el átomo de hidrógeno. En realidad, el sistema solar es un buen ejemplo de una variedad de órbitas planetarias. Según las leyes de Newton, se puede imaginar cualquier órbita planetaria; hasta con que se arranque de la forma apropiada. Una vez se fija un radio, la velocidad del planeta en la órbita y su periodo (el año) quedan determinados. Pero parecía que todos los átomos de hidrógeno son exactamente iguales. Los átomos no muestran en absoluto la variedad que exhibe el sistema solar. Bohr hizo la afirmación, sensata pero absolutamente anticlásica, de que sólo ciertas órbitas estaban permitidas.
Bohr propuso, además, que en esas órbitas especiales el electrón no radia. En el contexto histórico, esta hipótesis fue increíblemente audaz. Maxwell se revolvió en su tumba, pero Bohr sólo intentaba dar un sentido a los hechos. Uno importante tenía que ver con las líneas espectrales que, como Kirchhoff había descubierto hacía ya muchos años, emitían los átomos. El hidrógeno encendido, como otros elementos, emite una serie distintiva de líneas espectrales. Para obtenerlas, Bohr se percató de que tenía que permitirle al electrón la posibilidad de elegir entre distintas órbitas correspondientes a contenidos energéticos diferentes. Por lo tanto, le dio al único electrón del átomo de hidrógeno un conjunto de radios permitidos que representaban un conjunto de estados de energía cada vez mayor. Para explicar las líneas espectrales se sacó de la manga que la radiación se produce cuando un electrón «salta» de un nivel de energía a otro inferior; la energía del fotón radiado es la diferencia entre los dos niveles de energía. Propuso entonces un verdadero delirio de regla para esos radios especiales que determinan los niveles de energía. Sólo se permiten, dijo, las órbitas en las que el momento orbital, magnitud de uso corriente que mide el impulso rotacional del electrón, tome, medido en una nueva unidad cuántica, un valor entero. La unidad cuántica de Bohr no era sino la constante de Planck, h. Bohr diría después que «estaba al caer el que se empleasen las ideas cuánticas ya existentes».
¿Qué está haciendo Bohr en su buhardilla, tarde ya, de noche, en Manchester, con un mazo de papel en blanco, un lápiz, una cuchilla afilada, una regla de cálculo y unos cuantos libros de referencia? Busca reglas de la naturaleza, reglas que concuerden con los hechos que listan sus libros de referencia. ¿Qué derecho tiene a inventarse las reglas por las que se conducen los electrones invisibles que dan vueltas alrededor del núcleo (invisible también) del átomo de hidrógeno? En última instancia, la legitimidad se la da el éxito a la hora de explicar los datos. Parte del átomo más simple, el de hidrógeno. Comprende que sus reglas han de dimanar, al final, de algún principio profundo, pero lo primero son las reglas. Así trabajan los teóricos. En Manchester, Bohr quería, en palabras de Einstein, conocer el pensamiento de Dios.
Bohr volvió pronto a Copenhague, para que la semilla de su idea germinase. Finalmente, en tres artículos publicados en abril, junio y agosto de 1913 (la gran trilogía), presentó su teoría cuántica del átomo de hidrógeno, una combinación de leyes clásicas y suposiciones totalmente arbitrarias (hipótesis) cuyo claro designio era obtener la respuesta correcta. Manipuló su modelo del átomo para que explicase las líneas espectrales conocidas. Las tablas de esas líneas espectrales, una serie de números, habían sido compiladas laboriosamente por los seguidores de Kirchhoff y Bunsen, y contrastadas en Estrasburgo y en Gotinga, en Londres y en Milán. ¿De qué tipo eran esos números? Estos son algunos: λ1 = 4.100,4; λ2 = 4.339,0; λ3 = 4.858,5; λ4 = 6.560,6. (Perdón, ¿decía usted? No os preocupéis. No hace falta sabérselos de memoria.) ¿De dónde vienen estas vibraciones espectrales? ¿Y por qué sólo ésas, no importa cómo se le dé energía al hidrógeno? Extrañamente, Bohr le quitó luego importancia a las líneas espectrales: «Se creía que el espectro era maravilloso, pero con él no cabe hacer progresos. Es como si tuvieras un ala de mariposa, muy regular, qué duda cabe, con sus colores y todo eso. Pero a nadie se le ocurriría que uno pudiese sacar los fundamentos de la biología de un ala de mariposa». Y sin embargo, resultó que las líneas espectrales del hidrógeno proporcionaron una pista crucial.
La teoría de Bohr se confeccionó de forma que diese los números del hidrógeno que salen en los libros. En sus análisis fue decisivo el dominante concepto de energía, palabra que se definió con precisión en los tiempos de Newton, y que luego había ido evolucionando y creciendo. Dediquémosle, pues, un par de minutos a la energía.
Dos minutos para la energía
En la física de bachillerato se dice que un objeto de cierta masa y cierta velocidad tiene energía cinética (energía en virtud del movimiento). Los objetos tienen, además, energía por lo que son. Una bola de acero en lo más alto de las torres Sears tiene energía potencial porque alguien trabajó lo suyo para llevarla hasta allí. Si se la deja caer desde la torre, irá cambiando, durante la caída, su energía potencial por energía cinética.
La energía es interesante sólo porque se conserva. Imaginaos un sistema gaseoso complejo, con miles de millones de átomos que se mueven todos rápidamente y chocan con las paredes del recipiente y entre sí. Algunos átomos ganan energía; otros la pierden. Pero la energía total no cambia nunca. Hasta el siglo XVIII no se descubrió que el calor es una forma de energía. Las sustancias químicas desprenden energía por medio de reacciones como la combustión del carbón. La energía puede cambiar, y cambia, continuamente de una forma a otra. Hoy conocemos las energías mecánica, térmica, química, eléctrica y nuclear. Sabemos que la masa puede convertirse en energía mediante E = mc2. A pesar de estas complejidades, estamos convencidos aún a un 100 por 100 de que en las reacciones químicas la energía total (que incluye la masa) se conserva siempre. Ejemplo: déjese que un bloque se deslice por un plano liso. Se para. Su energía cinética se convierte en calor y calienta, muy, muy ligeramente, el plano. Ejemplo: llenáis el depósito del coche; sabéis que habéis comprado cincuenta litros de energía química (medida en julios), con los que podréis dar a vuestro Toyota cierta energía cinética. La gasolina se agota, pero es posible medir su energía: 500 kilómetros, de Newark a North Hero. La energía se conserva. Ejemplo: una caída de agua se precipita sobre el rotor de un generador eléctrico y convierte su energía potencial natural en energía eléctrica para calentar e iluminar una ciudad lejana. En los libros de contabilidad de la naturaleza todo cuadra. Acabas con lo que trajiste.
¿Entonces?
Vale, ¿qué tiene esto que ver con el átomo? En la imagen que de él ofrecía Bohr, el electrón debe mantenerse dentro de órbitas específicas, cada una de ellas definidas por su radio. Cada uno de los radios permitidos corresponde a un estado (o nivel) de energía bien definida del átomo. Al radio menor le toca la energía más baja, el llamado estado fundamental. Si metemos energía en un volumen de hidrógeno gaseoso, parte de ella se empleará en agitar los átomos, que se moverán más deprisa. Pero el electrón absorberá parte de la energía; será un puñado muy concreto (recordad el efecto fotoeléctrico), que permitirá que el electrón llegue a otro de sus niveles de energía o radios. Los niveles se numeran 1, 2, 3, 4…, y cada uno tiene su energía, E1, E2, E3, E4 y así sucesivamente. Bohr construyó su teoría de manera que incluyera la idea de Einstein de que la energía de un fotón determina su longitud de onda.
Si cayeran fotones de todas las longitudes de onda sobre un átomo de hidrógeno, el electrón acabaría por tragarse el fotón apropiado (un puñado de luz con una energía concreta) y saltaría de E1, a E2 o E3, por ejemplo. De esta forma los electrones pueblan niveles de energía más altos. Esto es lo que pasa, por ejemplo, en un tubo de descarga. Cuando entra la energía eléctrica, el tubo resplandece con los colores característicos del hidrógeno. La energía mueve a algunos electrones de los billones de átomos que hay allí a saltar a niveles de energía altos. Sí la cantidad de energía eléctrica que entra es suficientemente grande, muchos de los átomos tendrán electrones que ocuparán prácticamente todos los niveles ¿altos de energía posibles.
En la concepción de Bohr los electrones de los estados de energía altos saltan espontá-neamente a los niveles más bajos. Acordaos ahora de nuestra pequeña clase sobre la conservación de la energía. Si los electrones saltan hacia abajo, pierden energía, y de esa energía perdida hay que dar cuenta. Bohr dijo: «no es problema». Un electrón que cae emite un fotón cuya energía es igual a la diferencia de la energía de las órbitas. Si el electrón salta del nivel 4 al 2, por ejemplo, la energía del fotón es igual a E4 → E2. Hay muchas posibilidades de salto, como E4 → E1; E4 → E3; E4 → E1. También se permiten los saltos multinivel, como E4 → E2 y entonces E2 → E1. Cada cambio de energía da lugar a la emisión de una longitud de onda correspondiente, y se observa una serie de líneas espectrales.
La explicación del átomo ad hoc, cuasiclásica de Bohr, fue una obra, aunque heterodoxa, de virtuoso. Echó mano de Newton y Maxwell cuando convenía. Los descartó cuando no. Recurrió a Planck y Einstein allí donde funcionaban. Algo monstruoso. Pero Bohr era brillante y obtuvo la solución correcta.
Repasemos. Gracias a la obra de Fraunhofer y Kirchhoff en el siglo XIX conocemos las líneas espectrales. Supimos que los átomos (y las moléculas) emiten y absorben radiación a longitudes de onda específicas, y que cada átomo tiene su patrón de longitudes de onda característico. Gracias a Planck, supimos que la luz se emite en forma de cuantos. Gracias a Hertz y Einstein, supimos que se absorbe también en forma de cuantos. Gracias a Thomson, supimos que hay electrones. Gracias a Rutherford, supimos que el átomo tiene un núcleo pequeño y denso, vastos vacíos y electrones dispersos por ellos. Gracias a mi madre y a mi padre, aprendí todo eso. Bohr reunió estos datos, y muchos más. A los electrones sólo se les permiten ciertas órbitas, dijo Bohr. Absorben energía en forma de cuantos, que les hacen saltar a órbitas más altas. Cuando caen de nuevo a las órbitas más bajas emiten fotones, cuantos de luz, que se observan en la forma de longitudes de onda específicas, las líneas espectrales peculiares de cada elemento.
A la teoría de Bohr, desarrollada entre 1913 y 1925, se le da el nombre de «vieja teoría cuántica». Planck, Einstein y Bohr habían ido haciendo caso omiso de la mecánica clásica en uno u otro aspecto. Todos tenían datos experimentales sólidos que les decían que tenían razón. La teoría de Planck concordaba espléndidamente con el espectro del cuerpo negro, la de Einstein con las mediciones detalladas de los fotoelectrones. En la fórmula matemática de Bohr aparecen la carga y la masa del electrón, la constante de Planck, unos cuantos π, números —el 3— y un entero importante (el número cuántico) que numera los estados de energía. Todas estas magnitudes, multiplicadas y divididas oportunamente, dan una fórmula con la que se pueden calcular todas las líneas espectrales del hidrógeno. Su acuerdo con los datos era notable.
A Rutherford le encantó la teoría de Bohr. Planteó, sin embargo, la cuestión de cuándo y cómo el electrón decide que va a saltar de un estado a otro, algo de lo que Bohr no había tratado. Rutherford recordaba un problema anterior: ¿cuándo decide un átomo radiactivo que va a desintegrarse? En la física clásica, no hay acción que no tenga una causa. En el dominio atómico no parece que se dé ese tipo de causalidad. Bohr reconoció la crisis (que no se resolvió en realidad hasta el trabajo que publicó Einstein en 1916 sobre las «transiciones espontáneas») y apuntó una dirección posible. Pero los experimentadores, que seguían explorando los fenómenos del mundo atómico, hallaron una serie de cosas con las que Bohr no había contado.
Cuando el físico estadounidense Albert Michelson, un fanático de la precisión, examinó con mayor atención las líneas espectrales, observó que cada una de las líneas espectrales del hidrógeno consistía en realidad en dos líneas muy juntas, dos longitudes de onda muy parecidas. Esta duplicación de las líneas significaba que cuando el electrón va a saltar a un nivel inferior puede optar por dos estados de energía más bajos. El modelo de Bohr no predecía ese desdoblamiento, al que se llamó «estructura fina». Arnold Sommerfeld, contemporáneo y colaborador de Bohr, percibió que la velocidad de los electrones en el átomo de hidrógeno es una fracción considerable de la velocidad de la luz, así que había que tratarlos conforme a la teoría de la relatividad de Einstein de 1905; dio así el primer paso hacia la unión de las dos revoluciones, la teoría cuántica y la teoría de la relatividad. Cuando incluyó los efectos de la relatividad, vio que donde la teoría de Bohr predecía una órbita, la nueva teoría predecía dos muy próximas. Esto explicaba el desdoblamiento de las líneas. Al efectuar sus cálculos, Sommerfeld introdujo una «nueva abreviatura» de algunas constantes que aparecían con frecuencia en sus ecuaciones. Se trataba de 2πe2 / hc, que abrevió con la letra griega alfa (α). No os preocupéis de la ecuación. Lo interesante es esto: cuando se meten los números conocidos de la carga del electrón, e, la constante de Planck, h, y la velocidad de la luz, c, sale α = 1/137. Otra vez el 137, número puro.
Los experimentadores siguieron añadiéndole piezas al modelo del átomo de Bohr. En 1896, antes de que se descubriese el electrón, un holandés, Pieter Zeeman, puso un mechero Bunsen entre los polos de un imán potente y en el mechero un puñado de sal de mesa. Examinó la luz amarilla del sodio con un espectrómetro muy preciso que él mismo había construido. Podemos estar seguros de que las amarillas líneas espectrales se ensancharon, lo que quería decir que el campo magnético dividía en realidad las líneas. Mediciones más precisas fueron confirmando este efecto, y en 1925 dos físicos holandeses, Samuel Goudsmit y George Uhlenbeck, plantearon la peculiar idea de que el efecto podría explicarse si se confería a los electrones la propiedad del giro o «espín». En un objeto clásico, una peonza, digamos, el giro alrededor de sí misma es la rotación de la punta de arriba alrededor de su eje de simetría. El espín del electrón es la propiedad cuántica análoga a ésa.
Todas estas ideas nuevas eran válidas en sí mismas, pero estaban conectadas al modelo atómico de Bohr de 1913 con muy poca gracia, como si fuesen productos cogidos de aquí y allá en una tienda de accesorios. Con todos esos pertrechos; la teoría de Bohr ahora tan potenciada, un viejo Ford remozado con aire acondicionado, tapacubos giratorios y aletas postizas, podía explicar una cantidad muy impresionante de datos experimentales exactos brillantemente obtenidos.
El modelo sólo tenía un problema. Que estaba equivocado.
Un vistazo bajo el velo
La teoría de retales iniciada por Niels Bohr en 1912 se iba viendo en dificultades rada vez mayores. En ésas, un estudiante de doctorado francés descubrió en 1924 una pista decisiva, que reveló en una fuente improbable, la farragosa prosa de una tesis doctoral, y que en tres años haría que se produjese una concepción de la realidad del micromundo totalmente nueva. El autor era un joven aristócrata, el príncipe Louis-Victor de Broglie, que pechaba con su doctorado en París. Le inspiró un artículo de Einstein, quien en 1909 había estado dándole vueltas al significado de los cuantos de luz. ¿Cómo era posible que la luz actuara como un enjambre de puñados de energía —es decir, como partículas— y al mismo tiempo exhibiera todos los comportamientos de las ondas, la interferencia, la difracción y otras propiedades que requerían que hubiese una longitud de onda?
De Broglie pensó que este curioso carácter dual de la luz podría ser una propiedad funda-mental de la naturaleza y que cabría aplicarla también a objetos materiales como los electrones. En su teoría fotoeléctrica, siguiendo a Planck, Einstein había asignado una cierta energía al cuanto de luz relacionada con su longitud de onda o frecuencia. De Broglie sacó entonces a colación una simetría nueva: si las ondas pueden ser partículas, las partículas (los electrones) pueden ser ondas. Concibió un método para asignar a los electrones una longitud de onda relacionada con su energía. Su idea rindió inmediatamente frutos en cuanto se la aplicó a los electrones del átomo de hidrógeno. La asignación de una longitud de onda dio una explicación de la misteriosa regla ad hoc de Bohr según la cual al electrón sólo se le permiten ciertos radios. ¡Está claro como el agua! ¿Lo está? Seguro que sí. Si en una órbita de Bohr el electrón tiene una longitud de onda de una pizca de centímetro, sólo se permitirán aquellas en cuya circunferencia quepa un número entero de longitudes de onda. Probad con la cruda visualización siguiente. Coged una moneda de cinco centavos y un puñado de peniques. Colocad la moneda de cinco centavos (el núcleo) en una mesa y disponed un número de peniques en círculo (la órbita del electrón) a su alrededor. Veréis que os harán falta siete peniques para formar la órbita menor. Esta define un radio. Si queréis poner ocho peniques, habréis de hacer un círculo mayor, pero no cualquier círculo mayor; sólo saldrá con cierto radio. Con radios mayores podréis poner nueve, diez, once o más peniques. De este tonto ejemplo podréis ver que si os limitáis a poner peniques enteros —o longitudes de onda enteras— sólo estarán permitidos ciertos radios. Para obtener círculos intermedios habrá que superponer los peniques, y si representan longitudes de onda, éstas no casarán regularmente alrededor de la órbita. La idea de De Broglie era que la longitud de onda del electrón (el diámetro del penique) determina el radio permitido. La clave de esta idea era la asignación de una longitud de onda al electrón.
De Broglie, en su tesis, hizo cábalas acerca de si sería posible que los electrones mostrasen otros efectos ondulatorios, como la interferencia y la difracción. Sus tutores de la Universidad de París, aunque les impresionaba el virtuosismo del joven príncipe, estaban desconcertados con la noción de las ondas de partícula. Uno de sus examinadores quiso contar con una opinión ajena, y le envió una copia a Einstein, quien remitió este cumplido hacia De Broglie: «Ha levantado una punta del gran velo». Su tesis doctoral se aceptó en 1924, y al final le valdría un premio Nobel, con lo que De Broglie ha sido hasta ahora el único físico que haya ganado el premio gracias a una tesis doctoral. Pero el mayor triunfador sería Erwin Schrödinger; él fue quien vio el auténtico potencial de la obra de De Broglie.
Ahora viene un interesante pas de deux de la teoría y el experimento. La idea de De Broglie no tenía respaldo experimental. ¿Una onda de electrón? ¿Qué quiere decir? El respaldo necesario apareció en 1927, y, de todos los sitios, tuvo que ser en Nueva Jersey, no la isla del canal de la Mancha, sino un estado norteamericano cercano a Newark. Los laboratorios de Teléfonos Bell, la famosa institución dedicada a la investigación industrial, estaban estudiando las válvulas de vacío, viejo dispositivo electrónico que se utilizaba antes del alba de la civilización y la invención de los transistores. Dos científicos, Clinton Davisson y Lester Germer, bombardeaban varias superficies metálicas recubiertas de óxido con chorros de electrones. Germer, que trabajaba bajo la dirección de Davisson, observó que ciertas superficies metálicas que no estaban recubiertas de óxido reflejaban un curioso patrón de electrones.
En 1926 Davisson viajó a un congreso en Inglaterra, y allí conoció la idea de De Broglie. Corrió de vuelta a los laboratorios Bell y se puso a analizar sus datos desde el punto de vista del comportamiento ondulatorio. Los patrones que había observado casaban perfectamente con la teoría de que los electrones actúan como ondas cuya longitud de onda está relacionada con la energía de las partículas del bombardeo. Él y Germer no perdieron un momento antes de publicar sus datos. No fue demasiado pronto. En el laboratorio Cavendish, George P. Thomson, hijo del famoso J. J., estaba realizando unas investigaciones similares. Davisson y Germer compartieron el premio Nobel de 1938 por haber sido los primeros en observar las ondas de electrón.
Dicho sea de paso, hay sobradas pruebas de la afección filial de J. J. y G. P. en su cálida correspondencia. En una de sus cartas más emotivas, se lee esta efusión de G. P.:
Estimado Padre:
Dado un triángulo esférico de lados ABC…
[Y, tras tres páginas densamente escritas del mismo tenor,] Tu hijo, George
Así, pues, ahora el electrón lleva asociada una onda, esté encerrado en un átomo o viaje por una válvula de vacío. Pero ¿en qué consiste ese electrón que hace ondas?
El hombre que no sabía nada de baterías
Si Rutherford era el experimentador prototípico, Werner Heisenberg (1901-1976) tiene todas las cualidades para que se le considere su homólogo teórico. Habría satisfecho la definición que I. I. Rabi daba de un teórico: uno «que no sabe atarse los cordones de los zapatos». Heisenberg fue uno de los estudiantes más brillantes de Europa, y sin embargo estuvo a punto de suspender su examen oral de doctorado en la Universidad de Munich; a uno de sus examinadores, Wilhelm Wien, pionero en el estudio de los cuerpos negros, le cayó mal. Wien empezó por preguntarle cuestiones prácticas, como esta: ¿Cómo funciona una batería? Heisenberg no tenía ni idea. Wien, tras achicharrarle con más preguntas sobre cuestiones experimentales, quiso catearlo. Quienes tenían la cabeza más fría prevalecieron, y Heisenberg salió con el equivalente a un aprobado: un acuerdo de caballeros.
Su padre fue profesor de griego en Munich; de adolescente, Heisenberg leyó el Timeo, donde se encuentra toda la teoría atómica de Platón. Heisenberg pensó que Platón estaba chiflado —sus «átomos» eran pequeños cubos y pirámides—, pero le apasionó el supuesto básico de Platón: no se podrá entender el universo huma que no se conozcan los componentes menores de la materia. El joven Heisenberg decidió que dedicaría su vida a estudiar las menores partículas de la materia.
Heisenberg probó con ganas hacerse una imagen mental del átomo de Rutherford-Bohr, pero no sacó nada en limpio. Las órbitas electrónicas de Bohr no se parecían a nada que pudiese imaginar. El pequeño, hermoso átomo que sería el logotipo de la Comisión de Energía Atómica durante tantos años —un núcleo circundado por órbitas con radios «mágicos» donde los electrones no radian carecía del menor sentido. Heisenberg vio que las órbitas de Bohr no eran más que construcciones artificiales que servían para que los números saliesen bien y librarse o (mejor) burlar las objeciones clásicas al modelo atómico de Rutherford. Pero ¿eran reales esas órbitas? No. La teoría cuántica de Bohr no se había despojado hasta donde era necesario del bagaje de la física clásica. La única forma de que el espacio atómico permitiese sólo ciertas órbitas requería una proposición más radical. Heisenberg acabó por caer en la cuenta de que este nuevo átomo no era visualizable en absoluto. Concibió una guía firme: no trates de nada que no se pueda medir. Las órbitas no se podían medir. Pero las líneas espectrales .sí. Heisenberg escribió una teoría llamada «mecánica de matrices», basada en unas formas matemáticas, las matrices. Sus métodos eran difíciles matemáticamente, y aún era más difícil visualizarlos, pero estaba claro que había logrado una mejora de gran fuste de la vieja teoría de Bohr. Con el tiempo, la mecánica de matrices repitió todos los triunfos de la teoría de Bohr sin recurrir a radios mágicos arbitrarios. Y además las matrices de Heisenberg obtuvieron nuevos éxitos donde la vieja teoría había fracasado. Pero a los físicos les parecía que las matrices eran difíciles de usar.
Y fue entonces cuando hubo las más famosas vacaciones de la historia de la física.
Las ondas de materia y la dama en la villa
Pocos meses después de que Heisenberg hubiese completado su formulación matricial, Erwin Schrödinger decidió que necesitaba unas vacaciones. Sería unos diez días antes de la Navidad de 1925. Schrödinger era profesor de física de la Universidad de Zurich, competente pero poco notable, y todos los profesores de universidad se merecen unas vacaciones de Navidad. Pero estas no fueron unas vacaciones ordinarias. Schrödinger dejó a su esposa en casa, alquiló durante dos semanas y media una villa en los Alpes suizos y marchó allá con sus cuadernos de notas, dos perlas y una vieja amiga vienesa. Schrödinger se había impuesto a sí mismo la misión de salvar la remendada y chirriante teoría cuántica de esa época. El físico vienés se ponía una perla en cada oído para que no lo distrajese ningún ruido, y en la cama, para inspirarse, a su amiga. Schrödinger había cortado la tarea a su medida. Tenía que crear una nueva teoría y contentar a la dama. Por fortuna, estuvo a la altura de las circunstancias. (No os hagáis físicos si no estáis preparados para exigencias así.)
Schrödinger empezó siendo experimentador, pero se pasó a la teoría bastante pronto. Era viejo para ser un teórico: treinta y ocho años tenía esas navidades. Claro está, hay montones de teóricos de mediana edad y aún más viejos, pero lo usual es que hagan sus mejores trabajos cuando tienen veintitantos años; luego, a los treinta y tantos, se retiran, intelectualmente hablando, y se convierten en «veteranos hombres de estado» de la física. Este fenómeno meteórico fue especialmente cierto en los primeros días de la mecánica cuántica, que vieron a Dirac, Werner Heisenberg, Wolfgang Pauli y Niels Bohr concebir sus mejores teorías cuando eran muy jóvenes. Cuando Dirac y Heisenberg fueron a Estocolmo a recibir sus premios Nobel, les acompañaban sus madres. Dirac escribió:
La edad, claro está, es un mal frío
que temer debe todo físico.
Mejor muerto estará que vivo
en cuanto sus años treinta hayan sido.
(Ganó el premio Nobel de física, no el de literatura.) Por suerte para la ciencia, Dirac no se tomó en serio sus versos, y vivió hasta bien pasados los ochenta años.
Una de las cosas que Schrödinger se llevó a sus vacaciones fue el artículo de De Broglie sobre las partículas y las ondas. Trabajó febrilmente y extendió aún más la concepción cuántica. No se limitó a tratar los electrones como partículas con características ondulatorias. Enunció una ecuación en la que los electrones son ondas, ondas de materia. Un actor clave en la famosa ecuación de Schrödinger es el símbolo griego psi, o Ψ. A los físicos les encanta decir que la ecuación lo reduce, pues, todo a suspiros, porque psi puede leerse en inglés de forma que suene como suspiro (sigh). A Ψ se le llama función de ondas, y contiene todo lo que sabemos o podamos saber sobre el electrón. Cuando se resuelve la ecuación de Schrödinger, da cómo varía * en el espacio y con el tiempo. Luego se aplicó la ecuación a sistemas de muchos electrones y al final a cualquier sistema que haya que tratar cuánticamente. En otras palabras, la ecuación de Schrödinger, o la «mecánica ondulatoria», se aplica a los átomos, las moléculas, los protones, los neutrones y, lo que hoy es especialmente importante para nosotros, a los cúmulos de quarks, entre otras partículas.
Schrödinger quería rescatar la física clásica. Insistía en que los electrones eran verdadera-mente ondas clásicas, como las del sonido, las del agua o las ondas electromagnéticas maxwellianas de luz o de radio, y que su aspecto de partículas era ilusorio. Eran ondas de materia. Las ondas se conocían bien y visualizarlas era fácil, al contrario de lo que pasaba con los electrones del átomo de Bohr y sus saltos aleatorios de órbita en órbita. En la interpretación de Schrödinger, Ψ (en realidad el cuadrado de Ψ, o Ψ2) describía la distribución de esta onda de materia. Su ecuación describía esas ondas sujetas a la influencia de las fuerzas eléctricas del átomo. En el aluno de hidrógeno, por ejemplo, las ondas de Schrödinger se concentraban donde la vieja teoría de Bohr hablaba de órbitas. La ecuación daba el radio de Bohr automáticamente, sin ajustes, y proporcionaba las líneas espectrales, no sólo del hidrógeno sino también de otros elementos.
Schrödinger publicó su ecuación de ondas unas semanas después de que dejara la villa. Causó sensación de inmediato; era una de las herramientas matemáticas más poderosas que jamás se hubiesen concebido para abordar la estructura de la materia. (Hacia 1960 se habían publicado más de 100.000 artículos científicos basados en la aplicación de la ecuación de Schrödinger.) Escribió cinco artículos más, en rápida sucesión; los seis artículos se publicaron en un periodo de seis meses que cuenta entre los mayores estallidos de creatividad científica de la historia de la ciencia. J. Robert Oppenheimer decía de la teoría de la mecánica ondulatoria que era «quizá una de las más perfectas, más precisas y más hermosas que el hombre haya descubierto». Arthur Sommerfeld, el gran físico y matemático, decía que la teoría de Schrödinger «era el más asombroso de todos los asombrosos descubrimientos del siglo XX».
Por todo esto, yo, en lo que a mí respecta, perdono las veleidades románticas de Schrödinger; al fin y al cabo, sólo les interesan a los biógrafos, historiadores sociológicos y colegas envidiosos.
La onda de probabilidad
Los físicos se enamoraron de la ecuación de Schrödinger porque podían resolverla y funcionaba bien. Parecía que tanto la mecánica de matrices de Heisenberg como la ecuación de Schrödinger daban las respuestas correctas, pero la mayoría de los físicos se quedó con el método de Schrödinger porque se trataba de una ecuación diferencial de las de toda la vida, una forma cálida y familiar de matemáticas. Pocos años después se demostró que las ideas físicas y las consecuencias numéricas de las teorías de Heisenberg y Schrödinger eran idénticas. Lo único que ocurría es que estaban escritas en lenguajes matemáticos diferentes. Hoy se usa una mezcla de los aspectos más convenientes de ambas teorías.
El único problema de la ecuación de Schrödinger es que la interpretación que él le daba era errónea. Resultó que el objeto Ψ no podía representar ondas de materia. No había duda de que representaba alguna forma de onda, pero la pregunta era: ¿Qué se ondula?
La respuesta la dio el físico alemán Max Born, todavía en el año 1926, tan lleno de acontecimientos. Born recalcó que la única interpretación coherente de la función de onda de Schrödinger era que Ψ2 representase la probabilidad de hallar la partícula, el electrón, en las diversas localizaciones. Ψ varía en el espacio y en el tiempo. Donde Ψ2 es grande, es muy probable que se encuentre el electrón. Donde Ψ = 0, el electrón no se halla nunca. La función de onda es una onda de probabilidad.
A Born le influyeron unos experimentos en los que se dirigía una corriente de electrones hacia algún tipo de barrera de energía. Ésta podía ser, por ejemplo, una pantalla de hilos conectada al polo negativo de una batería, digamos que a —10 voltios. Si los electrones tenían una energía de sólo 5 voltios, según la concepción clásica la «barrera de 10 voltios» debería repelerlos. Si la energía de los electrones es mayor que la de la barrera, la sobrepasarán como una pelota arrojada por encima de un muro. Si es menor, el electrón se reflejará, como una pelota a la que se tira contra la pared. Pero la ecuación de Schrödinger indica que una parte de la onda Ψ penetra en la barrera y parte se refleja. Es un comportamiento típico de la luz. Cuando pasáis ante un escaparate veis los artículos, pero también vuestra propia imagen, difusa. A la vez, las ondas de luz se transmiten a través del cristal y se reflejan en él. La ecuación de Schrödinger predice unos resultados similares. ¡Pero nunca veremos una fracción de electrón!
El experimento se realiza de la manera siguiente: enviamos 1.000 electrones hacia la barrera. Los contadores Geiger hallan que 550 penetran en la barrera y 450 se reflejan, pero en cualquier caso siempre se detectan electrones enteros. Las ondas de Schrödinger, cuando se toma adecuadamente su cuadrado, dan 550 y 450 como predicción estadística. Si aceptamos la interpretación de Born, un solo electrón tiene una probabilidad del 55 por 100 de penetrar y un 45 por 100 de reflejarse. Como un solo electrón nunca se divide, la onda de Schrödinger no puede ser el electrón. Sólo puede ser una probabilidad.
Born, con Heisenberg, formaba parte de la escuela de Gotinga, un grupo compuesto por varios de los físicos más brillantes de aquellos días, cuyas vidas profesionales e intelectuales giraban alrededor de la Universidad alemana de Gotinga. La interpretación estadística dada por Born a la psi de Schrödinger procedía del convencimiento que tenía la escuela de Gotinga de que los electrones son partículas. Hacían que los contadores Geiger sonasen a golpes. Dejaban rastros definidos en las cámaras de niebla de Wilson. Chocaban con otras partículas y rebotaban. Y ahí está la ecuación de Schrödinger, que da las respuestas correctas pero describe los electrones como ondas. ¿Cómo se podía convertirla en una ecuación de partículas?
La ironía es compañera constante de la historia, y la idea que todo lo cambió fue dada (¡otra vez!) por Einstein, en un ejercicio especulativo de 1911 que trataba de la relación entre los fotones y las ecuaciones clásicas del campo electromagnético formuladas por Maxwell. Einstein apuntaba que las magnitudes del campo guiaban a los fotones a los lugares de mayor probabilidad. La solución que Born le dio al conflicto entre partículas y ondas fue simplemente esta: el electrón (y amigos) actúa como una partícula por lo menos cuando se le ha detectado, pero su distribución en el espacio entre las mediciones sigue los patrones ondulatorios de probabilidad que salen de la ecuación de Schrödinger. En otras palabras, la magnitud psi de Schrödinger describe la localización probable de los electrones. Y esa probabilidad se porta como una onda. Schrödinger hizo la parte dura: elaborar la ecuación en que se cimenta la teoría. Pero fue a Born, inspirado por el artículo de Einstein, a quien se le ocurrió qué predecía en realidad la ecuación. La ironía está en que Einstein nunca aceptó la interpretación probabilista de la función de onda concebida por Born
Qué quiere decir esto, o la física del corte de trajes
La interpretación de Born de la ecuación de Schrödinger es el cambio concreto más espectacular y de mayor fuste en nuestra visión del mundo desde Newton. No sorprende que a Schrödinger le pareciera la idea totalmente inaceptable y lamentase haber ideado una ecuación que daba lugar a semejante locura. Sin embargo, Bohr, Heisenberg, Sommerfeld y otros la aceptaron sin apenas protestar porque «la probabilidad se mascaba en el ambiente». El artículo de Born hacía una afirmación reveladora: la ecuación sólo puede predecir la probabilidad pero la forma matemática de ésta va por caminos perfectamente predecibles.
En esta nueva interpretación, la ecuación trata de las ondas de probabilidad, Ψ, que predicen qué hace el electrón, cuál es su energía, dónde estará, etc. Sin embargo, esas predicciones tienen la forma de probabilidades. En el electrón, son esas predicciones de probabilidad las que se «ondulan». Estas soluciones ondulatorias de las ecuaciones pueden concentrarse en un lugar y generar una probabilidad grande, y anularse en otros lugares y dar probabilidades pequeñas. Cuando se comprueban estas predicciones, hay, en efecto, que hacer el experimento un número enorme de veces. Y en la mayor parte de las pruebas el electrón acaba donde la ecuación dice que la probabilidad es alta; sólo en muy raras ocasiones acaba donde es baja. Hay una concordancia cuantitativa. Lo chocante es que en dos experimentos manifiestamente iguales puedan obtenerse resultados del todo diferentes.
La ecuación de Schrödinger con la interpretación probabilista de Born de la función de ondas, ha tenido un éxito gigantesco. Es fundamental a la hora de conocer el hidrógeno y el helio y, si se tiene un ordenador lo bastante grande, el uranio. Sirvió para saber cómo se combinan dos elementos y forman una molécula, con lo que se dio a la química un derrotero mucho más científico. Gracias a la ecuación pueden diseñarse microscopios electrónicos e incluso protónicos; en el periodo 1930-1950 se la llevó al núcleo y se vio que allí era tan productiva como en el átomo.
La ecuación de Schrödinger predice con un grado de exactitud muy alto, pero lo que predice, repito, es una probabilidad. ¿Qué quiere decir esto? La probabilidad se parece en la física y en la vida. Es un negocio de mil millones de dólares; te certifican los ejecutivos de las compañías de seguros, los fabricantes de ropa y buena parte de la lista de las quinientas empresas más importantes que publica la revista Fortune. Los actuarios nos dicen que el varón norteamericano blanco no fumador nacido en, digamos, 1941, vivirá hasta los 76,4 años. Pero no podrán tomarte el pelo con tu hermano Sal, que nació ese mismo año. Que sepamos, podría atropellarle un camión mañana o morir de una uña infectada dentro de dos años.
En una de mis clases en la Universidad de Chicago, hago de magnate de la industria del vestido para mis alumnos. Tener éxito en el negocio de los trapos es como hacer una carrera en la física de partículas. En ambos casos hace falta un fuerte sentido de la probabilidad y un conocimiento efectivo de las chaquetas de tweed. Les pido a mis alumnos que vayan cantando sus estaturas mientras las represento en un gráfico. Tengo dos alumnos que miden uno 1,42 y otro 1,47 metros, cuatro 1,58 y así sucesivamente. Hay uno que mide 1,98, mucho más que los otros. (¡Si Chicago sólo tuviera un equipo de baloncesto!) El promedio es de 1,70. Tras encuestar a 166 estudiantes tengo una estupenda línea escalonada con forma de campana que sube hasta 1,70 metros y luego baja hasta la anomalía de los 1,98 metros. Ahora tengo una «curva de distribución» de estaturas de alumnos de primero, y si puedo estar razonablemente seguro de que escoger ciencias no distorsiona la curva, tengo una muestra representativa de las estaturas de los estudiantes de la Universidad de Chicago. Puedo leer los porcentajes mediante la escala vertical; por ejemplo, puedo sacar el porcentaje de alumnos que están entre 1,58 y 1,63. Con mi gráfica puedo además leer que hay una probabilidad del 26 por 100 de que el próximo estudiante que aparezca mida entre 1,62 y 1,67, si es que me interesa saberlo.
Ya estoy listo para hacer trajes. Si esos estudiantes fuesen mi mercado (previsión improbable si estuviera en el negocio de la confección), puedo calcular qué tanto por ciento de mis trajes tendrían que ser de las tallas 36, 38 y así sucesivamente. Si no tuviera la gráfica de las estaturas, tendría que adivinarlo, y si me equivocase, al final de la temporada tendría 137 trajes de la talla 46 sin vender (y le echaría la culpa a mi socio Jake, ¡el muy bruto!).
Cuando se resuelve la ecuación de Schrödinger para cualquier situación en la que intervengan procesos atómicos, se genera una curva análoga a la distribución de estaturas de los estudiantes. Sin embargo, puede que el perfil sea muy distinto. Si quiero saber por dónde está el electrón en el átomo de hidrógeno —a qué distancia está del núcleo—, hallaremos una distribución que caerá bruscamente a unos 10—8 centímetros, con una probabilidad de un 80 por 100 de que el electrón esté dentro de la esfera de 10—8 centímetros. Ese es el estado fundamental. Si excitamos el electrón al siguiente nivel de energía, obtendremos una curva de Bell cuyo radio medio es unas cuatro veces mayor. Podemos también computar las curvas de probabilidad de otros procesos. Aquí debemos diferenciar claramente las predicciones de probabilidad de las posibilidades. Los niveles de energía posibles se conocen con mucha precisión, pero si preguntamos en qué estado de energía se encontrará el electrón, calculamos sólo una probabilidad, que depende de la historia del sistema. Si el electrón tiene más de una opción a la hora de saltar aun estado de energía inferior, podemos también calcular las probabilidades; por ejemplo, un 82 por 100 de saltar a E1, un 9 por 100 de saltar a E2, etc. Demócrito lo dijo mejor cuando proclamó: «Nada hay en el universo que no sea fruto del azar y la necesidad». Los distintos estados de energía son necesidades, las únicas condiciones posibles. Pero sólo podemos predecir las probabilidades de que el electrón esté en cualquiera de ellos. Es cosa del azar.
Los expertos actuariales conocen hoy bien los conceptos de probabilidad. Pero eran perturbadores para los físicos educados en la física clásica de principios de siglo (y siguen perturbando a muchos hoy). Newton describió un mundo determinista. Si tirases una piedra, lanzaras un cohete o introdujeras un planeta nuevo en el sistema solar, podrías predecir adónde irían a parar con toda certidumbre, al menos en principio, mientras conozcas las fuerzas y las condiciones iniciales. La teoría cuántica decía que no: las condiciones iniciales son inherentemente inciertas. Sólo se obtienen probabilidades como predicciones de lo que se mida: la posición de la partícula, su energía, su velocidad o lo que sea. La interpretación de Schrödinger que dio Born perturbó a muchos físicos, que en los tres siglos pasados desde Galileo y Newton habían llegado a aceptar el determinismo como una forma de vida. La teoría cuántica amenazaba con transformarlos en actuarios de alto nivel.
Sorpresa en la cima de una montaña
En 1927, el físico inglés Paul Dirac intentaba extender la teoría cuántica, que en ese momento no casaba con la teoría especial de la relatividad de Einstein. Sommerfeld ya había presentado una teoría a la otra. Dirac, con la intención de hacer que las dos teorías fuesen felizmente compatibles, supervisó el matrimonio y su consumación. Al hacerlo dio con una ecuación nueva y elegante para el electrón (curiosamente, la llamamos ecuación de Dirac). De esta poderosa ecuación sale la orden a posteriori de que los electrones deben tener espín y producir magnetismo. Recordad el factor g del principio de este capítulo. Los cálculos de Dirac mostraron que la intensidad del magnetismo del electrón tal y como lo medía g era 2,0. (Sólo mucho más tarde vinieron los refinamientos que condujeron al valor preciso dado antes.) ¡Aún más! Dirac (que tenía veinticuatro años o así) halló, al obtener las ondas de electrón que resolvían su ecuación, que había otra solución con extrañas consecuencias. Tenía que haber otra partícula cuyas propiedades fuesen idénticas a las del electrón, pero con carga eléctrica opuesta. Matemáticamente, se trata de un concepto sencillo. Como sabe hasta un niño, la raíz cuadrada de cuatro es más dos, pero además está menos dos porque menos dos por menos dos es también cuatro: 2 x 2 = 4 y —2 x —2 = 4. Así que hay dos soluciones. La raíz cuadrada de cuatro es más o menos dos.
El problema es que la simetría implícita en la ecuación de Dirac quería decir que para cada partícula tenía que existir otra partícula de la misma masa pero carga opuesta. Por eso, Dirac, conservador caballero que carecía hasta tal punto de carisma que ha dado lugar a leyendas, luchó con esa solución negativa y acabó por predecir que la naturaleza tiene que contener electrones positivos además de electrones negativos. Alguien acuñó la palabra antimateria. Esta antimateria debería estar en todas partes, y sin embargo nadie había dado con ella.
En 1932, un joven físico del Cal Tech, Carl Anderson, construyó una cámara de niebla diseñada para registrar y fotografiar las partículas subatómicas. El aparato estaba circundado por un imán poderoso; su misión era doblar la trayectoria de las partículas, lo que daba una medida de su energía. Anderson metió en el saco una partícula nueva y rara —o, mejor dicho, su traza— gracias a la cámara de niebla. Llamó a este extraño objeto nuevo positrón, porque era idéntico al electrón excepto porque tenía carga positiva en vez de negativa. La comunicación de Anderson no hacía referencia a la teoría de Dirac, pero enseguida se ataron los cabos. Había hallado una nueva forma de materia, la antipartícula que había saltado de la ecuación de Dirac unos pocos años antes. Las trazas habían sido dejadas por los rayos cósmicos, la radiación que viene de las partículas que dan en la atmósfera procedente de los confines de nuestra galaxia. Anderson, para obtener mejores datos todavía, transportó el aparato de Pasadena a lo alto de una montaña de Colorado, donde el aire es fino y los rayos cósmicos más intensos.
Una fotografía de Anderson que apareció en la primera plana del New York Times anun-ciando el descubrimiento inspiró al joven Lederman, y por primera vez cayó bajo el influjo de la romántica aventura de llevar a cuestas un equipo científico a la cima de una montaña muy alta para hacer mediciones de importancia. La antimateria dio mucho de sí y se unió inextricablemente a la vida de los físicos de partículas; prometo decir más de ella en los capítulos siguientes. Otro triunfo de la teoría cuántica.
La incertidumbre y esas cosas
En 1927 Heisenberg concibió sus relaciones de incertidumbre, que coronaron la gran revolución científica a la que damos el nombre de teoría cuántica. La verdad es que la teoría cuántica no se completó hasta finales de los años cuarenta. En realidad, su evolución sigue hoy, en su versión de teoría cuántica de campos, y la teoría no estará completa hasta que se combine plenamente con la gravitación. Pero para nuestros propósitos el principio de incertidumbre es un buen sitio para acabar. Las relaciones de incertidumbre de Heisenberg son una consecuencia matemática de la ecuación de Schrödinger. También podrían haber sido postulados lógicos, o supuestos, de la nueva mecánica cuántica. Como las ideas de Heisenberg son fundamentales para entender cómo es el nuevo mundo cuántico, hemos de demorarnos aquí un poco.
Los ideadores cuánticos insisten en que sólo las mediciones, tan caras a los experimentadores, cuentan. Todo lo que podemos pedirle a una teoría es que prediga los resultados de los hechos que quepa medir. Parecerá una obviedad, pero olvidarla conduce a las paradojas que tanto les gusta explotar a los escritores populares carentes de cultura. Y, debería añadir, es en la teoría de la medición donde la teoría cuántica encuentra sus críticos pasados, presentes y, sin duda, futuros.
Revisada ortografía hasta aquí
Heisenberg anunció que nuestro conocimiento simultáneo de la posición de una partícula y de su movimiento es limitado y que la incertidumbre combinada de esas dos propiedades debe ser mayor que…, cómo no, la constante de Planck, h, que encontramos por vez primera en la fórmula E = hf. Nuestras mediciones de la posición de una partícula y de su movimiento (en realidad, de su momento) guardan una relación recíproca. Cuanto más sabemos de una, menos sabemos de la otra. La ecuación de Schrödinger nos da las probabilidades de esos factores. Si concebimos un experimento que determine con exactitud la posición de una partícula —es decir, que está en alguna coordenada con una incertidumbre sumamente pequeña—, la dispersión de los valores posibles del momento será, en la medida correspondiente, grande, como dicta la relación de Heisenberg. El producto de las dos incertidumbres (podemos asignarles números) es siempre mayor que la ubicua h de Planck. Las relaciones de Heisenberg prescinden, de una vez por todas, de la representación clásica de las órbitas. El mismo concepto de posición o lugar es ahora menos definido. Volvamos a Newton y a algo que podamos visualizar.
Suponed que tenemos una carretera recta por la que va tirando un Toyota a una velocidad respetable. Decidimos que vamos a medir su posición en un instante de tiempo determinado mientras pasa zumbando ante nosotros. Queremos saber además lo deprisa que va. En la física newtoniana, la determinación exacta de la posición y la velocidad de un objeto en un instante concreto de tiempo le permite a uno predecir con precisión dónde estará en cualquier momento futuro. Sin embargo, al montar nuestras reglas y relojes, flases y cámaras, vemos que cuando medimos con más cuidado la posición, menor es nuestra capacidad de medir la velocidad y viceversa. (Recordad que la velocidad es el cambio de la posición dividido por el tiempo.) Sin embargo, en la física clásica podemos mejorar sin cesar nuestra exactitud en ambas magnitudes hasta un grado de precisión indefinido. Basta con que le pidamos a una oficina gubernamental más fondos para construir un equipo mejor.
En el dominio atómico, por el contrario, Heisenberg propuso que hay una incognoscibili-dad básica que no se puede reducir por mucho equipo, ingenio o fondos que se inviertan. Enunció que es una propiedad fundamental de la naturaleza que el producto de las dos incertidumbres es siempre mayor que la constante de Planck. Por extraño que suene, esta incertidumbre en la mensurabilidad del micromundo tiene una base física firme. Intentemos, por ejemplo, determinar la posición de un electrón. Para ello, debemos «verlo». Es decir, hay que hacer que la luz, un haz de fotones, rebote en el electrón. ¡Vale, ahí está! Ahora vemos el electrón. Sabemos su posición en un momento dado. Pero un fotón que dé en un electrón cambia el estado de movimiento de éste. Una medición socava a la otra. En la mecánica cuántica, la medición produce inevitablemente un cambio porque uno se las ve con sistemas atómicos, y los instrumentos de medición no se pueden hacer más pequeños, suaves o amables que ellos. Los átomos tienen una diez mil millonésima de centímetro de radio y pesan una billonésima de una billonésima de gramo, así que no cuesta mucho afectarlos a fondo. Por el contrario, en un sistema clásico se puede estar seguro de que el acto de medir apenas influye en el sistema que se mide. Suponed que queremos medir la temperatura del agua. No cambiamos la temperatura de un lago, digamos, cuando metemos en él un pequeño termómetro. Pero sumergir un termómetro gordo en un dedal de agua sería una estupidez, pues el termómetro cambiaría la temperatura del agua. En los sistemas atómicos, dice la teoría cuántica, debemos incluir la medición como parte del sistema.
La tortura de la rendija doble
El ejemplo más famoso e instructivo de que la naturaleza de la teoría cuántica va contra la intuición es el experimento de la rendija doble; el médico Thomas Young fue el primero que lo realizó, en 1804, y se celebró como la prueba experimental de la naturaleza ondulatoria de la luz. El experimentador dirigía un haz de luz amarilla, por ejemplo, a una pared donde había abierto dos rendijas paralelas muy finas y separadas por una distancia muy pequeña. Una pantalla alejada recoge la luz que brota a través de las rendijas. Cuando Young cubría una de ellas, se proyectaba en la pantalla una imagen simple, brillante, ligeramente ensanchada de la otra. Pero cuando estaban descubiertas las dos rendijas, el resultado era sorprendente. Un examen cuidadoso del área encendida sobre la pantalla mostraba una serie de franjas brillantes y oscuras igualmente espaciadas. Las franjas oscuras son lugares donde no llega la luz.
Las franjas son la prueba, decía Young, de que la luz es una onda. ¿Por qué? Forman parte de un patrón de interferencia, de los que se producen cuando las ondas del tipo que sean chocan entre sí. Cuando dos ondas de agua, por ejemplo, chocan cresta con cresta, se refuerzan mutuamente y se crea una onda mayor. Cuando chocan valle con cresta, se anulan y la onda se allana.
Young interpretó que en el experimento de la rendija doble las perturbaciones ondulatorias de las dos rendijas llegaban a la pantalla en ciertos sitios con las fases justas para anularse mutuamente: un pico de la onda de luz de la rendija uno llega exactamente en el valle de luz de la rendija dos. Se produce una franja oscura. Estas anulaciones son las indicaciones quintaesenciales de la interferencia ondulatoria. Cuando coinciden sobre la pantalla dos picos o dos valles tenemos una franja brillante. Se aceptó que el patrón de franjas era la prueba de que la luz era un fenómeno ondulatorio.
Ahora bien, en principio cabe efectuar el mismo experimento con electrones. En cierta forma, eso es lo que Davisson hizo en los laboratorios Bell. Cuando se usan electrones, el experimento arroja también un patrón de interferencia. La pantalla se cubre con contadores Geiger minúsculos, que suenan cuando un electrón da en ellos. El contador Geiger detecta partículas. Para comprobar que los contadores funcionan, ponemos una pieza de plomo gruesa sobre la rendija dos: los electrones no pueden atravesarla. En este caso, todos los contadores Geiger sonarán si esperamos lo suficiente para que unos miles de electrones pasen a través de la otra rendija, la que está abierta. Pero cuando las dos rendijas lo están, ¡hay columnas de contadores Geiger que no suenan nunca!
Esperad un minuto. Prestad atención a esto. Cuando se cierra una rendija, los electrones, que brotan a través de la otra, se dispersan, y unos van a la izquierda, otras en línea recta, otros a la derecha, y hacen que se forme a lo largo y ancho de la pantalla un patrón más o menos uniforme de ruidos de contadores, lo mismo que la luz amarilla de Young creaba una ancha línea brillante en su experimento de una sola rendija. En otras palabras, los electrones se comportan, lo que es bastante lógico, como partículas. Pero si retiramos el plomo y dejamos que pasen algunos electrones por la rendija dos, el patrón cambia y ningún electrón llega a esas columnas de contadores Geiger que están donde caen las franjas oscuras. Los electrones actúan entonces como ondas. Sin embargo, sabemos que son partículas porque los contadores suenan.
Quizá, podríais argüir, pasen dos o más electrones a la vez por las rendijas y simulen un patrón de interferencia ondulatoria. Para que quede claro que no pasan dos electrones a la vez por las rendijas, reducimos el ritmo de los electrones a uno por minuto. Los mismos patrones. Conclusión: los electrones que atraviesan la rendija uno «saben» que la rendija dos está abierta o cerrada porque según sea lo uno o lo otro sus patrones cambian.
¿Cómo se nos ocurre esta idea de los electrones «inteligentes»? Poneos en el lugar del experimentador. Tenéis un cañón de electrones, así que sabéis que estáis disparando partículas a las rendijas. Sabéis también que al final tenéis partículas en el lugar de destino, la pantalla, pues los contadores Geiger suenan. Un ruido significa una partícula. Luego, tengamos una rendija abierta o las dos, empezamos y terminamos con partículas. Sin embargo, dónde aterricen las partículas dependerá de que estén abiertas una o dos rendijas. Por lo tanto, da la impresión de que una partícula que pase por la rendija uno sabrá si la rendija dos está abierta o cerrada, ya que parece que cambia su camino conforme a esa información. Si la rendija dos está cerrada, se dice a sí misma: «Muy bien, puedo caer donde quiera en la pantalla». Si la rendija dos está abierta, se dice: «¡Oh!, ¡ah!, tengo que evitar ciertas bandas de la pantalla, para que se cree un patrón de franjas». Como las partículas no pueden «saber», nuestra ambigüedad entre ondas y partículas crea una crisis lógica.
La mecánica cuántica dice que podemos predecir la probabilidad de que los electrones pasen por las rendijas y lleguen a continuación a la pantalla. La probabilidad es una onda, y las ondas exhiben patrones de interferencia para las dos rendijas. Cuando las dos están abiertas, las ondas de probabilidad Ψ pueden interferir de forma que resulte una probabilidad nula (Ψ = 0) en ciertos lugares de la pantalla. La queja antropomórfica del párrafo anterior es un atolladero clásico; en el mundo cuántico, «¿cómo sabe el electrón por qué rendija ha de pasar?» no es una pregunta que la medición pueda responder. La trayectoria detallada, punto a punto, del electrón, no se está observando, y por lo tanto la pregunta «¿por qué rendija pasa el electrón?» no es una cuestión operativa. Las relaciones de incertidumbre de Heisenberg resuelven, además, nuestra fijación clásica al señalar que, cuando se trata de medir la trayectoria del electrón entre el cañón de electrones y la pared, se cambia por completo el movimiento del electrón y se destruye el experimento. Podemos conocer las condiciones iniciales (el electrón que dispara el cañón); podemos conocer los resultados (el electrón da en alguna parte de la pantalla); no podemos conocer el camino de A a B a menos que estemos dispuestos a cargarnos el experimento. Esta es la naturaleza fantasmagórica del nuevo mundo atómico.
La solución que da la mecánica cuántica, «¡no te preocupes!, ¡no podemos medirlo», es bastante lógica, pero no satisface a la mayoría de los espíritus humanos, que luchan por comprender los detalles del mundo que nos rodea. Para algunas almas torturadas, la incognoscibilidad cuántica es aún un precio demasiado alto que hay que pagar. Nuestra defensa: esta es la única teoría que por ahora conozcamos que funciona.
Newton frente a Schrödinger
Hay que cultivar una nueva intuición. Nos pasamos años enseñando a los estudiantes de física la física clásica, para luego dar un giro y enseñarles la teoría cuántica. Los estudiantes graduados necesitan dos o más años para desarrollar una intuición cuántica. (Se espera que vosotros, afortunados lectores, realicéis esta pirueta en el espacio de sólo un capítulo.)
La pregunta obvia es: ¿cuál es correcta?, ¿la teoría de Newton o la de Schrödinger? El sobre, por favor. Y el ganador es… ¡Schrödinger! La física de Newton se desarrolló para las cosas grandes; no vale dentro del átomo. La teoría de Schrödinger se concibió para los microfenómenos. Sin embargo, cuando se aplica la ecuación de Schrödinger a las situaciones macroscópicas da resultados idénticos a la de Newton.
Veamos un ejemplo clásico. La Tierra da vueltas alrededor del Sol. Un electrón da vueltas —por usar el viejo lenguaje de Bohr— alrededor de un núcleo. Pero el electrón está obligado a moverse en ciertas órbitas. ¿Le están permitidas a la Tierra sólo ciertas órbitas cuánticas alrededor del Sol? Newton diría que no, que el planeta puede orbitar por donde quiera. Pero la respuesta correcta es sí. Podemos aplicar la ecuación de Schrödinger al sistema Tierra-Sol. La ecuación de Schrödinger nos daría el usual conjunto discreto de órbitas, pero habría un número enorme de ellas. Al usar la ecuación, se metería la masa de la Tierra (en vez de la masa del electrón) en el denominador, con lo que el espaciamiento entre las órbitas allá donde la Tierra está, es decir, a 150 millones de kilómetros del Sol, resultaría tan pequeño —una millonésima de billonésima de centímetro— que sería de hecho continuo. Para todos los propósitos prácticos, se llega al resultado newtoniano de que todas las órbitas se permiten. Cuando tomas la ecuación de Schrödinger y la aplicas a los macroobjetos, ante tus ojos se convierte en… ¡F = ma! O casi. Fue Roger Boscovich, dicho sea de paso, quien conjeturó en el siglo XVIII que las fórmulas de Newton eran meras aproximaciones que valían en las grandes distancias pero no sobrevivirían en el micromundo. Por lo tanto, nuestros estudiantes graduados no tienen que tirar sus libros de mecánica. Quizá consigan un trabajo en la NASA o con los Chicago Cubs, preparando trayectorias de reentrada para los cohetes o tarjetas de esas que se levantan al abrirlas con las buenas y viejas ecuaciones newtonianas.
En la teoría cuántica, el concepto de órbita, o qué hace el electrón en el átomo o en un haz, no es útil. Lo que importa es el resultado de la medición, y ahí los métodos cuánticos sólo pueden predecir la probabilidad de cualquier resultado posible. Si se mide dónde está el electrón, en el átomo de hidrógeno por ejemplo, el resultado será un número, la distancia del electrón al núcleo. Y se hará, no midiendo un solo electrón, sino repitiendo la medición muchas veces. Se obtiene un resultado diferente cada vez, y al final se dibuja una curva que represente gráficamente todos los resultados. Ese gráfico es el que se puede comparar con la teoría. La teoría no puede predecir el resultado de una medición dada cualquiera. Es una cuestión estadística. Volviendo a mi comparación con la confección de trajes, aunque sepamos que la estatura media de los alumnos de primero de la Universidad de Chicago es de 1,70 metros, el próximo alumno de primero que entre en ella podría medir 1,60 o 1,85. No podemos predecir la estatura del próximo alumno de primero; sólo podemos dibujar una especie de curva actuarial.
Donde se vuelve fantasmagórica es al predecir el paso de una partícula por una barrera o el tiempo que tarda en desintegrarse un átomo radiactivo. Preparamos muchos montajes idénticos, Disparamos un electrón de 5,00 MeV a una barrera de potencial de 5,50 MeV. Predecimos que 45 veces de cada 100 penetrará en ella.
Pero nunca podemos estar seguros de qué hará un electrón dado. Uno la atraviesa; el siguiente, idéntico en todos los aspectos, no. Experimentos idénticos arrojan resultados diferentes. Ese es el mundo cuántico. En la ciencia clásica insistimos en lo importante que es que se repitan los experimentos. En el mundo cuántico podemos repetirlo todo menos el resultado.
De la misma forma, tomad el neutrón, que tiene una «semivida» de 10,3 minutos, lo que quiere decir que si se empieza con 1.000 neutrones, la mitad se habrá desintegrado en 10,3 minutos. Pero ¿y un neutrón dado? Puede que se desintegre en 3 segundos o en 29 minutos. El momento exacto en que se desintegrará es desconocido. Einstein odiaba esta idea. «Dios no juega a los dados con el universo», decía. Otros críticos decían: suponed que hay, en cada neutrón o en cada electrón, un mecanismo, un muelle, una «variable oculta» que haga que cada neutrón sea diferente, como los seres humanos, que también tienen una vida media. En el caso de los seres humanos hay una multitud de cosas no tan ocultas —genes, arterias obstruidas y cosas así— que pueden en principio servir para predecir el día en que un individuo fallecerá, excepción hecha de ascensores que se caigan, líos amorosos catastróficos o un Mercedes fuera de control.
La hipótesis de la variable oculta está en esencia refutada por dos razones: en todos los millones y millones de experimentos hechos con electrones no se han manifestado nunca, y nuevas y mejoradas teorías relativas a los experimentos mecanocuánticos las han descartado.
Tres cosas que hay que recordar sobre la mecánica cuántica
Se puede decir que la mecánica cuántica tiene tres cualidades destacables: 1) va contra la intuición; 2) funciona; y 3) tiene aspectos que la hicieron inaceptable a los afines a Einstein y Schrödinger y que han hecho que en los años noventa sea una fuente continua de estudios. Veamos cada una de ellas.
1 Va contra la intuición. La mecánica cuántica sustituye la continuidad por lo discreto. Metafóricamente, no es un líquido que se vierte en un vaso, sino una arena muy fina. El zumbido regular que oís es el impacto de números enormes de átomos en vuestros tímpanos. Y está el carácter fantasmagórico del experimento de la rendija doble, que ya hemos comentado.
Otro fenómeno que va contra la intuición es el «efecto túnel». Hemos hablado del envío de electrones hacia una barrera de energía. La analogía clásica es hacer que una bola ruede cuesta arriba. Si se le da a la bola el suficiente empuje (energía) inicial, llegará a lo más alto. Si la energía inicial es demasiado pequeña, la bola volverá a bajar. O imaginaos una montaña rusa, el coche en una hondonada entre dos subidas terroríficas. Suponed que el coche rueda hasta la mitad de una de las subidas y se queda sin fuerza motriz. Se deslizará hacia abajo, subirá casi hasta la mitad de la otra pendiente y oscilará atrás y adelante, atrapado en la hondonada. Si pudiésemos eliminar la fricción, el coche oscilaría para siempre, aprisionado entre dos subidas insuperables. En la teoría atómica cuántica, a un sistema así se le conoce con el nombre de «estado ligado». Sin embargo, nuestra descripción de lo que les pasa a los electrones que se dirigen hacia una barrera de energía o a un electrón atrapado entre dos barreras debe tener en cuenta las ondas probabilistas. Resulta que parte de la onda puede «gotear» a través de la barrera (en los sistemas atómicos o nucleares la barrera es una fuerza o de tipo eléctrico o del tipo fuerte), y por lo tanto hay una probabilidad finita de que la partícula atrapada aparezca fuera de la trampa. Esto no sólo iba contra la intuición, sino que se consideró una paradoja de orden mayor, pues el electrón a su paso por la barrera debía tener una energía cinética negativa, lo que, desde el punto de vista clásico, es absurdo. Pero cuando se desarrolla la intuición cuántica, uno responde que la condición de que el electrón «esté en el túnel» no es observable y por lo tanto no es un problema de la física. Lo que uno observa es que sale fuera. Este fenómeno, el paso por efecto túnel, se utilizó para explicar la radiactividad alfa. Es la base de un importante dispositivo electrónico, el diodo túnel. Por fantasmagórico que sea, este efecto túnel les es esencial a los ordenadores modernos y a otros dispositivos electrónicos.
Partículas puntuales, paso por efecto túnel, radiactividad, la tortura de la rendija doble: todo esto contribuyó a las nuevas intuiciones que los físicos cuánticos necesitaban a medida que fueron desplegando su nuevo armamento intelectual a finales de los años veinte y durante los treinta en busca de fenómenos inexplicados.
2 Funciona. Gracias a los acontecimientos de 1923-1927, se comprendió el átomo. Aun así, en esos días previos a los ordenadores, sólo se podían analizar adecuadamente los átomos simples —el hidrógeno, el helio, el litio y los átomos a (as que se les han quitado algunos electrones (ionizado)—. Logró un gran avance Wolfgang Pauli, uno de los «wunderkinder», que entendió la teoría de la relatividad a los diecinueve años y, en sus días de «hombre de estado veterano», se convirtió en el «enfant terrible» de la física.
No se puede evitar aquí una digresión sobre Pauli. Se caracterizaba por su severa vara de medir y por su irascibilidad, y fue la conciencia de la física de su época. ¿O era, simplemente, sincero? Abraham Pais cuenta que Pauli se quejó una vez ante él de las dificultades que tenía para encontrar un problema en el que trabajar que le plantease retos: «Quizá es porque sé demasiado». No era una baladronada, sino el mero enunciado de un hecho. Os podréis imaginar que era duro con los ayudantes. Cuando uno nuevo, joven, Victor Weisskopf, que habría de ser uno de los teóricos más destacados, se presentó ante él en Zurich, Pauli le miró de arriba abajo, meneó la cabeza y murmuró: «Ach, tan joven y todavía es usted desconocido». Unos cuantos meses después, Weisskopf le presentó a Pauli un trabajo teórico. Pauli le echó un vistazo y dijo: «Ach, ¡no está ni equivocado! ». A un posdoctorando le dijo: «No me importa que piense despacio. Me importa que publique más deprisa de lo que piensa». Nadie estaba a salvo de Pauli. Al recomendarle a Einstein una persona como ayudante, Pauli le escribió a aquél, sumergido en sus últimos años en el exotismo matemático de su estéril persecución de una teoría unificada: «Querido Einstein. Este estudiante es bueno, pro no capta con claridad la diferencia entre las matemáticas y la física. Por otra parte, a usted, querido Maestro, se le ha escapado esa distinción hace mucho». Ese es nuestro chico Wolfgang.
En 1924 propuso un principio fundamental que explicaba la tabla periódica de los ele-mentos de Mendeleev. El problema: formamos los átomos de los elementos químicos más pesados añadiendo cargas positivas al núcleo y electrones a los distintos estados de energía permitidos del átomo (órbitas, en la vieja teoría cuántica). ¿Adónde van los electrones? Pauli enunció el que ha venido a llamarse principio de exclusión de Pauli: no hay dos electrones que puedan ocupar el mismo estado cuántico. Al principio fue una suposición inspirada, pero, como se vería, derivaba de una profunda y hermosa simetría.
Veamos cómo hace Santa Claus, en su taller, los elementos químicos. Tiene que hacerlo bien porque trabaja para Él, y Él es duro. El hidrógeno es fácil. Lleva un protón, el núcleo. Le añade un electrón, que ocupa el estado de energía más bajo posible; en la vieja teoría de Bohr (que aún es útil pictóricamente), la órbita con el menor radio permitido. Santa no tiene que poner cuidado; le basta con dejar caer el electrón en cualquier parte cerca del protón, que ya acabará por «saltar» a su estado más bajo o «fundamental», emitiendo fotones por el camino. Ahora el helio. Ensambla el núcleo de helio, que tiene dos cargas positivas. Por lo tanto, ha de dejar caer dos electrones. Y con el litio hacen falta tres para formar el átomo eléctricamente neutro. El problema es: ¿adónde van a parar los electrones? En el mundo cuántico, sólo se permiten ciertos estados. ¿Se acumulan todos los electrones en el fundamental, tres, cuatro, cinco… electrones? Ahí es donde entra el principio de Pauli. No, dice Pauli, no pueden estar dos electrones en el mismo estado cuántico. En el helio se permite que el segundo electrón se una al primero en el estado de menor energía sólo si su espín va en sentido opuesto al de su compañero. Cuando se añade el tercer electrón, para el átomo de litio, queda excluido del nivel más bajo de energía y ha de ir al siguiente nivel más bajo. Éste tiene un radio mucho mayor (de nuevo dicho a la manera de la teoría de Bohr), lo que explica la actividad química del litio, es decir, la facilidad con que emplea ese electrón solitario para combinarse con otros átomos. Tras el litio tenemos el átomo de cuatro electrones, el berilio, en el que el cuarto electrón se une al tercero en la misma «capa» de éste, como se llama a los niveles de energía.
A medida que procedemos alegremente —el berilio, el boro, el carbono, el nitrógeno, el oxígeno, el neón—, añadimos electrones hasta que cada capa se llene. Ni uno más en esa capa, dice Pauli. Empieza una nueva. En pocas palabras, la regularidad de las propiedades y de los comportamientos químicos procede por completo de esta construcción cuántica por medio del principio de Pauli. Unos decenios antes, los científicos se habían burlado de la insistencia de Mendeleev en alinear los elementos en filas y columnas de acuerdo con sus características. Pauli mostró que esa periodicidad estaba ligada de forma precisa a las capas y estados cuánticos distintos de los electrones: en la primera capa se pueden acomodar dos, ocho en la segunda, dieciocho en la tercera y así sucesivamente (2 x n2). La tabla periódica tenía, en efecto, un significado más profundo.
Resumamos esta importante idea. Pauli inventó una regla que se aplicaba .1 la manera en que los elementos químicos cambiaban su estructura electrónica. Esta regla explica las propiedades químicas (gas inerte, metal activo y demás) ligándolas al número de electrones y a sus estados, especialmente de los que están en las capas más exteriores, donde es más fácil que entren en contacto con otros átomos. La consecuencia más lla-mativa del principio de Pauli es que, si se llena una capa, es imposible añadirle un electrón más. La fuerza que se resiste a ello es enorme. Esta es la verdadera razón de la impenetrabilidad de la materia. Aunque los átomos son en mucho más de un 99,99 por 100 espacio vacío, atravesar una pared me supone un auténtico problema. Lo más probable es que compartáis conmigo esta frustración. ¿Por qué? En los sólidos, donde los átomos se unen mediante complicadas atracciones eléctricas, la imposición de los electrones de vuestro cuerpo sobre el sistema de los átomos de la «pared» topa con la prohibición de Pauli de que los electrones estén demasiado juntos. Una bala puede pe-netrar en una pared porque rompe las ligaduras entre átomos y, como un bloqueador del fútbol norteamericano, deja sitio para sus propios electrones. El principio de Pauli desempeña también un papel crucial en sistemas tan peculiares y románticos como las estrellas de neutrones y los agujeros negros. Pero me salgo del tema.
Una vez que sabemos cómo están hechos los átomos, resolvemos el problema de cómo se combinan para construir moléculas, H20 o NaCl, por ejemplo. Las moléculas se forman gracias a complejos de fuerzas que actúan entre los electrones y los núcleos de los átomos que se combinan. La disposición de los electrones en sus capas proporciona la clave para crear una molécula estable. La teoría cuántica le dio a la química una firme base científica, y la química cuántica es hoy un campo floreciente, del que han salido nuevas disciplinas, como la biología molecular, la ingeniería genética y la medicina molecular. En la ciencia de materiales, la teoría cuántica nos sirve para explicar y controlar las propiedades de los metales, los aislantes, los superconductores y los semiconductores. Los semiconductores llevaron al descubrimiento del transistor, cuyos inventores reconocen que toda su inspiración les vino de la teoría cuántica de los metales. Y de ese descubrimiento salieron los ordenadores y la microelectrónica y la revolución en las comunicaciones y en la información. Y además están los máseres y los láseres, que son sistemas cuánticos por completo.
Cuando nuestras mediciones llegaron al núcleo atómico —una escala 100.000 veces menor que la del átomo—, la teoría cuántica era un instrumento esencial en ese nuevo régimen. En la astrofísica, los procesos estelares producen objetos de lo más peculiar: soles, gigantes rojas, enanas blancas, estrellas de neutrones y agujeros negros. El curso de la vida de estos objetos se basa en la teoría cuántica. Desde el punto de vista de la utilidad social, como hemos calculado, la teoría cuántica da cuenta de más del 25 por 100 del PNB de todas las potencias industriales. Pensad solo en esto: unos físicos europeos se obsesionan con la manera en que funciona el átomo, y sus esfuerzos acaban por generar billones de dólares de actividad económica. Con que a unos gobiernos sabios y prescientes se les hubiera ocurrido poner una tasa del 0,1 por 100 a los productos de tecnología cuántica, destinada a la investigación y a la educación… En cualquier caso, ya lo creo que funciona.
3 Tiene problemas. Tienen que ver con la función de onda (psi, o Ψ) y lo que significa. A pesar de su gran éxito práctico e intelectual, no podernos estar seguros de qué significa la teoría cuántica. Puede que nuestra incomodidad sea intrínseca a la mente humana, o quizás un genio acabará por hallar un esquema conceptual que haga felices a todos. Si no la podéis tragar, no os preocupéis. Estáis en buena compañía. La teoría cuántica ha hecho infelices a muchos físicos, Planck, Einstein, De Broglie y Schrödinger entre ellos.
Hay una rica literatura sobre las objeciones a la naturaleza probabilista de la teoría cuántica. Einstein dirigió la batalla, y sus numerosos intentos (cuesta seguirlos) de socavar las relaciones de incertidumbre fueron una y otra vez desbaratados por Bohr, quien había establecido lo que ahora se llama la «interpretación de Copenhague» de la función de onda. Einstein y Bohr se lo tomaron realmente en serio. Einstein concebía un experimento mental que era una flecha disparada al corazón de la nueva teoría cuántica, y Bohr, por lo general tras un largo fin de semana de duro trabajo, hallaba el fallo en el argumento de Einstein. Einstein era el chico malo, el que azuzaba en los debates. Como al niño que crea problemas en la clase de catecismo («Si Dios es todopoderoso, ¿puede hacer una roca tan pesada que ni siquiera Él pueda levantarla?»), a Einstein no dejaban de ocurrírsele paradojas de la teoría cuántica. Bohr era el sacerdote que no dejaba de responder a las objeciones de Einstein.
Se cuenta que muchas de las discusiones tuvieron lugar durante paseos por el bosque. Me imagino lo que pasaba cuando se encontraban con un oso enorme. Bohr sacaba in-mediatamente de su mochila un par de zapatillas Reebok Pump de 300 dólares y se ponía a atárselas. «¿Qué haces, Niels? Sabes que no puedes correr más que un oso —le decía Einstein con lógica—. ¡Ah!, no tengo que correr más que el oso, querido Albert», respondía Bohr. «Sólo tengo que correr más que tú.»
Hacia 1936 Einstein había aceptado a regañadientes que la teoría cuántica describe correctamente todos los experimentos posibles, al menos los que se pueden imaginar. Hizo entonces un cambio de marchas y decidió que la mecánica cuántica no podía ser una descripción completa del mundo, aun cuando diese correctamente la probabilidad de los distintos resultados de las mediciones. La defensa de Bohr fue que la imperfec-ción que preocupaba a Einstein no era un fallo de la teoría, sino una cualidad del mundo en el que vivimos. Estos dos siguieron discutiendo sobre la mecánica cuántica en la tumba, y estoy completamente seguro de que no han dejado de hacerlo, a no ser que el «Viejo», como Einstein llamaba a Dios, por una preocupación fuera de lugar, les haya zanjado la cuestión.
Hacen falta libros enteros para contar el debate entre Einstein y Bohr, pero intentaré ilustrar el problema con un ejemplo. Recuerdo el punto principal de Heisenberg: nunca podrá tener un éxito completo ningún intento de medir a la vez dónde está una partícula y adónde va. Preparad una medición para localizar el átomo; ahí lo tendréis, con tanta precisión como queráis. Preparad una medición para ver lo deprisa que va; presto, tenemos su velocidad. Pero no podemos tener las dos. La realidad que descubren esos experimentos depende de la estrategia que adopte el experimentador. Esta subjetividad pone en entredicho nuestros conceptos de causa y efecto tan queridos. Si un electrón parte del punto A y se ve que llega al punto B, parece «natural» que se dé por sentado que tomó un camino concreto entre A y B. La teoría cuántica lo niega, y dice que no se puede conocer el camino. Todos los caminos son posibles, y cada uno tiene su probabilidad.
Para exponer la imperfección de esta noción de la trayectoria fantasma, Einstein propuso un experimento decisivo. No puedo hacer justicia a su idea, pero intentaré dejar claro lo esencial. Se le llama el experimento mental EPR, por Einstein, Podolski y Rosen, los tres que lo concibieron. Propusieron un experimento con dos partículas en el que el destino de cada una está ligado al de la otra. Hay maneras de crear un par de partículas que se mueven separándose entre sí de forma que si una tiene el espín hacia arriba la otra lo tenga hacia abajo, o si una lo tiene hacia la derecha la otra lo tenga hacia la izquierda. Enviamos una partícula a toda velocidad a Bangkok, la otra a Chicago. Einstein decía: muy bien, aceptemos que no podemos saber nada de una partícula hasta que la midamos. Midamos, pues, la partícula A en Chicago y descubramos que tiene el espín hacia la derecha. Ergo, ahora sabemos lo que respecta a la partícula B, en Bangkok, cuyo espín está a punto de medirse. Antes de la medición de Chicago, la probabilidad del espín hacia la izquierda y del espín hacia la derecha es de l/2. Tras la medición de Chicago, sabemos que la partícula B tiene el espín hacia la izquierda. Pero ¿cómo sabe la partícula B el resultado del experimento de Chicago? Aunque llevase una pequeña radio, las ondas de radio viajan a la velocidad de la luz y al mensaje le llevaría un tiempo el llegar. ¿Qué mecanismo de comunicación es ese, que ni siquiera tiene la cortesía de viajar a la velocidad de la luz? Einstein lo llamó «acción fantasmagórica a distancia». La conclusión de EPR es que la única manera de comprender la conexión entre lo que pasa en A (la decisión de medir en A) y el resultado de B es proporcionar más detalles, lo que la mecánica cuántica no puede hacer. ¡Ajá!, gritó Albert, la mecánica cuántica no es completa.
Cuando Einstein dio a Bohr de lleno con el EPR, hasta el tráfico se paró en Copen-hague mientras Bohr ponderaba el problema. Einstein intentaba burlar las relaciones de incertidumbre de Heisenberg mediante la medición de una partícula cómplice. Finalmente, la réplica de Bohr sería que no cabe separar los sucesos A y B, que el sistema debe incluir A, B y el observador que decide cuándo se hace una medición. Se pensó que esta respuesta holística tenía ciertos ingredientes de misticismo religioso oriental y se han escrito (demasiados) libros sobre esas conexiones. El problema es si la partícula A y el observador, o detector, A tienen una existencia einsteiniana real o si sólo son unos fantasmas intermedios carentes de importancia antes de la medición. Este problema en particular se resolvió gracias a un gran avance teórico y (¡ajá!) un experimento brillante.
Gracias a un teorema desarrollado en 1964 por un teórico de partículas llamado John Bell, quedó claro que una forma modificada del experimento EPR podría efectuarse de verdad en el laboratorio. Bell concibió un experimento para el que se predecía una cantidad diferente de correlación a larga distancia entre las partículas A y B dependiendo de que la razón la tuviese el punto de vista de Einstein o el de Bohr. El teorema de Bell tiene casi el predicamento de una secta actual, en parte a causa de que cabe en una camiseta. Por ejemplo, hay por lo menos un club de mujeres, en Springfield seguramente, que se reúne cada jueves por la tarde para discutir sobre él. Para disgusto de Bell, algunos proclamaron que su teorema era la «prueba» de que había fenómenos paranormales y psíquicos.
La idea de Bell dio lugar a una serie de experimentos, de los cuales el que mayor éxito ha tenido fue el realizado por Alain Aspect y sus colegas en 1982 en París. El experi-mento midió el número de veces que el detector A se correlacionaba con los resultados del detector B, es decir, espín hacia la izquierda y espín hacia la izquierda, o espín hacia la derecha y espín hacia la derecha. El análisis de Bohr permitía predecir esa correlación mediante la interpretación de Bohr de una «teoría cuántica todo lo completa que es posible» en contraposición a la noción de Einstein de que tiene que haber variables ocultas que determinen la correlación. El experimento mostró claramente que el análisis de Bohr era correcto y el de Einstein, erróneo. Se ve que esas correlaciones a larga distancia entre las partículas son la manera en que la naturaleza actúa.
¿Se acabó así el debate? En absoluto. Hoy es tumultuoso. Uno de los lugares que más dan que pensar dónde ha aparecido la fantasmagoría cuántica es en la misma creación del universo. En la primera fase de la creación, el universo tenía dimensiones subatómicas y la física cuántica se aplicaba al universo entero. Puede que hable por la muchedumbre de físicos al decir que seguiré investigando con los aceleradores, pero estoy contentísimo de que alguien se preocupe aún por los fundamentos conceptuales de la teoría cuántica.
Para los demás, Schrödinger, Dirac y las más recientes ecuaciones de la teoría cuántica de campos son nuestras armas pesadas. El camino hacia la Partícula Divina —o al menos su arranque— se nos muestra ahora muy claro.
Interludio B
Los maestros danzantes de Moo-Shu
Durante el proceso incesante de avivar, y volver a avivar, el entusiasmo por la construcción del SSC (el Supercolisionador Superconductor), visité la oficina del senador Bennett Johnston, demócrata de Luisiana cuyo apoyo fue importante para el destino del Supercolisionador, del que se espera que cueste ocho mil millones de dólares. Para ser un senador de los Estados Unidos, Johnston es un tipo curioso. Le gusta hablar de los agujeros negros, de las distorsiones del tiempo y de otros fenómenos. Cuando entré en su despacho, se levantó tras la mesa y agitó un libro ante mi cara. «Lederman —me rogó—, tengo que hacerle un montón de preguntas sobre esto.» El libro era The Dancing Wu Li Masters, de Gary Zukav. Durante nuestra conversación, alargó mis «quince minutos» hasta el punto de que nos pasamos una hora hablando de física. Estuve buscando un pie, una pausa, una frase que me sirviese para meter baza con mi perorata sobre el Supercolisionador. («Hablando de protones, tengo esta máquina…») Pero Johnston no cejaba. Hablaba de física sin parar. Cuando su secretaria de citas le interrumpió por cuarta vez, se sonrió y dijo: «Mire, sé por qué ha venido. Si usted me hubiese soltado su perorata le habría prometido “hacer lo que pueda”. ¡Pero esto ha sido mucho más divertido! Y haré lo que pueda». En realidad, hizo mucho.
Para mí fue un poco perturbador que este senador de los Estados Unidos, hambriento de conocimiento, satisficiese su curiosidad con el libro de Zukav. En los últimos años ha habido una lluvia de libros —The Tao of Physics es otro ejemplo— que intentan explicar la física moderna a partir de la religión oriental y del misticismo. Los autores son capaces de concluir extasiadamente que todos somos parte del cosmos y que el cosmos es parte de nosotros. ¡Todos somos uno! (Pero, inexplicablemente, American Express nos pasa las facturas por separado.) Lo que me preocupaba era que un senador pudiese sacar algunas ideas alarmantes de esos libros justo antes de que tuviese lugar una votación relativa a una máquina de ocho mil millones de dólares o más que se pondría en manos de los físicos. Por supuesto, Johnston está instruido científicamente y conoce a muchos científicos.
Esos libros se inspiran por lo normal en la teoría cuántica y en lo que hay en ella de inherentemente fantasmagórico. Uno de los libros, del que no diremos el título, presenta unas sobrias explicaciones de las relaciones de incertidumbre de Heisenberg, del experimento mental de Einstein-Podolski-Rosen y del teorema de Bell, y a continuación se lanza a una arrobada discusión de los viajes de LSD, los poltergeists y un ente muerto hace mucho, Seth, que comunicaba sus ideas por medio de la voz y la mano escritora de un ama de casa de Elmira, Nueva York. Es evidente que una de las premisas de ese libro, y de muchos otros por el estilo, es que la teoría cuántica es fantasmagórica, así que ¿por qué no aceptar otras materias extrañas también como hechos científicos?
Por lo general, uno no se preocuparía de libros así si se los encontrase en las secciones de religión, fenómenos paranormales o poltergeist de las librerías. Por desgracia, están puestos a menudo en la categoría de ciencia, probablemente porque se usan en sus títulos palabras como «cuántico» y «física». Una parte excesiva de lo que el público lector sabe de física lo sabe por haber leído esos libros. Cojamos sólo dos de ellos, los más prominentes: The Tao of Physics y The Dance Wu Li Masters, ambos publicados en los años setenta. Para ser justos, Tao, de Fritjof Capra, que tiene un doctorado por la Universidad de Viena, y Wu Li, de Gary Zukav, que es un escritor, han introducido a mucha gente en la física, lo que es bueno. Y lo cierto es que nada malo hay en encontrar paralelismos entre la nueva física cuántica y el hinduismo, el budismo, el taoísmo, el Zen o, tanto da, la cocina de Hunan. Capra y Zukav han hecho además muchas cosas bien. En ambos libros no faltan buenas páginas de física, lo que les da una sensación de credibilidad. Por desgracia, los autores saltan de conceptos científicos sólidos, bien probados, a conceptos ajenos a la física y hacia los cuales el puente lógico apenas si se tiene en pie o no existe.
En Wu Li, por ejemplo, Zukav hace un trabajo excelente al explicar el famoso experimento de la rendija doble de Thomas Young. Pero su análisis de los resultados es bastante peculiar. Como ya se ha comentado, salen patrones diferentes de fotones (o electrones) según haya una o dos rendijas abiertas, así que una experimentadora podría preguntarse: «¿Cómo sabe la partícula cuántas rendijas están abiertas?». Esta es, claro, una forma caprichosa de expresar un problema de mecanismos. El principio de incertidumbre de Heisenberg, noción que es la base de la teoría cuántica, dice que no se puede determinar por qué rendija se cuela la partícula sin destruir el experimento. Según el curioso pero eficaz rigor de la teoría cuántica, esas preguntas no son pertinentes.
Pero Zukav extrae un mensaje diferente del experimento de la rendija doble: la partícula sabe si hay una rendija o dos abiertas. ¡Los fotones son inteligentes! Esperad, es todavía mejor. «Apenas si nos queda otra salida; hemos de reconocer —escribe Zukav— que los fotones, que son energía, parecen procesar información y actuar en consecuencia, y, por lo tanto, por extraño que parezca, da la impresión de que son orgánicos.» Es divertido, puede que filosófico, pero nos hemos apartado de la ciencia.
Paradójicamente, Zukav está dispuesto a atribuirles conciencia a los fotones, pero se niega a aceptar la existencia de los átomos. Escribe: «Los átomos nunca fueron en absoluto cosas “reales”. Los átomos son entes hipotéticos construidos para que las observaciones experimentales sean inteligibles. Nadie, ni una sola persona, ha visto jamás un átomo». Ahí sale otra vez la señora del público que nos quiere poner en apuros con la pregunta: «¿Ha visto usted alguna vez un átomo?». En favor de la señora, hay que decir que estaba dispuesta a escuchar la respuesta. Zukav ya la ha respondido, con un no. Incluso literalmente está hoy fuera de lugar. Desde que se publicó su libro, son muchos los que han visto átomos gracias al microscopio de barrido por efecto túnel, que toma bellas imágenes de estos pequeños chismes.
En cuanto a Capra, es mucho más inteligente y juega a dos barajas en sus apuestas y con su lenguaje, pero, en lo esencial, tampoco es creyente. Insiste en que «la simple imagen mecanicista de los ladrillos con que se construyen las cosas» debería abandonarse. A partir de una descripción razonable de la mecánica cuántica, construye unas elaboradas ampliaciones de la misma carentes de la menor comprensión de la delicadeza con que se entrelazan el experimento y la teoría y hasta qué punto ha habido sangre, sudor y lágrimas en cada penoso avance.
Si la descuidada falta de seriedad de estos autores carece de interés para mí, los verdaderos charlatanes hacen que me desconecte. En realidad, Tao y Wu Li constituyen un nivel medio relativamente respetable entre los libros científicos buenos y el sector lunático de timadores, charlatanes y locos. Esta gente te garantiza la vida eterna si no comes otra cosa que raíces de zumaque. Te dan pruebas de primera de mano de la visita de extraterrestres. Sacan a la luz la falacia de la relatividad en favor de una versión sumeria del Almanaque del Granjero. Escriben para el New York Inquirer y contribuyen al correo delirante que todo científico destacado recibe. La mayoría de estas personas son inofensivas, como la mujer de setenta años de edad que me contaba, en ocho páginas de apretada caligrafía, la conversación que tuvo con unos pequeños visitantes verdes del espacio. Pero no todos son inofensivos. Una secretaria de la revista Physical Review fue asesinada a tiros por un hombre al que se le rechazó un artículo incoherente.
Lo importante, creo, es esto: todas las disciplinas, todo campo de actividad, tienen un «orden establecido», sea la colectividad de los profesores de físicas de cierta edad de las universidades prestigiosas, los magnates del negocio de las comidas rápidas, los dirigentes de la Asociación Norteamericana de la Abogacía o los viejos jefes de la Orden Fraternal de los Trabajadores Postales. En ciencia, el camino del progreso es más rápido cuando se derriba a los gigantes. (Sabía que me saldría de todo esto una buena metáfora mezclada.) Por lo tanto, se buscan con celo iconoclastas y rebeldes con bombas (intelectuales); hasta el propio régimen científico los busca. Por supuesto, a ningún teórico le divierte que tiren su teoría a lo basura; algunos hasta pueden reaccionar —momentánea, instintivamente, como un régimen político ante una rebelión. Pero la tradición del derrocamiento está demasiado enraizada. Alimentar y premiar al joven y creativo es una obligación sagrada del régimen científico. (Lo más triste que te pueden decir de fulano de tal es que no hasta con ser joven.) Esta lección moral —que debemos mantenernos abiertos a lo joven, lo heterodoxo y lo rebelde— deja un resquicio pura los charlatanes y los descarriados, que pueden hacer presa en los periodistas y editores —y otros responsables de los medios de comunicación— descuidados y científicamente analfabetos. Algunos timadores han tenido notable éxito, como el mago israelí Uri Geller o el escritor Immanuel Velikovsky, incluso ciertos doctores en ciencias (un doctorado es aún una garantía de la verdad menor que un premio Nobel) que han promovido cosas tan fuera de quicio como las «manos que ven», la «psicoquinesia», la «ciencia de la creación», la «poliagua», la «fusión fría» y tantas otras ideas fraudulentas. Lo usual es que se diga que la verdad revelada está siendo suprimida por el acomodado régimen, que quiere así preservar el statu quo con todos sus derechos y privilegios.
Sin duda, eso puede pasar. Pero en nuestra disciplina, hasta los miembros del orden establecido hacen campaña contra el régimen. Nuestro santo patrón, Richard Feynman, en el ensayo «¿Qué es la ciencia?», hacía al estudiante esta admonición: «Aprende de la ciencia que debes dudar de los expertos. … La ciencia es la creencia en la ignorancia de los expertos». Y más adelante: «Cada generación que descubre algo a partir de su experiencia debe transmitirlo, pero debe transmitirlo guardando un delicado equilibrio entre el respeto y la falta de respeto, para que la raza… no imponga con demasiada rigidez sus errores a sus jóvenes, sino que transmita junto a la sabiduría acumulada la sabiduría de que quizá no sea tal sabiduría».
Este elocuente pasaje expresa la educación que todos los que laboramos en el viñedo de la ciencia tenemos profundamente imbuida. Por supuesto, no todos los científicos pueden reunir la agudeza crítica, la mezcla de pasión y percepción que Feynman era capaz de ponerle a un problema: Eso es lo que diferencia a los científicos, y también es verdad que muchos grandes científicos se toman a sí mismos demasiado en serio. Se ven entonces lastrados a la hora de aplicar su capacidad crítica a su propio trabajo o, lo que es peor todavía, al trabajo de los chicos que les están poniendo en la estacada. No hay especialidad perfecta. Pero lo que raras veces entienden los profanos es lo presta, ansiosa, desesperadamente que la comunidad científica de una disciplina dada le abre los brazos al iconoclasta intelectual… si él o ella tienen lo que hace falta.
En todo esto lo trágico no son los escritores pseudocientíficos chapuceros, ni el vendedor de seguros de Wichita que sabe exactamente dónde se equivocó Einstein y publica su propio libro al respecto, ni el timador que dirá lo que sea por ganar unos duros, los Geller o los Velikovsky. Lo trágico es el daño que se le hace al público común, crédulo y científicamente analfabeto, a quien con tanta facilidad se le toma el pelo. Ese público construirá pirámides, pagará una fortuna por inyecciones de glándula de mono, mascará huesos de albaricoque, irá adonde sea y hará lo que sea tras los pasos del charlatán de feria que, habiendo progresado de la trasera de un carromato a la hora punta de un canal de televisión, venderá lenitivos aún más escandalosos en el nombre de la «ciencia».
¿Por qué somos, y me refiero a nosotros, el público, tan vulnerables? Una respuesta posible es que los profanos se sienten incómodos con la ciencia, porque la manera en que se desenvuelve y progresa no les es familiar. El público ve la ciencia como un edificio monolítico de reglas y creencias inflexibles, y si los científicos —gracias al retrato que ofrecen los meditas de ellos como envarados ratones de biblioteca de bata blanca— como unos plúmbeos, vetustos, escleróticos defensores del statu quo. En verdad, la ciencia es algo mucho más flexible. La ciencia no tiene que ver con el statu quo. La ciencia tiene que ver con la revolución.
El rumor de la revolución
La teoría cuántica es un blanco fácil para los escritores que la declaran afín a alguna forma de religión o misticismo. Se suele pintar a menudo a la física clásica newtoniana como segura, lógica, intuitiva. Y la teoría cuántica, contraria a la intuición, fantasmagórica, viene y la «reemplaza». Cuesta entenderla. Es amenazadora. Una solución —la solución de algunos de los libros que se han comentado antes— es pensar en la física cuántica como si fuese una religión. ¿Por qué no considerarla una forma del hinduismo (o del budismo, etc.)? De esa manera podemos, simplemente, abandonar la lógica por completo.
Otra vía es pensar en la teoría cuántica como, bueno, una ciencia. Y no dejarse engañar por esa idea de que «reemplaza» a lo que vino antes. La ciencia no tira por la ventana ideas que tienen cientos de años, por capricho, sobre todo si esas ideas han funcionado. Merece la pena hacer aquí una breve digresión, para explorar cómo suceden las revoluciones en la física.
La nueva física no tiene por qué, necesariamente, tomar al asalto a la vieja. Las revoluciones tienden en la ciencia a ejecutarse conservadoramente y buscándole el mayor rendimiento a lo que cuestan. Quizá tengan consecuencias filosóficas anonadantes, y puede que parezca que abandonan lo que se daba por sabido acerca de la manera en que el mundo actúa. Pero lo que en realidad pasa es que el dogma establecido se extiende a un nuevo dominio.
Pensad en Arquímedes, de la Grecia antigua. En el año 100 a.C. resumió los principios de la estática y de la hidrostática. La estática es el estudio de la estabilidad de las estructuras, de las escaleras, los puentes y los arcos, por ejemplo, de cosas habitualmente que el hombre ha concebido para sentirse más a gusto. La obra de Arquímedes sobre la hidrostática tenía que ver con los líquidos y con qué flota y qué se hunde, con qué cosas flotan de pie y cuáles se tumban, con los principios de la flotabilidad y por qué uno grita «¡Eureka!» en la bañera, y más cosas. Estos problemas y el tratamiento que Arquímedes les dio son hoy tan válidos como hace dos mil años.
En 1600 Galileo examinó las leyes de la estática y de la hidrostática, pero extendió sus mediciones a los objetos en movimiento, a los objetos que ruedan por los planos inclinados, a las bolas que se dejan caer desde una torre, a las cuerdas de laúd, tensadas por pesos, que oscilaban de un lado a otro en el taller de su padre. La obra de Galileo incluía en sí la de Arquímedes, pero explicaba mucho más. Hasta explicaba las características de la superficie de la Luna y de las lunas de Júpiter. Galileo no tornó al asalto a Arquímedes. Lo englobó. Si hemos de representar gráficamente su obra, sería algo parecido a esto:
Newton llegó mucho más lejos que Galileo. Al añadir la causación, pudo examinar el sistema solar y las mareas diurnas. La síntesis de Newton incluyó nuevas mediciones del movimiento de los planetas y de sus lunas. Nada había en la revolución newtoniana que arrojase duda alguna sobre las contribuciones de Galileo o Arquímedes, pero extendió las regiones del universo que quedaban sujetas a esa gran síntesis.
En los siglos XVIII y XIX, los científicos empezaron a estudiar un fenómeno que estaba más allá de la experiencia humana normal. Excepción hecha de los amedrentadores relámpagos, si se quería estudiar un fenómeno eléctrico había que prepararlo (lo mismo que algunas partículas han de ser «fabricadas» en los aceleradores). La electricidad era entonces tan exótica como los quarks hoy. Lentamente, las corrientes y los voltajes, los campos eléctricos y magnéticos fueron siendo conocidos e incluso controlados. James Maxwell extendió y codificó las leyes de la electricidad y del magnetismo. A medida que Maxwell, y luego Heinrich Hertz, y luego Guglielmo Marconi, y luego Charles Steinmetz, y luego muchos otros dieron utilidad a esas ideas, el entorno humano fue cambiando. La electricidad nos rodea, las comunicaciones vibran en el aire que respiramos. Pero el respeto de Maxwell por todos los que le precedieron no tenía quiebras.
¿Había algo más allá de Maxwell y Newton o no? Einstein centró su atención en el borde del universo newtoniano. Sus ideas conceptuales fueron más hondas; le preocuparon algunos aspectos de las suposiciones de Galileo y Newton y ocasionalmente le llevaron a especular con nuevas premisas. No obstante, el dominio de sus ` observaciones incluía cosas que se movían a velocidad considerable. Tales fenómenos eran considerados irrelevantes por los observadores anteriores al siglo XX, pero como los seres humanos examinaban los átomos, ideaban ingenios nucleares y empezaban a considerar los acontecimientos acaecidos en los primeros momentos de la existencia del universo, las observaciones de Einstein adquirieron relevancia.
La teoría de la gravedad de Einstein fue también más allá que la de Newton; abarcaba la dinámica del universo (Newton creía en un universo estático) y su expansión a partir de un cataclismo inicial. Pero cuando se dirigen las ecuaciones de Einstein al universo newtoniano, dan resultados newtonianos.
Pues ya tenemos todo el pastel, ¿no? ¡No!
Todavía teníamos que mirar en el átomo, y cuando lo hicimos, nos hicieron falta concep-tos que iban mucho más allá de Newton (y que fueron inaceptables para Einstein), que extendieron el mundo hasta el átomo, el núcleo y, por lo que sabemos, aún más allá. (¿Dentro?) Nos hacía falta la física cuántica. Otra vez, nada había en la revolución cuántica que retirase a Arquímedes, pusiese en almoneda a Galileo, empalase a Newton o bajase de su pedestal a la relatividad de Einstein. En vez de eso, se había vislumbrado un nuevo dominio, se habían encontrado nuevos fenómenos. Se vio que la ciencia de Newton era inadecuada, y al llegar el momento se descubrió una nueva síntesis.
Recordad que en el capítulo 5 dijimos que la ecuación de Schrödinger se creó para los electrones y otras partículas, pero que al aplicarla a las pelotas de béisbol y a otros objetos grandes se transforma ante nuestros ojos en la F = ma de Newton, o casi. La ecuación de Dirac, la que predijo la antimateria, fue un «refinamiento» de la ecuación de Schrödinger, concebida para tratar los electrones «rápidos» que se muevan a una fracción considerable de la velocidad de la luz. Sin embargo, cuando la ecuación de Dirac se aplica a los electrones que se mueven despacio, sale… la ecuación de Schrödinger, sólo que mágicamente revisada de forma que incluye el espín del electrón. Pero ¿arrumbar a Newton? En absoluto.
Si esta marcha del progreso suena maravillosamente eficiente, merece la pena señalar que genera también una buena cantidad de desechos. Cuando abrimos nuevas áreas a la observación con nuestras invenciones y nuestra indomable curiosidad (y cantidad de ayudas federales a la investigación), los datos suelen dar lugar a una cornucopia de ideas, teorías y sugerencias, la mayor parte de las cuales son erróneas. En el duelo por el control de la frontera hay, por lo que se refiere a los conceptos, sólo un ganador. Los perdedores se desvanecen en la ceniza de las notas a pie de página de la historia.
¿Cómo ocurre una revolución? Durante cualquier periodo de tranquilidad intelectual, como el que hubo a finales del siglo XIX, siempre existe un conjunto de fenómenos que «no se han explicado todavía». Los científicos experimentales tienen la esperanza de que sus observaciones maten la teoría reinante; entonces una teoría mejor tomará su lugar y se crearán nuevas reputaciones. Lo más corriente es que las mediciones sean erróneas o que un uso inteligente de la teoría explique los datos. Pero no siempre es así. Como hay siempre tres posibilidades —1) los datos son erróneos, 2) la teoría vieja aguanta, y 3) hace falta una teoría nueva—, el experimento hace de la ciencia un oficio vivo.
Una revolución extiende el dominio de la ciencia, y puede que influya además profunda-mente en nuestra concepción del mundo. Un ejemplo: Newton creó no sólo la ley universal de la gravitación, sino también una filosofía determinista que hizo que los teólogos le diesen a Dios un papel nuevo. Las reglas newtonianas establecieron las ecuaciones matemáticas que determinaban el futuro de cualquier sistema si se conocían las condiciones iniciales. Por el contrario, la física cuántica, aplicable al mundo atómico, suaviza la concepción determinista y permite a los sucesos atómicos individuales los placeres de la incertidumbre. En realidad, los desarrollos posteriores indican que incluso fuera del mundo subatómico el orden determinista newtoniano es una idealización excesiva. Las complejidades que componen el mundo macroscópico prevalecen hasta tal punto en muchos sistemas, que el cambio más insignificante en las condiciones iniciales produce cambios enormes en el resultado. Sistemas tan simples como el agua que fluye por una cuesta abajo o un par de péndulos oscilantes exhibirán un comportamiento «caótico». La ciencia de la dinámica no lineal, o «caos», nos dice que el mundo real no es tan determinista como antes se pensaba.
Lo que no quiere decir que la ciencia y las religiones orientales hayan descubierto de pronto que tienen mucho en común. En cualquier caso, si las metáforas religiosas ofrecidas por los autores de los textos que comparan la nueva física con el misticismo oriental os ayudan, de una forma u otra, a apreciar las revoluciones modernas de la física, entonces no dudéis en usarlas. Pero las metáforas sólo son metáforas. Son mapas burdos. Y tomando prestado un viejo dicho: no confundáis nunca el mapa con el territorio. La física no es una religión. Si lo fuese, nos sería mucho más fácil conseguir dinero.
Suscribirse a:
Entradas (Atom)