SciELO - Scientific Electronic Library Online

 
vol.18 número33Gunnar Mendoza en el Archivo y Biblioteca Nacionales de Bolivia: Notas para su estudioOtra configuración de la subjetividad colectiva, la subjetividad ch'ixi índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Revista Ciencia y Cultura

versión On-line ISSN 2077-3323

Rev Cien Cult v.18 n.33 La Paz dic. 2014

 

IDEAS Y PENSAMIENTOS

 

Los últimos cincuenta años: el tiempo del conocimiento y la violencia. Segunda parte: las ciencias físicas

 

The last fifty years: time of knowledge and violence. Second part: physical sciences

 

 

Ronanth Zavaleta Mercado*

 

 


 

1. Introducción

Resulta sorprendente que fuera recién a finales del siglo XIX que el ser humano se plantease de una manera convincente que el átomo, definido por lo griegos como la menor entidad en que podría disgregarse la materia discontinua, podría, en efecto, estar conformado por otras entidades discretas menores. Tuvieron que pasar algo más de 23 siglos para que la humanidad comenzara a entender esta realidad de la naturaleza. Viene entonces este siglo extraordinario, el siglo XX, en el cual se realiza un avance científico notable, mucho mayor que el acúmulo de conocimiento científico total realizado hasta entonces en esta área. Pero el problema resulto ser inconmensurablemente mayor, no solamente por la equivalencia de masa y energía anticipada por Einstein, sino por las interacciones existentes entre los campos de fuerzas, y no solamente gravitacionales y electromagnéticos. La teoría unificada de campo que preconizara no alcanzaba para explicar la realidad observable, y avances subsiguientes, que derivaran en la llamada gran teoría unificadora, resolvieron solamente parte de las interrogantes existentes. La segunda mitad del siglo XX presenta avances de importancia en estas teorías, pero queda pendiente la asignatura de reconciliarlas con las interacciones gravitatorias.

Resulta entonces que la naturaleza, como en muchas otras oportunidades, resulta mucho más compleja que los modestos modelos imaginados por el ser humano. Mientras tanto, la interpretación final de la materia, energía y sus interacciones queda aún por resolverse.

 

2. La estructura de la materia

2.1. Los elementos

Por lo que se conoce, fue en la antigua Grecia que esta temática mereció las primeras consideraciones. Los primeros filósofos estaban convencidos, en base a premisas casi enteramente teóricas, que la Tierra se hallaba formada por cuatro constituyentes básicos: tierra, aire, agua y fuego (430 AC), adicionándose posteriormente otro, el éter, por Aristóteles, como constituyente del cielo (Asimov 239).

Se tardó más de 20 siglos en realizar avances verdaderamente científicos en este campo del conocimiento. Entre medio se tuvo el tiempo de los alquimistas, los cuales sostenían que una sustancia puede ser transformada en otra por el simple expediente de adicionar otra en la proporción adecuada. La búsqueda del oro por estos métodos se convirtió en la obsesión de no pocos, estafadores y honrados, con el resultado del desprestigio de la profesión de alquimista. De esta manera, la desacreditada alquimia tuvo que transformarse en química, y los alquimistas, en químicos (Asimov 239).

Fue Robert Boyle, en el siglo XVII, quien planteó la teoría de que un "elemento" puede combinarse con otro para formar una "sustancia" diferente a ambos, y que los elementos no podían descomponerse en constituyentes más simples. Isaac Newton, el gran científico inglés, inventor conjuntamente con Leibnitz del cálculo diferencial, entre otras contribuciones trascendentes a la ciencia, respaldó las teorías de Boyle, quien es ampliamente conocido más por sus trabajos sobre gases perfectos que por su teoría sobre los elementos. Algo que no es muy conocido es que Newton había dedicado mucho tiempo a la alquimia.

Un siglo después, las teorías de Boyle tuvieron una verificación experimental con los trabajos pioneros de Cavendish, quien sintetizó agua al hacer reaccionar oxígeno e hidrógeno, y de Lavoisier, quien descompuso el aire en sus elementos constituyentes, considerado hasta entonces un elemento. Lavoisier, que consideró a la cal y la magnesita como elementos, murió guillotinado durante la Revolución Francesa. Davy demostraría después que estos minerales podían descomponerse en sus elementos constitutivos, calcio, oxígeno y magnesio, utilizando energía eléctrica. La obtención de cloro a partir de ácido clorhídrico, por el químico sueco Scheele, sigue la misma tónica.

2.2. Teoría atómica

A pesar de las ideas prevalecientes sobre los constituyentes terrestres sustentadas por los filósofos griegos, éstos merecen sin embargo el crédito de haberse planteado una noción fundamental sobre la estructura de la materia: la continuidad o no de la misma. De ser continua la materia, ésta podría dividirse indefinidamente sin perder su identidad. De otra manera debería llegarse a un agregado discreto, superado el cual la sustancia se desnaturalizaría. En el año 450 AC, Leucipo de Mileto y su discípulo Demócrito abrazaron esta segunda idea (Asimov240), estableciendo un principio fundamental de la mecánica cuántica, la llamada "cuantización", que hace referencia a los cuantos de energía o incrementos discretos de energía asociados a los números cuánticos de la teoría del físico alemán Max Planck. Este concepto establece la prevalencia de un arreglo finito de estamentos, en contraposición al "continuum", es decir, de un conjunto infinito. Esta entidad elemental no superable fue denominada "átomo".

Sin embargo del importante avance científico realizado, quedaba la constancia implícita del concepto de que los "elementos" constituían los constituyentes finales indivisibles de la materia, a pesar de que los científicos occidentales no habían descartado totalmente la noción griega primigenia sobre el átomo. Uno de los defensores de la teoría fue el filósofo italiano Giordano Bruno, quien realizara además planteamientos parecidos a los de Copérnico sobre astronomía, aunque tuvo peor suerte que éste, ya que fue quemado por hereje en el año 1600 (Asimov240). Los experimentos de Boyle con gases y su fácil compresibilidad, así como los de Proust sobre reacciones químicas, que dieran lugar a su principio de las proporciones múltiples, fueron explicados por el químico inglés John Dalton, planteando la teoría de que los elementos estaban conformados por pequeños "fragmentos" de los mismos, que solo podían combinarse como entidades intactas, y en proporciones sencillas enteras discretas; es decir, los elementos estaban compuestos por átomos, y éstos se conservaban en las reacciones químicas. Lo que diferenciaría a una sustancia de otra sería la clase y cantidad de átomos que las conformasen. Este planteamiento tuvo rápidamente aceptación en la sociedad científica, quedando constituida de esta manera la "teoría atómica" de la materia. Por su lado, Dalton realizó contribuciones importantes en el campo de la mezcla de gases y las presiones asociadas con cada componente de una mezcla gaseosa. John Dalton es también recordado por su imposibilidad visual de diferenciar los colores rojo y verde, enfermedad conocida como "daltonismo".

La teoría atómica fue aplicada a los gases por el químico italiano Amedeo Avogadro, quien postuló la hipótesis de que volúmenes iguales de gases diferentes contenían el mismo número de átomos, y que, a presión y temperatura constantes, el volumen de un gas era proporcional al número de átomos. Se comprobó entonces que, efectivamente, algunos gases estaban formados por átomos. Sin embargo, la mayoría de ellos tenían como elementos constitutivos a agregados atómicos de la misma o diferente especie, agregados que recibieron entonces el nombre de moléculas. Si los agregados estaban conformados por átomos diferentes, las moléculas constituían entonces un "compuesto químico".

Resultaba entonces natural pensar en la cantidad de masa contenida en cada molécula, que podía estimarse como la sumatoria de las masas de los átomos que la constituían. Pesando las masas de elementos escindidas de compuestos químicos, y viendo su participación relativa en la masa total del compuesto, pudo establecerse la masa relativa de cada átomo. La masa absoluta atómica de los elementos quedaba fuera del alcance experimental del siglo XIX.

Fue el químico sueco Jöns Jakob Berzelius el que realizó la primera determinación sistemática de masas atómicas relativas, pero correspondió al químico italiano Stanislao Canizzaro el mérito de convencer a la comunidad científica internacional de este ordenamiento de masas relativas, que amplió utilizando los trabajos previos de Avogadro. Se adoptó como referente a la masa atómica del oxígeno, a la que se le asignó el valor de 16, de manera tal que la masa relativa del hidrógeno resultó en aproximadamente 1.

Pese a toda la inferencia importante realizada en torno a la cuestión del átomo, quedaba aún una sensación de que éste era más bien una concepción abstracta útil, más que una realidad física. Los trabajos del botánico escocés James Brown sobre el desplazamiento aleatorio experimentado por pequeñas partículas sólidas suspendidas en una fase líquida, movimientos que se denominaron entonces "brownianos" en su honor, y que resultan de impactos moleculares no compensados simétricamente, contribuyeron de una manera determinante a la demostración física de la existencia de las moléculas, que fuera respaldada por los trabajos teóricos sobre el tema de Einstein, y aquéllos realizados por el científico francés Jean Perrin, que incluyó la fuerza de la gravedad en las componentes de fuerza que actúan sobre partículas pequeñas en la formación de sedimentos.

La demostración factual de la existencia de los átomos se remonta a la segunda mitad del siglo XX, donde se consiguió "ver" y fotografiar átomos individuales.

2.3. La tabla periódica de los elementos

La clasificación de los elementos, realizada por Berzelius y el descubrimiento de nuevos elementos, los cuales mostraban propiedades muchas veces muy diferentes, plantearon el desafío de poder determinar una "ley" de formación, que permitiese clasificarlos y ordenarlos de algún manera, en sentido de que sus características fueran predecibles.

La primera aproximación consistió en disponerlos en orden ascendente en términos de sus masas atómicas relativas, agrupándolos en términos de propiedades físico-químicas comunes. Esta aproximación fue ridiculizada en su tiempo, a pesar de que resultase ser un postulado de importancia y precursor de la posterior tabla periódica de los elementos. Eventualmente, los proponentes (Beguyer, francés, y Newlands, inglés) fueron reivindicados y sus investigaciones publicadas (Asimov 243).

Pero fue Mendeléiev (Dimitri Ivánovich), químico ruso, quien planteara el ordenamiento lógico de los elementos de una forma similar a la denominada tabla periódica de los elementos, aceptada al presente como correcta. El trabajo de Mendeléiev se basaba ciertamente en aquellos precursores de Beguyer y Newlands, pero colocaba un énfasis mayor en la analogía de las propiedades antes que en la precisa prelación de masas atómicas. Mendeléiev tuvo aun el coraje científico de dejar en blanco espacios de la tabla que no encajaban correctamente en términos de propiedades y masas atómicas. Estos espacios "vacíos" se debían a que aún no se habían identificado a los elementos correspondientes. Incluso tuvo el científico la osadía de "predecir" las propiedades de éstos, basándose en aquéllas de los elementos detectados que los precedían y seguían. Estos elementos fueron descubiertos eventualmente y mostraron propiedades similares a las anticipadas por Mendeléiev. Quedaba sin embargo la necesidad de conciliar las asimetrías observadas entre el orden ascendente de las masas atómicas y las propiedades, donde existían excepciones notables insolutas. Para solventar este problema, quedaba sin embargo avanzar en un área no considerada, o en la que al menos no se habían realizado avances significativos en mucho tiempo: la estructuración del átomo, dejando de lado el principio, aceptado por 23 siglos, de constituir éste la instancia discreta final constitutiva de la materia.

2.4. Concepciones iniciales sobre la estructura del átomo

Basándose en los rayos catódicos y sus conocimientos de electromagnetismo, el físico inglés Joseph John Thomson pudo calcular la relación entre la masa y la carga de un electrón, el mismo que fuera detectado en los rayos catódicos y determinado como una partícula dotada de una carga eléctrica negativa. La masa resultó ser muy pequeña.

A finales del siglo XIX, Wilhelm Röntgen, físico alemán, descubrió que, cuando los rayos catódicos incidían sobre sustancias tales como vidrio y metales, emitían radiaciones que tenían gran poder de penetración en la materia, y que eran capaces de velar las placas fotográficas, así estuvieran éstas cubiertas, produciendo fluorescencia en algunas sustancias. A diferencia de los electrones, estos rayos no eran desviados en su trayectoria por campos electromagnéticos. Röntgen los denominó rayos X, por su naturaleza desconocida.

Fue Antoine Becquerel, profesor francés de física, quien, estudiando las propiedades fluorescentes de algunas sustancias, descubrió accidentalmente que algunos compuestos de uranio oscurecían las placas fotográficas, aun así éstas estuvieran cubiertas, incluso en ausencia de rayos catódicos. Estas radiaciones de alta energía no eran desviadas por campos electromagnéticos, al igual que los rayos X. Marie Curie, discípula de Becquerel, sugirió el término de radiactividad para referirse a estas radiaciones espontáneas de algunos elementos. Desde entonces se habla de elementos radiactivos.

La desintegración de las sustancias radiactivas produce tres tipos de radiaciones diferentes. La primera, denominada rayos alfa (α), es desviada por un campo cargado positivamente, y por lo tanto debería tener carga positiva. La segunda, denominada rayos beta (β), consta de electrones, y por lo tanto tiene carga negativa. Un tercer tipo de radiación, de alta energía, los rayos γ, al igual que los rayos X de Röntgen, no es desviada por ningún campo externo de fuerzas, y por lo tanto no debería tener carga. Éste fue el tipo de radiación descubierto por Marie Curie.

Sin embargo, la conclusión más importante derivada de lo anterior estriba en que el átomo no era la entidad elemental final concebida por los griegos, sino más bien constituía un agregado complejo que desprendía parte de sus constituyentes aun de una forma espontánea en algunos elementos. Ya en 1900 era de conocimiento que el átomo contenía al menos electrones, y que en su conjunto era un agregado sin carga eléctrica. Thomson propuso que el átomo estaba constituido por una masa uniforme cargada positivamente, dentro de la cual se encontraban los electrones, distribuidos aleatoriamente. La condición de neutralidad eléctrica obligaba a que el átomo tuviese el mismo número de cargas positivas que electrones.

En 1910 Ernest Rutherford, físico neozelandés, conjuntamente con el físico alemán Hans Geiger, utilizó partículas a provenientes de uranio, para estudiar la estructura atómica. Emplearon con esta finalidad láminas muy delgadas de oro y otros metales, las que fueran expuestas a radiaciones de uranio. La mayoría de las partículas atravesaban las láminas sin ninguna desviación, y otras con una muy leve. Ocasionalmente, empero, algunas de las partículas eran desviadas considerablemente de su trayectoria incidente. Algunas otras aun revertían el sentido de su desplazamiento (Chang 46). Los resultados no podían explicarse con base en el modelo sencillo de Thomson.

Razonando sobre sus resultados, Rutherford concluyo que el átomo era en esencia un gran espacio vacío, y propuso que las cargas positivas se hallaban concentradas en un denso arreglo central dentro del átomo. Denomino núcleo a este arreglo cargado positivamente. Al pasar una partícula alfa en las proximidades del núcleo, era desviada de su trayectoria por una intensa fuerza repulsiva. Al impactar plenamente sobre el núcleo, la repulsión era tan grande que la partícula revertía completamente su desplazamiento.

A las partículas cargadas positivamente que constituían el núcleo se las denominó protones. Se descubrió posteriormente que su carga era igual a la del electrón, pero de signo contrario. Estas partículas resultaron ser mucho más masivas que el electrón, ya que este último apenas representaba una masa de 1/1840 de la de aquél. El volumen ocupado por el núcleo era apenas de 1/1013. ¡Es decir, el átomo era esencialmente un gran espacio vacío! Empero, se verá después que las dimensiones exteriores del átomo son difusas, y por lo tanto el concepto de radio atómico debe aceptarse solamente en términos experimentales.

El modelo atómico de Rutherford, que representó en su momento un avance extraordinario en la comprensión de la estructura de la materia, dejaba sin embargo, un problema sin resolver. Se sabía que el átomo de hidrógeno, el más sencillo de todos, contenía solamente un protón, siendo su masa de 1, mientras que el helio, que contenía dos protones ¡tenía sin embargo una masa cuatro veces mayor!

Rutherford y otros científicos plantearon que debería existir en el átomo otro tipo de partícula. Este extremo fue verificado experimentalmente por el físico inglés James Chadwick al bombardear una capa de berilio con partículas alfa, obteniendo partículas de muy alto contenido de energía, a las que denominó neutrones, en virtud de su ausencia de carga, ya que no eran desviadas por campos eléctricos externos. La masa de los neutrones resultó ser algo mayor que la de los protones.

El problema quedaba ahora resuelto. El átomo de helio constaba de 2 protones y dos neutrones, mientras que el de hidrógeno contenía solamente un protón. La relación era entonces de cuatro a uno. Como se comentó, la masa de los electrones resultaba despreciable en comparación con la de protones y neutrones. En 1932, Chadwick recibió el premio Nobel por su investigación (Chang 48).

Resultaba entonces que la masa de un átomo podía caracterizarse por el número de neutrones y protones que posee, denominándose a esta suma número de masa del átomo. De una forma similar, se definió el número atómico, como el número de protones presente en el núcleo del átomo. Este número era idéntico al de los electrones presentes.

Con el descubrimiento de estas partículas subatómicas se conciliaban las incongruencias anotadas por Mendeléiev al elaborar la tabla periódica de los elementos. Al incluir en el ordenamiento de los elementos el número atómico en lugar de la masa atómica, las disonancias en términos de propiedades físico-químicas de elementos anexos desaparecían.

Con esta corrección, la tabla es muy parecida a la aceptada actualmente, y rescata la intuición de Mendeléiev al aceptar con prioridad las semejanzas entre propiedades antes que la sola secuencia de masas atómicas.

 

3. Teoría cuántica y modelos atómicos

Hasta finales del siglo XIX no se tenía ninguna interpretación sobre el espectro de luz emitido por cuerpos calientes, cuya intensidad es proporcional a la cuarta potencia de la temperatura absoluta. Estas radiaciones, parte de aquellas electromagnéticas anticipadas por Maxwell basadas en su teoría de osciladores eléctricos, eran resultantes de oscilaciones eléctricas a nivel molecular. Al aumentar la temperatura, esta radiación se vuelve visible, hecho que corresponde a la experiencia humana común. A medida que se incrementa la temperatura, se incrementa también su contenido de energía. Además, como se verá después, se incrementa su frecuencia, y consecuentemente se reduce su longitud de onda. El espectro de radiaciones emitido por un cuerpo negro, es decir, un emisor y receptor perfecto de energía, fue estudiado inicialmente por Wien, quien propuso la Ley de Desplazamiento, que identificaba la longitud de onda correspondiente a la máxima intensidad de radiación de un cuerpo negro, trabajo que después fuera complementado por Rayleigh. Pero posteriormente se descubrió que, al disponer de información experimental adicional, la correlación establecida por la Ley de Wien no satisfacía adecuadamente los datos.

A comienzos del siglo XX, Max Planck propuso una expresión matemática que correlacionaba adecuadamente los datos en el rango completo, expresión que posteriormente fuera rigurosamente derivada basada en una hipótesis entonces sorprendente: la distribución de energías entre osciladores moleculares no era continua, sino que correspondía a un conjunto finito obtenible a partir de una energía mínima, que era directamente proporcional a la frecuencia, siendo la constante de proporcionalidad la constante de Planck. Las energías permisibles se obtenían a partir de la mínima, multiplicando ésta por los números naturales, es decir n = 1,2,3,4,5.... Por lo tanto, los valores permisibles de energías eran múltiplos sencillos de la energía mínima, sin que pudieran existir valores intermedios. Lo anterior constituye la base de la llamada hipótesis cuántica de Planck, y forma el basamento de lo que se ha dado en llamar la cuantización de la energía, es decir, su existencia solamente en arreglos discretos relacionados entre sí. A la cantidad mínima de energía permisible, aquella obtenida utilizando como multiplicador el primer número natural, es decir, 1, se conoce como un cuanto de energía.

Lo anterior también restringe o cuantiza las frecuencias asociadas a la energía, siendo solamente posible un número discreto de aquéllas. En otras palabras, un oscilador no puede vibrar con una frecuencia cualquiera arbitraria, sino solamente en aquéllas permitidas por el arreglo discreto emergente de los números cuánticos de Planck.

Resulta sorprendente el hecho de que no exista un número cuántico igual a cero, y por lo tanto no exista tampoco un nivel cero de energía, así como tampoco una frecuencia cero. Consecuentemente, ninguna partícula podría encontrarse en reposo perfecto.

Estas ideas fundamentales se aplican también a otras formas de energía cinética, más allá de la relacionada a las vibraciones. El movimiento de traslación, así como el rotacional, se hallan también cuantizados. La distribución de estados energéticos dentro de un mismo nivel de energía, y los así llamados estados degenerados, recogen esta realidad. Estos estados aumentan de número con la temperatura absoluta, pero dentro de una lógica discreta, dictada por su cuantizacion. La distribución consiguiente, planteada por Boltzmann, incluye una constante energética, la constante de Boltzmann, que implica el contenido de energía cinética por mol de sustancia. Y proporciona la población de partículas asociadas con un mismo nivel energético. Esta población es típicamente mayor para niveles de menor contenido energético. Como ya se explicó, no existe el nivel de energía cero.

Fue en 1905 que Einstein, basándose en el trabajo de Planck, planteó una generalización de la misma aplicándola a la luz, realizando la sorprendente hipótesis de que, si la energía de vibración del ente emisor se encuentra cuantizada, al emitir una radiación el contenido energético debería disminuir en una cantidad discreta, proporcional a la constante de Planck. De esta manera, la luz, o radiaciones electromagnéticas en general, deberían ser emitidas en paquetes o quanta de energía (cantidades fijas discretas), proporcionales a la constante de Planck e iguales en magnitud al decrecimiento del contenido energético del medio emisor, en virtud del principio de conservación de la energía. A estos paquetes de energía se les dio el nombre de fotones.

La anterior generalización cuántica planteó, sin embargo, un dilema de importancia al partir de una manera radical de las ideas clásicas vigentes hasta entonces, y en particular la de la naturaleza ondulatoria de la luz, bien establecida y con soporte experimental convincente. El planteamiento de Einstein fue demostrado como válido con base experimental en el llamado efecto fotoeléctrico, que fundamentalmente establecía que, cuando la luz incidía sobre una superficie, ésta emitía electrones, y que el contenido de energía cinética de éstos no se incrementaba al incrementar la intensidad de la iluminación manteniendo constante su frecuencia, ya que los quanta de energía permanecían constantes, incrementándose solamente su número al incrementar la intensidad lumínica. Al momento de la incidencia de un fotón sobre la superficie, éste simplemente transfería su energía al electrón, y desaparecía.

Otra verificación experimental es el denominado efecto Compton (1923), denominado así por su realizador, A. H. Compton, y consiste en el hecho de que la luz reflejada de una superficie muestra una frecuencia algo menor que la de la radiación incidente, caída de frecuencia que revela una disminución en su contenido energético, a pesar de mantener su velocidad. Con base en leyes de conservación de masa, energía y cantidad de movimiento, Compton demostró que la caída de frecuencia (Compton shift) podía explicarse utilizando la teoría fotónica, y no así por medio de la teoría ondular de las radiaciones electromagnéticas.

Otra verificación se refiere a la llamada producción de par, en la cual un fotón desaparece formando un par de partículas, un electrón y un positrón, entendido éste como una partícula de masa igual a la del electrón, pero dotada de una carga positiva. Éste es un ejemplo de masa en reposo creada a partir de pura energía, en concordancia con la más famosa ecuación de Einstein, E = mc2, es decir que la energía es igual a la masa multiplicada por el cuadrado de la velocidad.

Sin embargo de lo anterior, la naturaleza ondulatoria de la luz tiene, per se, base experimental sólida, como aquélla referida a la difracción e interferencia, sin que se pueda descartar tampoco este comportamiento.

El dilema queda sin resolverse y se acepta al presente la dualidad onda-partícula de las radiaciones electromagnéticas. Este problema fue reconciliado por el físico danés Niel Bohr, en su principio de complementariedad, que establece que para entender un experimento, se debe utilizar, ya sea la teoría ondulatoria o la de los fotones, pero no ambas, manteniendo en mente la naturaleza dual de estas radiaciones.

Cabe mencionar, sin embargo, que la misma concepción de que la energía de una partícula es el producto de la constante de Planck por la frecuencia es un reconocimiento implícito de esta dualidad, ya que la energía se refiere a la partícula y la frecuencia a la naturaleza ondulatoria.

Lo anterior parece una confesión de las limitaciones del conocimiento humano, que en última instancia no logra conciliar el dilema y se resigna a la aceptación factual de los experimentos.

Fue en 1923 que Louis de Broglie extendió la idea de que el comportamiento dual de la luz podía extenderse a entidades de la naturaleza que se concebían como partículas, es decir, electrones y otras partículas subatómicas, y que su frecuencia podía relacionarse de una forma similar a la de los fotones, al realizar el cociente entre la constante de Planck y su cantidad de movimiento, es decir, su masa multiplicada por su velocidad. Esta teoría tuvo su verificación experimental cuando se obtuvo la difracción de electrones sobre cristales metálicos, corroborándose el postulado de Broglie. Posteriormente se obtuvo la confirmación experimental del comportamiento dual de protones, neutrones y otros componentes subatómicos.

Niels Bohr, que había estudiado en el laboratorio de Rutherford, estaba convencido de que el modelo atómico planteado por éste era válido, si se podía conciliar de alguna manera los planteamientos de Planck y Einstein sobre el comportamiento de las radiaciones electromagnéticas. Razonó que probablemente los electrones no perdían energía continuamente, sino que lo hacían en paquetes discretos. Planteó también que los electrones se desplazaban en órbitas circulares alrededor del núcleo, y que solamente algunas órbitas eran permisibles. Los electrones de cada órbita tenían una energía definida y que se movían en las órbitas sin irradiarla. Denominó a las órbitas permisibles, estados estacionarios, y planteó la hipótesis de que se emitía luz solamente cuando un electrón migraba desde un estado estacionario a uno de menor contenido energético. Cuando sucedía este salto, se emitía un fotón de energía. Bohr estableció también los niveles de energía asociados con las órbitas en las que se desplazaban los electrones, a lo que denominó condición cuántica. Esta condición no tenía un sustento teórico suficiente, pero reproducía los datos experimentales del hidrógeno, por ejemplo. Fue un modelo exitoso, ya que explicaba la razón por la cual los átomos emitían líneas de espectro específicas, y emitían luz con frecuencias predichas, al menos para el hidrógeno. De la misma manera, explicaba el comportamiento característico de los espectros de absorción.

El modelo de Bohr, carente de un sustento teórico suficiente, tenía el cuestionamiento primario de la imposibilidad de su autor de explicar la cuestión crucial de la cuantización de las órbitas y la condición cuántica.

El planteamiento del comportamiento dual de los electrones, planteado por de Broglie, concilió el problema. De acuerdo a éste, el electrón se encuentra en un estado ondulatorio en la órbita, y solamente aquellas frecuencias que permiten un cierre exacto al completar la circunferencia entran en un estado resonante, cancelándose rápidamente las restantes. A partir de esta teoría se pudo derivar la condición cuántica de Bohr.

A pesar de la contribución importante que representó el modelo atómico de Bohr, quedaban sin embargo severas limitaciones. El comportamiento de átomos más complejos que el de hidrógeno no podía anticiparse con base en su teoría. Ni siquiera del helio, elemento que tiene solamente dos electrones. Tampoco explicaba el porqué de la estructura fina de los espectros de emisión, ni por qué algunas líneas espectrales eran más brillantes que otras, o por qué los átomos se juntaban para formar moléculas o se condensaban para formar el estado líquido y el sólido. En realidad no resolvía el problema de la dualidad de comportamiento de la luz. Esta asignatura pendiente sería resuelta con base en una nueva teoría, la mecánica cuántica.

3.1. Mecánica cuántica

En la década de 1920, Erwin Schrödinger y Werner Heisenberg desarrollaron una teoría que unificaba elegantemente la dualidad onda-partícula de la luz. La teoría fue desarrollada independientemente por los dos investigadores alemanes con enfoques diferentes, aunque posteriormente se comprobó que estos enfoques confluían, sin embargo, en las mismas conclusiones.

Esta teoría ha sido excepcionalmente exitosa, ya que absolvía todas las observaciones realizadas sobre el modelo atómico de Bohr y, más aun, cubría muchos fenómenos, desde la radiación del cuerpo negro hasta las interacciones entre átomos y moléculas y la estructura atómica.

Esta teoría tiene que ver fundamentalmente con el arreglo de instancias pequeñas, como la luz, átomos y moléculas. Sin embargo, cumple completamente con el denominado principio de correspondencia, que establece que al abarcar fenómenos macroscópicos, la teoría cuántica debería predecir su comportamiento, como aquél establecido por las leyes de Newton, por ejemplo.

La teoría incluye la idea de de Broglie sobre la relación entre la longitud de onda y la cantidad de movimiento. Sin embargo, la amplitud de onda y su comportamiento es recogida en la función onda Ψ como una función del tiempo y posición, y representa un nuevo campo, un campo de materia u onda de materia (Giancoli 1999).

La Ecuación de onda de Schrödinger describe el comportamiento de entidades subatómicas como los electrones. De hecho, |Ψ|2 se interpreta como la probabilidad de encontrar un electrón en un determinado espacio en un tiempo dado, por lo que esta función se entiende como una función densidad probabilística, es decir, la probabilidad de encontrar la entidad subatómica por unidad de volumen.

Esta ecuación se aplicó exitosamente al átomo de hidrógeno, al predecir los niveles energéticos discretos permisibles, asociados con números enteros discretos denominados números cuánticos principales. Otros números cuánticos, denominados números cuánticos orbitales, se asocian con el momento angular del electrón, mientras que los números cuánticos magnéticos se relacionan con la dirección del momento angular, cuya discretizacion cuántica se conoce como la cuantizacion espacial.

Una última clase de número cuántico no se derivó de la Ecuación de Schrödinger, sino de trabajos teóricos relativistas efectuados por Dirac, y se denominó número cuántico de spin, con solo dos valores (Dirac, citado en Giancoli 918).

El problema de cómo se repartían los electrones en un átomo tomando en cuenta las restricciones impuestas por los números cuánticos fue abordado por Wolfgang Pauli, en su célebre Principio de exclusión de Pauli, que establece que dos electrones de un átomo no pueden tener los mismos estados cuánticos, es decir, no pueden tener la misma combinación de los números cuánticos mencionados.

Otra contribución de importancia notable es el llamado Principio de incertidumbre de Heisenberg, que establece que es imposible conocer con exactitud la posición y la cantidad de movimiento si se imagina a una entidad natural como si fuera una partícula. Ésta es una extensión de la imposibilidad física observada de determinar ninguna propiedad física con total exactitud, pero que no se debe únicamente a la capacidad relativa de los instrumentos, sino a la dualidad onda-partícula y a las interacciones entre la entidad observada y el instrumento.

Esta incertidumbre puede despreciarse en el mundo macroscópico, pero ciertamente no a niveles atómicos. Sin embargo, como todos los objetos están constituidos por átomos, su consideración resulta obligatoria para toda la naturaleza.

Este notable principio da lugar a interpretaciones filosóficas. Establece con claridad la naturaleza probabilística de la mecánica cuántica. Sin embargo, hay una puntualización necesaria a realizarse. La probabilidad a que hace referencia la mecánica cuántica es inherente a la materia-energía, y no a la necesidad de organizar grandes arreglos de elementos. Por lo tanto, existe una diferencia conceptual entre esta teoría y, por ejemplo, la termodinámica estadística, que en última instancia sigue rigiéndose por aproximaciones clásicas de sistemas macroscópicos.

Otra conclusión sorprendente de este principio es la no conservación de la energía si se considera un espacio suficientemente corto. El incremento de tiempo requerido es tan pequeño que supera toda capacidad experimental de cuantificación.

La mecánica cuántica fue abrazada por la comunidad científica en su conjunto, aunque existen aún detractores. Uno de los más importantes fue el propio Einstein, que emitiera su célebre comentario de que “Dios no juega a los dados". La evidencia experimental ha hecho que al presente la vasta mayoría de la comunidad científica la acepte.

3.2. La física de las partículas elementales

Esta parte de las ciencias físicas tiene que ver con los esfuerzos realizados por la humanidad en su afán de entender la estructura de la materia, y si bien el trabajo inicial fundamental fue realizado en la primera mitad del siglo XX, contribuciones de extraordinaria importancia fueron realizadas en los últimos 50 años.

Más allá de los protones, neutrones y electrones, otras partículas subatómicas fueron detectadas en materiales radiactivos. La desintegración a resultaba en la emisión de esta partícula cargada positivamente, y descubierta inicialmente por Marie Curie en el radio y polonio. Resultó estar compuesta de un núcleo de helio. Esta radiación se debe a que las fuerzas nucleares fuertes son incapaces de retener todas las partículas inherentes a núcleos grandes, lo que da como resultado la llamada transmutación de los elementos, es decir, la transformación de unos elementos en otros al cambiar el número de protones en el núcleo.

Posteriormente se demostró que la transmutación también ocurría en la llamada desintegración β, siendo las partículas emitidas electrones. Estos electrones no corresponden a aquellos encontrados en los orbitales atómicos, sino más bien se originan dentro del núcleo, cuando un neutrón muta a un protón, liberando un electrón cargado negativamente, obedeciendo al principio de conservación de cargas. Sin embargo, en este proceso se determinó que no se obedecían las leyes de la conservación, es decir, de la energía y cantidad de movimiento, lo que condujo a Wolfgang Pauli a plantear una solución inteligente: al momento de emitirse una partícula β, debía emitirse también otra, muy difícil de detectar, la que contendría la energía y cantidad de movimiento faltantes. Esta partícula fue denominada neutrino por Enrico Fermi, refiriéndose a una partícula pequeña sin carga. Generó al mismo tiempo la desintegración β, y dio pie a la postulación de la teoría de la fuerza nuclear débil. El neutrino no tiene carga y su masa en reposo parece ser cero, o en todo caso, muy pequeña. En núcleos con carencia de neutrones en número suficiente, la desintegración genera un positrón, es decir, una partícula con una masa igual a la del electrón, pero dotada de carga positiva. Éste constituye la antipartícula del electrón, al tener la misma masa pero carga contraria.

Finalmente, la desintegración y o rayos y se refieren a fotones dotados de una energía muy alta. La desintegración de un núcleo por la emisión de una de estas partículas es muy parecida a la emisión de fotones por átomos excitados.

Después de la Segunda Guerra Mundial se descubrió que, si una partícula incidente en una reacción nuclear tenía suficiente energía, se podía obtener nuevos tipos de partículas. En este afán se construyeron dispositivos que pudieran incrementar el contenido energético de las partículas, produciendo las así denominadas partículas de alta energía. Los dispositivos que incrementaban la energía contenida en estas entidades se denominaron aceleradores de partículas. Se utilizan para acelerar electrones, protones y otras de mayor masa. El fin era producir nuevas partículas, y de esta manera también entender las fuerzas constitutivas de la naturaleza y la estructura elusiva del átomo.

De acuerdo a los planteamientos de de Broglie, cuanto mayor es la velocidad de las partículas, mayor es su cantidad de movimiento y menor su longitud de onda. Cuanto menor la longitud de onda, mayor el detalle de la estructura atómica que puede obtenerse. Ésta es la razón subyacente en la necesidad de incrementar más y más la velocidad de las partículas.

Los primeros aceleradores de partículas fueron el de Van de Graaff y el Ciclotrón, con variantes como el Sincrociclotrón. Partículas con energía de hasta 30 MeV (megaelectronvolt) pueden ser obtenidas en el primero. Los sincrotrones modernos, de enormes dimensiones, llegan a obtener partículas cuyas energías son del orden de 1 TeV (Teraelectronvolt). Los aceleradores lineales actuales pueden conferir a los electrones energías cinéticas del orden de 50 GeV (Gigaelectronvolt), a pesar de lo reducido de la masa de los electrones.

Dispositivos ingeniosos permiten incrementar la energía cinética de colisión, acelerando no solo la partícula incidente, sino también la partícula objetivo, pero en sentido contrario. El llamado Superconducting Super Collider (SSC) puede impartir de esta manera 20 TeV en cada partícula, con un total combinado de 40 TeV.

Hacia mediados de los años 30 se tenía el convencimiento de que los átomos podían considerarse constituidos por protones, electrones y neutrones, considerados como partículas elementales que conformaban la materia, aunque para entonces ya se tenía evidencia de otras, entre ellas el positrón (es decir, un electrón dotado de carga positiva), el neutrino y el fotón. En las décadas posteriores, y especialmente en los últimos cincuenta años, centenares de otras partículas fueron identificadas, dando origen a la rama de la física denominada física de las partículas elementales.

Se sabía también que en el núcleo se concentraban los protones, conteniendo cargas positivas. En principio, al tener la misma carga, deberían repelerse, algo que sin embargo no sucedía. Se conjeturaba que debían existir otras fuerzas que contrastaban esta repulsión. Posteriormente se planteó que existían en realidad cuatro fuerzas nucleares, denominadas fuerza electromagnética, fuerte nuclear, débil nuclear y gravedad.

Las interacciones evidenciadas tanto en campos eléctricos como magnéticos podían tener una doble explicación a la luz del comportamiento dual onda-partícula experimentado por las radiaciones electromagnéticas. De acuerdo a la teoría de campos de fuerza establecida por Faraday, que se refiere a la naturaleza ondulatoria de las radiaciones electromagnéticas, las fuerzas de interacción podrían deberse a los campos eléctricos y magnéticos generados por una partícula y que son sentidos por otra. Pero además, estas interacciones podrían explicarse por el intercambio de fotones entre ambas, siguiendo el comportamiento particular, y a la afectación que se produce en la cantidad de movimiento. En este sentido, es el fotón el transportador de la fuerza electromagnética. Anteriormente, Heisenberg había planteado que todas las fuerzas de atracción y repulsión nucleares eran el resultado de partículas de intercambio. En el caso de la gravedad, la partícula intercambiada debería ser el gravitón, una partícula elusiva sobre la cual volveremos a referirnos. Ambas fuerzas alcanzan distancias considerables, y por lo tanto sus partículas no deberían tener masa. Pero las fuerzas nucleares, tanto la débil como la fuerte, no tienen estas propiedades. Debería ser muy fuerte dentro del núcleo, pero su alcance extraordinariamente pequeño, ya que no se evidencia al exterior del mismo. De otra manera, las partículas que le dan lugar, de acuerdo a la teoría de Heisenberg, ya habrían sido detectadas.

Fue en 1935 que el físico japonés Hideki Yukawa planteó la existencia de una nueva partícula que explicaría las interacciones inherentes a la llamada fuerza nuclear fuerte, es decir, la fuerza que mantiene unidos a los componentes del núcleo atómico. Predijo, en base a consideraciones teóricas, que su masa debería encontrarse entre las del electrón y el protón. Por esta razón se le dio el nombre de mesón. La masa estimada era 250 veces mayor que la correspondiente al electrón.

En 1937 se descubrió una partícula con una masa 207 veces mayor a la del electrón, próxima a la predicha al analizar la radiación cósmica incidente sobre la tierra. Se la denomino mu mesón, o muon, anteponiendo al nombre la letra griega mu. Posteriormente se determinó, empero, que esta partícula no interactuaba fuertemente con la materia, por lo que no explicaría la fuerza nuclear fuerte.

Fue en 1947 que se descubrió la partícula predicha por Yukawa, y se la denomino pi mesón, o simplemente pion, y que tenía carga positiva, negativa o ninguna. Las partículas cargadas tenían una masa 272 veces mayor que la del electrón. La sin carga, 263. Posteriormente se descubrieron otros mesones que pudieran ser responsables por las interacciones nucleares fuertes. Los mesones fueron posteriormente producidos utilizando aceleradores de partículas.

Sin embargo, en la actualidad se considera que las partículas responsables por la fuerza nuclear fuerte son los gluones, resultantes de la teoría de la cromodinámica, que involucran a los quarks.

En 1983, las partículas responsables de la fuerza nuclear débil fueron descubiertas por un grupo de trabajo liderado por el físico Carlo Rubbia (Giancoli 1025), y referidas como W+, W- y Z0.

El gravitón no fue descubierto hasta el presente.

En la siguiente tabla se presentan las intensidades relativas de las cuatro fuerzas fundamentales de la naturaleza (Giancoli 1025).

Nótese que, si bien la fuerza debida a la gravedad es la más conocida, es sin embargo también la más débil, y de hecho muchísimo más débil que las otras tres, y a nivel subatómico puede ser ignorada.

Después que se descubriera el positrón, se planteó la posibilidad de que otras antipartículas también pudieran ser halladas. En 1955 se descubrió el antiprotón, es decir, una partícula de campo con una masa similar a la del protón, pero dotada de una carga negativa. La gran cantidad de energía requerida para acelerar partículas de campo tan masivas como los protones requería de enormes cantidades de energía. Tiempo después se descubrió el antineutrón. Pero algunas partículas de campo no tenían antipartículas, como es el caso del fotón y los mesones.

Cada vez que un par conjugado de partículas se encuentran, se aniquilan mutuamente. Por ejemplo, al encontrase el electrón y el positrón, se aniquilan mutuamente, liberándose energía en la forma de radiación y u otras partículas de campo, para conservar la masa desaparecida y el contenido energético y de cantidad de movimiento de las especies aniquiladas.

 

4. Los últimos cincuenta años

Los últimos cincuenta años se caracterizaron por el descubrimiento de un gran número de partículas subatómicas, habiéndose derivado esfuerzos considerables en tratar de entenderlas, y por la generación de teorías de importancia.

Como una primera aproximación se procedió a clasificarlas. Todas las partículas observadas están incluidas en dos categorías: los fermiones, que siguen las reglas deducidas en 1926 por Enrico Fermi y Dirac, y que se conocen como las estadísticas de Fermi-Dirac. Estas partículas obedecen también al Principio de exclusión de Pauli. Se incluye en este grupo al protón, al electrón y al neutrón. Otras, conocidas como bosones, siguen las reglas establecidas por Einstein y el físico hindú S. N. Bose, referidas como estadísticas Bose-Einstein. Estas partículas no cumplen con el Principio de exclusión de Pauli e incluyen al fotón y las partículas denominadas W y Z, responsables de las interacciones electromagnéticas y débiles, respectivamente.

Los fermiones se dividen a su vez en dos subcategorías: los hadrones, relacionados con interacciones fuertes, y los leptones, que no lo están. Para 1960 se tenía conocimiento de solamente 4 leptones, que posteriormente incrementarían su número a 6, mientras que los hadrones conocidos son más de cien.

Los leptones parecen ser verdaderas partículas elementales, ya que no se tiene evidencia de que se descompongan en entidades menores, no muestran una estructura interna y su tamaño es inconmensurable.

Los hadrones son más complejos; existen evidencias de una estructura interna, y su gran número hace sospechar que no todos ellos pudieran ser partículas elementales. Se teorizaba que estarían compuestos de combinaciones de entidades fundamentales menores, existentes en tríos, denominadas quarks, que serían verdaderas partículas elementales. En la década de 1970, hadrones correspondientes a los tres quarks fueron encontrados experimentalmente.

Actualmente se considera que las verdaderas partículas elementales atómicas estarían compuestas de 6 quarks, 6 leptones y los bosones responsables de las fuerzas fundamentales.

Fue también en la década de 1970 que se planteó la teoría denominada Cromodinámica cuántica, que se planteaba que las interacciones fuertes entre hadrones se debían a interacciones entre sus quarks, los que poseían color y sabor. Las partículas que transmitían esta fuerza fueron denominadas gluones, partículas elementales que cumplían un papel parecido al de los fotones en las fuerzas electromagnéticas.

Otro trabajo de importancia generado en la misma década corresponde a la así llamada Teoría electrodébil, en la cual las fuerzas débil y electromagnética son manifestaciones diferentes de una interacción simple, fundamental, interacción débil, que tuvo éxitos de importancia en la predicción de las partículas responsables de estas interacciones, y su espectacular verificación experimental.

La Teoría electrodébil y la Cromodinámica cuántica conforman lo que se ha dado en llamar el Modelo estándar, y constituye un avance de importancia en la búsqueda de una teoría unificada de las diferentes fuerzas de la naturaleza, en cuyo intento fracasara Einstein, y que generara su famosa sentencia, "Dios es complejo, pero no perverso".

Este avance de importancia indujo a plantear una Gran teoría unificada en pos del intento einsteniano de unificar las teorías de las fuerzas electromagnética, débil y fuerte. En principio existiría una sola clase de partícula elemental, perteneciendo los leptones y quarks a la misma familia, pudiendo cambiar ambos, libremente, de un tipo a otro. De esta manera, las tres fuerzas de la naturaleza serían simplemente diferentes aspectos de una fuerza única primordial.

5. Conclusión

El siglo XX permitió avances en las ciencias naturales ciertamente mayores a los acumulados en toda la historia previa de la humanidad. Los últimos cincuenta años resultan especialmente prolíficos en el avance de las ciencias físicas, y se conoce más que nunca. Se desentraña la estructura de la materia como nunca antes y se vislumbra su complejidad. Se realizan esfuerzos denodados por entenderla, pero la comprensión final de la naturaleza y sus leyes parece elusiva en el mejor de los casos.

La gravitación universal y el gravitón, la supuesta partícula elemental que le da lugar, aun no descubierta, son asignaturas largamente pendientes en el conocimiento humano.

La naturaleza resulta cada vez más compleja y supera la capacidad humana de interpretarla. Al final de la jornada el ser humano parecería encontrarse tan solitario y desnudo como siempre, en un mundo que no acaba de entender.

 

Notas

* Decano de la Facultad de Ciencias Exactas de la Universidad Católica Boliviana "San Pablo". Contacto: ronanth.zavaleta@gmail.com

 

Referencias

1. Asimov, I. Nueva guía de la ciencia. Barcelona: Plaza & Janes Editores SA, 1985.        [ Links ]

2. Chang, R. Química. 9a ed. McGraw-Hill, 2007.        [ Links ]

3. Giancoli, D.C. Physics for Scientist and Engineers, with Modern Physics. 2nded. Prentice Hall, 1999.

 

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons