COSAS DE LA
CIENCIA
Autores: FERNANDO DEL RÍO / LEÓN MÁXIMO
I. EL ALTRUISMO Y
DARWIN
DE CUANDO en cuando el nombre de Darwin vuelve a ser noticia en los
diarios. Los culpables son algunos individuos que han sobrevivido con
mentalidad dieciochesca, como eslabones perdidos de algún capítulo de La
Comedia Humana. Nuestros tristes reaccionarios se dan en México y en
otras latitudes, confunden al vulgo y escandalizan a los hombres de ciencia de
buena fe. Aunque el escándalo no lo causan por discutir el modelo darwiniano,
ni mucho menos.
Como toda genuina contribución científica, la teoría de la evolución por
medio de la selección natural se encuentra bajo constante crítica científica.
Se ha pasado así del darwinismo al neodarwinismo y al neoneodarwinismo. En la
ciencia el revisionismo es una virtud y el dogmatismo un pecado capital. Uno de
los puntos que se ha puesto a discusión es la competencia entre altruistas y
egoístas. Cuando chicos, a todos se nos antojó ser héroes o campeones. Aquiles,
Tarzán, Napoleón, el Santo y todos los demás miembros del panteón de héroes
infantiles son individuos valerosos, pero poco altruistas. El verdadero
altruismo tiene siempre un tanto de martirio y nuestro egoísmo innato (o
asimilado) nos lo hace poco atractivo. Sin embargo, el altruista, que pone en
peligro su vida para asegurar la supervivencia de su familia o grupo social,
pese a estar desapareciendo de la especie humana contemporánea, tiene su lugar
en muchas especies animales "inferiores".
Pero ¿qué tienen que ver los mártires con Darwin? Pues que el héroe
altruista se sacrifica por un grupo y Darwin supuso que la selección actúa sólo
sobre los individuos, suposición que se mantiene en la teoría moderna: es el
individuo mejor dotado en sus genes el que transmite su ventaja a sus
descendientes. En apariencia, esto le daría la delantera al cínico y al
egoísta, y condenaría a los genéticamente altruistas al exterminio. Esta
conclusión se demostró falsa por demasiado ingenua. De hecho existen especies
de aves en las que el altruismo de los padres es más la regla que la excepción.
Gilpin, en su libro Group Selection in Predatory-Prey Communities,
y Wilson, en la revista de la Academia de Ciencias de los EU, han
propuesto dos modelos distintos que muestran, uno independiente del otro, que
no sólo los grupos menos egoístas tienden a predominar (lo que es obvio), sino
que el número relativo de altruistas en una población tiende a aumentar. Y esto
sin violentar la acción de la selección sobre los individuos.
De manera que podemos vivir tranquilos sabiendo que la selección natural
condena al exterminio a las sociedades o grupos donde predominen los egoístas.
Lo que quita el sueño es pensar si la raza humana no se encuentra ya cerca de
tal situación.
II. MOLÉCULAS EN EL
ESPACIO
EL MUSEO molecular del espacio interestelar se enriquece poco a poco
con nuevas especies. Los radioastrónomos del Observatorio de Green Bank de
Virginia, EU, han identificado al radical etinilo C2H, que
viene a agregarse a las docenas de moléculas que pueblan el espacio
interestelar, antes considerado desierto y aburrido. Este radical no se ha
podido observar en fase gaseosa en ningún laboratorio.
Pero el espacio interestelar no es el único lugar en el que se descubren
nuevas moléculas. Gracias a modernas técnicas de análisis (espectroscopía
fotoelectrónica de rayos X), el doctor Tihomiv Novakov del Laboratorio Lawrence
de la Universidad de California en Berkeley hizo el sorpendente descubrimiento
de que el 90% del nitrógeno de los contaminantes atmosféricos no está en los
compuestos y formas químicas en que se creía. Este descubrimiento hará cambiar,
sin duda alguna, el tipo de medidas que en los países industrializados se toman
para combatir la contaminación. Por lo que toca al Tercer Mundo, el
descubrimiento no deja de ser bizantino. ¡Si ni siquiera ha podido lograrse que
los camiones y autobuses oficiales dejen de contaminar aparatosamente nuestro
ambiente!
III. LA
ELECTRODINÁMICA Y EL POSITRONIO
LA ELECTRODINÁMICA cuántica es el máximo exponente de las teorías físicas,
el más refinado y exacto modelo científico. Ello no se debe a que los físicos
hayan discriminado otras teorías, sino a que la naturaleza parece haber
conspirado en lograrlo. El ideal de la física, como hoy nos lo podemos
imaginar, sería tratar adecuadamente las cuatro interacciones fundamentales que
hay en la naturaleza (la gravitatoria, la débil, la electromagnética y la
nuclear) en el contexto de las teorías cuánticas y relativistas. Pero este
ideal está más remoto que la paz mundial y la justicia social: las fuerzas
nucleares, cuyo misterio se ha develado con el modelo de los cuarks, son muy
complejas, la gravitación ha probado ser reacia a cuantizarse y la interacción
débil ha mostrado ser particularmente elusiva. Así las cosas, sólo las fuerzas
entre cargas eléctricas han podido incorporarse en una teoría elegante, exacta,
sin transacciones: la electrodinámica cuántica (EDC).
Mas esta catedral de la física teórica presenta problemas de comprobación
experimental: en casi todos los sistemas físicos se cuela, sin que la inviten,
alguna de las otras antipáticas interacciones; en casi todos, excepto en un
efímero ejemplo: el positronio. Éste es un átomo semejante al del hidrógeno,
pero con un positrón en lugar del protón que le sirve de núcleo. Ésta es toda
la diferencia que hace al positronio el sistema predilecto de
la EDC. Como el positrón es la antipartícula del electrón, idéntico a
éste, excepto en su carga que es positiva, el positronio no tiene un núcleo
"nuclear": es puramente electromagnético.
Desgraciadamente, la pareja electrón-positrón que forma el positronio,
además de reunirse por la irresistible atracción eléctrica, tiene una maniaca
tendencia a la autodestrucción: el electrón y el positrón desaparecen después
de un corto abrazo. El único resultado de ese matrimonio suicida es una
descendencia de uno o dos rayosgamma. Y el enlace dura demasiado
poco para cualquier norma, en el mejor de los casos un diezmillonésimo de
segundo. No obstante lo corto del lapso, en él girarán unidos durante medio
millón de vertiginosas vueltas. Es en este positronio, microscópico y efímero,
donde la EDC busca su mejor comprobación.
Hace varios decenios Martín Deutch encontró un positronio en su laboratorio
delMassachusetts Institute of Technology. Pero no fue sino hasta hace
poco que se pudo observar, en la Universidad Brandeis, uno de sus estados
excitados. Las predicciones de la EDC se han visto confirmadas con gran
precisión en estos experimentos, se han reducido las fuentes de incertidumbre y
ha aumentado así la confianza de los físicos en la electrodinámica cuántica.
IV. FOURIER Y LA
MÚSICA
TODO amante de la "buena" música se ha visto expuesto a
alguna variedad de música electrónica, concreta o de computadora. Y el futuro
guarda más grandes sorpresas, que esperamos armoniosas los de oído conservador
a pesar de su novedad. Durante los últimos años, investigadores musicales de
los dos Cambridges (el de Inglaterra y el de Massachusetts) y de París, han
desarrollado una manera radicalmente nueva de analizar y sintetizar sonidos
musicales. El elemento esencial es una computadora, pero no para hacer la
chamba del compositor, sino para crear los sonidos que él todavía tendrá que
"componer".
El modo tradicional de considerar un sonido musical lo caracteriza por su
intensidad, su tono o frecuencia dominante y su timbre. Ésta es una descripción
demasiado simple y primitiva, en donde todas las complicaciones se barren
debajo del significado de "timbre". Describir adecuadamente la
riqueza de la música con tan pobres elementos es equivalente a tener críticos
de pintura que fuesen daltónicos. Para superar la clásica terna
intensidad-tono-timbre, que se ha incrustado en el alma de la música
occidental, se usa una técnica matemática, desarrollada hace más de siglo y
medio por José Fourier y publicada en su libro Théorie analitique de la
chaleur. José fue profesor de la Escuela Politécnica, contemporáneo y quizá
pariente de Carlos, el profeta social, autor de laThéories des quatre
mouvements.
El análisis a la Fourier de un sonido lo descompone en todas y cada una de
las frecuencias que lo forman, y le asigna a cada frecuencia una intensidad o
amplitud específica. Al conjunto de frecuencias amplitudes se le llama el
espectro del sonido analizado. El uso de la espectrometría de Fourier junto con
una computadora forma un "instrumento musical" muchísimo más flexible
que cualquiera existente. Todavía falta mucho para que nos deleitemos con un
concierto para computadora (o para que nos veamos forzados a aguantarlo ¡todo
dependerá del compositor!), pero ya las primeras experiencias muestran un mundo
musical extraordinario.
¿Quién no ha sufrido en alguna pesadilla la sensación de caer, y caer y
seguir cayendo? ¿Quién no ha aguantado a algún conocido que habla continuamente
sin nunca decir nada nuevo? Pues el equivalente de estas sensaciones ha podido
sintetizarse musicalmente con la combinación Fourier-computadora: un sonido que
de manera continua nos parece estar cambiando de tono, volviéndose más y más
grave, así lo escuchemos durante tres meses seguidos... pero el sonido
permanece siempre igual a sí mismo. Este sorprendente efecto se logra
aprovechando que nuestra sensación de tono (y de su cambio) no está determinada
únicamente por la "frecuencia" del sonido, cuando éste es complejo,
ya que, sencillamente, un sonido complejo no tiene una sola frecuencia, y ni
siquiera bastan para definirlo sus armónicos principales. La sensación de
"un" sonido es el resultado de toda una serie de ondulaciones de
distintas frecuencias, cuyas importancias relativas cambian rápidamente con el
tiempo.
No obstante, nuestra percepción auditiva no distingue todas las componentes
y es por ello que podemos ser engañados por los sonidos. Esto mismo nos ocurre
con muchas "ilusiones ópticas" como las de los conocidísimos dibujos
de Escher; éstos aprovechan nuestra capacidad adquirida para "ver"
objetos en tres dimensiones cuando están representados en una lámina o dibujo
de sólo dos.
V. OPINIÓN SOBRE LA
CIENCIA
LOS científicos mexicanos parecen condenados a nunca convencer a nadie
que la ciencia no es lo mismo que la tecnología. Pero no deben desesperar.
Puede que llegue un día en que el público tenga la misma opinión que 980
californianos, quienes fueron sujetos de una encuesta.
Un resumen del informe apareció en Science y por él nos
enteramos que ese Estado del vecino país, el público distingue claramente entre
el resultado del trabajo tecnológico y el del científico, y que está seriamente
preocupado por el impacto de la tecnología y por el tipo de decisiones que se
hacen al respecto. Así, como muestra, el 46% estuvieron decididamente de
acuerdo con la postura de que "la ciencia es buena y su aplicación
mala", mientras que sólo 6% estuvieron decididamente en contra.
VI. El GRAN PUM
Así como cada cabeza es un mundo, cada científico es una teoría del
Universo. Las hay de chile, de dulce y de manteca... literalmente para todos
los gustos. Jorge Gamow fue el campeón de la teoría del Big Bang —lo
que en castilla llamaríamos el Gran Pum—, que vino a tranquilizar a todos los
que no podían dormir pensando que el Universo no tuvo un origen. El Gran Pum,
que es la hipótesis científica más aceptada actualmente, fue el estallido de
toda la masa del Universo hace cosa de 15 mil millones de años. El abad belga
Jorge Lemaitre fue otro de los grandes sustentadores de la teoría del Gran Pum,
y don Manuel Sandoval Vallarta contribuyó a su sostén con sus magníficos
trabajos sobre los rayos cósmicos, allá por la década de los treinta. Pero como
también hay científicos que no pueden conciliar el sueño pensando que el
Universo sí tuvo un origen, el polémico Fred Hoyle salió una vez más a su
rescate. (Hoyle fue el campeón del segundo equipo mencionado, hace cosa de 30
años, con su teoría del estado estacionario.)
Hoyle acepta las pruebas observacionales que apuntan hacia la ocurrencia
del Gran Pum (y no podía menos que hacerlo), pero al mismo tiempo, mediante un
agilísimo juego mental digno del mejor prestidigitador intelectual, lo
desaparece: en vez de escondérselo en la manga, sencillamente ha reinterpretado
las pruebas, aprovechando para ello la posibilidad de medir cualquier cosa en
términos de distancias y tiempos. De esta manera y después de muchos
vericuetos, Hoyle reduce la "creación del Universo" a un momento
donde su masa era cero.
VII El NORTE EN EL
SUR
EN OTRO lugar hablamos del descubrimiento
de la que bien puede ser la más reciente inversión del campo magnético
terrestre, hace cosa de 10 000 años. Cabe ahora referirnos a quien puede haber
sido el descubridor involuntario de que el Norte estuvo alguna vez en el Sur.
El capitán Juan De Castro, navegante portugués, llego en uno de sus viajes
a la isla de Chaul, cerca de la India, por ahí de 1538. En la bitácora del
viaje, De Castro relata cómo, al explorar la isla y hacer observaciones para
determinar sus coordenadas geográficas, colocó la brújula en una roca y notó
que el norte de la aguja giró para apuntar hacia el sur. De Castro tuvo cuidado
de comprobar que la roca en cuestión no era de imán, con lo que descubrió
serendipidosamente el magnetismo de las rocas. Desafortunadamente, De Castro no
menciona si la roca susodicha mantenía su posición natural a su formación, y
por ello no es seguro que la magnetización invertida de esa roca haya sido una
prueba precursora de las inversiones del campo terrestre.
VIII. LA EDAD DEL
HIERRO
ES INTERESANTE averiguar por qué las antiguas civilizaciones de
Mesoamérica no habían llegado a la Edad del Hierro. Algunos espíritus simplones
gustan reducir todo un complejo fenómeno cultural a un solo parámetro: si una
sociedad no domina las técnicas del bronce y el hierro debe clasificársele como
neolítica, en el mejor de los casos. Esta visión unidimensional de la cultura
parecía una prueba más de que, sencillamente, "no estamos hechos"
para la tecnología. Mas ahora nuestro ego nacionalista puede estar más a gusto
gracias a una investigación realizada en la Universidad de Pennsylvannia, y que
indirectamente ilumina la cuestión.
Sucede que una arqueóloga (Tamara Stech), un metalurgista (R. Maddin) y un
historiador (J. D. Muhly) se pusieron a estudiar con detalle la transición de
la Edad del Bronce a la del Hierro, que ocurrió cosa de 2500 años antes de
nuestra era. La combinación de sus diversos talentos permitió integrar una
visión muy completa de esa revolución, tan importante en el desarrollo de las
civilizaciones, además de aportar algunas explicaciones frescas y novedosas. La
conclusión a la que llegaron es que el cambio al hierro no se dio sólo porque
este metal sea "mejor", sino simplemente porque el estaño (uno de los
dos componentes del bronce) sufrió una escasez mayor que si hubieran existido
nuestros modernos acaparadores. Según esta investigación, la técnica para
obtener el hierro y fabricar objetos con él se conocía en el Cercano Oriente
varios siglos antes de que su uso se generalizara. Fue la aguda escasez del
bronce lo que empujó a esas civilizaciones a buscarle un sustituto adecuado,
mediante un proceso que llevó unos 500 años.
La explicación de Stech, Maddin y Muhly es novedosa por su énfasis en la
importancia de la necesidad: mientras las sociedades podían seguir
satisfaciendo sus necesidades económicas y bélicas con el bronce, el hierro
estuvo relegado a piezas de ornato y de magia. Es en esencia el mismo tipo de
mecanismo social al que Arnoldo Toynbee llamaba "la virtud de la adversidad"
Entonces, en una cultura donde no escaseara el material en boga (ya sea piedra
o metal), y que no estuviera en competencia desventajosa con otra cultura, no
aparecería la necesidad de hacer ningún cambio tecnológico. Este mismo
argumento serviría también para explicar por qué los nahuas usaban juguetitos
con ruedas (como los que están en nuestros museos), y sin embargo nunca
construyeron una carreta tamaño adulto. Mientras no escasearan los macehuales
para cargar...
IX. ¡SEPA GÖDEL!
ESTAMOS acostumbrados a encontrar problemas irresolubles: basta leer
todos los días el periódico para encontrar muchos ejemplos. Quizá por esto,
muchos son atraídos (o repelidos) por las ciencias "exactas", en
especial por las matemáticas. ¡Qué hermosa disciplina! En ella todo es verdadero,
seguro y exacto. Y si alguien no puede resolver un problema matemático no es
culpa de esa ciencia, sino muestra de idiotez. Pero los matemáticos saben desde
hace tiempo que sí hay problemas matemáticos irresolubles. Algunos de ellos son
muy famosos, como el de la cuadratura del círculo y la trisección del ángulo,
que dicen que es imposible hacer ciertas cosas siguiendo las reglas de la
clásica geometría griega. Este tipo de problemas son imposibles de resolver
porque las reglas que se estipulan son demasiado estrechas y agobiantes.
Hay otros problemas que son irresolubles en un sentido más profundo. En
1931, Kurt Gödel demostró que hay juicios o enunciados dentro de casi cualquier
sistema de axiomas, que nunca pueden ser probados falsos o verdaderos. Esto
quiere decir que no se puede decidir si uno de esos enunciados está
"bien" o "mal": son sujetos de indecisión. El trabajo de
Gödel es el elemento clave del interesantísimo libro de Douglas Hofstadter,
físico e hijo de físico, Gödel, Escher, Bach, desgraciadamente muy
mal traducido al español.
A partir de la prueba de Gödel, muchos matemáticos se han puesto a buscar
ejemplos, examinando entre otros, problemas que son "candidatos al
infierno de la indecisión perpetua", como los llamó L. A. Steen. Entre esos
candidatos están el famoso teorema de Fermat, y estuvo la no menos célebre
conjetura de Poincaré de los cuatro colores. De este safari los matemáticos han
regresado ya con algunos ejemplares auténticos de indecibilidad, como la
conjetura de Jorge Cantor acerca de los tamaños relativos de subconjuntos de
los números reales.
Para probar la indecibilidad de una afirmación es necesario encontrar por
lo menos un caso en el que sea verdadera y otro en el que sea falsa (sin hacer
trampas). Esto lo logró Pablo Cohen para la conjetura de Cantor por ahí de 1963
y después se han dado otros ejemplos.Gracias a ellos, hoy podemos afirmar que
"quién sabe" es una legítima respuesta matemática.
EL FRÍO FUTURO
LOS climatólogos se enfrentan a una gran dificultad: llegar a saber si
los cambios recientes en el clima de la Tierra son indicación de una tendencia
mayor o si sólo representan una pequeña oscilación. Es como ir en una montaña
rusa con los ojos vendados: ¿es esta bajadita el comienzo de una bajadota de
miedo, o es sólo lo que viene antes de una subida?
No obstante que tal dificultad no se ha podido superar, hay indicios que
señalan como lo más probable un frío futuro. Por un lado, se sabe que el clima
al que nos hemos acostumbrado es excepcional. Los últimos 10 000 años, que han
visto el nacimiento de todas las civilizaciones y la muerte de casi todas, han
sido los más calientes dentro del último millón; a su vez, el último siglo ha
sido el más caliente desde que coronaron a Carlomagno.
Por otro lado, ya se detectó, a partir de 1940, un gradual enfriamiento
global que podría ser el principio de una tendencia a largo plazo. La
incertidumbre en las predicciones es una simple consecuencia de nuestra
ignorancia acerca del sistema climático terrestre. Aun si no se desatara una
nueva glaciación, los efectos del enfriamiento en nuestra forma de vida serían
muy profundos, ya que el cambio global bien podría ser de unos 10°C y ocurrir
en menos de 100 años. Si esto ocurriere, extensas zonas hoy templadas se
volverían inhabitables y bajaría notablemente el nivel de los océanos: no será
sólo cosa de comprar ropa más gruesa para el invierno.
XI. LA SUPERFICIE DE
LAS ESTRELLAS
LAS estrellas, que vemos como simples puntitos luminosos en cualquier
noche despejada —mientras evitemos la turbia atmósfera de la ciudad—, nos han
ido revelando sus secretos más íntimos gracias al esfuerzo colectivo de
generaciones de astrónomos. Se ha descubierto cómo saber a qué distancia se
encuentran de nosotros, de qué están compuestas, cuál es su estructura interior
y cuáles sus posibles historias.
No obstante todos estos adelantos, por mucho tiempo fue imposible observar
la superficie de uno de esos puntitos. La estrella Betelgeuse, 800 veces mayor
que el Sol y a 500 años-luz de nosotros, fue la primera en dejarnos ver su
superficie. Gracias a una fina técnica analítica puesta a punto en la década de
los setenta se evitó la confusión producida en las imágenes por los cambios
atmosféricos; de tal modo, astrónomos del observatorio Kitt Peak de Arizona
pudieron reconstruir una imagen de Betelgeuse que muestra regiones de muy
variadas temperaturas. Estas variaciones son manifestación aparente de los
flujos convectivos desde el interior de la estrella.
XII. PIOTERAPIA
LA VERDADERA revolución en medicina está todavía lejos de producirse,
sujeta como está hoy al uso casi exclusivo del método empírico, del ensayo y
error. Pero el arsenal del médico se ha modificado de raíz y los hospitales
modernos parecen laboratorios de investigación, con la añadidura de necesitar
grandes inversiones en equipo muy refinado.
Las técnicas de radioterapia se han desarrollado paralelamente a las de la
cirugía, con las que guardan parentesco (eliminar los tejidos, tumores u
órganos por malignos, inútiles o estorbosos). Y así como un cirujano se ve
forzado, en la mayoría de los casos, a cortar por lo sano, la aplicación de
radiación para la destrucción de células cancerosas tiene que irradiar por lo
sano las células circundantes. Esto ocurre porque los rayos gamma o
los electrones que se usan en radioterapia tienen que cruzar necesariamente los
tejidos sanos para llegar al tumor o región cancerosa.
Quizá en un futuro próximo estos problemas se reduzcan gracias a la
irradiación con unas partículas subnucleares, descubiertas por la física de
grandes energías: los piones (o mesones p). La gran ventaja
potencial de estos bichos en la radioterapia, según los doctores Bagshaw,
Kaplan, Shewttman, Boyd y Fairbank de la Universidad de Stanford, es que se
puede controlar el daño que producen en un tejido. A diferencia de las
radiaciones comunes en terapia, los piones causan poco daño a un tejido cuando
lo atraviesan a toda velocidad, pero al detenerse producen una reacción en el
núcleo de algún átomo. Son estas "bombitas" las que podrían
utilizarse para destruir el tejido indeseable. Se espera que la pioterapia
tenga una eficacia tres veces mayor, para la misma dosis radioactiva, que los
métodos convencionales, por lo que los generadores de piones se han estado
desarrollando desde hace varios años para ser usados en medicina.
No hay comentarios:
Publicar un comentario