ForumCommunity

Manuel Alfonseca Moreno., Selecciòn de trabajos de su autorìa.

« Older   Newer »
  Share  
chenter
view post Posted on 18/11/2008, 22:09




Manuel Alfonseca Moreno

Información biográfica resumida

Ingeniero de Telecomunicación, Universidad Politécnica de Madrid, 1970.
Doctor Ingeniero de Telecomunicación, Universidad Politécnica de Madrid, 1971.
Licenciado en Informática, Universidad Politécnica de Madrid, 1976.
Manuel Alfonseca nació en Madrid en 1946.


Ha sido miembro del profesorado de las universidades Politécnica (1971-72, 1974-75 y 1977-93), Complutense (1972-73) y Autónoma de Madrid (1993-), siendo profesor titular de universidad desde 1988. Desde 1993 está adscrito al Departamento de Ingeniería Informática de la E.T.S. de Ingeniería Informática en la UAM. Ha trabajado en el Centro de Investigación U.A.M.-I.B.M. (1972-94), alcanzando en I.B.M. en 1986 la categoría profesional de Asesor Técnico Senior.


Ha investigado sobre Simulación Digital Continua, Bases de Datos y Gráficos, Métodos Eficientes de Construcción de Intérpretes, Inteligencia Artificial, Programación Orientada a Objetos, Fractales y Gramáticas de Desarrollo Paralelo, e Interfaces de Usuario, habiendo colaborado con científicos de los centros de investigación de I.B.M. en Winchester (U.K.), Yorktown Heights, Hawthorn, San Jose y Santa Teresa (U.S.A.), y Tokyo (Japón).


Sus investigaciones han dado lugar a artículos publicados en revistas y libros internacionales de prestigio, como I.B.M. Journal of Research and Development, I.B.M. Systems Journal y revistas del A.C.M. También ha publicado dos libros de texto, varios libros de divulgación científica y numerosos artículos de este tipo en un periódico de gran difusión. Ha dirigido diversos proyectos internacionales que se han plasmado en dieciséis productos internacionales de I.B.M. más otros cinco internos de esta compañía. Es investigador principal en un proyecto del Plan Nacional de Investigación español y ha dirigido dos tesis doctorales. Ha impartido conferencias acerca de sus trabajos de investigación en instituciones de prestigio de diversos países, como diversos centros de investigación de I.B.M. en U.S.A. y el Japón, o en las conferencias europeas de usuarios de dicha empresa.


Ciencia irónica: ¿invade la Física el terreno de la Metafísica?
Manuel Alfonseca

Religión y Cultura, Vol. XLIX:225, Abr.-Jun. 2003, pp. 379-394.

Agujeros negros, paradojas cuánticas, cuerdas cósmicas, universos múltiples

El método científico, tal como se ha aplicado con gran éxito en las ciencias físicas desde el siglo XVII, se apoya en la conjugación de dos componentes: la hipótesis o teoría, y la experimentación. La primera es importante, pero su utilidad es discutible a falta de la segunda. Una teoría sin demostración experimental puede considerarse, en el mejor caso, provisional; en el peor, extracientífica.

A lo largo de la historia de la Física ha ocurrido a veces que una teoría con poca justificación experimental llega después a asentarse, a ser comprobada por los hechos. Algo así ocurrió con la teoría atómica. Un químico tan importante como Wilhelm Ostwald (1853-1932), premio Nobel en 1909, se negó a aceptar la existencia real de los átomos, considerándolos, a lo sumo, como entelequias teóricas útiles, sin existencia real. "Mientras no los vea, no creeré en ellos" decía. Hoy, el microscopio de efecto túnel ha hecho realidad el desafío de Ostwald, permitiéndonos ver los átomos.

Algo semejante ocurrió durante el siglo XX con la teoría de los quarks, propuesta en los años sesenta por Murray Gell-Mann. A pesar del poder de predicción de esta teoría para explicar el comportamiento de algunas de las que entonces se consideraba "partículas elementales" (como el protón, el neutrón y, en general, la familia de los hadrones), muchos físicos se negaron a aceptar la realidad de los quarks, hasta que los experimentos proporcionaron la confirmación de su existencia.

Es posible que estos ejemplos positivos hayan rebajado el sentido crítico de algunos físicos, inclinándolos a pensar que cualquier teoría matemáticamente coherente tiene que ser una representación fiel de la realidad. Al hacerlo, olvidan que la teoría atómica y la de los quarks fueron confirmadas por los experimentos, sin los cuales continuarían siendo entelequias. Otras teorías, en cambio, no tuvieron la misma suerte y han sido justamente olvidadas. Con esta actitud, se corre el peligro de despreciar las enseñanzas de siglos y de romper el equilibrio entre hipótesis y experimentación, prescindiendo de la segunda cuando resulta difícil o, en ciertos casos (como veremos), imposible.

Karl Popper [1] señaló que no es fundamental que una teoría científica pueda demostrarse, pues eso nunca se consigue, ya que son siempre provisionales y sólo se mantienen hasta que algún descubrimiento nuevo las contradice y obliga a refinarlas. Lo esencial es que se pueda demostrar que es falsa, que sea posible diseñar un experimento que, en caso de tener éxito, eche abajo la teoría. Las teorías no falsificables no son construcciones científicas válidas. A lo sumo, podrán ser ejercicios hipotéticos, más o menos elegantes, pero sin relación con la realidad. John Horgan [2] aplica a estas construcciones el apelativo de ciencia irónica.

Este trabajo presenta algunos ejemplos que, en mayor o menor grado, pueden considerarse ejercicios de ciencia irónica. El primero se refiere a unos objetos cuya existencia está bastante bien documentada, aunque las teorías que intentan explicarlos contienen elementos que difícilmente se podrá comprobar mediante la experimentación. Los ejemplos subsiguientes son más espectaculares. En ellos, los físicos dan rienda suelta a su imaginación y proponen teorías para las que resulta imposible realizar experimentos que las confirmen o, lo que es peor, que demuestren su falsedad. Quizá no sean falsas, pero, mientras no se las pueda poner a prueba, no es posible considerarlas como teorías científicas. Quienes las proponen no están haciendo Física, sino Metafísica.

No debe tomarse esto como una crítica de la Metafísica, que como rama de la Filosofía se ha ganado en buena lid un puesto importante en la historia del conocimiento humano. Se trata de deslindar los campos de ambas disciplinas y evitar equívocos. La Metafísica no es una ciencia experimental, aunque los físicos que invaden su terreno traten de hacer pasar sus teorías por científicas. Es curioso, por otra parte, que algunos de estos mismos físicos desprecien la Metafísica, dejándose llevar por esa herejía moderna que considera que la ciencia es la única rama válida del conocimiento, capaz de explicarlo todo y de responder a todas las preguntas.

Agujeros negros
El concepto de infinito no sorprende a los Matemáticos, que vienen utilizándolo desde hace tiempo. Georg Cantor (1845-1918) fue el primero que formalizó los conjuntos infinitos, pero antes de su época se conocían muchas funciones que toman valores arbitrariamente grandes para algún valor de la variable independiente. Se dice que la función presenta una singularidad en ese punto. La más sencilla de las funciones con singularidad es y=1/x, que alcanza valores arbitrariamente grandes cuando x se aproxima a cero. Hay otras, como y=tg x [3], que presentan infinitas singularidades: para x igual a cualquier múltiplo impar de pi/2.

Tradicionalmente, las ciencias físicas han mirado con sospecha las singularidades. Cuando las ecuaciones matemáticas propuestas para describir algún fenómeno físico presentaban una singularidad, se daba siempre por supuesto que el problema estaba en las ecuaciones, pues en la realidad no pueden darse infinitos. Las ecuaciones son simples aproximaciones de la realidad. Si presentan singularidades, se debe a que la teoría de donde proceden falla, o no puede aplicarse, en las proximidades de esos valores. Ahí hay que buscar otras teorías que conducirán a expresiones matemáticas diferentes, que no presenten singularidad en esos puntos.

En general, la aparición de una singularidad se puede atribuir a nuestra ignorancia sobre el funcionamiento de los fenómenos que se trata de describir. Al descubrir más sobre ellos, al refinar su representación matemática, la singularidad debe desaparecer.

A lo largo de la historia de la Física, se ha reconocido la existencia de cuatro interacciones fundamentales: la gravitatoria, cuya formulación realizó Isaac Newton (1642-1727) en el siglo XVII y refinó Einstein en el XX; la electromagnética, como resultado de la unificación de los fenómenos eléctricos y magnéticos, desarrollada por James Maxwell (1831-1879) en el siglo XIX; y las dos interacciones nucleares, fuerte y débil, descubiertas durante el siglo XX. Más tarde se ha desarrollado la teoría electrodébil, que unifica las interacciones electromagnética y nuclear débil, y se han propuesto varias versiones de una gran teoría unificada que uniría la interacción nuclear fuerte a las anteriores, aunque ninguna de ellas ha recibido confirmación satisfactoria. La gravedad, por su parte, se ha resistido hasta ahora a todos los intentos realizados para unificarla con las otras interacciones fundamentales.

En 1916, Albert Einstein (1879-1955) formuló la teoría general de la Relatividad, que interpreta la interacción gravitatoria como una alteración de la geometría del cosmos, debida a la presencia de objetos con masa. En 1933, Subrahmanyan Chandrasekhar (1910-1995) detectó la presencia de una singularidad en las ecuaciones de Einstein, que surge cuando una estrella de gran masa agota su combustible nuclear, se transforma en supernova y sufre un colapso gravitatorio.

Si la masa que se comprime es aproximadamente igual a la del sol, la interacción electromagnética, que provoca una fuerza de repulsión entre los electrones, detiene el colapso gravitatorio. La estrella se transforma en enana blanca, con una densidad un millón de veces mayor que la del agua. Si su masa inicial es, al menos, 1,44 veces mayor que la del sol, la gravedad vence a la repulsión electromagnética y fuerza a los electrones a fusionarse con los protones, pero la repulsión provocada por la fuerza nuclear fuerte detiene el colapso, dando lugar a la aparición de una estrella de neutrones, con una densidad mil billones de veces mayor que la del agua. Finalmente, si la masa de la estrella en colapso fuese al menos 3,2 veces mayor que la del sol, la gravedad vencería también a la fuerza nuclear fuerte, el colapso no se detendrá, y la masa de la estrella se comprimirá hasta ocupar un volumen cero, un punto geométrico. La densidad se haría, por tanto, infinita. Aquí está la singularidad.

Una estrella colapsada hasta ese punto, provoca a su alrededor una atracción tan intensa, que ni siquiera la luz puede escapar de ella. Este objeto hipotético ha de ser virtualmente invisible, por lo que se le da el nombre de agujero negro.

Al principio, los físicos se resistieron a admitir la existencia de las singularidades gravitatorias, aplicando el sentido común, que tan buenos resultados les había dado a lo largo de la historia. Sin embargo, durante la segunda mitad del siglo XX, la falta de alternativas a la teoría de Einstein ha llevado a aceptar su existencia. En la actualidad se conocen muchos objetos que podrían ser agujeros negros, algunos pequeños, con una masa poco mayor que la del sol, otros gigantescos, situados en el centro de las galaxias. Pero, aunque se trate en realidad de agujeros negros, aún hay que probar que en su centro exista una singularidad.

Es posible que la teoría de Einstein sea, después de todo, una aproximación de otra teoría más completa que eluda la singularidad, como la de Newton resultó ser una aproximación de la de Einstein. Quizá exista alguna otra interacción fundamental, aún desconocida, (como las dos fuerzas nucleares fueron insospechadas hasta el siglo XX), capaz de detener el colapso total de la masa de los agujeros negros, con lo que éstos contendrían en su interior una masa concentrada en un volumen más pequeño que el de las estrellas de neutrones, pero mayor que cero. Desgraciadamente, esta comprobación está fuera de nuestro alcance. Quizá nunca estaremos en condiciones de realizarla, pues una cápsula lanzada al interior de un agujero negro no podría enviarnos información alguna.

Nos encontramos así ante una teoría científica bien formulada, con gran elegancia matemática, pero cuya verdad o falsedad no se puede demostrar en este momento. Hasta que dispongamos de más datos, se trata de un ejercicio de ciencia irónica. Esto se hace aún más patente cuando los físicos dan rienda suelta a la imaginación y hablan de agujeros negros microscópicos (que podrían existir incluso en nuestras proximidades), de agujeros de gusano (agujeros negros que unirían dos regiones muy alejadas del cosmos a través de dimensiones adicionales del espacio), de viajes interestelares y hasta de viajes en el tiempo a través de agujeros negros, justificando todo esto porque esos sucesos son compatibles con las matemáticas que rigen el comportamiento hipotético de unos objetos, de cuya existencia y propiedades aún no estamos totalmente seguros. Estas teorías están muy bien para una novela de ciencia-ficción, pero parece un abuso tratarlas como descripciones genuinas de la realidad.

En un libro publicado recientemente [4], un físico tan influyente como Stephen Hawking se hace eco de esta preocupación y sostiene que es probable que las fantasías científicas sobre los viajes en el tiempo violen leyes físicas que aún no hemos descubierto. En otras palabras: aún no lo sabemos todo. A pesar de las sorpresas que nos ha dado la Física del siglo XX, quizá sería mejor aferrarse en algunas cosas al sentido común, antes de dar rienda suelta a la imaginación, al menos hasta que dispongamos de evidencia experimental suficiente.

Paradojas cuánticas
Einstein hizo famosos varios experimentos mentales, término que se aplica a los experimentos que no es preciso realizar (a veces es imposible), pues basta pensar un poco sobre ellos para deducir cuál ha de ser el resultado. Algunos de estos experimentos los concibió Einstein como argumentos contra la Mecánica Cuántica, cuya interpretación más extendida le resultaba profundamente repulsiva. Uno de ellos (el experimento EPR, por las iniciales de Einstein, Podolski y Rosen, que lo propusieron) pudo realizarse muchos años después de propuesto, confirmando las predicciones de la Mecánica Cuántica y echando por tierra el argumento de sus autores [5].

Existe un experimento mental famoso que no se debe a Einstein, sino a Schr”dinger: tomamos un gato y lo encerramos en una caja que contiene una ampolla de ácido cianhídrico y un dispositivo automático que rompe la ampolla si un átomo radiactivo emite una partícula alfa. La desintegración de un núcleo radiactivo es un fenómeno que se rige por las reglas de la Mecánica Cuántica: cuando el número de átomos es muy grande, puede calcularse cuántos se habrán desintegrado pasado cierto tiempo, pero el comportamiento de un átomo aislado es impredecible. De acuerdo con la Mecánica Cuántica, hasta que un observador compruebe la situación de ese átomo, éste se encuentra en una superposición de estados, en uno de los cuales se ha desintegrado, mientras en el otro ha permanecido estable. La realidad colapsa en una de estas dos alternativas cuando el observador externo realiza la medición.

En nuestro experimento, el gato habrá muerto asfixiado si el átomo se ha desintegrado, de lo contrario continuará vivo. Esto parece indicar que el gato debe encontrarse en una superposición de los estados vivo y muerto, hasta que alguien abra la caja y mire.

La paradoja depende en gran medida de cómo definamos al observador. ¿Hace falta que un ser humano abra la caja y mire, para provocar el colapso de la onda cuántica? ¿Es el gato un observador válido, capaz de detectar si el átomo radiactivo se ha desintegrado o no, por el hecho de estar vivo o muerto? El problema podría complicarse aún más suponiendo que el gato vivo puede ser un observador válido, mientras no lo es el gato muerto.

El experimento del gato de Schr”dinger no se ha realizado en la práctica. Que no se asusten los amantes de los animales: no tiene sentido hacerlo, pues en cuanto intentásemos averiguar, por cualquier medio, si el gato está a la vez vivo y muerto, provocaríamos el colapso de la onda cuántica y no podríamos detectarlo: siempre lo encontraríamos o vivo o muerto, nunca ambas cosas.

Modifiquemos el experimento de la siguiente manera: sustituimos el gato por un dispositivo que graba en su memoria el estado de un circuito que puede estar abierto (cero) o cerrado (uno). Inicialmente el circuito está abierto, y se cierra cuando el átomo radiactivo se desintegra. El dispositivo realiza una medida y una grabación del estado del circuito cada milésima de segundo. Cuando el observador humano abre la caja, puede observar si el circuito está abierto o cerrado, pero también puede leer la memoria del dispositivo y descubrir en qué estado estaba en cada uno de los instantes anteriores. Puede, por tanto, detectar (con un error de una milésima de segundo) en qué momento tuvo lugar la desintegración radiactiva. Por lo tanto, el colapso de la onda cuántica ha tenido que ocurrir desde el principio y la paradoja no se habrá producido.

Hay dos maneras de salir de este dilema sin renunciar a la interpretación tradicional de la Mecánica Cuántica. En la primera, hasta que el observador abre la caja, la memoria del ordenador contendrá una superposición de pares de valores cero y uno. Cuando el observador abre la caja, todos esos pares colapsan en uno u otro valor para cada una de las posiciones de la memoria. Pero hay una solución mejor, que consiste en concederle el carácter de observador al dispositivo de medida y grabación.

La paradoja del gato de Schr”dinger ha dado pábulo a diversas explicaciones que tratan de resolverla [6-7]. Algunos, entre los que se cuenta el propio Schr”dinger, creen que la Mecánica Cuántica sólo se aplica a los sistemas microscópicos, mientras los macroscópicos (como el gato) se encuentran fuera de su alcance. Esta es la explicación más extendida y probable, pero también la menos interesante, pues se limita a negar la paradoja. En su forma actual, esta explicación supone que la superposición de estados cuánticos colapsa cuando las partículas en cuestión interactúan con cualquier ente macroscópico, al que se atribuye el papel de observador, sin importar que esté vivo o inanimado. Queda pendiente definir cuál es la frontera que separa lo macroscópico de lo microscópico, y explicar por qué ocurren las cosas así, suponiendo que sea eso lo que ocurre.

Otra explicación sostiene que el universo se bifurca cada vez que se produce una de estas alternativas, por lo que existiría un número enorme de universos casi idénticos, con pequeñas o mayores diferencias entre uno y otro, según el tiempo que ha pasado desde la bifurcación. En nuestro caso, en uno de los universos el gato estaría muerto, en el otro vivo. Fred Hoyle utilizó esta idea en una de sus novelas de ciencia-ficción [8]. Volveremos sobre ella más adelante.

¿Para qué sirven estos experimentos mentales, que jamás podrán realizarse y cuya solución no es evidente? ¿En qué se diferencian de la frase siguiente, que introduce una paradoja clásica parecida, de imposible resolución?

Cuando nadie la observa, esta frase está escrita en chino.

Cuerdas cósmicas
De acuerdo con la teoría inflacionaria del Big Bang, actualmente la más aceptada por la Cosmología moderna, el universo comenzó, hace unos quince mil millones de años, en un estado extremadamente comprimido, cuyos primeros instantes quedan fuera del alcance de nuestras teorías, pues no disponemos de ninguna que pueda aplicarse a una situación tan ajena a nuestra experiencia.

A partir del tiempo de Planck (10:sup.-43:esup. segundos después del principio) comenzamos a saber algo de lo que pudo ocurrir. En una primera etapa, el universo no contenía ninguna forma de materia, sólo energía. La expansión, inicialmente más lenta, se aceleró enormemente en la fase intermedia (se produjo una inflación), para volver a retardarse más tarde. Todo esto habría ocurrido en fracciones inimaginablemente pequeñas del primer segundo de la existencia del cosmos.

Después de la inflación se produjo un cambio de fase que dio lugar a la aparición de la materia, en la forma de las partículas que actualmente consideramos elementales, los quarks, y los leptones: electrones, positrones y neutrinos, esencialmente. Pero algunos cosmólogos sostienen que la inflación pudo dejar tras de sí zonas del espacio en las que se mantendría la situación anterior.

Algo parecido ocurre cuando una sustancia cambia de estado, pasando del sólido al líquido o de éste al gaseoso, o viceversa. A veces quedan burbujas del estado antiguo dentro de una masa que ya ha pasado al otro. Aunque el interior de la burbuja está en una situación inestable, puede permanecer así durante mucho tiempo, en equilibrio, hasta que una perturbación cualquiera provoca su colapso. Lo mismo sucede cuando una sustancia magnética, como el hierro, se calienta por encima del punto de Curie (con lo que pierde sus propiedades magnéticas) y después se enfría: el cambio brusco de fase da lugar a la aparición de dominios magnéticos independientes, con orientaciones distintas.

En el caso del universo inflacionario, ciertos cosmólogos sostienen que podrían existir zonas (burbujas) en las que se habría mantenido el estado cuántico primitivo. Esas zonas serían muy largas, con la forma de tubos muy estrechos, casi unidimensionales, con un diámetro mucho menor que el de un átomo. Podrían ser finitas y cerradas, o infinitamente largas. En su interior no habría materia, sólo energía. Algunas de ellas habrían podido resistir miles de millones de años y llegar hasta nosotros, pero no tendrían asegurada la permanencia, pues sería posible que interaccionaran unas con otras o consigo mismas, dividiéndose en zonas más pequeñas o desintegrándose por completo, pasando finalmente al estado cósmico actual más generalizado. Estas regiones hipotéticas reciben el nombre de cuerdas cósmicas.

La teoría de las cuerdas cósmicas se apoya en matemáticas coherentes. Esto lleva a muchos físicos a suponer que es probable que dichas cuerdas existan. Sin embargo, nadie ha detectado jamás una cuerda cósmica. Se sospecha que su detección podría ser imposible. Toda la teoría constituye, por lo tanto, un ejercicio flagrante de ciencia irónica. La tendencia a suponer que toda formulación matemática coherente ha de ser expresión de la realidad, se está imponiendo en la Física actual, alejándola cada vez más del paradigma científico universalmente aceptado, e introduciéndola progresivamente en el campo de la Metafísica.

Universos múltiples
Uno de los ejemplos más espectaculares de ciencia irónica es la teoría de los universos múltiples. Esta hipótesis se ha extendido mucho entre los científicos ateos, que la utilizan como última línea de defensa contra la amenaza de la quinta vía de Santo Tomás, el argumento del diseño, que en nuestro tiempo se expresa de una forma nueva y convincente.

En su forma original, el argumento se apoyaba en la complejidad del cosmos, especialmente de los sistemas vivos, para deducir la existencia de un creador. En la formulación sucinta del siglo XVIII, la quinta vía se expresaba así: "Si encontramos un reloj, es preciso suponer la existencia de un relojero". Durante el siglo XIX, el ateísmo contrarrestó esta forma del argumento, aduciendo que la evolución biológica y fuerzas ciegas semejantes habrían permitido al cosmos llegar, por puro juego del azar, a los hitos de complejidad que vemos a nuestro alrededor, cuya máxima expresión es la especie humana. Todo ello, sin necesidad de guía o control externo alguno.

La forma moderna del argumento del diseño se basa en el carácter sorprendentemente crítico de las leyes físicas, descubierto en su mayor parte durante el siglo XX. Las leyes parecen sintonizadas para hacer posible la existencia de vida y, en particular, de seres conscientes capaces de descubrirlas. Esta constatación, aceptada por igual por científicos creyentes [9], agnósticos [10] y ateos [11], se denomina, a veces, el principio antrópico, del griego anzropos, hombre, pues parece como si las leyes estuviesen diseñadas a la medida del hombre.

Algunos de los ajustes de las leyes físicas son extremadamente críticos. Por ejemplo, la eficiencia de los procesos de fusión nuclear que generan la energía del sol es aproximadamente igual a 0,007 (0,7 por ciento). Cuando cuatro núcleos de hidrógeno se fusionan para formar un núcleo de helio, el núcleo resultante tiene una masa igual al 99,3 por ciento de la suma de las masas de los núcleos de hidrógeno originales. El resto (el 0,7 por ciento) se ha transformado en energía.

Si el rendimiento hubiese sido algo más pequeño (0,006 o menor), no podría realizarse uno de los pasos intermedios de la reacción nuclear, la unión de dos núcleos de hidrógeno para formar uno de deuterio, pues el deuterio sería inestable. El universo estaría compuesto exclusivamente de hidrógeno, las estrellas no existirían y la vida sería imposible.

Si el rendimiento hubiese sido algo más grande (0,008 o mayor), casi todo el hidrógeno se habría transformado en helio durante los primeros minutos del Big Bang. Sin hidrógeno no habría estrellas parecidas al sol, ni agua, ni por supuesto vida.

Hay más ejemplos. Si la intensidad relativa de las cuatro interacciones fundamentales (gravitatoria, electromagnética y las dos nucleares) hubiese sido diferente, no habría vida inteligente en el universo. La intensidad de la atracción gravitatoria es unos 36 órdenes de magnitud más débil que las restantes fuerzas. Si hubiese sido un poco más intensa, las estrellas y los planetas serían mucho más pequeños. Los seres vivos, si los hubiese, serían diminutos, no contendrían bastantes células para construir un cerebro como el nuestro. Por otra parte, la evolución de las estrellas sería mucho más rápida: miles de años, en lugar de miles de millones. No habría tiempo para que la evolución biológica diera lugar a la aparición de organismos complejos.

También hay que recordar las propiedades únicas del agua, que parece diseñada ex-profeso para soporte de la vida: su gran calor específico (capacidad para almacenar calor) y su conductibilidad térmica, que convierte a los océanos en estabilizadores del clima; su enorme constante dieléctrica, que hace de ella uno de los mejores disolventes; el extraño comportamiento de su densidad, prácticamente único entre todas las sustancias químicas, que impide que los océanos se hielen por completo en invierno; su elevada tensión superficial, que facilita su aspiración por las raíces de las plantas; su viscosidad, que es bastante baja para permitir el movimiento de los seres vivos, pero suficiente para que las células contengan estructuras microscópicas intrincadas.

De igual manera, el átomo de carbono parece diseñado especialmente para hacer posible la existencia de la miríada de sustancias orgánicas en las que se basa la vida. La energía de enlace de este elemento consigo mismo y con los demás es crítica: cualquier otro valor no habría servido. En particular, la afinidad del carbono con el oxígeno es sólo ligeramente superior (1,13 veces) a la energía del enlace carbono-carbono. Si hubiese sido menor, no existiría casi anhídrido carbónico, ni por tanto la fotosíntesis. Si hubiese sido mayor, no habrían podido formarse espontáneamente sustancias orgánicas, pues todo el carbono se habría combinado con el oxígeno y apenas existiría en el universo otra forma de este elemento que el anhídrido carbónico.

Algo así es lo que ocurre con el silicio, un elemento químico emparentado estrechamente con el carbono, por lo que algunos autores de novelas de ciencia-ficción han propuesto que podría existir vida extraterrestre basada en él. Sin embargo, la afinidad del silicio por el oxígeno es bastante mayor que la del silicio consigo mismo. Por esta razón, aunque el silicio sea mucho más abundante en la Tierra que el carbono, se encuentra casi exclusivamente en forma de anhídrido silícico (cuarzo) y de sus derivados, los silicatos, y no ha llegado a formar cadenas semejantes a las del carbono. No es probable que las cosas sucedan de otro modo en sistemas planetarios diferentes. Hoy, el consenso científico afirma que la vida extraterrestre, si la hay, estará basada en la misma química orgánica que la vida terrestre (aunque esto no quiere decir que las sustancias químicas concretas de la exobiología tengan que ser idénticas a las nuestras).

La tasa de expansión del cosmos es tal, que su densidad media parece estar sospechosamente próxima al punto crítico. La teoría general de la Relatividad de Einstein nos dice que un universo cuya densidad sea igual o menor que el valor crítico seguirá expandiéndose indefinidamente: será un cosmos abierto. Por el contrario, si la densidad del universo fuese superior, la expansión acabaría por detenerse y sería seguida por una fase de contracción, que terminaría en el "Big Crunch" (el gran aplastamiento), con unas propiedades muy semejantes a las del Big Bang. Tendríamos, en tal caso, un cosmos cerrado.

Para los científicos ateos, el cosmos abierto presenta un problema: tuvo un principio, antes del cual no se sabe qué ocurrió, si es que la palabra "antes" tiene sentido en este contexto, pues el tiempo es parte del universo y comenzó a existir con él. Para los creyentes, el problema se resuelve con facilidad recurriendo a un Dios creador, pero ésta es una solución que los ateos jamás aceptarán. Durante algún tiempo, a lo largo del siglo XX, buscaron refugio en el cosmos cerrado, que -aducían- podría haber existido siempre, sin principio ni fin. En efecto, si la fase de contracción terminara en un rebote, cada Big Crunch se convertiría en el siguiente Big Bang y el universo podría ser cíclico.

El cosmos cerrado también presenta problemas. Su densidad tendría que ser apenas superior a la crítica, pues, si fuese un poco mayor, el universo habría comenzado a contraerse en seguida y no habría habido tiempo para la aparición de la vida y del hombre. En la actualidad, los datos disponibles parecen indicar que la tasa de expansión del universo puede ser exactamente igual al valor crítico, con lo que un cosmos cerrado quedaría excluido. Por otra parte, durante la década de los noventa se ha descubierto que la expansión del universo parece estar acelerándose, lo que aleja aún más la posibilidad de que la expansión pueda llegar a invertirse. Este descubrimiento ha obligado a resucitar la famosa constante cosmológica de Einstein, que introdujo en la primera versión de sus ecuaciones, aunque posteriormente prescindió de ella.

La suma de todos los argumentos anteriores y otros muchos semejantes, que sería demasiado prolijo enumerar aquí, adquiere un peso abrumador. Vivimos en un cosmos en el que las leyes físicas parecen sintonizadas de forma extraordinariamente crítica para hacer posible la aparición de la vida y del hombre. ¿Por qué?

Para los creyentes, la cosa tiene fácil explicación: un Dios creador ha diseñado el universo. ¿Qué sentido habría tenido crear un universo estéril? Partiendo de esta hipótesis, no resulta sorprendente, sino más bien evidente, que las leyes físicas estén ajustadas para obtener ese objetivo.

Para contrarrestar esta hipótesis, los ateos aducen una explicación alternativa: los universos múltiples. Si existiesen infinitos universos, cada uno con leyes distintas, la vida habría aparecido únicamente en uno o en unos pocos, precisamente en aquéllos cuyas leyes la hacen posible. Obviamente, nosotros sólo podemos existir en uno de esos universos. Nuestra existencia sería consecuencia de la casualidad, no del diseño.

Desde mediados del siglo XIX ha tenido lugar una curiosa evolución en las discusiones entre creyentes y ateos, a propósito del principio de la parsimonia, también llamado Navaja de Occam. Este principio, una de las armas más potentes y eficaces de la ciencia, afirma que "non sunt multiplicanda entia praeter necessitatem", es decir, aconseja reducir al mínimo el número de causas, objetos o entes a los que hay que recurrir para explicar un fenómeno.

Antes de la nueva forma adoptada por el argumento del diseño, los ateos acusaban a los creyentes de transgredir el principio de la parsimonia. ¿Por qué recurrir a un Dios creador para explicar el origen del universo, por qué introducir un ente innecesario, si es más fácil afirmar que el universo apareció sin causa alguna, espontáneamente? La explicación de los creyentes precisaba de dos entes: un Dios creador y un universo. La de los ateos, de uno solo: un universo sin Dios.

Pero ahora, cuando los ateos tienen que recurrir a la hipótesis de los universos múltiples, el principio de la parsimonia viene a actuar en favor de la existencia de Dios. La alternativa actual opone un Dios creador y un universo en la versión creyente, frente a infinitos universos en la atea. Son los ateos, no los creyentes, los que recurren a una proliferación innecesaria de entes, cuya existencia, además, es imposible demostrar. Para responder a esta crítica, Martin Rees aduce que la Navaja de Occam no tiene por qué aplicarse a la escala de la creación de universos. ¿Dónde queda la honradez científica, si los ateos aducen un argumento en favor de sus teorías cuando les parece favorable, y lo rechazan al descubrir que, después de todo, se opone a ellas?

Los físicos partidarios de la teoría de los universos múltiples suelen comparar la aparición espontánea de universos en el seno de la nada con la aparición espontánea de partículas en el vacío. Esta comparación, que a primera vista parece lógica, encierra un profundo error. El vacío es muy diferente de la nada. El vacío existe, tiene propiedades, posee dimensiones espaciales que pueden medirse y su estado varía en función del tiempo. La nada, en cambio, como indicó Bergson [12], no puede tener propiedad alguna, ni siquiera la existencia. De lo que no existe, nada puede surgir, mucho menos universos.

Lo peor de las teorías de los universos múltiples, tanto la que trata de explicar el principio antrópico, como la que se basa en la bifurcación cuántica (que se mencionó al hablar del experimento del gato de Schr”dinger), es que es imposible demostrarlas. Por definición, el universo comprende todo lo que está de algún modo al alcance de nuestros experimentos y excluye todo lo demás. Incluso el espacio y el tiempo son propiedades de nuestro cosmos: los espacios y los tiempos de otros universos, si existen, nos son (y probablemente nos serán siempre) inaccesibles. Cualquier afirmación que se haga sobre ellos es indemostrable. No son, por consiguiente, afirmaciones científicas.

Por lo tanto, cuando los ateos partidarios de los universos múltiples presentan esta teoría como una alternativa científica a la creación por un ser divino, cometen un abuso de lenguaje. Si hablasen de alternativa filosófica o metafísica, el argumento sería aceptable, pero perdería fuerza, ya que la hipótesis creacionista también pertenece a ese campo. En realidad, al hablar así sólo tratan de aprovecharse indebidamente del prestigio que aún conserva la ciencia, con la intención de desacreditar la hipótesis de sus oponentes.

Es curioso constatar que, al abrazar la teoría de los universos múltiples, los ateos adoptan una posición defensiva, pues tienen la sensación de que la alternativa (un solo universo) les forzaría a aceptar la existencia de Dios. En cambio, los creyentes no nos encontramos en ese dilema. Si Dios ha creado este universo ¿qué podría impedirle crear más de uno? La teoría de los universos múltiples, si fuese cierta, no excluiría necesariamente la existencia de Dios.

El último grito: la teoría M
Los físicos siguen creando teorías, a cuál más imaginativa, que parten de la existencia de universos múltiples como si se tratara de un hecho comprobado. Una de ellas (la teoría M) combina dos objetos indemostrados o indemostrables (las supercuerdas y los universos múltiples) para explicar lo que ocurrió antes del Big Bang, en el origen del universo.

La teoría de las supercuerdas es compleja. Su forma más extendida requiere la existencia de nueve o diez dimensiones espaciales en el universo en que vivimos. Además de las tres que conocemos, habría que añadir otras seis o siete. La curvatura del universo a lo largo de esas dimensiones adicionales sería tan grande, que su longitud total sería más pequeña que el núcleo de un átomo. Con los instrumentos de que disponemos, es totalmente imposible detectarlas.

Según la teoría M, los bloques básicos de la materia y la energía serían aún más diminutos que los quarks y los leptones, que actualmente gozan del carácter de "partículas elementales". Habría dos tipos de estos bloques básicos: filamentosos unidimensionales (las supercuerdas) y membranosos bidimensionales (llamados "branas"). Ninguno de ellos ha sido detectado.

Para explicar el origen del universo, algunos físicos proponen que ciertas branas podrían flotar en una nueva dimensión espacial desconocida. Si dos de ellas colisionasen, podrían fundirse entre sí, dando lugar al Big Bang y a la aparición de un nuevo universo.

Nuevamente, como en los ejemplos anteriores, todas estas lucubraciones se basan en una teoría matemática coherente, pero alejada de la realidad y de la experimentación. De nuevo, la Física se convierte en Metafísica, sin que los físicos parezcan darse cuenta de lo que están haciendo.

Referencias
[1] Karl R. Popper, La lógica de la investigación científica, Tecnos, 1962.
[2] John Horgan, The end of science, Addison-Wesley, 1996.
[3] La abreviatura tg representa la función trigonométrica tangente, que sirve, por ejemplo, para calcular la pendiente de una carretera.
[4] Stephen Hawking y otros, The future of space-time, Norton, 2002.
[5] Jeremy Bernstein, Perfiles cuánticos, McGraw Hill, 1991.
[6] Paul Davies, John Gribbin, Los mitos de la materia, McGraw Hill, 1994.
[7] Roger Penrose, The emperor's new mind, 1989.
[8] Fred Hoyle, October the first is too late.
[9] Michael J. Denton, Nature's Destiny, The Free Press, 1998.
[10] Paul Davies, La mente de Dios, McGraw-Hill Interamericana de España, 1993.
[11] Martin Rees, Just six numbers, Basic Books, 2000.
[12] Henri Bergson, La evolución creadora, Espasa Calpe, 1973.


http://arantxa.ii.uam.es/~alfonsec/


El método científico, el diseño inteligente, los modos de la acción divina y el ateísmo.

Religión y Cultura, Vol. LIII:240, Ene.-Mar. 2007, pp. 137-153.

Manuel Alfonseca

La ciencia estudia hechos concretos, detectables, y trata de explicar por qué ocurren. Para conseguirlo, se proponen hipótesis o teorías científicas, que son tanto más creíbles cuanto mayor es el conjunto de hechos que explican. Estas teorías tienen poder predictivo: anuncian los resultados de experimentos aún no realizados o la existencia de fenómenos que todavía no han sido detectados. Cuanto mayor sea el número de las predicciones correctas asociadas a una teoría, mayor credibilidad tendrá.

Sin embargo, basta con que se detecte un hecho que no esté de acuerdo con la teoría, o que ésta prediga un resultado que no se confirme, para que sea preciso plantearse revisarla. En el método científico, los hechos tienen precedencia sobre las teorías, aunque a veces éstas puedan apoyarse en la predicción correcta de hechos hasta entonces desconocidos.

Un ejemplo clásico de este proceso lo proporciona la teoría de la gravitación universal de Isaac Newton (1642-1727). Cuando se formuló, en el siglo XVII, sirvió para explicar gran número de hechos: desde la caída de los cuerpos en la vida ordinaria, hasta el movimiento de los astros. Uno de sus grandes éxitos fue la deducción matemática de las tres leyes inducidas medio siglo antes por Johann Kepler (1571-1630), que las obtuvo empíricamente a partir de la observación de las órbitas de los planetas.

Pero el gran éxito de la teoría de la gravitación, lo que la convirtió en la base incontrovertible de la física clásica, fue una predicción correcta. En 1781, William Herschel (1738-1822) descubrió Urano, primer planeta nuevo que se añadía a los que se conocían desde la más remota antigüedad. Durante los sesenta años siguientes, los astrónomos observaron cuidadosamente la órbita de Urano y detectaron algunas discrepancias respecto a la órbita teórica predicha para este planeta por la teoría de la gravitación. Había dos posibilidades: o bien la teoría de Newton no era correcta y tendría que ser modificada, o bien existía algún hecho desconocido que permitiera salvar la teoría.

En 1845, el inglés John Couch Adams (1819-1892) llegó a la conclusión de que el problema podría resolverse con la existencia de otro planeta, más alejado aún que Urano, cuya atracción provocara las discrepancias observadas en la órbita de éste. Adams era joven y carecía de contactos. El trabajo que envió a James Challis, director del observatorio de Cambridge, sugiriéndole que buscara el planeta desconocido, terminó en la cesta de los papeles.

Dos meses después, el astrónomo francés Urbain Le Verrier (1811-1877) llegó a la misma conclusión que Adams, pero, al ser un astrónomo conocido, la petición que envió al astrónomo alemán Johann Gottfried Galle (1812-1910) sí fue atendida. El 23 de setiembre de 1846, Galle descubrió el planeta propuesto por Adams y Le Verrier, que recibió el nombre de Neptuno. El éxito de la predicción se convirtió en una noticia científica de primer orden y dio el espaldarazo, aparentemente definitivo, a la teoría de la gravitación de Newton.

En 1855 Le Verrier dedicó su atención a la órbita de Mercurio, que también presentaba discrepancias respecto a las predicciones de la teoría, y trató de aplicar el mismo procedimiento que tanto éxito le había proporcionado unos años antes. Las discrepancias podrían explicarse si existiese un planeta desconocido entre Mercurio y el Sol. Le Verrier sugirió que se buscase, y estaba tan seguro de que sería descubierto, que incluso le puso nombre: Vulcano.

Durante décadas, los astrónomos buscaron el misterioso y elusivo planeta Vulcano, sin encontrarlo. Hubo que esperar hasta 1915 para comprender por qué: en ese año Einstein publicó la teoría general de la relatividad, que corregía la teoría de la gravitación universal de Newton y explicaba (entre otras cosas) la mayor parte de las anomalías de la órbita de Mercurio. El planeta Vulcano sólo persiste hoy en la literatura de ciencia-ficción: en la famosa serie de televisión Star Trek, el orejudo señor Spock afirma proceder de dicho astro.

Una teoría científica es siempre provisional. Nunca se puede decir que ha sido definitivamente demostrada. Como mucho, se podrá afirmar que explica todos los hechos conocidos y que ha llevado a una o más predicciones correctas, pero nunca se puede excluir que más adelante aparezca otro hecho, antes desconocido, que fuerce a refinarla.

De acuerdo con Karl Popper [1], lo esencial para que una teoría pueda considerarse científica es que se pueda demostrar que es falsa, que sea posible diseñar un experimento que, en caso de tener éxito, eche abajo la teoría. Las teorías no falsificables (cuya falsedad no se puede demostrar) no son construcciones científicas válidas. A lo sumo, podrán ser ejercicios hipotéticos, más o menos elegantes, sin relación con la realidad. John Horgan [2] aplica a estas construcciones el apelativo de ciencia irónica.

En un artículo anterior [3] he descrito la forma en que la reina de las ciencias experimentales, la física, ve aparecer, cada día con mayor frecuencia, teorías no falsificables, que nadie puede demostrar, con lo que se tiende a abandonar el campo de la ciencia y a adentrarse en el de la metafísica, una disciplina que, como se sabe, no pertenece a la ciencia, sino a la filosofía. Aquí voy a señalar que el mismo fenómeno se está produciendo también en otra de las ciencias experimentales: la biología, que a primera vista parece menos propensa a estas tendencias.

¿Diseño inteligente o evolución al azar?
La cuestión ha pasado al primer plano de la actualidad, en relación con una supuesta teoría científica (el diseño inteligente) que ciertos grupos religiosos de los Estados Unidos presentan como alternativa a la teoría de la evolución, presionando para conseguir que ambas sean explicadas en pie de igualdad en los libros de texto dedicados a las ciencias naturales en la educación primaria y secundaria.

El intento ha provocado la indignación de muchos científicos, que acusan con razón a los proponentes del diseño inteligente de intentar colar una teoría puramente filosófica o religiosa como alternativa supuestamente científica a la teoría de la evolución. Aunque ésta, como toda teoría científica, será siempre provisional, está bastante contrastada para que no se la pueda rechazar sin causa suficiente, que en todo caso deberá basarse, no en especulaciones sin base experimental, sino en la aparición de hechos discrepantes, que hasta ahora no se han presentado.

El problema se complica porque algunos de los científicos que defienden la teoría de la evolución dan un paso más y caen en el mismo pecado del que acusan a sus oponentes, presentando elucubraciones filosóficas y afirmaciones dogmáticas como si se tratase de teorías científicas contrastables.

En primer lugar, hay que preguntarse qué se entiende realmente por teoría científica de la evolución. La palabra científica implica que esta teoría sólo puede referirse a cuestiones constatables (hechos) y a hipótesis que las expliquen, que a su vez deberán ser siempre susceptibles de que se pueda demostrar su falsedad. En este contexto, la teoría de la evolución se basa en la constatación comprobada de que las especies cambian, y estudia los mecanismos que lo permiten: las mutaciones, el ADN, la selección natural, etc.

Cualquier connotación filosófica que se añada no tiene carácter científico, tanto si se afirma, con los creyentes, que detrás de todo hay un diseño inteligente, como en la postura opuesta, adoptada usualmente por los ateos, que sostiene que todo es únicamente consecuencia de la casualidad.

Es difícil llegar a un acuerdo en este problema. Supongamos que hubiese algo en los seres vivos que resultase imposible de explicar como efecto de la casualidad. En tal caso, un científico ateo siempre podrá afirmar que debe existir alguna causa, aún desconocida, que cuando sea descubierta explicará satisfactoriamente la cuestión pendiente. Además, los partidarios de la teoría científica del diseño inteligente aducen supuestas pruebas mal diseñadas, que a menudo se basan en la existencia de órganos muy complejos, como el ojo o los flagelos rotatorios de las bacterias, o en la aparición de conductas complicadas, como las avispas que paralizan arañas inyectando veneno en cada uno de sus ganglios nerviosos. Estos argumentos suelen presentarse ahora como si fuesen nuevos e incontestables, cuando en realidad tienen más de un siglo de antigüedad [4] y hace tiempo fueron respondidos por los biólogos evolucionistas [5]. Por ejemplo, es un error suponer que, para que aparezca un ojo, tiene que haberse pasado por una evolución gradual a través de una serie de especies intermedias dotadas de órganos visuales parciales e imperfectos, que en la práctica no habrían podido desempeñar su función. En realidad, la evolución del ojo puede concebirse como resultado de unas pocas mutaciones, cada una de las cuales puede tener valor selectivo propio o ser indiferente.

Por otra parte, es posible que todo lo que sabemos sobre los seres vivos sea compatible con la acción de fuerzas aparentemente casuales. Y sin embargo, tampoco en ese caso quedaría excluida la hipótesis del diseño inteligente, pues Dios puede haber incluido el azar entre las herramientas asociadas a la creación del universo. ¿O acaso hemos de negarle a Dios la posibilidad de hacer uso de mecanismos que nosotros sí podemos utilizar?

Tenemos indicios que hacen pensar que la evolución ha de ser compatible con el diseño inteligente. Existe una rama de la informática (la programación evolutiva) que aplica, en programas de ordenador, procedimientos inspirados en la evolución biológica. En particular, se llama vida artificial a la aplicación de la programación evolutiva al desarrollo de agentes que remedan en su comportamiento el de los seres vivos. Entre sus aplicaciones más interesantes se encuentra la simulación de colonias de hormigas, que arroja luz sobre el comportamiento de enjambres de seres que actúan juntos y permite formular hipótesis sobre la aparición de entidades de nivel superior, como los organismos pluricelulares o las sociedades humanas o de insectos [6]. También puede utilizarse la experimentación sobre la vida artificial para el estudio de la transmisión del lenguaje entre grupos de seres humanos, que se simulan en forma de agentes muy simplificados.

Es evidente que cualquier experimento de vida artificial es un ejemplo claro de diseño inteligente (por parte del programador). Pues bien, en estos experimentos los agentes suelen interaccionar entre sí bajo el control de algoritmos que utilizan series de números aleatorios, es decir, bajo el control del azar. Si alguna vez llegásemos a ser capaces de generar agentes inteligentes en estas simulaciones, dichos agentes no estarían en condiciones de deducir nuestra existencia por experimentación, pues nosotros estamos fuera de su mundo, y podrían llegar a la conclusión de que dicho mundo es consecuencia únicamente de la casualidad. Conclusión que, en este caso, desde nuestro punto de vista, resulta evidentemente falsa. Salvando las distancias, nosotros desempeñaríamos frente a ellos un papel paralelo al de Dios frente a nuestro universo. En esas circunstancias hipotéticas, el argumento metafísico ateo que afirma que el universo no ha sido diseñado por nadie y se ha desarrollado como un proceso puramente aleatorio, sería falso, pero nuestros agentes no podrían demostrarlo. Es evidente, por tanto, que este mismo argumento puede no ser válido cuando se aplica al universo que nos contiene a nosotros, pero tampoco podremos demostrarlo. Por lo tanto, debe considerarse extra-científico.

En resumen: la teoría científica de la evolución se encuentra hoy día al nivel en que estaba la gravitación de Newton en el siglo XIX. Es la teoría que explica mejor y con mayor detalle los hechos científicos de que disponemos en relación con el origen de las especies. Como ocurre con toda teoría científica, no puede considerarse definitiva, pero no es de esperar que tenga lugar una revolución que la declare obsoleta o equivocada, sino tan sólo algún ajuste fino, como le pasó a la física con Einstein.

Por otra parte, ni el diseño inteligente, ni la evolución puramente casual de los ateos, que intentan excluir la existencia de un creador, son teorías científicas, pues es imposible demostrar que sean falsas. Por lo tanto, se trata de teorías metafísicas y deben presentarse como tales. Las dos.

Los libros de texto de ciencias naturales no tienen por qué presentar el diseño inteligente como alternativa a la teoría científica de la evolución, porque no lo es. Pero tampoco deben afirmar que la ciencia ha demostrado que Dios no existe o, en forma más solapada, que todo en el universo es consecuencia del puro azar, porque estas afirmaciones son simplemente falsas. La ciencia no ha demostrado, ni puede demostrar, ninguna de estas dos cosas.

La acción divina
Hagamos, pues, metafísica. Supongamos que Dios existe y que el universo ha sido objeto de diseño inteligente. ¿Cómo tiene lugar la acción divina, de qué manera interacciona Dios con el cosmos, para conseguir que el diseño llegue a desarrollarse de acuerdo con sus planes?

Evidentemente, Dios podría manipular el universo de forma tangible, saltándose las leyes que Él mismo le ha impuesto, es decir, mediante acciones milagrosas. Sin embargo, del estudio de la naturaleza y de la historia parece desprenderse que este tipo de acciones divinas, si se da, es extremadamente raro. Dios tiene un cuidado exquisito en ocultarse de nosotros. No parece desear que se pueda demostrar su existencia de forma incontrovertible. Quizá si lo hiciera forzaría nuestra voluntad, anulando la libertad humana. O quizá no. Tres autores de ciencia-ficción han especulado sobre lo que pasaría si Dios diese una prueba indiscutible de su existencia [7].

¿Puede Dios manipular el universo, modificando su evolución, sin que nosotros nos demos cuenta? Se trataría de un tipo especial de acción divina, que tradicionalmente recibe el nombre de providencia.

En los últimos tiempos, algunos teólogos han tratado de explicar posibles modos de acción divina en función de los avances científicos modernos. En particular, se ha recurrido a la mecánica cuántica y a la teoría del caos, la primera debido al determinismo ontológico subyacente a algunas de sus interpretaciones, la segunda porque implica la imposibilidad de hacer predicciones a muy largo plazo. Hay que recordar de nuevo, sin embargo, que todas estas teorías son siempre provisionales. Utilizarlas para apoyar explicaciones teológicas supone cierto riesgo.

En un libro reciente [8], Nicholas Saunders desmonta algunos de estos intentos, mostrando sus inconsistencias y dejando claro algo que ya sabíamos, o al menos intuíamos: no es fácil que la ciencia pueda llegar a demostrar la existencia de Dios. Tanto el ateísmo como la fe en Dios son, y probablemente serán siempre, cuestión de fe y no de ciencia.

Dado que no soy teólogo profesional (aficionados lo somos todos, excepto los ateos prácticos), los pensamientos que voy a exponer en los próximos párrafos para tratar de explicar los posibles modos de acción de Dios en su providencia deben tomarse, como dicen los ingleses, con un grano de sal. A mí me resultan útiles y así los expongo, por si pudiesen serlo también para alguien más.

¿Determinismo o indeterminismo?
La ciencia moderna ha revolucionado nuestra visión del mundo. En el siglo XVIII, la teoría de la gravitación de Newton podía considerarse establecida y dio lugar a una visión materialista y determinista del universo que puede personificarse en uno de los científicos más importantes de la época, Pierre-Simon, marqués de Laplace (1749-1827), cuyos campos de estudio abarcaron las matemáticas, la astronomía, la química y la biología. El éxito de sus estudios sobre la dinámica del sistema solar le movió a afirmar que, si conociésemos con exactitud las condiciones iniciales del universo, sería posible predecir todo su desarrollo pasado y futuro. De aquí surgió el materialismo determinista que tuvo tanto éxito en el siglo XIX y que, a pesar de haber sufrido tres devastadores ataques durante el siglo XX, en los albores del XXI continúa, en el fondo, formando parte de la visión popular del mundo.

El primero de esos tres ataques fue el principio de incertidumbre, formulado en 1927 por Werner Heisenberg (1901-1976). En esencia, dicho principio niega que sea posible conocer con exactitud las condiciones dinámicas de un sistema físico en cualquier instante del tiempo. Con ello, la suposición de Laplace cae por tierra, pues el principio de incertidumbre excluye, como caso particular, que podamos conocer con exactitud las condiciones iniciales del universo.

Quedaba una posibilidad para salvar una parte de la hipótesis de Laplace. De acuerdo: nunca seremos capaces de conocer exactamente las condiciones iniciales. Pero ¿no podríamos llegar a conocerlas con suficiente aproximación para poder predecir, con un margen razonable, el desarrollo futuro del cosmos?

El segundo ataque (en orden no necesariamente cronológico) echó también por tierra esta esperanza. En 1963, en sus estudios sobre la meteorología, Edward Lorenz descubrió la existencia, predicha varias décadas antes por Poincaré, de sistemas dinámicos en los que una diferencia infinitesimal en sus condiciones iniciales da lugar a una discrepancia global en el estado del sistema al cabo de cierto tiempo. El estudio de estos sistemas se ha venido a llamar teoría del caos Por otra parte, ahora se sabe que el universo en su conjunto, e incluso partes relativamente pequeñas del mismo, como el sistema solar, son sistemas caóticos. No es posible conocer las condiciones iniciales del universo con suficiente aproximación, porque dicha aproximación nunca será suficiente. Por grande que sea el número de cifras exactas que conozcamos, aunque se alcance el máximo que permite el principio de incertidumbre, la teoría del caos asegura que las condiciones calculadas después de algún tiempo (menor que la edad del universo) serán inservibles y no permitirán hacer predicciones correctas.

El tercer ataque fue aún más devastador, si cabe. La mecánica cuántica, que se desarrolló a lo largo de la década de 1920, afirma que los fundamentos del universo, representados por la física de las partículas elementales, no son deterministas, sino aleatorios. No sólo es imposible predecir el desarrollo futuro del universo a largo plazo, sino también en cada uno de los pasos instantáneos de su existencia. Frente al macrocosmos determinista pero caótico, cuya evolución exacta nunca seremos capaces de predecir a largo plazo, se alza un microcosmos intrínsecamente probabilístico, cuya evolución sólo se puede seguir de forma estadística. Ambas cosas a la vez, aunque aún no tenemos idea de cómo compaginarlas.

El mundo material, objeto de estudio para la ciencia, podría representarse, en esta visión de la física moderna, mediante un segmento de línea recta, en uno de cuyos extremos se encuentra el determinismo potencialmente caótico, que predomina en la acción macroscópica de la gravedad, mientras al otro extremo se situaría el indeterminismo intrínseco, representado por la física cuántica microscópica.

La libertad
Hasta aquí la imagen del mundo, tal como la ve hoy la física. Por un lado, un determinismo aparente que en el fondo resulta borroso, porque el universo es caótico; por el otro, se nos cuela el indeterminismo. ¿Dónde queda entonces la libertad del hombre?

Es evidente que la voluntad libre, como la interpretaban los filósofos clásicos, como la sienten todos los seres humanos sin excepción, es incompatible con el determinismo. Pero sería un error pensar que pueda tener algo que ver con el indeterminismo cuántico. Cuando un átomo radioactivo se desintegra, no lo hace ejercitando su libertad, sino sometido al influjo asfixiante de la probabilidad. Es posible que un átomo tarde diez veces más que otro en desintegrarse, pero su longevidad no se debe a una elección individual, sino al juego de fuerzas ciegas que, en promedio, hacen cumplir la regla de que la mitad de los átomos debe desintegrarse en un tiempo perfectamente determinado.

¿Es libre el hombre? Es obvio que estamos determinados por muchos factores: nuestros genes, la educación que hemos recibido, el ambiente en que nos hemos criado, los libros que hemos leído, toda nuestra historia personal. Pero en el fondo de nuestra consciencia estamos convencidos de que, ante un dilema, tenemos libertad para elegir. De hecho, toda la estructura de nuestra sociedad se vendría abajo si esta hipótesis no fuese cierta. Por ello, incluso los más fervientes oponentes de la existencia real de la libertad humana hablan y actúan constantemente como si creyesen en ella.

La ciencia moderna parece tener una fijación respecto a la libertad humana: se limita simplemente a negar su existencia. En contraposición con todos los principios fundamentales del método científico, supedita los hechos a las teorías y niega la existencia del fenómeno que no consigue explicar. Sin embargo, la libertad humana es susceptible de experimentación. Además, cualquier experimento científico pone en juego la libertad de su diseñador.

Puesto que la libertad humana no parece compatible con el determinismo macroscópico ni con el indeterminismo microscópico, hagamos lo que se suele hacer en la ciencia cuando se produce una situación así: postular la existencia de un campo nuevo y desconocido, ajeno a nuestros conocimientos previos y abierto a la exploración. Eso es lo que hicieron, en el paso del siglo XIX al XX, Henri Becquerel (1852-1908) al descubrir la radiactividad; Max Planck (1858-1947) con la teoría de los cuantos; y Albert Einstein (1879-1955) con la teoría de la relatividad. Postulemos que la estructura profunda del universo no se reduce a un segmento con dos extremos, añadamos una nueva dimensión y supongamos que se parece más a un triángulo con tres puntas.

El determinismo, el indeterminismo y la voluntad libre podrían ser los tres vértices de ese triángulo, dos de los cuales están totalmente situados en el mundo material (y sujetos por ello al estudio de la ciencia) mientras el tercero se introduce como punta de lanza en el mundo sobrenatural.

Modos posibles de la acción divina
Supongamos que Dios, en su providencia y para dirigir el desarrollo de su diseño inteligente, se relaciona con el mundo actuando sobre cada uno de los tres vértices del triángulo.

Sobre el vértice determinista, Dios podría actuar manipulando las condiciones iniciales del universo. Para Dios, dichas condiciones iniciales no se verían afectadas por la teoría del caos, pues Él sí sería capaz de conocerlas o establecerlas con exactitud, hasta un número infinito de cifras decimales. Hemos de suponer que el valor exacto de los números reales no se encuentra fuera del alcance del intelecto de Dios, que los ha inventado, como está fuera del nuestro. Por otra parte, el principio de incertidumbre es una restricción que se nos aplica a nosotros, que estamos dentro del universo, pero no al creador, que no forma parte de él. Dado que Dios se encuentra también fuera del tiempo, podría utilizar su conocimiento global del cosmos para ajustar las condiciones iniciales de tal manera que en un futuro tan lejano como se quiera tengan lugar determinados sucesos. Esta posibilidad ha sido propuesta por algunos autores como solución al problema de la eficacia de la oración [9].
Por ejemplo, hoy se piensa que la extinción de los dinosaurios tuvo lugar hace sesenta y cinco millones de años como resultado del impacto sobre la Tierra de un cuerpo celeste (un asteroide o un cometa). La desaparición de los dinosaurios tuvo la consecuencia de que los mamíferos, que hasta entonces se habían visto reducidos a un tamaño pequeño, tuvieran campo libre para evolucionar aprovechando todos los nichos ecológicos ocupados por animales grandes, que habían quedado súbitamente libres. De ahí surgió la cadena evolutiva que condujo directamente al hombre. Podría imaginarse que, en un diseño inteligente que tuviera por objeto la aparición de una especie inteligente en la Tierra, Dios hubiese planeado ese impacto en las condiciones iniciales impartidas desde un principio al universo. Fenómenos de este tipo tuvieron lugar más de una vez durante la historia de la Tierra y habrían permitido impartir modificaciones importantes al proceso evolutivo.

Sobre el vértice indeterminista, Dios podría actuar manipulando los efectos cuánticos subatómicos aleatorios, teniendo cuidado de mantener el equilibrio estadístico, para que dichos efectos sean indistinguibles de la casualidad. De nuevo, aunque esta operación sería inconcebible para nosotros, hay que suponer que no estaría fuera del alcance de un intelecto capaz de diseñar y crear un universo tan complejo como el nuestro, del mismo modo (salvando las distancias) que yo soy capaz de manipular a mi voluntad todas las características de los programas de ordenador que plasman mis experimentos de vida artificial.
Quizá éste modo de acción sea el apropiado para dirigir la evolución a través de algunos puntos críticos que salpican la historia de la vida en la Tierra, como la aparición de la fotosíntesis, que permitió a la vida aprovechar la energía solar, liberándola de su dependencia de fuentes de energía mucho menos fiables (como los relámpagos y los volcanes) que hasta entonces habrían conducido a la generación espontánea de materia orgánica; o el paso de un nivel de la vida al siguiente, cuando varios individuos se unieron, renunciando a su individualidad, para formar un único individuo de orden superior, lo que ha ocurrido decenas de veces en cuatro niveles diferentes.

Sobre el vértice de la voluntad libre, Dios puede utilizar a los seres humanos conscientes y libres como cabeza de puente y punto de entrada directa de la acción divina en el mundo material. Esto podría conseguirlo por el procedimiento de sugerir a un ser humano concreto que realice una acción determinada, usualmente, pero no siempre, por medio de la conciencia o sentido del deber. En este caso, sin embargo, al revés que en los dos tipos anteriores de acción divina, Dios se expone a fracasar, o más bien nosotros podemos fallarle, pues Él nunca contrarresta nuestra libertad.
Afortunadamente, la tercera forma de acción divina no es la única con la que Dios puede manipular el universo. De serlo, nos encontraríamos ante un creador impotente, que para conseguir sus objetivos dependería exclusivamente de los seres humanos o de cualesquiera otros seres inteligentes y libres que pueda haber en el cosmos, al estilo de los dioses del mundo imaginario descrito por la novelista Lois McMaster Bujold en varias de sus novelas [10].

A la vista de muchas cosas que ocurren en el mundo, parece como si Dios hubiese decidido abstenerse de actuar directamente cuando tiene la posibilidad de hacerlo a través de seres humanos, incluso aunque éstos puedan fallarle. Es posible que, de no hacerlo así, si Dios corrigiese nuestros fracasos, nuestras debilidades, y los efectos negativos del egoísmo y la malicia en el hombre, fomentaría el quietismo, iría en contra de nuestra responsabilidad. ¿Para qué esforzarse, diríamos, si Dios siempre lo arregla todo? Esta podría ser una de las respuestas al argumento ateo que dice que los horrores de Auschwitz demuestran que Dios no existe. En realidad, lo que demuestran los horrores de Auschwitz es que el hombre es responsable de sus actos, que Dios no es una máquina dispuesta a arreglar automáticamente los desperfectos que nosotros causemos.

Por otro lado, durante la mayor parte de la duración del cosmos, el tercer modo de la acción divina habría sido imposible. Sólo desde la aparición del hombre, con la intrusión del mundo sobrenatural en el universo material a través de nuestra libertad, se habría introducido en la estructura del cosmos la segunda dimensión, que convierte en triángulo el segmento unidimensional original. Es en este sentido como debe interpretarse la afirmación bíblica de que el universo ha sido hecho para los seres humanos, o en palabras más modernas, que el objeto del diseño inteligente del universo es la aparición de seres capaces de actuar con libertad, tan cuestionada por los ateos y tan mal entendida por el hombre del siglo XXI.

¿Es el hombre el centro del universo?
En la Edad Media, como consecuencia de la cosmología cristiana, se creía que el hombre era el centro y la razón del universo, el ser más importante del cosmos. A partir del siglo XVI, esta idea ha ido recibiendo golpe tras golpe. Primero fue Copérnico, que quitó a la Tierra el lugar central. Después vino Darwin, que quitó al hombre su papel especial entre los seres vivos, convirtiéndolo en un animal más. Más tarde Freud demostró que el hombre no es más que un amasijo de tendencias subconscientes, motivado únicamente por la sexualidad y el miedo a la muerte. Finalmente, a lo largo del siglo XX, de nuevo la astronomía ha venido a demostrar que ni siquiera el sol o nuestra galaxia de la vía láctea desempeñan ningún papel especial en el cosmos. En consecuencia, el hombre es un ser totalmente carente de importancia.

Esta conclusión es un caso flagrante de non sequitur. Quizá precisamente por ello, este mito moderno ha alcanzado una propagación casi universal, incluso en ambientes científicos e históricos, a pesar de que está plagado de falsedades, falacias y medias verdades de principio a fin. En primer lugar, aunque en la antigüedad y la Edad Media europea se creía que la Tierra estaba en el centro del universo, no por eso se le daba una importancia especial. Por el contrario, el desprecio hacia la Tierra y sus habitantes, en comparación con la extensión del cosmos, es uno de los lugares comunes de la literatura de aquellas épocas. En otro artículo [11] he mencionado algunas citas que lo demuestran.

En segundo lugar, Darwin no ha demostrado (ni al parecer tuvo intención de hacerlo) que el hombre sea un animal más. De hecho, muchos biólogos actuales consideran que los efectos que la especie humana ha provocado sobre la Tierra son tan grandes, que pueden compararse, incluso favorablemente, con fenómenos como la aparición de la vida o la invasión de los continentes por las plantas verdes, que en su día cambiaron el mundo. Por ello, opinan que nuestra especie debería recibir al menos la categoría de reino en las clasificaciones biológicas.

El hombre es la única especie que por sí sola ha cambiado el aspecto del planeta; lo ha convertido en emisor neto de radiación electromagnética de baja frecuencia; ha acumulado en su cerebro, sus libros y sus memorias de ordenador mayor cantidad de información que todos los demás seres vivos juntos; está provocando una extinción global que afecta a casi todas las demás especies; ha eliminado especies completas de seres vivos a propósito y con plena consciencia de lo que hace, y ha llegado a ser capaz de destruirse a sí mismo. Para bien o para mal, la especie humana es única.

La diferencia genética entre el hombre y sus más próximos parientes animales, los chimpancés, puede ser pequeña (se habla del 1,5 por ciento), pero esto no significa nada. La diferencia de temperatura entre el agua a 99,99ºC y el agua a 100,01ºC, a la presión normal en el nivel del mar, es aún más pequeña en proporción, y sin embargo ambas formas del agua no pueden ser más diferentes: la primera está en estado líquido y la segunda en el gaseoso. Los físicos conocen bien los fenómenos de los puntos críticos y los cambios de estado. Es evidente que, entre el chimpancé y el hombre, la evolución atravesó un punto crítico que dio lugar a la aparición de un tipo de ser totalmente nuevo, único hasta entonces en la historia de la vida en nuestro planeta. Todos los intentos para reducir al hombre a la mera animalidad no son más que otros tantos esfuerzos desesperados del ateísmo ideológico para rebajarle. En el fondo, un simple medio para desacreditar la fe en un Dios creador.

Por otra parte, también es falso que el cristianismo ponga al hombre en el centro. Ocurre todo lo contrario: es Dios quien está en el centro. El papel del hombre en la cosmovisión cristiana es importante, sí, pero nunca central. Curiosamente, son los ateos los que insisten en poner al hombre en el centro, incurriendo con ello en una flagrante contradicción de la que no sé si se dan cuenta, pues a veces parecen ciegos a todo lo que no esté de acuerdo con sus ideas preconcebidas: una actitud totalmente opuesta a la exigida por el método científico. La estrategia atea se reduce a rebajar al hombre para eliminar a Dios, pero una vez creen haber conseguido ese objetivo, intentan alzarlo por encima de todo, convirtiéndolo en la única medida y razón de todo lo que existe [12]. De hecho, hay ateos que están dispuestos a aceptar un Dios que no se sitúe al principio del universo, sino al final, que aparecezca como resultado y producto de la evolución, de ese progreso indefinido que desde hace poco más de doscientos años se ha convertido en el mito más importante de nuestra época [13].

El siglo XX, el tiempo de mayor dominio de las ideologías ateas, es también uno de los más oscuros de la historia de la humanidad: Hitler hizo matar a seis millones de judíos, gitanos y otras minorías; Stalin, con sus purgas, a treinta millones de sus ciudadanos; Pol Pot y sus jemeres rojos, a un tercio de la población de Camboya; día tras día, en goteo incesante, se masacra a decenas de millones de seres humanos no nacidos. Y es precisamente ahora, en un alarde de cinismo y de hipocresía farisaica, cuando los ateos están extendiendo la especie de que las religiones, especialmente las monoteístas, fomentan la violencia y la muerte, aduciendo ejemplos como la inquisición española, que en sus más de trescientos años de existencia perpetró tres o cuatro mil ejecuciones.

Hay fanáticos en todos los campos, incluso en los de fútbol. Pero los fanáticos ateos han provocado más destrucción que los asirios, los hunos, las hordas mongolas y el conjunto de todos los pueblos que, a lo largo de la historia, han conseguido triste fama de crueldad y de muerte. Por eso sería ridículo, si no fuese más bien trágico, que los ateos se arroguen cada día en los medios de comunicación la fama de ser los más tolerantes, los más pacíficos y los únicos defensores del diálogo y de la feliz convivencia humana, cuando la historia y los hechos cotidianos demuestran precisamente lo contrario.

Conclusión
Los tres modos de la acción divina esbozados en este artículo proporcionan un indicio de cómo podría Dios manipular un diseño inteligente del mundo, de tal manera que el resultado sea indistinguible, desde dentro, del juego de la casualidad. Si esta visión es correcta, jamás seremos capaces de demostrar científicamente que el universo sea consecuencia de un diseño inteligente (y, por ende, la existencia de Dios). El diseño inteligente no llegará nunca a alcanzar categoría científica, pues es imposible demostrar su falsedad. Sin embargo, se trata de una teoría metafísica defendible, al mismo nivel que su contraria, que niega la existencia de un Dios creador y afirma que en el universo todo es consecuencia del puro azar: una ideología atea que a menudo se confunde con la teoría de la evolución, cuando ambas deberían distinguirse claramente, pues la segunda cae bajo el paraguas del método científico, que resulta completamente ajeno a la primera.

Referencias
[1] Karl R. Popper, La lógica de la investigación científica, Tecnos, 1962.
[2] John Horgan, The end of science, Addison-Wesley, 1996.
[3] Manuel Alfonseca, Ciencia irónica: ¿invade la Física el terreno de la Metafísica? Agujeros negros, paradojas cuánticas, cuerdas cósmicas, universos múltiples, Religión y Cultura, volumen XLIX, nº 225, p. 379-394, Abr-Jun 2003.
[4] Henri Bergson, L'evolution creatrice, 1907. Existe traducción española en Espasa Calpe, 1973.
[5] Alguna de esas respuestas se remonta al propio Charles Darwin en On the origin of species by means of natural selection, 1859, cap. VI y VII.
[6] Manuel Alfonseca, El quinto nivel, Adhara, 2005.
[7] Poul Anderson, Gordon R. Dickson, Robert Silverberg, The day the sun stood still, Dell Publishing Co., New York, 1972.
[8] Nicholas Saunders, Divine action and modern science, Cambridge University Press, Cambridge, U.K., 2002.
[9] C.S.Lewis, Letters to Malcolm: chiefly on prayer, Harcourt Brace Jovanovich, New York, 1963.
[10] Lois McMaster Bujold, The curse of Chalion, Harper Collins, New York, 2001.
[11] Manuel Alfonseca, El mito del progreso en la evolución de la ciencia, Encuentros Multidisciplinares, vol. 1:1, pp. 45-54, Ene-Abr. 1999. Véase http://www.ii.uam.es/~alfonsec/docs/fin.htm.
[12] Michael Frayn, Copenhague, 1998.
[13] Isaac Asimov, The last question, 1956, historia breve actualmente incluida en varias antologías.

sigue en https://blogdelafe.forumcommunity.net/?t=21758765&p=159740691




http://arantxa.ii.uam.es/~alfonsec/















Edited by chenter - 19/11/2008, 23:18
 
Top
0 replies since 18/11/2008, 21:49   286 views
  Share