Todo el mundo está familiarizado, o cree estarlo, con la palabra azar, y pretendemos tener, al menos, alguna idea de su significado. Pero eso no es tan obvio, y bastaría hacer una sencilla encuesta entre las personas cercanas para comprobar que no todos serán capaces de dar esbozos del concepto. No obstante, podrán obtenerse respuestas del tipo “El azar ocurre cuando suceden cosas inesperadas”. Lo que viene a ser el reconocimiento claro de que se trata de una medida del desconocimiento.
Una definición más formal podría ser la siguiente:
El azar es el agente que actúa definiendo un evento a posteriori de un experimento a partir de un conjunto de sucesos posibles a priori.
Es decir, podemos considerar que un experimento sucede por azar si su resultado final no se puede determinar a priori de entre un conjunto de resultados posibles.
Dentro de los sucesos que podríamos caracterizar como gobernados por el azar, a su vez, podemos distinguir dos fenómenos diferenciados:
- El azar ontológico, en el cual la aleatoriedad forma parte del ser. Se considera esta situación cuando existen procesos que son irreductiblemente aleatorios, independientemente del conocimiento que tengamos del propio sistema, de forma que no se podrá reducir a causas deterministas.
- El azar epistemológico es aquel que se produce por el desconocimiento, bien sea por ignorancia o por incapacidad, para tratar sistemas complejos, que en principio responden a causas de naturaleza determinista.
Tradicionalmente, en la ciencia surgida de la Ilustración y hasta principios del siglo XX, se consideró que todo el azar era de tipo epistemológico, y que no existía el azar de tipo ontológico. Esto era así tanto para los partidarios del naturalismo, sosteniendo que todo era reducible a causas naturales, aunque fuesen desconocidas, y que veían dicha naturaleza como compuesta únicamente de causas físicas, y por tanto materia, sujeta a las propias leyes físicas. Pero también para los dualistas, que además de la materia sostenían la existencia de elementos de naturaleza metafísica, y en particular divina. Obviamente, un azar de tipo ontológico es incompatible con la aceptación de un ente entre cuyos atributos se encuentra el de omnisciente, que todo lo sabe.
Esta posición completamente determinista queda reflejada en los trabajos de Pierre Simon de Laplace, quien definió el primer corpus de conocimiento sobre este tema en su obra “Théorie analytique des probabilites“, publicada en 1820 y donde ya se establece esta disciplina de manera rigurosa, que se inició poco antes con los trabajos pioneros de Pascal y Fermat.
En este tratado ya enuncia su famosa regla de Laplace, que todo el que haya pasado por una enseñanza secundaria conoce: Si un experimento cualquiera puede dar lugar a un número finito de resultados posibles, y no existe ninguna razón que privilegie unos resultados en contra de otros, se calcula la probabilidad de un suceso aleatorio A, como el cociente entre el número de casos favorables a A, y el de todos los posibles resultados del experimento. El cociente entre los casos favorables dividido por los casos posibles.
En esa obra, la regla indicada aparece como el principio número uno de una serie de 10, que rigen todo el cálculo de probabilidades en las diferentes situaciones posibles. También, dentro del principio número 6 se ocupa de un argumento original de Pascal, que desde entonces es conocido como la “apuesta de Pascal” presentado como una nueva prueba de la existencia divina.
Dentro del estudio hace notar que el cociente entre el número de nacimientos de niños y de niñas difiere muy poco de la unidad. Y también hace notar que los fenómenos que dependen del azar, al multiplicarse, manifiestan una tendencia a aproximarse incesantemente a relaciones fijas que coinciden con las leyes de la probabilidad que expone, con el enunciado de la ley general de la probabilidad de los resultados indicados por un gran número de observaciones: “La integral tomada entre unos límites dados, y dividida por la misma integral extendida al infinito tanto positivo como negativo, expresaría la probabilidad de que la discrepancia de la verdad esté comprendida entre dichos límites”, la antesala de las leyes de los grandes números, que da lugar a la aplicación de rigurosos principios matemáticos para poner orden en este ámbito de lo desconocido. Además, también le da pie a investigar la aplicación del cálculo de probabilidades a la búsqueda de las causas de los fenómenos, mediante el esbozo de lo que serían más adelante las correlaciones.

En ese sentido, para ilustrar sus ideas propuso que si pudiera existir un ser con capacidades sobrehumanas pero no sobrenaturales, es decir, capacidades superiores a la de cualquier persona pero que no violan ninguna ley fundamental de la Naturaleza, un ser que desde entonces es conocido como el “demonio de Laplace“, sería capaz de predecir con toda exactitud el comportamiento del sistema en cualquier tiempo futuro. En otras palabras, si el mundo obedeciera las leyes de Newton sería completamente determinista, y así, el citado demonio, sería capaz de conocer la posición y velocidad de todas las partículas del Universo en cualquier momento dado. Un demonio con estas capacidades, sobrehumanas pero no sobrenaturales, conocería el devenir de todo lo que existe, y conocería el más leve movimiento de cualquier cosa o persona que viviera en los próximos cien mil millones de años.
Por tanto, el azar en el sentido laplaciano del término, corresponde con el que hemos denominado como epistemológico. Así, hasta el siglo XX todo estaba claro, el mundo es determinista y la estadística es un simple truco que usamos para paliar nuestro desconocimiento o nuestra incapacidad de calcular cosas excesivamente complejas. Sin embargo a comienzos del siglo XX todo cambió, con el advenimiento de la mecánica cuántica, en donde se defiende que el resultado de algunos experimentos no se puede predecir con exactitud, sino sólo las probabilidades, no ya por desconocimiento, sino por características inherentes a la propia naturaleza.
Según la que se denominó como interpretación de Copenhague de la mecánica cuántica, en un experimento controlado en hasta sus más mínimos detalles, siempre hay un grado de aleatoriedad en el resultado con esas características. Muchos procesos físicos de carácter cuántico podrían ser irreductiblemente aleatorios, como las leyes de la desintegración atómica, que pueden predecir el número de núcleos de un cuerpo radiactivo que se desintegrarán en un período dado de tiempo, pero no cuándo lo hará cada uno de los núcleos concretos.
Es evidente que nos podemos plantear que eso también sea a causa de nuestro desconocimiento, y de hecho, esa fue siempre la primera opción. Tanto Einstein como Schrödinger, entre otros pioneros, defendían que había que completar la teoría para poder determinar así los resultados de manera exacta. Pero se equivocaban. Dicha interpretación del azar cuántico como desconocimiento se denominó de las “variables ocultas“, en el sentido de que debían existir unas variables cuyo valor no podíamos conocer, pero que estaban predeterminadas, en la misma forma que opera el mundo físico clásico. El mayor exponente de esta interpretación fue el artículo que publicó Einstein, junto a sus dos ayudantes, Podolsky y Rosen, donde proponían lo que se denominó experimento EPR, y que en su publicación inicial el año 1936 resultó demoledor para la interpretación de Copenhage.
En esencia, el experimento planteado consiste en dos partículas que interactúan alcanzando un estado denominado “entrelazado” (entangled). Tras los cual, dos observadores reciben cada una de ellas, llamadas A y B. Si uno de ellos mide, por ejemplo, el spin de la partícula A y es “arriba”, entonces sabe cuál es el spin de la B, que será “abajo”. Pero la cuestión es determinar si dichos valores existían con anterioridad a la observación, o no. Dicho de otra forma:
- Interpretación de Copenhague. El spin de las dos partículas A y B no estaba predeterminado, estando ambas en una superposición de “arriba” y “abajo”. Al observar una de ellas, el sistema colapsa, y de manera aleatoria, cada una de ellas alcanza uno de los dos posibles valores.
- Interpretación de Einstein. El spin de cada partícula A y B estaba predeterminado, en forma de una variable oculta cuyo valor desconocemos. Así, una está en “arriba” y la otra en “abajo”. Al observar una de ellas, simplemente revelamos su valor preexistente, y conocemos el valor de la otra.

El experimento EPR, durante un tiempo, fue un argumento bastante convincente en contra de los postulados de Niels Bohr como avalista principal de la interpretación de Copenhage, el cual sólo tenía el argumento de que las matemáticas funcionaban para oponerse al mismo. Como durante mucho tiempo no hubo manera de llevar a la práctica el experimento para determinar quién llevaba razón, sólo cabía echar mano del sentido común, que parecía estar de parte de Einstein.
Sin embargo era Einstein el equivocado. Una nueva formulación matemática fue llevada a cabo por John S. Bell, un físico del CERN en Suiza, que ideó un experimento que podía ser llevado a cabo, y que permitiría poder comprobar con certeza quién tenía la razón en esta duradera controversia. La idea genial de Bell era no considerar un simple par de partículas, sino tratar de manera estadística un conjunto suficientemente grande, y establecer unas correlaciones que diferían en sus resultados, con diferentes predicciones para las hipótesis de Einstein y de Bohr, y que pasaron a denominarse desigualdades de Bell. Con esta nueva formulación, el experimento fue llevado a cabo, por primera vez, por Alain Aspect y otros en París en 1982, y supuso, después de cuarenta y siete años, la materialización práctica de aquel experimento mental expuesto en 1936, que terminó por quitar la razón a Einstein. Asimismo, ha sido reiterado en innumerables ocasiones dando siempre el mismo resultado, mostrando que dios no sólo juega a los dados, sino que es un jugador honrado que desconoce los resultados que saldrán.

Por todo ello, podemos concluir que existen dos tipos de significado que podemos darle al azar, cuando nos referimos a él desde un punto de vista científico. En primer lugar, un azar de características epistemológicas, que ocurre a escalas macroscópicas, procedente de nuestra incapacidad para comprender todas las variables que aparecen en procesos cuya naturaleza es determinista, y que por tanto representa una medida del desconocimiento del sistema, sin que ello impida que los sucesos en el mismo sucedan de una manera necesaria, atendiendo a las leyes naturales implicadas. Y por otro lado, existe otro tipo de azar, de características ontológicas, inherente a la propia naturaleza, y que tiene su efecto sólo a escala microscópica, donde operan las leyes de la mecánica cuántica. Este azar no es trasladable de manera directa a fenómenos macroscópicos, si bien es origen de diversos fenómenos que ocurren en ese ámbito.
Fernando Cuartero
No hay comentarios:
Publicar un comentario