lunes, 8 de abril de 2013

¿Qué es el azar?

Cuando tratamos el tema del azar en un sentido cotidiano, por lo general, suele ser inquietante el significado que le damos a esta palabra, que no tenemos nada claro. En una primera aproximación a este término, el azar es simplemente el intento de poner orden en lo desconocido. Es decir, es intentar eliminar, tanto como se pueda, la ignorancia sobre determinados sucesos, y revestir lo que queda de un barniz matemático.
Todo el mundo está familiarizado, o cree estarlo, con la palabra azar, y pretendemos tener, al menos, alguna idea de su significado. Pero eso no es tan obvio, y bastaría hacer una sencilla encuesta entre las personas cercanas para comprobar que no todos serán capaces de dar esbozos del concepto. No obstante, podrán obtenerse respuestas del tipo “El azar ocurre cuando suceden cosas inesperadas”. Lo que viene a ser el reconocimiento claro de que se trata de una medida del desconocimiento.
Una definición más formal podría ser la siguiente:
El azar es el agente que actúa definiendo un evento a posteriori de un experimento a partir de un conjunto de sucesos posibles a priori.
Es decir, podemos considerar que un experimento sucede por azar si su resultado final no se puede determinar a priori de entre un conjunto de resultados posibles.
Dentro de los sucesos que podríamos caracterizar como gobernados por el azar, a su vez, podemos distinguir dos fenómenos diferenciados:
  • El azar ontológico, en el cual la aleatoriedad forma parte del ser. Se considera esta situación cuando existen procesos que son irreductiblemente aleatorios, independientemente del conocimiento que tengamos del propio sistema, de forma que no se podrá reducir a causas deterministas.
  • El azar epistemológico es aquel que se produce por el desconocimiento, bien sea por ignorancia o por incapacidad, para tratar sistemas complejos, que en principio responden a causas de naturaleza determinista.
Tradicionalmente, en la ciencia surgida de la Ilustración y hasta principios del siglo XX, se consideró que todo el azar era de tipo epistemológico, y que no existía el azar de tipo ontológico. Esto era así tanto para los partidarios del naturalismo, sosteniendo que todo era reducible a causas naturales, aunque fuesen desconocidas, y que veían dicha naturaleza como compuesta únicamente de causas físicas, y por tanto materia, sujeta a las propias leyes físicas. Pero también para los dualistas, que además de la materia sostenían la existencia de elementos de naturaleza metafísica, y en particular divina. Obviamente, un azar de tipo ontológico es incompatible con la aceptación de un ente entre cuyos atributos se encuentra el de omnisciente, que todo lo sabe.
Esta posición completamente determinista queda reflejada en los trabajos de Pierre Simon de Laplace, quien definió el primer corpus de conocimiento sobre este tema en su obra “Théorie analytique des probabilites“, publicada en 1820 y donde ya se establece esta disciplina de manera rigurosa, que se inició poco antes con los trabajos pioneros de Pascal y Fermat.
En este tratado ya enuncia su famosa regla de Laplace, que todo el que haya pasado por una enseñanza secundaria conoce: Si un experimento cualquiera puede dar lugar a un número finito de resultados posibles, y no existe ninguna razón que privilegie unos resultados en contra de otros, se calcula la probabilidad de un suceso aleatorio A, como el cociente entre el número de casos favorables a A, y el de todos los posibles resultados del experimento. El cociente entre los casos favorables dividido por los casos posibles.
En esa obra, la regla indicada aparece como el principio número uno de una serie de 10, que rigen todo el cálculo de probabilidades en las diferentes situaciones posibles. También, dentro del principio número 6 se ocupa de un argumento original de Pascal, que desde entonces es conocido como la “apuesta de Pascal” presentado como una nueva prueba de la existencia divina.
Dentro del estudio hace notar que el cociente entre el número de nacimientos de niños y de niñas difiere muy poco de la unidad. Y también hace notar que los fenómenos que dependen del azar, al multiplicarse, manifiestan una tendencia a aproximarse incesantemente a relaciones fijas que coinciden con las leyes de la probabilidad que expone, con el enunciado de la ley general de la probabilidad de los resultados indicados por un gran número de observaciones: “La integral tomada entre unos límites dados, y dividida por la misma integral extendida al infinito tanto positivo como negativo, expresaría la probabilidad de que la discrepancia de la verdad esté comprendida entre dichos límites”, la antesala de las leyes de los grandes números, que da lugar a la aplicación de rigurosos principios matemáticos para poner orden en este ámbito de lo desconocido. Además, también le da pie a investigar la aplicación del cálculo de probabilidades a la búsqueda de las causas de los fenómenos, mediante el esbozo de lo que serían más adelante las correlaciones.
En definitiva, del estudio del cálculo de probabilidades, Laplace se reafirma en su determinismo férreo, negando la existencia de un azar de características ontológicas. Así, cuando decimos que al lanzar una moneda tiene una probabilidad de 1/2 de salir cara, lo que queremos decir es que si repetimos el experimento un número de veces muy elevado, el cociente entre el número de caras y el total de los experimentos se aproxima a ese valor. No obstante, el propio Laplace afirma que, desde el instante en que la moneda se lanza, debido a la fuerza del impulso, a su dirección, a los rozamientos, y a la acción de la ley de la gravedad, está completamente predeterminado el resultado del experimento, si bien nos es completamente imposible realizar los cálculos pertinentes.
En ese sentido, para ilustrar sus ideas propuso que si pudiera existir un ser con capacidades sobrehumanas pero no sobrenaturales, es decir, capacidades superiores a la de cualquier persona pero que no violan ninguna ley fundamental de la Naturaleza, un ser que desde entonces es conocido como el “demonio de Laplace“, sería capaz de predecir con toda exactitud el comportamiento del sistema en cualquier tiempo futuro. En otras palabras, si el mundo obedeciera las leyes de Newton sería completamente determinista, y así, el citado demonio, sería capaz de conocer la posición y velocidad de todas las partículas del Universo en cualquier momento dado. Un demonio con estas capacidades, sobrehumanas pero no sobrenaturales, conocería el devenir de todo lo que existe, y conocería el más leve movimiento de cualquier cosa o persona que viviera en los próximos cien mil millones de años.
Por tanto, el azar en el sentido laplaciano del término, corresponde con el que hemos denominado como epistemológico. Así, hasta el siglo XX todo estaba claro, el mundo es determinista y la estadística es un simple truco que usamos para paliar nuestro desconocimiento o nuestra incapacidad de calcular cosas excesivamente complejas. Sin embargo a comienzos del siglo XX todo cambió, con el advenimiento de la mecánica cuántica, en donde se defiende que el resultado de algunos experimentos no se puede predecir con exactitud, sino sólo las probabilidades, no ya por desconocimiento, sino por características inherentes a la propia naturaleza.
Según la que se denominó como interpretación de Copenhague de la mecánica cuántica, en un experimento controlado en hasta sus más mínimos detalles, siempre hay un grado de aleatoriedad en el resultado con esas características. Muchos procesos físicos de carácter cuántico podrían ser irreductiblemente aleatorios, como las leyes de la desintegración atómica, que pueden predecir el número de núcleos de un cuerpo radiactivo que se desintegrarán en un período dado de tiempo, pero no cuándo lo hará cada uno de los núcleos concretos.
Es evidente que nos podemos plantear que eso también sea a causa de nuestro desconocimiento, y de hecho, esa fue siempre la primera opción. Tanto Einstein como Schrödinger, entre otros pioneros, defendían que había que completar la teoría para poder determinar así los resultados de manera exacta. Pero se equivocaban. Dicha interpretación del azar cuántico como desconocimiento se denominó de las “variables ocultas“, en el sentido de que debían existir unas variables cuyo valor no podíamos conocer, pero que estaban predeterminadas, en la misma forma que opera el mundo físico clásico. El mayor exponente de esta interpretación fue el artículo que publicó Einstein, junto a sus dos ayudantes, Podolsky y Rosen, donde proponían lo que se denominó experimento EPR, y que en su publicación inicial el año 1936 resultó demoledor para la interpretación de Copenhage.
En esencia, el experimento planteado consiste en dos partículas que interactúan alcanzando un estado denominado “entrelazado” (entangled). Tras los cual, dos observadores reciben cada una de ellas, llamadas A y B. Si uno de ellos mide, por ejemplo, el spin de la partícula A y es “arriba”, entonces sabe cuál es el spin de la B, que será “abajo”. Pero la cuestión es determinar si dichos valores existían con anterioridad a la observación, o no. Dicho de otra forma:
  • Interpretación de Copenhague. El spin de las dos partículas A y B no estaba predeterminado, estando ambas en una superposición de “arriba” y “abajo”. Al observar una de ellas, el sistema colapsa, y de manera aleatoria, cada una de ellas alcanza uno de los dos posibles valores.
  • Interpretación de Einstein. El spin de cada partícula A y B estaba predeterminado, en forma de una variable oculta cuyo valor desconocemos. Así, una está en “arriba” y la otra en “abajo”. Al observar una de ellas, simplemente revelamos su valor preexistente, y conocemos el valor de la otra.
Es evidente que la interpretación de Einstein es la que coincide con nuestro sentido común. Pero aún hay más, pues a lo anterior, todavía se añade el que las partículas pueden separarse tanto como se desee, por ejemplo, situar cada una en un extremo de la galaxia, y de tal forma que al observar una de ellas, entonces y de manera instantánea, la otra alcanza también su valor correspondiente. ¿Cómo logra hacerlo? ¿Viaja dicha información a mayor velocidad que la luz? Estas paradojas de esas “acciones a distancia” eran, para Einstein, “cosas de duendes” en un sentido nada amable, pues algo que no precisa el transcurso del tiempo es algo que no puede estar en la esfera de la física, y por tanto es pura metafísica, a la que combatió con todas sus fuerzas.
El experimento EPR, durante un tiempo, fue un argumento bastante convincente en contra de los postulados de Niels Bohr como avalista principal de la interpretación de Copenhage, el cual sólo tenía el argumento de que las matemáticas funcionaban para oponerse al mismo. Como durante mucho tiempo no hubo manera de llevar a la práctica el experimento para determinar quién llevaba razón, sólo cabía echar mano del sentido común, que parecía estar de parte de Einstein.
Sin embargo era Einstein el equivocado. Una nueva formulación matemática fue llevada a cabo por John S. Bell, un físico del CERN en Suiza, que ideó un experimento que podía ser llevado a cabo, y que permitiría poder comprobar con certeza quién tenía la razón en esta duradera controversia. La idea genial de Bell era no considerar un simple par de partículas, sino tratar de manera estadística un conjunto suficientemente grande, y establecer unas correlaciones que diferían en sus resultados, con diferentes predicciones para las hipótesis de Einstein y de Bohr, y que pasaron a denominarse desigualdades de Bell. Con esta nueva formulación, el experimento fue llevado a cabo, por primera vez, por Alain Aspect y otros en París en 1982, y supuso, después de cuarenta y siete años, la materialización práctica de aquel experimento mental expuesto en 1936, que terminó por quitar la razón a Einstein. Asimismo, ha sido reiterado en innumerables ocasiones dando siempre el mismo resultado, mostrando que dios no sólo juega a los dados, sino que es un jugador honrado que desconoce los resultados que saldrán.
Esta nueva concepción del azar, diferente del considerado en la manera clásica, tiene su aplicación únicamente a escalas subatómicas, donde operan las leyes de la mecánica cuántica, y en particular a las escalas donde tiene lugar el Principio de Indeterminación de Heisenberg. Este tipo de azar no es trasladable, de manera directa, a fenómenos macroscópicos, lo que daría lugar a paradojas que desafían por completo, no ya al sentido común sino a la propia realidad. Así, es asumible que un determinado electrón, funcionando en su naturaleza de onda, pueda atravesar en el mismo instante dos rendijas diferentes, y sin perder su cualidad de partícula indivisible, lo que evidentemente contraría toda lógica de ocurrir con objetos macroscópicos. De la misma forma, volviendo al caso de los núcleos que se desintegran, es imposible saber si en un determinado tiempo un núcleo se desintegrará o no, pues eso ocurrirá, sin ningún tipo de causa, y con una determinada probabilidad de acuerdo a un azar intrínseco a su naturaleza; no obstante, cuando se tiene un conjunto muy elevado de ellos, que conforman un cuerpo físico manipulable, podemos predecir con rigurosa exactitud cual es la cantidad total de materia que se habrá desintegrado transcurrido un cierto tiempo, de tal forma, que el azar inicial ha sido transformado en una ley física de carácter necesario, y se ha recuperado, en cierta forma, el determinismo clásico del mundo físico.
Por todo ello, podemos concluir que existen dos tipos de significado que podemos darle al azar, cuando nos referimos a él desde un punto de vista científico. En primer lugar, un azar de características epistemológicas, que ocurre a escalas macroscópicas, procedente de nuestra incapacidad para comprender todas las variables que aparecen en procesos cuya naturaleza es determinista, y que por tanto representa una medida del desconocimiento del sistema, sin que ello impida que los sucesos en el mismo sucedan de una manera necesaria, atendiendo a las leyes naturales implicadas. Y por otro lado, existe otro tipo de azar, de características ontológicas, inherente a la propia naturaleza, y que tiene su efecto sólo a escala microscópica, donde operan las leyes de la mecánica cuántica. Este azar no es trasladable de manera directa a fenómenos macroscópicos, si bien es origen de diversos fenómenos que ocurren en ese ámbito.
Fernando Cuartero
Publicar un comentario

SI TE GUSTA ESTE BLOG Y QUIERES CONTRIBUIR A SU MANTENIMIENTO, AYÚDANOS A CONSEGUIRLO

NWO Rough Cuts HQ - The Ultratumba

The Ultratumba


Email for bands

✠Facebook✠

Mylinks_facebook

Archivo del blog