25 de enero de 2022

¿Qué tienen que ver las mutaciones con los saltos cuánticos?

Un asunto interesante es reflexionar sobre la frontera entre dos fenómenos que, si bien están íntimamente vinculados, pertenecen ya a dos esferas de la materia radicalmente diversa, como son los propios de la materia inanimada y los de la materia animada. Toda la materia viva está compuesta también por átomos, pero su comportamiento ya no se debe a procesos propios de los átomos, fundamentalmente caracterizados por su carácter estocástico. Ciertamente, esto ocurre también en el seno de la materia inanimada: el comportamiento de una piedra es muy distinto al comportamiento de los átomos que la componen; pero, como es fácil observar, en el caso de la materia viva este hecho posee una especificidad propia, tal y como corresponden a los procesos biológicos a diferencia de los propios de la materia inerte. No obstante, los biológicos no pueden entrar en contradicción con los de la materia en general, asunto que es el que le interesa a Schrödinger.

Ya estuvimos viendo en otro post que todo organismo vivo debe poseer una estructura de un determinado tamaño mínimo, a escala mucho más elevada que la atómica, para no tener que depender del modo estocástico de comportamiento a nivel atómico. Lo cual no es óbice para que, efectivamente, esos procesos estocásticos a nivel atómico se sigan dando en los fenómenos biológicos. ¿Cómo puede ser esto, cómo se produce esa adaptación entre ambos tipos de fenómenos? Se podría pensar que, en principio, se trata de una pregunta ociosa, pues ya no los órganos y los tejidos, sino que cada una de nuestras células, albergan grandes cantidades de átomos de distintas clases; si esto es así, se podría pensar que ya no ha lugar a la pregunta, pues con tan grandes cantidades de átomos, no afecta a la materia viva el problema de la consideración de su carácter estocástico.

Pues bien, a juicio de Schrödinger esta opinión no es acertada. Porque el caso es que hay grupos increíblemente pequeños de átomos, demasiado minúsculos para que puedan ser sometidos a leyes estadísticas exactas, los cuales desempeñan un papel dominante en los acontecimientos ordenados y metódicos que tienen lugar dentro de los organismos vivientes. Esto no deja de ser asombroso: procesos estadísticos que determinan con una invariabilidad notable caracteres macroscópicos que los organismos adquieren en su desarrollo, como características morfológicas, funcionales, etc., y todo con ‘leyes biológicas muy definidas y exactas’.

El caso que nos presenta el padre de la famosa ecuación de onda es el del gen, preguntándose literalmente: «¿Cómo podemos, desde el punto de vista de la física estadística, hacer concordar el hecho de que la estructura del gen parece comprender sólo un número comparativamente reducido de átomos (un número de orden de 1000 y posiblemente mucho menos) a pesar de lo cual despliega una actividad regularísima y ordenada con una permanencia que raya en el milagro?». Esta pregunta no ha estado ausente de la mente de físicos, químicos y biólogos, ubicándose justamente en la línea difusa donde estas disciplinas se entremezclan. Inicialmente se pensaba que la estabilidad biológica era debida fundamentalmente a la estabilidad propia que acompaña a toda molécula (un gen no deja de ser una molécula); lo que lleva, si se piensa bien, a retrotraer la pregunta un poco más atrás: cómo se puede fundamentar la estabilidad de una molécula, sobre todo si es orgánica; y bueno, cómo se produce ese tránsito de influencias del ámbito molecular al ámbito de lo vivo. Sí, algo hay de eso: efectivamente, la estabilidad molecular tiene que ver con la estabilidad funcional del gen; aunque había que bucear todavía un poco más en su investigación, paso que se pudo dar gracias a la mecánica cuántica.

Casualmente —o no tan casualmente— tanto la teoría de los quanta (de Max Planck) como la ‘puesta de largo’ de la del mecanismo genético de la herencia (que dieron a conocer Vries, Correns y Tschermak, aunque, como es sabido, fue descubierta por Mendel algunas décadas antes) ocurrieron en torno a 1900. Se puede decir —con permiso de Mendel— que ambas teorías aparecieron en el panorama científico simultáneamente. Siendo todavía teorías jóvenes, difícilmente se podían vislumbrar sus posibilidades más allá del ámbito en el que nacieron; como dice Schrödinger, «poco puede extrañarnos que ambas tuvieran que alcanzar cierta madurez antes de que se estableciera un contacto entre ellas» (Schrödinger, 1947: 69). Fue preciso que transcurriera un cuarto de siglo para que se propusiera la lectura del comportamiento biológico del gen a partir de las leyes que rigen los átomos que lo componen. Y pronto se vio que las mutaciones genéticas no estaban distantes de los saltos cuánticos que se pueden dar en el seno de la física de partículas.

18 de enero de 2022

La representación de las cosas

Asistí recientemente a una conferencia organizada por la Fundación Étnor, en la que el neurocientífico Ignacio Morgado fue invitado para hablar de las ‘emociones corrosivas’. Estuvo analizando algunas emociones dañinas para las personas, y en cómo nos afectaban en la vida, ofreciéndonos algunas pinceladas de su correlato fisiológico. Como dijo la profesora Adela Cortina en su presentación, Morgado es de esa clase de científicos humanistas que dialoga constantemente con la filosofía, algo de lo que pudimos darnos cuenta los asistentes. De hecho, afirmó que buena parte de lo que iba a contarnos ya estaba dicho por personajes como Marco Aurelio o Gracián, tratando en su trabajo como neurocientífico de identificar los procesos neurales que subyacían a aspectos de nuestra conducta que ya fueron descritos mucho tiempo atrás.

Al hilo de que cómo surgían en nosotros estas emociones dañinas, insistió el ponente en una idea interesante, como es la importancia, en su origen, de la lectura que hacemos de aquello que nos ocurre. Por lo general, la envidia, la avaricia, etc., se deben a comprensiones que tenemos de las personas y de las circunstancias que nos sobrevienen, cuando muy bien podrían ser otras, y generarnos emociones nutritivas en vez de corrosivas.

Ello me recordó ―casualidades de la vida― a un ensayo de Montaigne que leí recientemente. Sin embargo, quisiera destacar un aspecto de esta afirmación que, si bien es algo de lo que todos somos conscientes, igual no lo seamos tanto de su repercusión en nuestras vidas: me refiero a la afirmación ―que muy bien podría haber dicho Schopenhauer― de que toda noticia de nuestro entorno no deja de ser representación.

El ensayo al que me refería de Montaigne no puede tener un título más elocuente: “Que el gusto de los bienes y los males depende en gran parte de la idea que de ellos tenemos”, el cual comienza así: «Los hombres (dice una antigua sentencia griega) están atormentados por las ideas que tienen de las cosas, no por las cosas en sí». Montaigne es consciente de que en no pocas ocasiones no es tan así, y que ocurren cosas graves que nos hacen sufrir seriamente; pero también es consciente de que, en función de la interpretación que se den a las cosas, aun a esas más graves, nuestros sufrimientos serán mayores o menores. Ejemplo de ello es cómo hay personas que están dispuestas a asumir sufrimientos que a otras les parecerían una locura.

Por ejemplo, habla de la muerte, que «mientras unos la esperan temblorosos y espantados, otros la soportan con mayor facilidad que la vida». No pocos son capaces de entregar sus vidas a causa de una idea lo suficientemente valiosa, o por otras circunstancias en las que no estuviera comprometida en primera instancia. Y dice una idea interesante, a saber: que muchos hombres ‘soportan mejor la muerte que su amenaza’, lo que suele acarrear infinitas angustias. Con su desapasionamiento acostumbrado, Montaigne afirma que, efectivamente, ni lo que la precede ni lo que la sucede le pertenece [a la muerte], y que es sobre todo nuestra incapacidad para soportar la idea de la muerte lo que nos causa el mayor dolor. «Es fácil ver que lo que aguijonea en nosotros el dolor y la voluptuosidad es la punta de nuestra mente». Agudamente observa que, así como el enemigo se envalentona ante nuestra flaqueza, así el dolor se apodera ante nuestro temor; para alguien que le haga frente será mucho más llevadero.

Algo parecido pasa con la avaricia, en el sentido de que vivir continuamente preocupado por lo que se tiene y por no perderlo, y por querer tener más, supone una losa pesada que aplasta la felicidad. La desconfianza, el miedo al engaño, la necesidad de seguridad, la continua sospecha…, parece que conservar las riquezas suponga un mayor desgaste que conseguirlas. El ávaro nunca tiene bastante, y si no consigue detenerse en un punto, se ve abocado a engordar continuamente el montón, a aumentarlo día tras día privándole vilmente del disfrute de sus pertenencias. En el fondo, la avaricia es un problema mental, que genera sufrimiento y dolor, y que impide algo tan sencillo como es gozar de la vida. Preocupado por lo que no tiene, o por no tener lo suficiente para esa ocasión tremenda que nunca acaba de llegar, el ávaro se olvida de vivir. «La holgura y la indigencia dependen por lo tanto del parecer de cada uno. Y al igual que la riqueza, la gloria y la salud tienen tanta belleza y procuran tanto placer como les otorga aquel que las posee».

En definitiva, la felicidad pasa por cómo se siente cada uno aconteciéndole las cosas que le acontecen. El destino, más o menos afortunado, no hace sino ofrecernos la materia con que cada uno inclinará su condición hacia la felicidad o la desventura; porque, «las manifestaciones externas toman el sabor y el color de la constitución interna». Buena parte del infortunio pasa por nuestro carácter, aunque nos cueste reconocerlo: «para juzgar de las cosas grandes y elevadas, es menester alma igual, si no, les atribuimos el vicio que nos es propio». Cicerón ya decía que la molicie nos lleva a vivir atormentadamente hasta la picadura de una abeja, y que los mismos que viven con dificultad el dolor suelen ser aquellos que hacen lo indecible por unos triviales momentos de placer. Concluye Montaigne que estamos llamados a sobrellevar las desgracias de la vida con entereza, así como los éxitos y la fortuna (que no pocas veces han traído la perdición). Y acaba el ensayo con la siguiente pregunta: «quien no tiene valor para padecer ni la muerte ni la vida, quien no quiere ni resistir ni huir, ¿qué hará?».

El enlace con la idea básica de Morgado creo que es evidente. Pero a lo que iba: nos contaba también el neurocientífico que, en el fondo, toda noticia de nuestro entorno no deja de ser una interpretación, una construcción realizada a partir de una estimulación sensible configurada por la fisiología y la experiencia acumulada por el sujeto. Una elaboración que se da tanto a nivel fisiológico como a nivel cognitivo, influyendo sobremanera en nuestras vidas. Si los procesos fisiológicos que guían nuestras dimensiones cognitivas, conductuales y emocionales no están debidamente configurados, por el motivo que sea (enfermedad, educación, etc.) su funcionalidad será deficiente, repercutiendo en nuestras vidas negativamente, en tanto que no serán capaces de representarnos adecuadamente la realidad. No toda representación es vana ilusión pues, esa noticia que hemos construido refleja de alguna manera el mundo real en tanto que nos permite desplegar nuestra existencia en él; pero no es menos cierto que, como decía Montaigne, buena parte de nuestros malos días son originados por una comprensión negativa de lo que acontece a nuestro alrededor.

11 de enero de 2022

La problemática en torno al teorema de Gödel

Una vez expuesta un amago de comprensión del teorema de Gödel (en la medida de mis posibilidades, consciente de mis limitaciones), quisiera acometer en breve una reflexión sobre las consecuencias filosóficas del mismo, tratando de culminar el asunto con la lectura que hace Zubiri, para lo cual nos sumergiremos un poco en el segundo volumen de su trilogía, Inteligencia y logos, donde trata específicamente el problema de lo matemático. Antes de acometer esta tarea, trataré de resumir aquí la idea general que subyace a todos los posts que he ido publicando en torno a este asunto.

En los comienzos del siglo XX, estaba muy presente en el imaginario matemático ese viejo sueño ya presente en autores como Ramón Llull o Leibniz, de intentar alcanzar un modo científico de ejercer la razón, mediante el cual podríamos conocer toda la realidad. La idea era intentar formalizar totalmente el razonamiento matemático, de modo que la culminación sería poder demostrar su consistencia, es decir, que dicho sistema no es contradictorio. Ciertamente, en esta época se habían puesto de manifiesto algunas paradojas en algunos de estos sistemas formales, por lo que los cimientos de esta fantástica empresa se mostraron más débiles de lo que en un principio se suponía. Como contraposición a esta situación, surgió el empeño de demostrar que no, que no pasaba nada, que las matemáticas efectivamente eran consistentes.

Hubo dos grandes pasos en este sentido, a saber: el monumental tratado Principia Mathematica de Russell y Whitehead y la teoría de conjuntos de G. Cantor; aunque no todos los autores estaban de acuerdo con ello, como veremos ahora enseguida. Su gran mérito fue que en ellos se podía expresar toda la matemática conocida hasta la fecha; por lo que, si se conseguía demostrar su consistencia, pues asunto acabado. El clima en general, en el que se incluía el mismo Hilbert, era optimista: se pensaba que era cuestión de tiempo alcanzar esta demostración; de hecho, pensaba incluso que más pronto o más tarde, todo conocimiento científico caería bajo el método axiomático. También para el mismo Gödel, quien inició sus trabajos en este sentido. Pero, la vida da muchas vueltas y, paradójicamente, cuanto más investigaba, más se le iba haciendo presente la imposibilidad de dicho proyecto, desembocando precisamente en lo contrario, «que existen verdades aritméticas no demostrables, entre ellas la consistencia o no contradicción de la aritmética». Como dice Gutiérrez, «por esas ironías del destino, quien estuvo más cerca de llevar a cabo el problema de Hilbert fue precisamente quien le dio el tiro de gracia».

Efectivamente, Gödel estaba inserto en una polémica muy importante relativa a los mismos fundamentos de las matemáticas. Porque ―como decía― no todos los autores estaban de acuerdo con los planteamientos de Whitehead-Russell y Cantor. Brouwer por ejemplo, quien sostenía que el uso del infinito que hacía Cantor era poco menos que absurdo, y no le veía justificación, reduciéndose tan sólo a un juego de palabras. Aunque esta crítica no hizo fortuna, sí que la hizo otra, que también siguió Hilbert, como fue que, en su opinión, sólo pueden ser válidos aquellos objetos que se pueden construir algorítmicamente según una cantidad finita de pasos, aunque los objetos en sí sean infinitos. Hilbert no siguió a pies juntillas a Brouwer, presentando una alternativa a su intuicionismo. De hecho, en su sistema entre matemáticas y meta-matemáticas estaba presente la exigencia de finitud y constructividad entre los elementos del sistema formal y los enunciados. Así pensaba que se podrían validar algorítmicamente los razonamientos matemáticos. Todo esto ya lo hemos ido viendo en los posts previos de esta categoría.

Pues bien, todas estas esperanzas fueron truncadas por Gödel, en su famoso articulito escrito en 1930 pero publicado en 1931, titulado “Sobre sentencias formalmente indecidibles de Principia Mathematica y sistemas afines”, en el cual exponía su ‘teorema de incompletitud’. En palabras del mismo Gödel: «Como es sabido, el progreso de la matemática hacia una exactitud cada vez mayor ha llevado a la formalización de amplias partes de ella, de tal modo que las deducciones pueden llevarse a cabo según unas pocas reglas mecánicas. Los sistemas formales más amplios construidos hasta ahora son el sistema de Principia Mathematica (PM) y la teoría de conjuntos de Zermelo-Fraenkel (desarrollada aún más por J. von Neumann). Estos dos sistemas son tan amplios que todos los métodos usados hoy día en la matemática pueden ser formalizados en ellos, es decir, pueden ser reducidos a unos pocos axiomas y reglas de inferencia. Resulta por tanto natural la conjetura de que estos axiomas y reglas basten para decidir todas las cuestiones matemáticas que puedan ser formuladas en dichos sistemas. En lo que sigue se muestra que esto no es así, sino que, por el contrario, en ambos sistemas hay problemas relativamente simples de la teoría de los números naturales que no pueden ser decididos con sus axiomas (y reglas)». Me maravilla la soltura de Gödel quien así, tan campante, no duda en afirmar: ‘en lo que sigue se muestra que esto no es así’.

Duro golpe para Hilbert, pues echó por tierra todas sus pretensiones. Como hemos estado viendo, Gödel venía a decir que, en un sistema consistente, en el que sólo se admiten demostraciones verificadas algorítmicamente según los elementos de dicho sistema en una serie finita de pasos, siempre habrá un enunciado P, tal que ni él ni su negación son demostrables en él. Es decir, que P es indecidible en dicho sistema; con lo cual dicho teorema se puede expresar también como que en dicho sistema hay por lo menos una proposición P indecidible. Lo cual quiere decir que hay por lo menos una proposición verdadera fuera del sistema que no puede ser demostrada en él.

4 de enero de 2022

¿Quién conoce a Joseph Black?

Una de las ramas de la ciencia que quizá sea menos conocida por el público en general es la Termodinámica, aquella disciplina que estudia los distintos procesos y propiedades que tienen lugar en los cuerpos y en la materia desde el punto de vista calorífico o térmico. En sus inicios no pudo sino ser enfocada desde una observación empírica de aquello que ocurría entre los cuerpos, tratando de ofrecer una definición científica de los procesos observados; evidentemente, sin ninguna propuesta ni presupuesto de cual fuera la naturaleza de estos procesos, ni de la estructura de la materia desde un punto de vista microscópico. Esto se puede considerar un defecto o una virtud. El defecto tiene que ver con que, al trabajar siempre con variables macroscópicas, no podemos obtener de ella ninguna información a escala microscópica del sistema en cuestión, tanto en lo que se refiere a su estructura como a sus procesos internos. ¿Y la virtud? Pues que precisamente por eso posee un carácter muy práctico, en tanto que se pueden aplicar sus resultados a sistemas muy complejos cuyo análisis a nivel microscópico seguramente nos desviaría la atención y nos impediría alcanzar una lectura de conjunto. Como es fácil pensar, unos fenómenos (los macroscópicos) no están desvinculados de los otros (los microscópicos) sino que, en definitiva, aquéllos se deben a estos. Lo cierto es que esta vinculación no está obviada del todo por esta disciplina, aunque comenzó a estudiarse más tarde mediante la termodinámica estadística; pero, como digo, nada de esto hubo en sus inicios, más centrados en la observación externa de los fenómenos.

El siglo XIX fue una época dorada en la que se desarrollaron ampliamente las investigaciones en la termodinámica (junto con otras tantas disciplinas). Si bien era conocido desde siempre el trasvase de calor de un cuerpo caliente a otro frío, la explicación técnica de dicho proceso permanecía totalmente ignorada.

Durante el siglo XVIII prevaleció un primer esbozo de explicación ‘científica’, echando mano del concepto de calórico, un fluido imponderable que podía viajar de un cuerpo a otro, del caliente al frío, disminuyendo la temperatura del primero y elevando la del segundo. Tal concepto le corresponde a Joseph Black (1728-1799), la primera persona de la que se tiene constancia de que hablase del calor como una entidad física que se puede medir. Black realizó algunas aportaciones interesantes. Por ejemplo, estableció la unidad de medida del calórico, que definió como la cantidad necesaria para elevar un grado Fahrenheit una libra de agua; criterio análogo al que se emplea hoy en día para definir la caloría, a saber: la cantidad de calor necesaria para elevar la temperatura de un gramo de agua en un grado centígrado. También se dio cuenta de que la capacidad para almacenar calor dependía del tipo de cuerpo, en el sentido de que una misma cantidad de materias diversas almacenaban distinta cantidad de calórico; fue así como definió el calor específico para las respectivas materias, como la cantidad de calor necesaria para elevar un grado su temperatura. Y, a su vez, se dio cuenta de que, dada una misma temperatura, hacía falta aportar una cantidad de calor para el cambio de fase de la materia, aunque en ese cambio de fase no subiese la temperatura (por ejemplo, el paso de agua helada a líquida, o de líquida a la gaseosa); denominó a este hecho calor latente.

A pesar del indudable interés de sus aportaciones, pronto se cuestionó el concepto de calórico como responsable de los procesos termodinámicos, para asociarlos a modificaciones energéticas. Los procesos termodinámicos no se debían a una sustancia especial, a un fluido imponderable (tan recurrido por los científicos de entonces, ya hablamos de ello aquí), sino que, en el fondo, eran el resultado de procesos de energías y trabajos. Esto lo hizo un soldado, Benjamin Thompson, observando el calentamiento de los cañones durante su fabricación, lo cual ocurría con frecuencia sin ninguna fuente de calor próxima.