13 de septiembre de 2022

Del lenguaje ‘en paralelo’ al lenguaje ‘que bulle en mi interior’

Gracias a su investigación sobre la anartria (que estudiamos aquí), Merleau-Ponty cuestiona las dos posibilidades que analizó según las cuales el lenguaje funciona como ‘en paralelo’ frente al pensamiento (y que vimos aquí), a saber: que el vocablo sería el resultado mecánico de una cierta estimulación fisiológica, o que la conciencia sería la responsable de asociar un concepto a un determinado estímulo. Tanto un caso como otro es criticado por el filósofo francés, pues cuestiona el hecho de que todo pensamiento deba tender a su expresión lingüística como su culminación. Y es que, se exprese en un discurso o no, en el fondo todo pensamiento tiende hacia su formulación lingüística; no existe un pensamiento no lingüístico porque, el pensamiento, es una experiencia: un pensamiento es un discurso interior que muy bien puede (o no) expresarse exteriormente mediante la palabra hablada. Esta idea es interesante, y viene a decir (tal y como hiciera también Gadamer) que no se trata de que pensemos algo y de que luego lo expresemos, sino que el propio pensar va acompañado del discurso, aunque este discurso permanezca en el interior de nuestra mente y no lo comuniquemos a terceros. No existe un pensamiento al margen de las palabras que empleamos en su pensarlo.

La idea que hay de fondo es que tanto el pensamiento como el lenguaje no forman parte sino de una misma génesis. Algo análogo ocurre cuando identificamos a cualquier objeto : en su opinión, no se trata de que reconocemos un objeto y luego lo nombramos, sino que su denominación va a la par con su reconocimiento: «cuando observo un objeto en la penumbra y digo: ‘Es un cepillo’, no hay en mi mente un concepto del cepillo, bajo el cual yo subsumiría al objeto y que, por otra parte, estaría ligado por una asociación frecuente con el vocablo ‘cepillo’, sino que el vocablo es portador de sentido, y, al imponerlo al objeto, tengo consciencia de alcanzarlo». O sea: cuando reconozco al cepillo como cepillo, es porque su percepción e identificación van a una con la denominación.

Consecuencia de todo ello es que la expresión es algo vivo, no algo mecánico, mera transcripción de un pensamiento ya acabado, lo cual posee una gran relevancia por dos motivos. Un discurso no traduce un pensamiento ya hecho, sino que lo consuma; el que escucha recibe así un pensamiento en ejecución, dando origen así a su propio pensamiento (también en ejecución) al mismo ritmo con el que escucha el discurso. El que escucha no recibe el mismo pensamiento del que habla; en ese caso, seríamos como máquinas que transmiten ideas que el otro recibe tal cual.

A menudo tenemos la sensación de que esto no es así, de que no podemos comprender del discurso del otro más de lo que ha puesto en él, pero no ocurren las cosas de esta manera. Ni tan siquiera ocurre que el discurso que escuchamos lo que hace es despertar de nuestra conciencia cosas que ya estaban en ella, que ya sabíamos de antemano y estaban esperando salir a la luz. No. «El hecho es que tenemos el poder de comprender más allá de lo que espontáneamente pensábamos». Esto no se da tanto hilvanando unas ideas con otras según un razonamiento lógico, porque a menudo no sabemos a dónde hemos de llegar, sino que nos solemos dirigir hacia algo indeterminado que no podemos saber ni predecir, de modo que sólo mirando retrospectivamente una vez alcanzada una conclusión podremos ver la convergencia de toda la información, no antes.

Todo esto es algo que despierta un discurso, en el cual se emplea un lenguaje que comprendo, y en el seno del cual los vocablos significan más que su significado concreto, ofreciéndonos una cosmovisión propia del lenguaje empleado. Todo discurso posee un estilo, un aire, que ya me está diciendo algo, que ya aporta conocimiento. El lenguaje no es sólo un conjunto de significados que se hilvanan y yuxtaponen, sino un todo a la luz del cual los términos particulares alcanzan su sentido completo. Esto es algo que ocurre en el arte: las obras artísticas evocan múltiples significados y nexos de sentido por su carácter abierto; así en la música, las artes plásticas, también la poesía, aunque en ella, como en la prosa, es más difícil de apreciar, porque pensamos que el sentido que poseemos de los términos es ‘el’ sentido, y que ya no tienen que aportarnos más. Pero sí que hay un ‘más’, pero un ‘más’ que no está tanto en otros posibles significados como en los que evocan por el modo en que son combinados en el conjunto total. Como muy agudamente dice Merleau-Ponty, «a decir verdad, el sentido de una obra literaria más que hacerlo el sentido común de los vocablos, es él el que contribuye a modificar a éste». Un intelectualista no es capaz de alcanzar toda la riqueza que alberga este poético mundo que bulle en nuestro interior clamando por ser expresado.

Pues bien, si esto es así, hay que buscar una tercera alternativa a la génesis de las palabras, tanto en nuestro pensar como en nuestro decir, más allá de aquellas dos que, en el fondo, trataban el asunto según procesos externos.

6 de septiembre de 2022

De Mendel a la información genética

Fácilmente podemos identificar los factores o átomos biológicos de Mendel (que vimos en este post) con lo que hoy en día entendemos por gen. De hecho, así se hizo en entre los biólogos, término que acuñó en 1909 Wilhelm Johanssen. Por ello se asume que la genética nació con él; o quizá, mejor que afirmar que nació con él, quizá sea más prudente decir que, de alguna manera, con su trabajo dirigió hacia ella los futuros esfuerzos de sus colegas. Fue consciente de que su aportación fue importante, aunque no sabía a dónde iría a parar. El monje checo fue capaz de resolver cómo es que no se perdían los rasgos hereditarios de una especie que en alguna generación no estuvieran presentes, y que podían volver a aparecer en sucesivas. Esto fue muy interesante porque, que un individuo de una generación no poseyera determinado rasgo, no implicaba que los futuros descendientes suyos no lo pudieran tener, siempre que dicho rasgo hubiera estado presente en un progenitor previo. La ventaja evolutiva de ello es evidente: si uno de estos rasgos que se mantienen en una generación no estando presentes en ella, proporciona ventajas selectivas, su no presencia en él no implica que su descendencia no pueda aprovecharse de ello, mejorando su posibilidad de supervivencia.

En la época no se podía tener acceso directo a los factores, lográndolo indirectamente mediante experimentos de selección de rasgo; los factores no eran sino entidades hipotéticas que se empleaban precisamente para justificar las diferencias entre los caracteres de los individuos. Vimos que estos factores de Mendel podían asumir distintos valores: el factor ‘color’ podía ser verde o amarillo, el factor ‘tamaño’ podía ser grande o pequeño, y el factor ‘textura’ podía ser rugoso o liso. Como puso de manifiesto, el valor de un determinado factor, aunque no se exprese en una generación, se mantiene de alguna manera en sus individuos, pudiendo ser expresado en generaciones posteriores. Esto es algo que hoy en día está asumido; según la nomenclatura actual, las posibilidades en que un gen puede manifestarse hoy en día se conocen como alelos. En el estudio de Mendel, el gen color presenta los alelos verde o amarillo, uno de los cuales será el dominante (que se expresa en mayúscula, por ejemplo, C) y el otro el recesivo (en minúscula, c). Del mismo modo, el gen tamaño presenta los alelos grande o pequeño, y el gen textura los alelos rugoso o liso. Así, en función de su expresión los genes nos irán diciendo cómo serán los individuos de diversas generaciones, a la luz de cómo se vayan manifestando los alelos. Algo que, si lo pensamos, no deja de ser un misterio; me refiero al hecho de que los alelos recesivos, estando presentes igualmente que los dominantes en un cromosoma, sean ‘superados’ por estos, no produciendo ningún tipo de efecto visible en determinadas ocasiones.

Ciertamente, Mendel no sabía nada ni de genes, ni de cromosomas, ni de mutaciones, conceptos que, gracias a él, pudieron ir conformándose poco a poco. Cómo fue avanzando la investigación durante estas décadas fue ciertamente apasionante.

Las investigaciones de Mendel se circunscribieron a las plantas. El estudio a este nivel en las especies animales todavía no se había iniciado en este sentido. Esto es algo que ocurrió más tarde, gracias a Lucien Cuénot, quien, poco después de que Mendel fuera redescubierto a comienzos del siglo XX, reprodujo sus trabajos con animales, en concreto con ratones, apoyándose en sus leyes. Su metodología fue similar a la que Mendel empleó con sus guisantes, fijando la atención en su pigmentación: trabajó con ratones pardos y con ratones albinos, asegurándose de que la descendencia de ambos tipos de ratones seguía siendo puramente parda y albina respectivamente. Y bueno, tras cruzarlos tal y como Mendel prescribía, sus resultados fueron prácticamente iguales, con una ligera desviación en los porcentajes de los caracteres en los hijos, pero muy próximos a los establecidos por él.

Todo ello convergió con otra línea de investigación posibilitada por las lentes de aumento. Hasta la fecha tan sólo se sabía que los organismos animales (igual que los vegetales) estaban constituidos por una especie de ladrillos microscópicos biológicos, a los que Robert Hooke (1635-1703) había denominado células. Hooke fue la primera persona que pudo ver y describir una célula observando a las plantas, en las que descubrió unas minúsculas ‘cámaras’, a las cuales denominó así, células, porque le recordaban las celdas de los monjes. En 1665 publicó una obra revolucionaria: Micrografía, o algunas descripciones fisiológicas de los cuerpos diminutos realizadas mediante cristales de aumento, sacando a la luz un mundo desconocido, el mundo de lo muy pequeño, más poblado y variopinto de lo que la mayor de las imaginaciones podía haber soñado.  Hooke calculó que en una pulgada cuadrada había unos mil doscientos millones de aquellas pequeñas celdas. Ciertamente, los microscopios ya existían desde hacía unos pocos años, sólo que él fue capaz de fabricar uno técnicamente mejor, logrando ampliaciones de un orden de magnitud de 30 veces, un prodigio de la técnica allá por el siglo XVII.

Unos pocos años después, se comenzó a recibir en la Real Sociedad de Londres numerosos dibujos e informes de un desconocido, un comerciante holandés, de imágenes observadas en base a ampliaciones de hasta 275 veces. El holandés Leeuwenhoek (1632-1723) no tenía base científica, pero sí una gran capacidad técnica así como una muy buena sensibilidad para la observación. Realizó muchos informes para la Real Sociedad redactados a partir de las observaciones que hizo de todo lo que se le ocurrió observar: el pan, los insectos, la sangre, el pelo, la saliva, heces, y también semen. En uno de sus informes describió la existencia de unos animálculos, que no eran sino protozoos; calculó que había en torno a ocho millones de ellos en una gota de agua (más que los habitantes de Holanda de la época). Además, fue el primero en observar unos diminutos cuerpos vibrátiles en el líquido seminal: los espermatozoos, que inmortalizó en sus cuadernos de dibujos. Leeuwenhoek ya no pudo avanzar más, siendo necesario esperar ciento cincuenta años para, una vez más evolucionada la tecnología, poder observar el interior de estos seres diminutos.

A él le siguieron otros biólogos como Spallanzani (1729-1799), sacerdote que profundizó en los procesos de fecundación en los animales, empleando por primera vez la inseminación artificial, al poner en contacto óvulos de rana con líquido seminal; o Kolliker (1817-1905), que fue capaz de seguir el rastro y desarrollo de los espermatozoos desde las células del testículo. En 1831 ocurrió un hito importante cuyo protagonista fue el botánico escocés Robert Brown (1773-1858) a quien simpáticamente Bryson le describe como un ‘visitante frecuente pero misterioso de la historia de la ciencia’, con apariciones fugaces pero importantes. Lo que hizo Brown fue poder observar el interior de una célula, distinguiendo una parte central de otras, a la que denominó núcleo (que viene del latín núcula, y que significa nuececita). Sería Theodor Schwann quien, en 1839, postuló la idea de que toda la materia viva era celular, idea que hasta entonces no se le había ocurrido a nadie, y que no se aceptó demasiado bien en el panorama científico de la época, y a lo que dio un empuje definitivo la investigación de Louis Pasteur quien, en la década de 1860, demostró que la vida parte de células preexistentes, no pudiendo surgir de modo espontáneo. La teoría celular se impuso, y se convirtió en la base de la biología moderna. A su luz, se estudió la generación de vida. Hertwig y Fol, a finales de los 70 del siglo XIX, «observaron, por primera vez en la historia, la penetración del óvulo por el espermio y formularon la regla universal de que la fecundación implica la unión de un solo espermio, con una sola célula ovular», explica Hogben. Y, no sólo eso, sino que se fue comprobando cómo en todos los animales se repetían estos procesos microscópicos con entidades que poseían una gran semejanza. Se fue viendo cómo, en cada fecundación, se unía el núcleo del espermio al núcleo del huevo, dividiéndose después en dos, repitiéndose este proceso un número indefinido de veces. Y se empezó a observar también que, si bien en el origen del nuevo individuo todas las nuevas células se parecían entre sí, conforme se iba desarrollando el organismo se producían las diferenciaciones que darían lugar a los distintos tejidos.

Las conclusiones mendelianas se fueron contrastando conforme avanzaban estos descubrimientos gracias a las posibilidades tecnológicas que brindó el comienzo del siglo XX, todo lo cual repercutió en una profundización de su comprensión. Había cierto paralelismo entre el modo en que se combinaban y se dividían las células con la transmisión hereditaria de los factores característicos. Se sabía que, con la fecundación, el gameto procedente del padre (espermatozoide) y el de la madre (óvulo), daban origen a la célula huevo o cigoto, de la cual surgiría el nuevo individuo. Sin embargo, aún no se sabía para nada cómo se producía la transmisión de los caracteres de los padres a los hijos, que era el meollo del asunto. Se suponía que en el cigoto no es que estuvieran ya los caracteres heredados, sino la información para que, en el desarrollo del embrión, dichos caracteres se manifestaran: la información hereditaria o genética. ¿Cómo se transmitía dicha información? Se debía encontrar en el núcleo de la célula huevo, pero ¿cómo había llegado hasta allí?, y ¿qué es exactamente lo que había llegado?, es decir, ¿cuál era el soporte de la información hereditaria? Estos interrogantes guiaron la investigación biológica de la época.

30 de agosto de 2022

La inducción y la deducción en la vida real

Con su modo particular de hacer filosofía, Peirce se plantea —al modo cartesiano— cuál puede ser el fundamento de la filosofía, esa piedra de toque a partir de la cual se pueda construir el edificio del conocimiento, y que trata de situar en el modo en que razonamos, lejos ya de enfoques un tanto utópicos propios del idealismo moderno. Curiosamente, esta crítica le llevará a establecer el origen de los principales modos de razonamiento, a saber: el deductivo y el inductivo. Son unas líneas un tanto farragosas, pero bueno, vamos a ello.

Ya vimos aquí cómo Peirce criticó que esa piedra angular pueda establecerse en el cogito de Descartes. Su argumentación giraba fundamentalmente en la sospecha de que la posibilidad de conocernos introspectivamente, de hacernos eco de nuestra conciencia, así, sin más, no era ni tan pura ni tan absoluta como pensara el filósofo francés. En su opinión, las cosas ocurren de muy diferente manera, dependiendo en buena medida de nuestra experiencia con el entorno la autoconciencia que tenemos de nosotros mismos. Nuestra razón es de todo menos pura, absoluta. Dice al respecto Peirce una idea que cuanto menos da que pensar: «no tenemos ningún poder de introspección, sino que todo conocimiento del mundo interno se deriva de nuestro conocimiento de los hechos externos por razonamiento hipotético», afirmación que, además de atentar contra el sentido común, cuestiona de raíz el planteamiento gnoseológico moderno, según el cual el conocimiento del entorno se basa en nuestra autoconsciencia, y no al revés. Para poder superar este paradigma moderno, pues, se hace preciso superar «aquellos prejuicios derivados de una filosofía que basa nuestro conocimiento del mundo exterior en nuestra autoconsciencia». Es decir, dar la vuelta al idealismo moderno como un calcetín, permitiendo a nuestra razón ir más allá de la cárcel creada por los barrotes de la lógica.

Peirce parte de un planteamiento gnoseológico de carácter cognitivo: es la cognición la vía a través de la cual se puede fundamentar el conocimiento. Y, en su opinión, no hay una cognición primera, a partir de la cual se pudieran dar todas las demás, sino que toda cognición «está lógicamente determinada por cogniciones previas»; es decir, no hay una cognición absolutamente primera, sino que todas se dan en una suerte de encadenamiento que no es sino un proceso continuo de cogniciones, montándose y solapándose las unas con las otras. Más que hablar de ‘una’ cognición primera, lo que habría que hacer es reflexionar sobre el proceso genético cognitivo, y ello a la luz de cómo en dicho proceso se refieren del modo más fiel posible los hechos externos. La única noticia —ciertamente— que podemos tener de los hechos externos consiste en su presencia en nuestra conciencia, pero esta presencia no puede ser ajena a sus propias leyes.

Surge así un conflicto total con el racionalismo moderno, en el sentido de que, según éste, toda acción mental (y, por tanto, también las representaciones del mundo externo) deben ser reducidas a la «fórmula de un razonamiento válido sin ningún otro supuesto que el de que la mente razona». Es decir, que toda representación mental se debe a las leyes de nuestra conciencia, que no son otras que las de una mente racionalista.

Ello que nos lleva a una segunda crítica. Porque, ¿es esto así?, ¿funciona siempre nuestra mente al modo ‘silogístico’? Peirce entiende que estrictamente no, aunque no lo desecha del todo. Lo digo en el sentido de que es razonable suponer que a nuestra mente le gusta conducirse a partir de conclusiones extraídas de premisas consideradas verdaderas, es decir, nos apoyamos en un marco conformado por unos modos de conocer y unos contenidos de conocimiento considerados como verdaderos; lo único es que el modo en que ello se da en nuestras vidas no sigue un silogismo lógico perfectamente establecido, sino que, con frecuencia, nuestra mente, sigue ‘razonamientos’ no tan racionales.

Ahora bien, si nuestra razón, si nuestra ampliación del conocimiento no siempre sigue las leyes de la lógica, «hay algo, por lo tanto, que tiene lugar dentro del organismo que es equivalente al proceso silogístico». Las inferencias reales no son completas (como las lógicas), sino incompletas, es decir, que la conclusión depende de ciertos elementos que no están contenidos en las premisas, por lo que su validez (la de la conclusión) no es una validez estrictamente lógica, aunque no deja de ser válida en un grado razonable. Si este proceso cognitivo no es válido lógicamente, sí que puede ser considerado válido virtualmente, erigiéndose así en un argumento completo en la medida en que se dan por sentado algunos aspectos no incluibles lógicamente en las premisas. Los argumentos reales no son apodícticos, sino probables. Los primeros son aquellos cuya validez depende incondicionalmente de la relación del hecho inferido con los hechos postulados en las premisas; los segundos, aquellos cuya validez depende de la ‘no-existencia’ en las premisas de algún otro conocimiento, es decir, que la conclusión se infiere sin que las premisas posean toda la información pertinente.

El argumento probable tiene que ver con el hecho de que, a la hora de decidir, pensar, actuar o razonar, no se posee previamente toda la información, sino que se tiene disponible parcialmente. Y éste es el modo usual de razonar, según el cual sólo conocemos algunas características, algunas experiencias concretas de algo, pero no más. Peirce pone el siguiente ejemplo: pensemos en un hombre enfermo de cólera, al que se le realiza una sangría, y al día siguiente ya se encuentra mejor; ¿es lícito achacar a la sangría su mejora?, porque igual ha mejorado por otra circunstancia. Afirmar ‘la sangría tiende a curar el cólera’ es una ‘inferencia probable’, pues hay muchos aspectos y factores asociados al cólera que nos son desconocidos y que muy bien pueden haber contribuido también a su cura. El hecho de no conocer a fondo esta enfermedad y su tratamiento médico nos lleva a ser prudentes en nuestras afirmaciones y catalogarlas como probables, y no como apodícticas. Por lo general, en la mayoría de nuestras afirmaciones no disponemos de ‘toda’ la información pertinente, por lo que no podrán ser apodícticas sino probables.

Pues bien, en opinión de Peirce esta ausencia de conocimiento se puede dar de dos maneras, que es lo que nos lleva a la diferencia entre una inducción y una deducción: a) «si junto a los objetos que, según las premisas, poseen ciertas características hay otros objetos que las poseen»; y b) «si junto a las características que, según las premisas, pertenecen a ciertos objetos hay otras características no implicadas necesariamente en estos que pertenecen a los mismos objetos». En el primer caso hablamos de otros objetos que posean las características que las premisas sitúan en los objetos mentados en concreto; y, en el segundo, hablamos de otras características que puedan estar presentes en los mismos objetos al margen de las que destacan las premisas. Si Peirce realiza esta distinción es porque entiende que hay que situar aquí la diferencia entre inducción y deducción (inducción y deducción probables, no apodícticas): el caso a) sería el de la inducción, en tanto que «el razonamiento procede como si se conociesen todos los objetos que tienen ciertas características»; mientras que el caso b) es la deducción, en tanto que «la inferencia procede como si se conociesen todas las características requeridas a la determinación de un cierto objeto, o clase, y esto es hipótesis». En su opinión, todo razonamiento se puede situar en uno de estos dos tipos: es inductivo o deductivo-hipotético, o una combinación de ambos.

23 de agosto de 2022

El riesgo de las democracias: el despotismo

Explicaba Alexis de Tocqueville (1805-1859) el gran error que suponía pensar que, por el hecho de vivir en una sociedad democrática, las libertades de los individuos ya estaban garantizadas: era el espejismo de una democracia libre. Nada de eso. Y, yendo más lejos, alertaba de que no sólo es que no están garantizadas, sino que el riesgo de su pérdida sigue tan perfectamente vigente como en los regímenes totalitarios, aunque ciertamente según mecanismos distintos. Tocqueville fue sin duda una de las mentes más lúcidas del siglo XIX en lo que a sociología política se refiere, tal y como explica aquí Sánchez Cámara. Vio claramente que la democracia no garantizaba por sí sola la libertad, sino que muy bien podía conducir a la servidumbre y a la miseria. «Del imperio de la igualdad —decía— proceden dos caminos. Uno conduce a la libertad, la civilización y la prosperidad. El otro, a la servidumbre, barbarie y la miseria». Y está en mano de los ciudadanos demócratas que el curso de la sociedad sigua un derrotero o el otro. De hecho —pensaba— aquellos que apostaban n por el camino de la libertad no tenían poco trabajo a la hora de minimizar la tiranía de aquellos que, desde una degeneración de un planteamiento democrático original, tergiversaban la política en orden a sus intereses.

La democracia se caracteriza por ser aquel modelo de sociedad (pues para él, la democracia antes que un sistema político es un tipo social) en el que todas las personas son consideradas legalmente iguales, sin diferencias por motivo de nacimiento, raza, sexo, etc. Lo cual es un gran avance, sin duda. Pero como decía también Stuart Mill, los fallos de un planteamiento social sólo salen a la luz cuando es llevado a la práctica, y ello ocurrió con la misma democracia, con el correr de los años. Fue así que se observó en su seno una tendencia natural según la cual se favorece más la servidumbre que la anarquía, el acomodamiento que la reivindicación; lo que posee un correlato muy significativo, a saber: que los individuos se van haciendo cada vez más insignificantes, sobre los cuales emergen unos poderes sociales cada vez más grandes.

Basta para ello que esgriman su poder en nombre de la ‘igualdad’, palabra mágica que hipnotiza y convence a todos, que muy bien puede ser sustituida por otras palabras mágicas: libertad, dignidad, etc. La consecuencia de todo ello es que, si esta tendencia es dejada a su devenir, poco a poco los gobernantes pasan de gobernar al pueblo, a ir dirigiendo cada vez más de cerca sus vidas.

No es éste el único riesgo que denuncia el pensador francés al pensar sobre la democracia: hay otro muy relevante que denomina la tiranía de la mayoría. Lo decía en el sentido de que es más que discutible que cualquier cosa que vote la mayoría, o que decidan aquellos que han sido elegidos para el gobierno de un Estado, lleve de suyo el derecho a su implementación. Para eso precisamente está la justicia, porque gracias a ella se limitan los abusos, erigiéndose así en la garante de los derechos del pueblo. Destaca Tocqueville el importante papel de la justicia ante la tendencia al aumento del poder y a la reducción del individuo, ante esa omnipotencia de la mayoría que destruye la libertad; ante todo ello, la justicia es la única defensa. Como se hace eco el propio Tocqueville en La democracia en América, «ni el poder de los emperadores romanos alcanzaba a extenderse sobre todos los aspectos de la vida de sus súbditos (…). Su tiranía era, a la vez, violenta y restringida».

Es fácil observar que, en las sociedades democráticas, más sutilmente que en los regímenes totalitarios, se nos dirige cada vez más de cerca, por unos amos que elegimos nosotros mismos, y que quieren ahorrarnos la molestia de pensar y de actuar, porque actúan y deciden ‘para nuestro bien’. Es suave la pendiente hacia ese dejarnos hacer como ciudadanos; en este sentido, el despotismo constituye seguramente el mayor peligro de las democracias. «Por encima del pueblo se establece un poder inmenso y tutelar que vela por su felicidad, pero que quiere para sí la exclusiva. Querría librarles por entero de la molestia de pensar y del trabajo de vivir»; una forma de servidumbre, reglamentada, benigna y apacible, que es compatible con la ilusión de la soberanía de un pueblo adormecido.

Para evitar estos abusos, Tocqueville propone la independencia política de la justicia, junto con una mayor participación ciudadana en las instituciones mediante una descentralización del poder hacia su municipalización. Aunque también propone otras medidas para evitar esa desgraciada tendencia. En primer lugar, la iniciativa ciudadana plasmada en la creación de asociaciones, así como en su propia formación, para la toma de consciencia y reivindicación de sus derechos individuales fundamentales. Es un error pensar que, por estar ya en una democracia, los derechos individuales están salvaguardados; todo lo contrario: cuando la soberanía popular se entroniza, el pueblo se relaja confiado, sembrando el terreno para que la idea de sus propios derechos se vaya diluyendo en favor de los grupos de poder. No hay que subestimar en ningún momento las dificultades intrínsecas al mantenimiento vivo de un espíritu social democrático, y la facilidad con la que se llega al despotismo. La ciudadanía se debe sensibilizar a sí misma para mantenerse atenta.

En segundo lugar, la libertad de prensa, pero con cierta cautela: la prensa puede ser peligrosa a causa de sus excesos, pero mucho más perjudicial es la censura. Como dice Sánchez Cámara, «es absurdo conceder al pueblo el derecho a gobernar la sociedad y hurtarle el derecho a opinar libremente y a expresar sus opiniones». Si la prensa supone un antídoto al despotismo democrático, un antídoto a sus posibles excesos puede encontrarse en la multiplicación y diversificación de los medios. Y así, en conjunto, si bien cada medio tiene poco poder, todos juntos tienen mucho, y se erigen en un inestimable aliado del pueblo. Sólo estando atentos se caminará, no hacia el despotismo y la tiranía, sino hacia la libertad y la prosperidad del pueblo y del Estado.

16 de agosto de 2022

El realismo matemático de Gödel (y una ayuda de Zubiri)

Finalizamos el anterior post dedicado a unas reflexiones filosóficas sobre el teorema de Gödel, comentando su posición en la perenne discusión —pero no por ello poco interesante— sobre el carácter real o imaginario de las entidades matemáticas. No es infrecuente encontrarse con intérpretes de su pensamiento que lo sitúan cómodo en posturas platónicas. Ciertamente, así parece desprenderse de algunos de sus textos. Pero —como apunta Díaz— cuando se atiende su obra en conjunto, se puede realizar una lectura diversa. Como ya anunciaba, en este post y en los sucesivos voy a tratar de dar razón de la postura de Gödel apoyándome en el pensamiento de Zubiri: el planteamiento zubiriano puede ser de ayuda, en tanto que puede dotar de rigor filosófico a las ideas poco elaboradas especulativamente de Gödel.

En la década de los 30, la concepción matemática imperante era la del círculo de Viena (Carnap, Han, Schlick), de carácter eminentemente formal, nada que ver con el intuicionismo al estilo de Brouwer o de Poincaré. Al igual que Brouwer, aunque siguiendo una línea diversa, Gödel tampoco simpatizaba con esta concepción tan formal de las matemáticas, según la cual los matemáticos parecían meros prestidigitadores que jugaban con elementos imaginarios, pero sin ningún tipo de vinculación con la existencia de las cosas. En uno de sus textos llega a decir: «Las ciencias formales no versan sobre objeto alguno; consisten en sistemas de enunciados auxiliares sin objeto ni contenido», dice Díaz. Lo cierto es que, en fidelidad al espíritu de Viena, las ciencias formales y empíricas estaban vinculadas, de modo que las fórmulas verdaderas (aunque su verdad fuera establecida prioritariamente por coherencia interna según las reglas sintácticas) poseían (o podían poseer) un correlato con las cosas. Independientemente de que este correlato de la matemática formal con el comportamiento de las cosas era un presupuesto nunca argumentado adecuadamente, el caso es que el principal problema para ellos, en el ámbito que nos importa, era, pues, el de la consistencia interna del sistema. Pues bien, para Gödel este salto entre la coherencia interna de una fórmula respetando las reglas sintácticas y su correlato con la realidad era problemático, siendo necesario pensar la relación existente entre lo formal y lo físico.

De alguna manera, veía cierta similitud entre la verdad formal y la física, en el sentido de que en ambos casos se estaba ante hechos sólidos, es decir, ante hechos que no podían ser manejados arbitrariamente: del mismo modo que el físico no podía manejar a su antojo sus objetos de investigación, tampoco el matemático podía hacerlo. Buena muestra de ello era precisamente el resultado de su famoso teorema, según el cual hay verdades indecidibles en un marco axiomático: un buen ejemplo de que las matemáticas podían dar más de sí de lo que inicialmente había previsto el formalista, que para nada deseaba ni se esperaba algo así. Sin embargo, aunque había cierta similitud entre ambos tipos de verdades, Gödel no los identificó; su problema es que no tenía herramientas teóricas suficientes para poder hilvanar convincentemente su argumentación.

Gödel entiende que la verdad matemática no es puramente formal, sino que posee un cierto carácter real, un momento de realidad en virtud del cual podía vincularse con las cosas, ámbito en el que se da de modo natural la verdad física. Este carácter real de la verdad matemática lo relaciona con esa solidez, es decir, con esa independencia que poseen en tanto que hechos sólidos los entes matemáticos frente a un ejercicio arbitrario; en este sentido piensa que, efectivamente, los entes matemáticos poseían objetividad, independientes de nuestra imaginación creativa abandonada a sí misma y de ser manejados según nuestras decisiones, del mismo modo que acontece con los entes físicos. Pero, no los equipara del todo: la verdad matemática no es igual del todo que la verdad física, aunque es consciente de que «algo en ellos, existe objetiva e independientemente de nuestros actos mentales y decisiones». El problema es qué es ese algo, y para aclararlo nos puede ayudar nuestro querido Zubiri.

Zubiri coincide con Gödel en esta idea, no sólo por el propio ejercicio de las matemáticas, sino también como consecuencia de su teorema de incompletitud; de hecho, afirma que de él —del teorema de Gödel— se sigue «la anterioridad de lo real sobre lo verdadero en la matemática». Si lo postulado matemáticamente puede ser verdadero, es porque primariamente le compete su carácter de realidad; en caso contrario, ¿a santo de qué? Ciertamente, para no pocos autores no deja de ser un enigma esta vinculación entre matemáticas y realidad, como, por ejemplo, para E. P. Wigner, quien en su The Unreasonable Effectiveness of Mathematics in the Natural Sciences de 1960, afirmó: «La enorme utilidad de las matemáticas en las ciencias naturales es algo que roza lo misterioso y no existe una explicación racional para ello. No es nada natural que existan “leyes de la naturaleza”, y mucho menos que el hombre sea capaz de descubrirlas. El milagro de la idoneidad del lenguaje matemático para la formulación de las leyes de la física es un regalo maravilloso que no entendemos ni merecemos». Pues bien, podemos afirmar que es gracias a ese carácter objetivo (según Gödel), a ese carácter de realidad (según Zubiri), que se puede salvar el abismo entre lo lógico y lo real, que es precisamente donde cabe situar el problema de la verdad. Ello nos lleva a una conclusión interesante, y densa, que iremos desgranando poco a poco: «El objeto matemático es realidad construida ‘según conceptos’ dentro del momento ‘físico’ de la formalidad de realidad sentida. Puede tener propiedades ‘suyas’, ‘propias’, dadas y no concebidas». Para comprender esto bien es preciso tener clara la diferencia zubiriana entre contenido (talitativo) y formalidad, entre cosas reales y el carácter (formal) de realidad que tienen, asunto en el que no me puedo detener aquí ahora, independientemente de que alguna alusión haremos. La libre construcción (matemática) no es independiente a la fuerza de imposición de la realidad; esta fuerza de imposición se nos impone tanto al percibir entes físicos como al postular entes matemáticos.

Para él, el hecho de que las propiedades de un conjunto no puedan deducirse en su totalidad de los axiomas, es la más clara muestra de que la construcción matemática se incardina en la más amplia construcción de realidad, a la cual pertenece y que le engloba: es precisamente por este carácter real que los conjuntos son más de lo que pueda deducirse de los postulados previos. Con esto tiene que ver la noergia de la inteligencia sentiente. Es éste precisamente el puente que trata de encontrar Gödel, y que Zubiri lo tiende en bandeja de plata. La inteligencia para Zubiri no es abstracta, lógica, teórica, ‘concipiente’ dirá él, sino física, real, ‘sentiente’; diferencia que parece una sutileza, pero que conforme se profundiza en ella deja entrever una novedosa comprensión no sólo de este asunto, sino de la metafísica en general. Gracias a este giro se puede ver que lo construido por postulación tiene más propiedades que las que cabría deducir axiomáticamente de los postulados, porque la postulación matemática no es algo primario, no se basta a sí misma, sino que necesariamente es postulación ‘de’ realidad y ‘desde’ la realidad.

9 de agosto de 2022

La aportación aristotélica al concepto de experiencia en Bacon

A pesar de la crítica al pretendido ejercicio puro de la ciencia que vimos en el anterior post, lo cierto es que Bacon —y con él el ejercicio de la ciencia— se sigue moviendo en un ámbito objetivista, ajeno al espíritu hermenéutico que guía a Gadamer, y sobre el cual quiere seguir profundizando. Para hacerlo, para profundizar en el fenómeno de la experiencia, apela al análisis de la misma que realiza Aristóteles, no tanto en un ámbito científico sino en un ámbito más cotidiano, vital. ¿Qué es lo que aporta el estagirita? Según él, la experiencia tiene su origen en el encuentro de algo estable y duradero mantenido en el seno de observaciones variables y dispersas: frente a todo aquello que pasa por delante de nosotros y se va ‘como un ejército en fuga’, hay algo que permanece. Cuando la percepción ve algo estable se fija en ello, e interpreta lo demás alrededor de dicho foco.

El asunto pasa por el establecimiento de dicho foco. Efectivamente, ante ese espectáculo que nos ofrecen nuestros sentidos, ante ese cúmulo de sensaciones que desfilan ante nosotros, ¿cuál es el origen de ese foco? Muy bien podría pensarse que sea un poco producto del azar, es decir, de aquello que nos sobreviene del imprevisible entorno y que impresiona nuestros sentidos; en opinión de Gadamer, algo hay de eso, aunque no lo es todo. Pero lejos de insistir en aquello que no es, insiste en la parte de verdad que hay en ello. Lo que hace Gadamer es fijarse en ese ‘algo’ según el cual uno no acaba de ser totalmente dueño de la experiencia, sino que se da en ella como un acontecer que escapa de nuestro dominio, y al cual hemos de plegarnos; un acontecer en el que parece que todo va cuadrando y nos va dibujando de antemano el camino que hemos de seguir, hasta que se nos abra otro nuevo proceso experiencial. Si recordamos, esto estaría relacionado con lo que nos decía Bacon, de modo que ese espíritu científico experimentado es sensible a aquello que la naturaleza le está ‘diciendo’, y es capaz de ‘escucharlo’ y de traducirlo a sus experimentos científicos. El científico también está en manos de lo que la naturaleza le dice, y que influye en su trabajo, de modo que no acaba de escoger del todo científicamente su vía de trabajo.

Como decía, Gadamer insiste en ese proceso según el cual nuestra experiencia se ve tensionada por lo que percibe, dificultando su libre ejercicio dependiente únicamente del sujeto. Cuando extraemos a la experiencia de este ámbito científico, marco en el cual —en opinión de Gadamer— cabría situar también a Aristóteles, pues su enfoque no deja de ser ‘científico’ en tanto que se mueve en una ontología conceptual, orientando su labor investigadora teleológicamente para acceder a las sustancias, se puede obtener mucho fruto; un fruto que permanece velado «cuando se considera la experiencia sólo por referencia a su resultado». ¿En qué consiste dicho fruto? Pues en el descubrimiento del ‘verdadero proceso de la experiencia’.

El que quizá sea el principal rasgo de este proceso experiencial es su carácter negativo. ¿Qué quiere decirse con ello? Gadamer lo sitúa en oposición a la experiencia científica, pues ésta lo que busca no son sino experiencias que confirmen sus expectativas, pero la auténtica experiencia surge a la luz de algo que nos sorprende, de algo que no esperábamos, de algo que nos descoloca. La experiencia nos dice que tal y como estábamos viendo las cosas no era el modo del todo correcto y que es la propia experiencia la que nos ayuda a acercarnos más a cómo sean en verdad, abriendo nuestro abanico perceptivo. La misma experiencia ayuda a descentrar un proceso perceptivo polarizado hacia el sujeto que percibe. Es lo que nos ocurre, por ejemplo, cuando decimos que hemos tenido una determinada experiencia, es decir, que nos ha pasado algo que nos ha sorprendido, que no nos esperábamos, y que nos ha impresionado. La experiencia va acompañada de lo inesperado, de lo sorprendente, de la novedad, y no de lo acostumbrado, de lo rutinario.

En mi opinión, sería discutible hasta qué punto Aristóteles sigue este patrón, sobre todo si lo contrastamos con el de Platón. Quizá la crítica de Gadamer sea más achacable a Platón que a Aristóteles, en tanto que el método que guía a Platón es más racional, lógico, mientras que el de Aristóteles es más experiencial, físico; como dice Conill, «parece que en el primer caso el pensamiento surge por la exigencia discursiva de las preguntas y respuestas en un contexto de comunicación y diálogo (discusión); en el segundo, el pensamiento surge de la presión que ejerce la experiencia ‘física’ del movimiento y sus consiguientes aporías». Pero bueno, quedémonos con la crítica gadameriana, con la que trata de poner de manifiesto que no todo es puesto por el sujeto, sino que su experiencia se ve también relevantemente dirigida por lo que pone la realidad.

2 de agosto de 2022

La sociedad ¿mecanicista?

Uno de los grandes retos de la filosofía social de la época moderna fue leer el comportamiento humano, tanto individual como socialmente, a la luz de los planteamientos mecanicistas de las ciencias naturales. El dualismo cartesiano fue un estadio previo que el mecanicismo llevó a su máximo, tratando de dar explicación a la dimensión espiritual humana, no como una dimensión paralela a la material, sino como un epifenómeno de la misma, tal y como explica Hans Jonas en El principio vida. En este sentido, si el cosmos es materia inerte conducida por fuerzas y energías sin ningún tipo de propósito ni de fin, el hombre (y la vida en general), en tanto que parte del cosmos, debería ser regido por las mismas leyes.

El gran problema de este planteamiento es que no responde a nuestra experiencia subjetiva. En un mundo mecanicista no ha lugar ni a propósitos, ni a motivos, ni a razones; ¿qué se puede decir, pues, del comportamiento humano?, ¿qué queda de él? Aquí se abre un debate muy interesante, en el cual se pueden identificar fácilmente los dos extremos en el seno de esta tendencia: o bien hay que introducir un principio de carácter espiritual paralelo al material (como en Descartes), o bien hay que negar cualquier tipo de experiencia subjetiva del ser humano reduciéndolo todo a combinaciones físico-químicas de sus partes más elementales. La postura a adoptar, en el espectro de posibilidades establecido por ambos polos, abrió un debate interesante, que aún se mantiene abierto. De hecho, la comprensión social contemporánea es, en buena parte, heredera de los planteamientos mecanicistas de las ciencias naturales modernas.

Pero ¿es así?, ¿hasta qué punto nuestro comportamiento se puede definir mediante unas cuantas leyes generales, a las cuales se ajusta? El origen de las ciencias sociales contemporáneas hay que buscarlo aquí: en la identificación de las leyes que rigen los fenómenos sociales y que los explican; leyes que, en su forma lógica, no difieren sensiblemente (o no deben hacerlo) de sus ‘análogas’ naturales.

Esto tiene mucha importancia en nuestra situación actual porque, si no es así, «si la ciencia social no presenta sus hallazgos en forma de cuasi-leyes o generalizaciones, los fundamentos para emplear a científicos sociales como consejeros expertos del gobierno o de las empresas privadas se hacen oscuros y la noción misma de pericia gerencial se pone en peligro», explica MacIntyre en su Tras la virtud. Estas figuras ostentan hoy una posición de relevancia en nuestras sociedades, algo que no deja de llamar la atención cuando es tan frecuente el fracaso en sus predicciones, tanto de economistas, como de politólogos, sociólogos, etc.; tras un acontecimiento siempre hay explicaciones (algo que supongo que tendrá su valor), pero no estaría tan claro cuando ‘antes de’ no se fue capaz de pronosticar. Quizá ello se deba a que su carácter de ley no esté tan claro como parece.

¿Qué diferencia se puede establecer, pues, entre las leyes de las ciencias sociales y las leyes de las ciencias naturales? Pues el factor humano, un factor que Maquiavelo conceptuó en la idea de fortuna. No es que Maquiavelo no fuera un ilustrado de pura cepa, ya que él pensaba que las generalizaciones podían muy bien ayudarnos en la práctica proveyéndonos de máximas que guiaran nuestro comportamiento; pero también pensaba que el factor ‘fortuna’ no se podía suprimir de la vida humana. Lo cual no era óbice para no mantenerse en el empeño. Lo que Maquiavelo pensaba es que, «supuesto el mejor conjunto posible de generalizaciones, podemos ser derrotados a las primeras de cambio por un contraejemplo no predicho e impredecible, sin que por ello se vea una manera de mejorar nuestras generalizaciones, y sin que ello sea motivo para abandonarlas ni siquiera redefinirlas».