16 de febrero de 2021

El análisis del lenguaje de Berkeley

La crítica que realiza Berkeley a la posibilidad de poder representarnos ideas abstractas (tal y como vimos en este post) no es casual ni arbitraria, sino que responde a una estrategia de la que él es muy consciente, como es poner en evidencia ese modo de pensar y de conocer en los que son piedra de toque dichos conceptos, a saber: el racionalismo. Ya hemos visto cómo —desde su argumentación— no son posibles, ni falta que nos hacen para el conocimiento, pues muy bien podemos ejercer el conocimiento apoyados en las nociones universales, así como en sus relaciones. Y, todo esto, ¿para qué? Pues esta investigación trae una gran ventaja, ya que puede sacar a la luz pautas de conocimiento o modos de pensar que pueden no ser tan fidedignos como en un principio se pudiera pensar. Se puede entender a Berkeley como uno de los primeros representantes que van a trasladar la crítica del conocimiento a una crítica del lenguaje, anteponiendo una crítica que posteriormente se le hará a Kant, como es su apoyo total a las posibilidades de la razón. Claro, Berkeley no es ni Herder, ni Nietzsche, ni Humboldt, pero no es menos cierto que él ya se cuestionó hasta qué punto es idóneo el lenguaje para decir el mundo, o incluso decirse a sí mismo. Él fue de los primeros que vio los peligros del lenguaje: el principal problema no va a ser la posibilidad de que los sentidos nos engañen (Descartes) sino la posibilidad de que las que nos engañen sean las palabras.

Da así el último paso antes de acometer la exposición positiva de su pensamiento, de lo que según él son los principios del conocimiento humano, que es en definitiva el objetivo de su obra. Y este último paso consiste en reflexionar sobre por qué ha sido común que los más sabios de entre los hombres se hayan dejado llevar por ese error, por el de confiar su conocimiento a los conceptos abstractos. Y su conclusión es que ello es debido al uso del lenguaje (§18), desde el cual se establece un paralelismo evidente entre estas ideas abstractas y los conceptos lingüísticos, tal y como dice Locke. Pero esto no está tan claro para él.

En primer lugar, porque no es cierto que cada palabra tenga un único significado, preciso y definido, de modo que la idea abstracta se constituya en el sentido inmediato de tales palabras; si fuera así, efectivamente gracias a esta correlación entre idea abstracta y lenguaje, un nombre genérico sería aplicable a muchas cosas particulares. Pero según Berkeley eso no es cierto en el sentido de que de una definición no se sigue en absoluto una idea abstracta determinada. ¿Qué quiere decir esto exactamente? Fiel a su línea argumentativa, y partiendo de que la función del lenguaje es comunicar nuestras ideas (entendamos ‘ideas’ en la mentalidad de la época, como representaciones mentales), Berkeley entiende que se ha realizado una proyección inapropiada enlazando ideas con palabras, dando por hecho que toda significante se asocie a una idea. Pero una cosa es que con una palabra podamos designar a varios particulares, muchos si se quiere, y otra muy distinta es que designe a un concepto abstracto. Además de que el lenguaje muy bien puede utilizarse no para comunicar ideas, sino para otros fines, como para suscitar una pasión, disuadir a alguien de algo, o inducir a una acción, etc.

Por lo tanto, concluye Berkeley: «el lenguaje ha sido el origen de las ideas generales abstractas, debido a un doble error: que cada palabra tiene una sola significación, y que el único fin del lenguaje es la comunicación de las ideas» (§20).

Dicho esto, realiza un par de afirmaciones interesantes. Dice nuestro obispo: «No se puede negar que las palabras son de una utilidad muy apreciable. (…) Pero al mismo tiempo hay que reconocer que muchísimos de esos conocimientos han quedado embrollados y oscurecidos por el abuso de las palabras y por la forma en que se ha querido darlos a entender» (§21). De ahí que él trate de no abusar en su uso, e intentar ser lo más riguroso posible en su empleo, actitud prudente que, como él mismo dice, no puede sino traer muchas ventajas. Con la segunda afirmación que comentaba y, haciéndose eco de la claridad y distinción característicamente cartesiana, aunque en un sentido diverso, insistirá en que es preciso, para que el conocimiento avance por la senda de la claridad y de la distinción, que no se apoye tanto en palabras y conceptos generales como en la percepción de los objetos, ante los cuales no se puede engañar; camino que, si nos fijamos, es totalmente opuesto al del racionalista Descartes. Dice Berkeley: «Mientras mi pensamiento se limite a las ideas despojadas de toda palabra, no creo que pueda caer fácilmente en el error. Los objetos que considero los conozco clara y adecuadamente, no me puedo engañar pensando que tengo una idea que en realidad no poseo. Ni me será posible imaginar que mis ideas son semejantes o diferentes si en realidad no lo son» (§22). Y continúa que, para la concordancia o discrepancia que pueda haber entre las ideas que aparecen en mi mente, qué ideas componen a otras y cuáles no, «simplemente me basta una percepción atenta de lo que sucede en mi propio entendimiento», el cual sería como un escenario en el cual las ideas claras y adecuadas se irían sucediendo en función de las leyes que rigen la percepción sensible. Las ideas, pues, no se deben a una proyección realizada desde un lenguaje con el que está muy lejos de establecer una relación de biunivocidad, sino que se deben sencillamente a cómo van surgiendo al percibir los objetos clara y adecuadamente.

Es consciente de que hay una tradición muy potente para vincular conceptos con ideas, y estos con la realidad: de hecho, esto era el argumento de Locke, para quien es la existencia de estos signos generales del lenguaje lo que nos pone en la pista de ideas abstractas, como explica Lema-Hincapié; por este motivo, también es consciente de que hace falta un esfuerzo grande para superar dicha traba, ya que a través de los siglos ha quedado un ‘hábito universal’. Pero entiende que esto es necesario, porque el caso es que así se daba pie a un error muy importante, a saber: que «mientras el hombre creyó que las ideas abstractas iban anejas a las palabras, no era de extrañar que sus elucubraciones y disputas versaran sobre palabras más que sobre ideas» (§23), es decir, sobre entelequias que no necesariamente tenían que ver con la realidad. La razón se enredaba en palabras y conceptos abstractos, cuando es mucho más fácil dejar que sea la misma percepción de los objetos la génesis de dichas ideas.

Es así como Berkeley nos previene del ‘engaño de las palabras’; y así, si ya sabemos que no poseemos ideas abstractas sino ideas particulares, no malgastaremos nuestro tiempo buscando ideas generales allí donde no las podemos encontrar. «Sería, por tanto, de desear que todos se esforzaran en adquirir una visión clara de las ideas que se han de considerar, desembarazándolas de todo ropaje y estorbo de las palabras, que en tan grande manera contribuyen a cegar el juicio y dividir la atención» (§24). Los principios del conocimiento no pueden estar en las palabras, sino en los propios objetos.

9 de febrero de 2021

De la moral a la justicia, y de la justicia a la moral

Veíamos en el anterior post la diferencia fundamental que se da entre la aplicación de un saber técnico (el del alfarero, por ejemplo) y la de un saber moral (la aplicación de unas normas morales generales a los casos concretos de nuestras vidas). Para ahondar en este asunto, Gadamer se detiene en la consideración del ámbito judicial, en la aplicación de las leyes por parte del juez. Porque, efectivamente, el caso del juez es diferente al del artesano. No se puede aplicar la ley a rajatabla, en todas las ocasiones y a todas las personas, no por nada, sino porque la casuística es infinita e imposible de recoger en unos cuantos artículos, por muchos que sean. Precisamente por esto ―como muy agudamente observa Gadamer― el juez es consciente de que en ocasiones tendrá que hacer algunas concesiones a la ley general con la finalidad precisamente de salvaguardar la justicia, ya que aplicando la ley general al pie de la letra puede no ser justo atendiendo a la particularidad de la situación concreta. Por su carácter general, la ley no puede contemplar toda la diversidad de la situación concreta y, como ya vio Aristóteles, de esto el juez ha de ser consciente. También nosotros cuando somos ‘jueces’ de nosotros mismos.

Para la definición de la ley general Aristóteles distinguía entre el derecho positivo (humano) y el derecho natural, ninguno de los cuales es inalterable. Esta ‘movilidad’ del derecho natural no iría a favor de ningún relativismo ―en su opinión―, sino todo lo contrario: sería la condición necesaria para su función; por ejemplo, para servir de guía o de contraste ante la oposición entre dos leyes positivas. Gadamer reconoce que para Aristóteles «la idea del derecho natural es completamente imprescindible frente a la necesaria deficiencia de toda ley vigente», pero no de un modo directo, digamos, sino desde un punto de vista más crítico, en el sentido de algo a lo que se pueda apelar ante una discrepancia entre dos leyes. La ley natural tendría que ver con algo así como la naturaleza de las cosas, también la naturaleza de las cosas humanas. Una cosa es ‘la’ valentía, y otra es cómo ser valiente aquí y ahora. Más que algo concretamente aplicable, la ley natural viene a ser como un patrón de las cosas, como unas directrices morales que hay que conocer y saber aplicar. No son meras convenciones, sino que es un reflejo de la naturaleza de las cosas, un aire de lo humano.

Porque claro, el asunto no pasa por resolver cuestiones concretas de nuestras vidas, sino de enderezar buenamente nuestra vida. El saber moral no atiende únicamente a casos concretos (que también) sino que afecta a la vida global del individuo. Es un saber no meramente enseñable, sino un saber que se ha de interiorizar, haciéndolo uno consigo mismo, para convertirnos en nuestros mejores consejeros. No se trata de aprender unas normas morales, sino de ser capaz de discernir en cada ocasión qué sea lo mejor; tarea harto complicada cuando «no existe una determinación, a priori, para la orientación de la vida correcta como tal». Y el que es capaz de saber lo que hay que hacer en cada ocasión posee el nous, cuyo opuesto no es el error o el engaño sino la ceguera: «El que está dominado por sus pasiones se encuentra con que de pronto no es capaz de ver en una situación dada lo que sería correcto», sino que estima como correcto lo que su pasión le sugiere.

Cuando uno alcanza este nous puede llegar a comprender verdaderamente al otro, porque posee la capacidad de desplazarse por completo a la situación del otro (sin quedarse en los parámetros propios). Y esto, ¿cómo es posible? Aquí Gadamer explica una idea aristotélica que a mi juicio es clave: el punto de conexión entre mi mundo y el mundo del otro pasa por ir ambos tras la búsqueda de lo justo, de lo verdadero, de lo bueno… nexo de comunicación que posibilita el encuentro entre los dos mundos, una relación de comunidad que apunta en la misma dirección. Cuando alguno de los dos individuos no responde a esta intención, la posibilidad de comunicación se trunca de raíz, y se genera el desencuentro y el consecuente enfrentamiento. Tal es el caso de quien Aristóteles denomina deinós, quien engatusa a los otros con un aparente saber moral para buscar únicamente su propio beneficio. No es casualidad que esta expresión sea sinónima de ‘terrible’ pues «nada es en efecto tan terrible ni tan atroz como el ejercicio de capacidades geniales para el mal».

2 de febrero de 2021

El lenguaje: un fenómeno biológico

Eugenio d’Ors posee una reflexión interesante sobre el origen del lenguaje, en el seno de su pensamiento filosófico, personificado en el hombre que trabaja y que juega. Parte del hecho de que no es posible considerar al lenguaje como ‘una cosa’, es decir, como algo acabado, como un objeto de estudio ya dado con sus leyes propias, independientes del mundo de la vida. A su modo de ver esto no es así, y sin duda fue el gran error de los primeros esfuerzos de la filosofía analítica del lenguaje, del que mismo Wittgenstein se hizo eco en lo que se conoce como su segunda etapa. En opinión de d’Ors, en el lenguaje se han de considerar dos aspectos; es preciso distinguir «una parte fijada, intelectual, de un fondo cordial, biológico, rebelde a la regularización». Este fondo biológico no es algo metafórico que empleamos para denotar ese carácter dinámico que todo lenguaje posee, esa especie de ‘energía interna’ que le dota de cierta autonomía, sino que es algo que compete realmente a su estructura. El lenguaje posee un momento biológico. Momento biológico que no se puede separar del mismo fondo biológico nuestro, de nuestra especie.

Así también nuestra inteligencia; tanto la una como el otro, la inteligencia como el lenguaje, no son sino ―en el pensamiento orsiano― una respuesta que el primer individuo de nuestra especie pudo ofrecer a un entorno que le estaba afectando, provocándole un desequilibrio que debía compensar o restablecer. Se puede decir así que la inteligencia es un instrumento de defensa con el que hacer frente a nuestro entorno y mantener así la supervivencia, tal y como puede ser un caparazón o unas garras. Y lo mismo el lenguaje. Y aun cuando en sus inicios el lenguaje no fuera tal y como lo entendemos hoy en día, con sus construcciones sintácticas, su léxico y su semántica, en su primera expresión como grito, como aullido, o como cualquier otro sonido todavía inarticulado, ya se encontraba en germen. «El lenguaje articulado es, en el hombre, un instrumento de defensa contra una conmoción vital, producto de una excitación que, si el lenguaje fuese expresión pura, se traduciría por el aullido».

Este origen biológico es algo a lo que cada vez estamos más familiarizados gracias al conocimiento que alcanzamos de nuestra filogénesis desde la antropología biológica. Si esto es así, hemos de pensar que el lenguaje conceptual es ‘consecuencia de’, es creado a partir de unas estructuras más profundas, de carácter biológico, sobre las que se monta.

Desde esta concepción, nuestra capacidad lingüística no es primariamente expresiva, sino reactiva; reactiva ¿a qué? El lenguaje, la conciencia, la inteligencia no son sino modos en que un organismo ha resuelto su condición de inferioridad frente a un entorno que se le presentaba amenazante, y ante el cual estaba presente el riesgo de perder su vida. Esto no debe entenderse como algo negativo, o pesimista, sino como la situación en que cada ser vivo se mantiene en la existencia, poniendo en activo las posibilidades que le brinda su organismo ante ese entorno con frecuencia peligroso, en ese equilibrio inestable que es la vida.

Por eso dice d’Ors que el entorno es tóxico, ante el cual las especies vivas se han de ir inmunizando sencillamente para sobrevivir. Conforme se va complejizando el proceso, surgen nuevas toxinas que requieren nuevos procesos inmunizadores: hasta llegar a nuestra conciencia, la cual requirió también de su sistema de defensa específico, que no es sino la razón, pero no una razón teórica, sino una razón global, holística. Las distintas capacidades que evolutivamente se van adquiriendo responden a la misma dinámica según la cual los individuos se van inmunizando, es decir, van haciendo suya un poco de esa realidad tóxica que les amenaza (así las vacunas, por ejemplo) convirtiéndola en una inesperada aliada para seguir adelante, fenómeno que en biología se conoce como diastasa. Pues bien, la razón no se escapa a este planteamiento, ya que «las excitaciones, tóxicas, transformadas por la razón en conceptos, dan al individuo una inmunidad relativa con las nuevas conmociones»; inmunidad que no es otra que el ejercicio de nuestra inteligencia en sentido amplio.

26 de enero de 2021

El panóptico digital: el hogar de los hikikomoris

El panóptico fue un edificio singular ideado por Jeremy Bentham, a finales del siglo XVIII, para que sirviera de modelo carcelario. Era un edificio circular, con una cabina central en la que se situaría el carcelero, quien podría vigilar desde ahí a todos los presos, cuyas celdas estarían ubicadas perimetralmente. En el diseño hay un detalle relevante, a saber: que las celdas estaban situadas de tal manera respecto a la cabina del carcelero, que éste podía observar en cualquier momento cada una de las celdas, sin que sus ‘inquilinos’ pudieran saber cuándo eran vigilados; es decir, que los presos nunca podían saber cuándo el carcelero les estaba vigilando expresamente a ellos, y cuándo no. El efecto psicológico de esto es importante, como es el de la sensación de estar constantemente vigilado, como una especie de gran hermano que controla todos y cada uno de nuestros movimientos. El carcelero no necesariamente estaba vigilándole a uno de continuo, pero el caso es que el preso en cuestión no lo sabía y, a la postre, actuaba como si el carcelero estuviera siempre con un ojo puesto en él.

La idea del panóptico ha sido recurrente en algunos filósofos contemporáneos, como Foucault, Deleuze o Han, poniendo de manifiesto la asimetría generada en beneficio de los que ostentan el poder ―sea éste del carácter que sea― en detrimento de los que no. Puede valer tanto para una cárcel, como para una fábrica (en la que no es extraño que los jefes o encargados tengan sus despachos de modo que puedan controlar todo el espacio), o en una sociedad. Si digo ‘sobre una sociedad’ no es gratuitamente, sino que ésta es exactamente la situación (análogamente hablando) en la que vivimos sobre todo en la sociedad occidental, dependientes, vigilados, ¿dominados?, por las NNTT y el big data.

Si la tecnología ha coexistido con el ser humano desde que éste es humano, no es menos cierto que en nuestra época se ha puesto de manifiesto, más que nunca —como dicen los profesores Sanmartín y Peris Cancio— cómo la tecnología puede cambiar sustancialmente nuestras vidas. Ciertamente, el discurso tecnológico no es ni neutro ni autosuficiente; lo alimentamos nosotros continuamente, a la vez que configura nuestras personalidades y psicologías, hasta el punto de que es más que pertinente preguntarnos por el tipo de personas en que nos queremos convertir, o en el que queremos convertir a nuestros descendientes. «¿Qué autocomprensión de las personas queremos desarrollar?», nos cuestionan.

Esta pregunta no es baladí, ni mucho menos, ya que, como muy bien han visto estos autores (entre otros), las nuevas tecnologías de la información y de la comunicación están cada vez más embebidas en nuestras vidas cotidianas; los cachivaches tecnológicos están revestidos de una pátina pegajosa que nos impide deshacernos de ellos. No es exagerado afirmar que ninguno de nosotros es capaz de imaginarse su vida hoy en día sin ellos, no digamos las generaciones más jóvenes. La verdad es que no tienen por qué ser negativos, ni mucho menos, ya que ofrecen muchas y muy buenas posibilidades; el problema es, como en tantas otras cosas, su uso inadecuado; tanto por parte del usuario final, como, que es lo que ha dado origen a la idea del panóptico, por parte de las grandes firmas comerciales y públicas.

¿Qué es el big data? Como afirman Galparsoro y Pérez Pérez, no hay una definición exhaustiva que contente a todos. Podríamos entenderlo como toda la información generada por la digitalización de nuestras costumbres, generadora de tal inmensidad de datos que ni una mente humana, ni siquiera un ordenador convencional, sería capaz de gestionar, haciendo falta supercomputadoras. Habría que realizar dos consideraciones. La primera, tener claro que todos y cada uno de nosotros contribuimos a la generación del big data (yo mismo al publicar este post), tanto consciente como inconscientemente, haciendo pública información privada que quizá nunca hubiese querido publicar. La segunda tiene que ver con quién y para qué tiene interés por esta información. Ya digo, no se puede negar las bondades que pueda tener: quizá la aplicación que ha salido para el seguimiento de las personas infectadas durante la presente pandemia sea una de ellas; pero sería ingenuo pensar que siempre se iba a utilizar toda la información en beneficio del consumidor.

La crítica que hace Han se origina aquí, en el hecho de que hemos hecho públicas nuestras vidas, ausentes ya de privacidad y de todo lo que ello conlleva. Y lo gracioso es que nadie nos ha obligado a ello, sino que lo hacemos porque nos gusta, un gusto coaccionado (ahora sí) por una especie de necesidad interna. Regimos nuestras vidas no desde la originalidad y espontaneidad de una vida asombrada y sorprendente, sino desde el cálculo algorítmico que unos han diseñado para nuestro ‘bienestar’. Nuestro comportamiento se ha tornado previsible, rutinario, incluso aun cuando consumimos esas ‘grandes experiencias’ en las que arriesgamos nuestras vidas para huir del aburrido tedio cotidiano. Una vida auténtica piensa, no calcula. Frente a aquellas épocas en las que la técnica (este exceso de técnica en el que vivimos hoy en día) era vivida con cierta esperanza, hoy hemos sucumbido a sus encantos, acomodándonos en cárceles con barrotes a base de microchips y perfiles virtuales, ausentes de compromisos hondos y profundos, arrastrados por los vaivenes de la opinión superficial. Y el caso es que ahí estamos todos, como perrillos fieles y obedientes, alimentando a una bestia a la que luego nos costará mucho domeñar, si es que realmente nos proponemos hacerlo algún día. Una bestia que ya no tiene un solo ojo, como el panóptico original de Bentham, sino que esa mirada despótica es sustituida por una omnipresencia tecnológica (como dice Han en La sociedad de la transparencia): la vigilancia ya no está localizada en algún lugar, sino que está en todos los lugares, y nosotros le invitamos a que nos observe. ¿Por qué? Pues porque «mientras los moradores del panóptico de Bentham son conscientes de la presencia constante del vigilante, los que habitan en el panóptico digital se creen que están en libertad», dice Han.

Nuestros jóvenes prefieren quedar antes virtualmente con sus amigos que físicamente; prefieren conectarse virtualmente antes que, sencillamente, quedar para tomar un helado o dar ‘un garbeo’, como decíamos antes. Cada vez hay más hikikomoris, como dicen Galparsoro y Pérez: personas que viven al margen de la sociedad, con la que viven conectados virtualmente sin salir de su casa.

No hay espacio para la intimidad: somos transparentes, porque estamos hipercomunicados. Y somos nosotros los que estamos construyendo a diario nuestro propio panóptico, dichosos de ser observados, vigilados, controlados. Esa vigilancia no se realiza como un ataque a nuestra libertad, sino que más bien somos nosotros los que nos entregamos a ella, alimentándola con nuestros perfiles y nuestros ‘me gusta’. «El morador del panóptico digital es víctima y actor a la vez. Ahí está la dialéctica de la libertad, que se hace patente como control». Por eso nos sentimos libres. Pero, libres ¿para qué? Somos libres para comprar esta marca o aquélla, pero no para dejar de comprar las cosas que me dicen que tengo que comprar. Todos mis gustos, mis deseos, mis inquietudes, mis tiempos, mis horarios… todo está ahí, en la nube, a expensas de quien quiera utilizarlo, seguramente para su beneficio, no para el mío. Quizá haya que adquirir cierta consciencia de nuestra realidad, de hasta qué punto somos manipulados en donde más vulnerables somos: en nuestros deseos, en nuestros anhelos. ¿Con qué finalidad? Pues quizá con la de recuperar cierta autenticidad y originalidad de vida, siendo ‘idiotas’ en su sentido etimológico (tal y como explica Deleuze), personas que, de alguna manera, sean capaces de vivir su vida no ‘al margen de’, pues eso sería imposible, pero sí manteniéndose alerta ante ese gran hermano tecnológico que nos vigila en el gran panóptico digital que es nuestra sociedad, generando espacios de desconexión, de distanciamiento, oquedades en las que damos la posibilidad de que surja nuestra verdadera autenticidad del interior.

19 de enero de 2021

Cerrando el teorema de Gödel (2 de 2)

Una vez hemos acabado de ver su planteamiento estructural (en el anterior post), vamos ahora con el desarrollo del teorema. Pues bien, lo que busca Gödel es demostrar que existe por lo menos un enunciado tal que, si se cumplen las condiciones de Hilbert (consistencia axiomática y verificabilidad algorítmica), ni él ni su negación se pueden demostrar en el sistema formal (partiendo de sus axiomas y empleando las reglas definidas). O sea, que dicho enunciado es indecidible en dicho sistema. ¿Cómo hacerlo? El planteamiento fue concretar una expresión meta-matemática con su correspondiente número de Gödel, de modo que ni ella ni su opuesta fueran demostrables en el sistema formal. ¿Qué expresión fue ésta? Nos lo explican Nagel y Newman: «Gödel mostró cómo construir una fórmula aritmética G que represente el enunciado meta-matemático: ‘La fórmula G no es demostrable’», en el seno del sistema formal y partiendo de los axiomas dados.

Si nos fijamos, estamos en el caso de la autorreferencialidad que ya comentamos en un post anterior, es decir, queremos expresar una fórmula de una expresión metida dentro de sí misma. De este modo, si tenemos una fórmula cuyo número de Gödel es h, quedaría así: la fórmula cuyo número de Gödel es h, no es demostrable.

Vaya por delante que la proximidad entre este planteamiento y el que vimos cuando hablamos de la paradoja de Richard es evidente. El mismo Gödel se hizo eco de ello, siendo consciente de que G es construido de manera análoga a como se definían los números richardianos; pero recordemos que el planteamiento de Richard era falaz en tanto que empleaba enunciados no meta-matemáticos, sino extra-matemáticos, que es una de las condiciones que hemos supuesto en el planteamiento de Gödel (que los enunciados sean ‘significativos’ en el seno del sistema formal). Y hay otra diferencia importante: el resultado de Richard fue llegar a una paradoja, precisamente afirmando que un número era a la vez richardiano y no richardiano; aunque Gödel utiliza un argumento similar y obtiene un resultado similar, como él no utiliza enunciados extra-matemáticos ajenos al sistema formal, sino enunciados meta-matemáticos decidibles en dicho sistema, ese resultado análogo de que G y ~G son demostrables a la vez no nos lleva a una paradoja, sino a la demostración de su teorema. Y esto, ¿por qué? Llegando a este resultado, se concluiría que el sistema es inconsistente, porque un enunciado y su opuesto son demostrables, lo cual no es posible; pero una condición de partida era la consistencia del sistema axiomático, ya que, si el sistema axiomático no fuera consistente, nada de lo que estamos diciendo tiene sentido. Y, si efectivamente el sistema axiomático es consistente, sólo cabe la conclusión de que ni G y ~G pueden derivarse en el cálculo formal (ya que, en definitiva, pueden demostrarse ambas); o, dicho de otro modo, sólo cabe la conclusión de que hay por lo menos un enunciado indecidible: G. Espero que se entienda la diferencia.

Dicen Nagel y Newman: «Así, si la aritmética [el sistema formal] es consistente, G es una fórmula formalmente indecidible». El razonamiento que lleva a esa indecidibilidad es interesante. Partimos de un conjunto de axiomas que se suponen verdaderos; entonces, todos los enunciados que se puedan derivar formalmente de ellos serán también verdaderos. Ahora bien, aún no sabemos si nuestro enunciado G es verdadero o no. Veamos las dos opciones, que sea falso y que no. a) Si G es falso, la afirmación ‘la fórmula G no es demostrable’ es falsa, luego entonces, G es demostrable. ¿Qué tendríamos entonces? Pues un enunciado falso, y demostrable, lo cual no tiene sentido. b) Si G es verdadero, la afirmación ‘la fórmula G no es demostrable’ es verdadera, luego entonces, G no es demostrable. ¿Qué tendríamos entonces? Pues un enunciado verdadero, y no demostrable, lo cual tampoco tiene sentido.

Vemos cómo ni G ni ~G son demostrables en el seno del cálculo formal, lo cual es una contradicción. Pero, entonces, ¿cómo sabemos que G es verdadero?, porque mediante la operatividad aritmética hemos visto que no lo podemos saber. De nuevo entra en juego esa correlación entre lenguaje aritmético y enunciados meta-matemáticos; porque, efectivamente, no podemos demostrar aritméticamente la verdad de G, pero el caso es que sí se puede hace meta-matemáticamente. Dicen Nagel y Newman: «(…) a pesar de que la fórmula G es indecidible si los axiomas del sistema son consistentes, puede mostrarse, sin embargo, mediante un razonamiento meta-matemático que G es verdadera. Esto es, puede mostrarse que G formula una compleja pero definida propiedad numérica que necesariamente es válida para todos los enteros», asunto que personalmente se me escapa. De este modo, sabiendo por argumentos meta-matemáticos que G es verdadero, no hemos podido demostrarlo algorítmicamente partiendo de los axiomas de la aritmética.

O sea: G es verdadera (meta-matemáticamente) y es indecidible (aritméticamente). Con esto llegamos a la conclusión de que es un sistema consistente, pero incompleto. Recordemos que un sistema era completo cuando todas las proposiciones verdaderas que pudieran expresarse formalmente en el sistema son formalmente deducibles de los axiomas; y que, si no era el caso, el sistema era incompleto. Pues esto es lo que hemos demostrado: que el sistema (consistente) era incompleto.

12 de enero de 2021

Recuperando lo visto (1 de 2)

Con todo lo visto en todos los posts anteriores ya estamos en condiciones (¡espero!) de comprender cuál fue el hilo reflexivo que siguió Gödel en su famoso teorema. Hemos ido siguiendo sucesivos pasos para su comprensión. Hemos visto cómo Gödel ha creado su sistema formal, y cómo ha establecido un método para traducir (mapear) los enunciados meta-matemáticos en ciertas sucesiones finitas de signos, en ciertas fórmulas a las cuales les corresponde siempre un número natural, su número de Gödel, obtenido multiplicando potencias de números primos según una estrategia definida previamente (un método ciertamente original). Así, todo enunciado y, por ende, toda fórmula, posee su correspondiente número de Gödel. A las demostraciones de dichos teoremas, en tanto que son también un conjunto de expresiones formales, se les puede asociar a su vez su correspondiente número de Gödel (el cual será mucho más grande, pero a los efectos de esta demostración da igual). Se trata, pues, de un sistema que es consistente, y cuyo método de verificación de los teoremas es algorítmico (Hilbert), lo cual es muy importante por lo que vamos a ver ahora.

Mediante este sistema, Gödel ha conseguido una cosa excepcional, como es que cada enunciado meta-matemático tenga como correlato su correspondiente número de Gödel. Y, viceversa: que cada número (y qué números pueden hacerlo, ya que no todos pueden) tenga como correlato su correspondiente enunciado meta-matemático. Y aquí está el meollo. Lo importante no es tanto que, partiendo de un determinado número, y yendo hacia atrás, mediante su análisis factorial, seamos capaces de alcanzar la fórmula matemática correspondiente y, por tanto, el enunciado meta-matemático; que también. Lo importante de ello es «poder ya reconocer, a través de una operación que se pueda expresar sólo con funciones recursivas, si dicho número es o no el código de una cadena que constituye un enunciado correcto, un axioma, o una demostración. En otras palabras, la posibilidad de reproducir en términos de oportunas expresiones aritméticas (aquellas que representan en el sistema dichas funciones recursivas), la recursiva decidibilidad de tales colecciones» como dice Raguní.

O sea, que, efectivamente, el conjunto formado por los números de Gödel posibles, se corresponden con enunciados meta-matemáticos demostrables; un conjunto de números de Gödel posibles, cuyos elementos se consiguen por operaciones meramente algorítmicas.

Esta idea es fundamental. No todos los números naturales son números de Gödel; sólo aquellos que son obtenidos según la metodología que ya explicamos. No todo número natural es un número de Gödel. Pues bien, lo que Gödel ha mostrado en su planteamiento es que todo número de Gödel se corresponde con un enunciado meta-matemático que es demostrable. O sea, que si el enunciado meta-matemático es correcto, le corresponden sus operaciones adecuadas en el seno de dicho sistema formal; y, lo que es más importante, viceversa: si una expresión formal es resultado de unas operaciones correctas en el seno del sistema formal, su enunciado meta-matemático correspondiente será correcto. ¡Maravilla! O sea: que algunos enunciados pueden probar otros enunciados de forma totalmente algorítmica. Evidentemente, hablamos de enunciados meta-matemáticos que tengan sentido en el seno del sistema formal; no vale cualquier enunciado que se nos ocurra, sino sólo aquellos que ―por decirlo así― posean una significatividad en el seno del sistema formal. Pero el caso es que, entre todos estos enunciados significativos en el marco del sistema, unos muy bien pueden ser verdaderos y otros muy bien pueden ser falsos; de eso se trata: de distinguir los que sean una cosa y los que sean la otra, que es para lo que nos apoyamos en el cálculo formal. Si a un enunciado podemos llegar partiendo de otros verdaderos mediante las reglas del cálculo formal, tal enunciado será verdadero, o demostrable; y viceversa.

La verdad, es que esto no deja de generarme cierta violencia: ¿cómo puede ser que enunciados lingüísticos puedan ser manejados aritméticamente? No acabo de comprenderlo hasta el fondo. Pero el caso es que aquí está el meollo del argumento de Gödel, que esta correlación entre enunciados verdaderos y fórmulas aritméticas demostrables partiendo de los axiomas verdaderos es correcta. Si lo pensamos, algo similar pasa entre lo que es la geometría dibujada y la expresión algebraica de lo que allí se dibuja: hay una correlación adecuada entre una recta dibujada en un eje de coordenadas, y su expresión matemática; del mismo modo que el punto de intersección de dos rectas está perfectamente determinado por la resolución del sistema formado por sus dos ecuaciones; etc. ¿Acaso no se puede afirmar aquí que afirmaciones geométricas verdaderas se corresponden con afirmaciones aritméticas verdaderas? ¿Acaso no llegamos en ambos casos al mismo punto como solución de la intersección? Y, ¿en qué se parece una ecuación matemática a una figura geométrica? Pues en nada. Y, si lo pensamos mejor, ¿acaso no podemos expresar mediante enunciados meta-matemáticos las ecuaciones, o mediante enunciados meta-geométricos las figuras? Pues algo de eso hay. Sin embargo, me cuesta hacerme con ello, la verdad; supongo que para hacerse con esta comprensión hasta el fondo uno tendría que haber sido matemático… pero bueno.

5 de enero de 2021

Cubriendo huecos

Nuestra sensibilidad, a nivel de sensación y percepción, no deja de ser fascinante. Nuestro cuerpo está dotado de unos órganos especializados que nos permiten establecer una relación con nuestro entorno en función de nuestras necesidades biológicas, de modo análogo a como acontece en cualquier otra especie. Cuando nacemos, no ‘sabemos’ todavía emplear adecuadamente toda esta capacidad potencial. Hemos de aprender a ejercer nuestra sensibilidad, dotándole de sentido en un entorno con el que poco a poco nos iremos familiarizando, independientemente de que nuestra sensibilidad cuente ya con ciertas instrucciones ‘de fábrica’.

Cada sensor está especializado en detectar un determinado tipo de estímulo, y no otros; en el interior de nuestros ojos, por ejemplo, las células receptoras pueden detectar estímulos luminosos, pero no pueden procesar sonidos. Y, gracias a la cantidad de órganos sensibles que poseemos, podemos captar información de muy variado registro. No sólo es que cada receptor detecte un cierto tipo de información, sino que también es capaz de detectar su intensidad, sus matices; los ojos discriminan colores, brillos, tonalidades… los oídos sonidos, tonos, timbres… los receptores espaciales nos ayudan a identificar las fuentes de estimulación en el espacio y en el tiempo… Todo ello va creando en nuestro cerebro una rutina, va generando una huella que se traduce en un modo de sentir y percibir, en nuestro modo de sentir y percibir. No todos ejercemos igual nuestra sensibilidad, independientemente de que en general nuestras sensibilidades sean conmensurables. Cada uno ‘modela’ su entorno imprimiéndole cierto sello personal.

Si lo pensamos, es fascinante no sólo la cantidad y calidad de información que podemos percibir de nuestro entorno, sino el hecho de poder reunirla resultando una representación coherente del mismo. Nuestra sensibilidad fisiológica es como una orquesta en la que todos los instrumentos se coordinan entre sí para ofrecernos una sinfonía maravillosa. Como dice Vollmer, podemos llevar a cabo diferentes procesos sensitivos (espaciales, temporales, conductuales, incluso abstractas) sin ser capaces de individualizarlos, sino que son percibidos unitariamente, incluso aunque seamos conscientes de que son el resultado de un ensamblaje mucho más complicado de lo que nunca nos pudiéramos imaginar. Esto es lo que suele llamarse percepción gestáltica, es decir, «la capacidad de reconocer estructuras superpuestas unitarias dentro de la pluralidad espacial y temporal de las impresiones».

Nuestra percepción, como vimos hablando de Merleau-Ponty, construye los perceptos sobre toda esa información de diverso carácter, dotándoles de tal unidad que incluso nos genera violencia intentar segregarla en sus componentes más sencillos.

Todos estos procesos de integración sensorial son fundamentales para el sano ejercicio de una sensibilidad; sano ejercicio que presenta dos sentidos: uno de abajo arriba, y otro de arriba abajo, conformándose los dos en un resultado global y armónico. Nuestro cerebro es capaz de dotar de unidad a toda la información que llega con caracteres diversos, y a la vez esta capacidad formalizadora de nuestro cerebro contribuye a la discriminación de qué parte de toda esa información debe ser procesada o no, incluso qué parte debe ser sentida o no.

Dejamos de percibir mucha información que nos está disponible, porque nuestra sensibilidad sabe que no es pertinente; pero el caso es que tampoco percibimos toda la información que pueda sernos pertinente, porque no nos hace falta, porque nuestro cerebro es capaz de completar los huecos que presenta la sensibilidad para acabar de construir un percepto, mitad generado a partir de la información, mitad generado a partir de la actividad creadora de nuestra sensibilidad. Esta aportación creativa se manifiesta claramente en la percepción de figuras que ‘en realidad’ no existen. O también cuando somos capaces de, en paisajes en los que a primera vista no se puede reconocer ningún orden, como en las rocas marinas o en los borrones de tinta, o en las nubes del cielo, nuestra imaginación es capaz de encontrar estructuras familiares (fenómeno conocido como pareidolia). O también, sin ir más lejos, en la ilusión de movimiento en la sucesión de imágenes estáticas de una película (lo cual tiene que ver con lo que se denomina capacidad temporal de disolución). Esta actividad creadora de imágenes es tan propia de nuestro cerebro como los mismos procesos sensibles; tanto que no la podemos eliminar «ni siquiera siendo bien conscientes de ella», dice Vollmer.

Lo que sí se puede hacer es ser entrenada u orientada según distintas perspectivas, de modo que se convierten en ‘expectativas’ que tensionan la sensibilidad en las formas que se definen. Así en los especialistas de alguna profesión: donde muchos no vemos más que manchas y borrones, un médico puede ver un tumor, un biólogo una cromatina, un geólogo un pliegue geosinclinal, etc. Gracias a la educación de la sensibilidad en diferentes líneas de creatividad, se pueden percibir y reconocer formas que de otro modo pasarían totalmente inadvertidas.