Un conocido abordaje crítico, que probablemente se apoya sobre fundamentos racionalistas, es el de los deterministas (E.D.Hirsch, y otros “secuaces”), cuyo postulado fundamental enuncia algo así como: partiendo de la evidencia disponible, y mediante una confrontación crítica, es posible distinguir entre las interpretaciones más adecuadas y las menos adecuadas, porque cuán eficientemente una obra literaria “satisface criterios particulares de excelencia no es fácil de determinar pero sin embargo puede determinarse” (Hirsch, 1976:110). Este dictum,1 implica que una meta de interpretación puede ser alcanzada mediante la evaluación objetiva de los distintos sentidos defendidos por la comunidad de intérpretes. Surgido del temor al subjetivismo interpretativo, el determinismo se yergue contra la idea de la emergencia de cada intérprete como su “propio” experto, la cual presumiblemente conduciría al desorden en un mundo sin ningún parámetro frente al cual las interpretaciones pudieran distinguirse. El sentido que el autor imprime al texto, y que permanece como una posibilidad de interpretación privilegiada como meta consensual, según argumentan los deterministas, resulta ciertamente preferible al deconstruido, indisciplinado y fragmentario marasmo que inevitablemente surgiría de un subjetivismo interpretativo carente obviamente de estándares objetivos.
Esto, en principio, aparece como una admirable y aguda respuesta, semejante al programa de Karl Popper en “conjeturas y refutaciones” (Popper, 1962 (1963):cap.1; 1972:cap.1). Por supuesto que la noción de racionalidad y el avance del conocimiento mediante un intercambio de ideas entre mentes abiertas atrajo a algunos de los intelectuales más brillantes a lo largo de la historia. En rigor de verdad, esta noción proporciona un alto grado de certidumbre. Lamentablemente, sin embargo, también implica el argumento tu quoque:2 el compromiso del racionalismo con la razón resulta ser tan irracional como cualquier otro compromiso. O mejor aún, las implicancias de este argumento son circulares: el determinismo sólo puede ser validado si y sólo si se lo considera válido. La opción entonces es o un voto de fe o una versión irracionalista del racionalismo. Se puede optar por una u otra de las opciones y conservar la ingenuidad, que es lo que comúnmente ocurre; o bien, lo cual es preferible, elegir entre estas opciones con la plena conciencia de que sus bases son necesariamente débiles (pero esta última opción desafortunadamente este movimiento puede conducir al más inquietante escepticismo). Cualquiera de las dos vías tiende por cierto a ocultar esta paradoja bajo la alfombra para que el juego continúe exitosamente. Podríamos soslayar esta maniobra si no fuera porque el racionalismo habitualmente se inclina de una manera peligrosa hacia el imperialismo intelectual, que, dentro de la teoría crítica, no puede ser defendido por ningún esfuerzo de la imaginación. Esto es todo en cuanto al fundamento racional del determinismo.3
Un problema del “Nuevo Criticismo” radica en asumir que un limitado juego de herramientas retóricas –la paradoja, la ironía y la ambigüedad– definen la estructura formal de toda poética. Este parece un postulado que no siempre resiste el análisis. A decir verdad, la paradoja, la ironía y la ambigüedad no prevalecieron en los textos literarios y discursivos hasta el Renacimiento –aunque puedan rastrearse en algunos textos anteriores–, cuando los matemáticos, comenzaron a conjeturar seriamente la infinitud, los números imaginarios, y otros misterios comparables, y cuando los irresolubles conflictos entre temporalidad y eternidad, entre lo sacro y lo profano, lo humano y lo divino, etc. comenzaron a aparecer en los debates religiosos. Los “nuevos criticistas”, por supuesto, habitualmente se han autolimitado convenientemente, al estudio de textos post-renacentistas. Cuando ocasionalmente deciden probar sus postulados en textos anteriores, los resultados en general parecen ser sospechosamente demasiado atractivos o ingeniosos.4
Expongo los problemas del “ Nuevo Criticismo ” para demostrar que el modo en que recortan el texto, y lo fuerzan a ingresar en un “lecho de Procusto”, puede también verse ya en los primeros estructuralistas, quienes (como los Formalistas Rusos en general), adoptan un abordaje ahistórico en su bienintencionada pero endeble imitación de las ciencias duras. Por supuesto que el modelo universal concebido por el estructuralismo es generalmente binario; ya sea tomándolo de la teoría de la información, de la lógica Booleana, de la lingüística o de cualquier otra corriente, los estructuralistas postulan que el dualismo puede ser desempolvado. El primer problema con este modelo es que fue importado de otras disciplinas y de allí que no pueda constituir más que una mera tentativa (especialmente a la luz de los fracasos como el modelo Darwiniano de la sociedad elaborado por Herbert Spencer, sólo por mencionar un ejemplo). El segundo problema es que “aplicado” a un texto, el modelo binario se revela habitualmente en extremo reduccionista (lo que no sería inaceptablemente pernicioso, si esto fuera lo que los estructuralistas pretenden). Pero, les guste o no, el reduccionismo tiene pocas chances de éxito en el mundo científico de nuestros días: las bases profundas del estructuralismo, en realidad arraigan en el antiguo concepto positivista de ciencia. Un tercer problema es que la demostración de la validez del modelo binario eventualmente incurre en un dilema análogo al de la “paradoja de inducción”. Carl Hempel demostró que “todos los cuervos son negros” y “todas las cosas que no son negras no son cuervos”, son proposiciones lógicamente equivalentes (1945: 1-26 y 97-121). Cualquier dato que confirme o refute una de ellas, confirmará o refutará también la otra. De ahí que, para verificar la negrura de los cuervos, uno no sólo debe observar a todos los cuervos del pasado, el presente y el porvenir, sino que debe atender también a todos los objetos que no son cuervos. Por consiguiente, tomado al pie de la letra, el modelo estructuralista nunca puede ser del todo confirmado, pues para ello sería necesario demostrar la validez de la tesis dualista respecto de todos y cada uno de los textos, pero a su vez, comprobar que todos los objetos no binarios no son textos. Una contrastación de esta índole es, desde luego, imposible, tal y como lo sabemos al menos desde Hume. (No parecería necesario aclarar que la misma falacia puede imputársele tanto al determinismo, al momento de la contrastación de su tesis centrada en la figura del autor, como a cualquier otra teoría o método tradicional).5
Entre las habituales formas del indeterminismo, el deconstructivismo se impondría en un eventual show de las tendencias teóricas de moda. Los deconstructivistas se enfrentan al determinismo argumentando que ninguna interpretación “ da en el blanco ”. Desde otro punto de vista, el relativismo hermenéutico (Hans-Georg Gadamer, entre otros) realiza una crítica algo parecida: nuestras creencias y valores son “precondiciones” necesarias de nuestro entendimiento, pero desde el momento en que tales creencias y valores son un producto histórico, pudieron en cualquier caso ser distintos de cómo son; de ahí que el entendimiento sea variable de manera indeterminada. Entonces, para el deconstructivismo los textos son considerados “indecidibles”: en su núcleo central, donde radica la aporía a la espera de ser descifrada, son plurívocos, hasta paradójicos en extremo (es extraño que esta premisa pueda ser sostenida en términos no indecidibles). Más extraño aún es que Derrida en una oportunidad acusara a John Searle en pocas palabras, quizás demasiado pocas, por haberlo malinterpretado.6 ¿Debemos creer acaso que el texto de Derrida es en sí mismo unívoco, único, decidible, determinado? Un alejamiento oportuno de las propias premisas al momento de criticar las ajenas puede colocarnos frente a tales perplejidades. Sin embargo, esto quizás no sea peor que la falta de conciencia frente al argumento tu quoque de los deterministas textuales. Llegados a este punto, podemos esbozar la idea de que los deterministas y los indeterministas, si bien en polos opuestos, se encuentran emparentados. Unos hacen del indeterminismo una dogmática, tácitamente asumida, o en el mejor de los casos, una premisa convencionalmente establecida; los otros, dogmáticamente argumentan a favor de un racionalismo sustentado en bases irracionales.
Centrémonos más específicamente en uno de los aspectos claves de la controversia deconstructivista: J. Hillis Miller, uno de los exponentes del deconstructivismo norteamericano, postula que el lenguaje del criticismo “está sujeto exactamente a las mismas limitaciones y encrucijadas que el lenguaje de las obras que analiza” (1979: 230). Por supuesto, debemos asumir que el autor de este postulado, presumiblemente existe fuera del lenguaje del criticismo, como para poder realizar comentarios sobre él. Sin embargo, Hillis Miller rápidamente genera una movida estratégica para cubrir su costado más débil, asumiendo que la deconstrucción “no brinda una opción para escapar del nihilismo, o la metafísica, y sus misteriosas relaciones de inherencia... no habría salida”. La deconstrucción puede sin embargo oscilar dentro de esta inmanencia de modo tal que “nos conduzca a un extraño límite, una región fronteriza desde cuya perspectiva podamos vislumbrar con amplitud, el otro lado (‘un más allá de la metafísica'), aun cuando este otro lado sea inalcanzable, y en rigor de verdad, ni siquiera exista para el hombre occidental” (Miller 1979:231).
Entonces, en esta tierra fronteriza , a la que ocasionalmente aludió también Nietzsche, no podemos estar ni dentro ni fuera de ella, sino que más allá de todo formalismo y de toda lógica, estemos donde estemos, siempre estamos dentro del texto, donde quiera que éste se encuentre, por ende no podemos conocerlo. Este osado reconocimiento, bastante interesante, rodea al sentido del “Barbero de Sevilla” de Bertrand Rusell, que declaraba “ yo afeito a todos aquellos, y solamente a aquellos, que no se afeitan a sí mismos”, frente a quien se impone la obvia pregunta ¿se afeita a sí mismo?. Si lo hace, entonces está condenado, pero si no lo hace también lo está. Asumiendo que nuestro pobre barbero se mantiene dentro de los límites textuales de su declaración, él estará medianamente inclinado a continuar con su afeitada diaria, no conciente de la posición incierta en la cual se ha colocado a sí mismo. La pregunta concerniente a la aplicación lógica de su navaja sobre sí mismo, por otra parte, proviene desde el exterior, desde una perspectiva en la que la paradoja se vuelve potencialmente relevante. Entonces, parecería que en el caso de la paradoja del barbero, de alguna extraña forma, penetramos en la tierra prohibida, que la candidez anterior se ve definitivamente perdida, y que el punto de vista privilegiado desde el cual se realizara la pregunta permanece aún en el exterior.7 Pero si el exterior permanece encerrado en la prisión del lenguaje, entonces se encuentra todavía inexorablemente en el interior: no hay ningún metalenguaje legitimado, sólo las palabras qua palabras.8 Ahora bien, esta concepción de las cosas es analítica, aún cuando se rebele contra sí misma, ya que al hacerlo parece demostrar la validez de la premisa deconstructivista : la actividad deconstructiva se valida a sí misma al invalidarse. Obviamente, esto implica un paso adelante respecto de nuestro ingenuo barbero, quien creía aparentemente en la validez de su prédica, aun cuando debiera “afeitarse a sí mismo”. Pero después de que su existencia toma conciencia de que al hacerlo invalida sus propios postulados, no se encuentra sin embargo liberado de su dilema. Esto parece ser lo que está teniendo lugar en el deconstructivismo por estos días.9
Hillis Miller, sin embargo, continúa sosteniendo, del mismo modo en que lo hizo desde un principio, que la “justificación última” para la deconstrucción es que “funciona” (1979: 252). En realidad esto es asombroso. Se tiene la impresión de que Hillis Miller llevó a cabo un cuidadoso giro pragmático. Pero, en primer lugar, su afirmación también involucra una profesión de fe, un compromiso irracional con lo irracional, por así decirlo. Tal y como señaláramos, por ser éste un compromiso relativamente leve, pasa habitualmente inadvertido. En segundo lugar, sin embargo, implica además un argumento circular. Los deconstructivistas no sólo declaran poder deconstruir todos y cada uno de los textos, sino que también algunas veces ingeniosamente admiten que el procedimiento deconstructivo se subvierte a sí mismo en su aplicación, y en la medida en que el procedimiento “funcione”, será de este modo validado. Ante ello una pregunta debe ser formulada: ¿“funciona” aplicado a su propia actividad, es decir, a sí mismo? Ante lo cual, la respuesta probable es: Sí, ya que se subvierte a sí mismo. Entonces, ¿subvierte su propio funcionamiento aplicado a sí mismo? Ante tal interrogante, se responderá: ¡Por supuesto!, si es que “funciona”, y de hecho lo hace , entonces se subvierte a sí mismo. Quizás la conclusión, si es que alguna puede formularse, no sea otra que la siguiente: si la deconstrucción “funciona”, entonces “no funciona”; pero entonces ésta es la evidencia de que “funciona”... O tal vez simplemente: esta “funcionalidad” de la deconstrucción es en sí misma paradójicamente indecidible. El deconstructivista astuto probablemente celebre tales conclusiones. De hecho, frente a su espléndida teología negativa cualquier argumento resulta insignificante. Antes de que sus críticos logren ganarle el último round en la discusión, el deconstructivismo invariablemente trazará una maniobra evasiva. Volveremos brevemente sobre este problema más adelante.
Los relativistas hermenéuticos nos dicen que estamos atrapados en nuestro propio “horizonte histórico” (en términos de Gadamer). No puede existir ningún sujeto independiente de su contexto, porque el sujeto se ve inmerso en una tradición particular, con todos los “prejuicios” que ésta implica (1975 (1984):235-44). De allí que sólo podamos comprender los textos de otras culturas únicamente desde el contexto de nuestra propia cultura. El entendimiento por consiguiente involucra dos contextos, el del autor, y el del intérprete. El segundo sólo puede deducir adecuadamente el sentido de un texto mediante la “fusión de horizontes” Gadamer (1984):273). Es decir, que uno no debe interpretar textos sólo desde el interior del propio horizonte: una afirmación que circunscribe las limitaciones de todas y cada una de las interpretaciones. El problema radica en que, desde que dos culturas radicalmente distintas no comparten los mismos prejuicios fundamentales, lógicamente hablando no es posible comprender textos de otras culturas –a menos que se asuma una perspectiva trascendental, pero el relativismo hermenéutico excluye tal perspectiva.10 Por lo tanto, ipso facto, no podemos comprender textos de otras culturas. Sin embargo, los relativistas hermenéuticos sostienen que es posible esta comprensión, de un modo relativamente adecuado gracias, a la “fusión de horizontes”, y para ello deben liberarse de los límites de su propio horizonte; de algún modo, ellos solos, deben elevarse hacia algún nivel libre de contextos, mientras los demás intérpretes permanecen dependientes de sus propios contextos. Por supuesto que puede formularse ante todo esto una objeción que es común a todas las hipótesis relativistas. Considérese por ejemplo, a la luz del relativismo de Kuhn, la proposición “todo conocimiento es generado desde el interior de un paradigma”.11 ¿Fue generada esta proposición por el paradigma, o no? Si lo fue, entonces es autorreferencial, y en consecuencia está históricamente condicionada, no se trata por ende de un universal y es inaplicable entonces a sí misma. Si no lo fue, en cambio, su objetividad sólo puede ser sostenida postulando una perspectiva, lo cual contradice su afirmación. Los relativistas pueden pretender que su conocimiento se encuentra garantizado más allá de cualquier paradigma, pero esta posición trascendental los sitúa sobre fundamentos sumamente contradictorios (e implicaría abandonar sus propias premisas); ¿por qué han sido ellos –y nadie más– los que recibieron el privilegio de tal mirada digna de un dios?12
Los subjetivistas interpretativos no están libres de problemas. Fish, por nombrar sólo a uno, postula un abordaje interactivo entre el lector y el texto: el lector influye sobre el texto y viceversa (por ejemplo (1976):465-85). Aquí, desde el principio, puede parecer que el crítico tiene una libertad ilimitada para elegir entre heurísticas interpretativas y estrategias, él sin embargo queda comprometido –al menos tácitamente– con una comunidad interpretativa . Y aunque esto pueda parecer semejante al paradigma “subjetivo” o “intersubjetivo” de Kuhn, no lo es. Kuhn ve a la comunidad científica como un grupo de Maestros con sus discípulos. La comunidad interpretativa de Fish, en cambio, tiene más puntos de contacto con una comunidad a-crítica de científicos, cuyos conocimientos son impuestos tácitamente, de modo tal que tienden a adoptar cánones de pensamiento basados únicamente en argumentos de autoridad, como la comunidad que describiera Michael Polanyi 1958).13 Pero ¿cómo adquieren estos conocimientos tácitos? Pues, en el aula, debemos suponer, quizás de una manera análoga al modo en el que Culler describe la adquisición ideal de la “competencia literaria” por parte de los estudiantes. Los argumentos de autoridad, sin embargo, se tornan algunas veces asfixiantes. Además, ¿qué es lo que hace válidos a los actuales cánones de aceptabilidad, en un mundo de contingencia y cambio en el que las verdades de ayer pueden convertirse en el sinsentido de hoy, y viceversa? Resulta interesante que la visión de Polanyi se aparte del canon y se enfrente a la comunidad científica como una indeseable contradicción, aunque Popper la vea como un adecuado reconocimiento del papel de los maestros. Parecen haberse invertido las cosas, ya que se supone que Popper es el racionalista y Polanyi –aunque él probablemente lo niegue– se encuentra aparentemente en el otro extremo, tan “irracionalista” como Kuhn. En consecuencia, un determinista reflexivo ¿no quedaría tan expuesto como lo está un subjetivista o un relativista?
Pero esto podría ser injusto. Quizás, en última instancia, llega efectivamente al aula. Cualquier enseñanza estará siempre expuesta a cuestionamientos, a cambios, y aquí yace la fuente de la intersubjetividad interpretativa. Supongo que Fish estaría de acuerdo con este punto. Pero lo que puede ocurrir dentro del ámbito mental en el que se produce el conocimiento, es otra historia. Galileo enseñaba en las aulas el modelo Ptolomeico, mientras que independientemente de ello creía en su propia interpretación. Por cierto, escuché a más de un teórico crítico admitir que enseña literatura mediante un método bastante tradicional; de esta manera, la tarea pedagógica se torna poco menos que un fastidio. Significativamente, Bacon llamó a los claustros reinos de la mente, y a los profesores tiranos y conquistadores. Quizás siguiendo sus consejos –ya que él nunca aplicó lo que predicaba– debamos dejar de lado nuestras ideas sobre todos los marcos teóricos y las comunidades interpretativas. Así podremos sólo considerar los “hechos”, manteniéndonos, por supuesto, al margen. Pero entonces, hemos retrocedido a las antiguas teorías de inspiración positivista. Y los positivistas, como todos sabemos, también ocultan –convenientemente bajo la alfombra– algunos de sus anómalos pre-supuestos
Puede parecer que mi exposición resume en pocas palabras estas complejas teorías, de un modo intencionado. Esto, lo admito, es aconsejable a veces. Las reacciones contra las reseñas breves tienden a rendir un culto exagerado a los idólatras que pasan la vida entera tributando homenaje a sus selectos autores. Yo, en cambio, prefiero presentar esta reseña breve con el propósito de contextualizar a continuación, adecuada y panorámicamente, los marcos teóricos actuales, resaltando una vez más la afirmación de que la proliferación teórica actual no puede conducir de una manera convincente a ninguna teoría monolítica superadora. Esto puede hacer surgir algo más que una leve inquietud, ya que la atmósfera generada por estas teorías a veces parece haberse contagiado entre los estudiantes jóvenes y entusiastas, por lo que a la larga esto puede resultar decepcionante. Desgraciadamente, en lugar de dedicarse a los problemas centrales, incluyendo el complejo de relaciones interdisciplinarias, la energía más de una es desperdiciada en disputas improductivas en torno a divergencias triviales. Aquellos que retroceden espantados ante los postulados radicales de los subjetivistas, relativistas, indeterministas y otros, aparentemente a veces no se dan cuenta de que ellos mismos constituyen un síntoma de la profunda crisis que afrontamos. Por otra parte, los que preferirían ser iconoclastas, como los deconstructivistas, presumiblemente el grupo más revolucionario de ellos, están demasiado ocupados en desmantelar una estructura que de todos modos se está desintegrando rápidamente por sí misma.
Entre los deterministas y los indeterministas actualmente la balanza se inclina por los segundos. Como sostendré más adelante, esto es además lo esperable. En cada siglo, en Occidente, las estructuras artísticas tomaron como modelo las estructuras científicas, y las perspectivas culturales del mundo en general; esto se verifica especialmente a partir del período Barroco. De ningún modo estoy diciendo que exista un vago isomorfismo o influencias bilaterales entre el arte y la ciencia, o entre el arte, la ciencia y la “realidad”. Tampoco me refiero a una noción opaca de Weltanschauungen.14 Por el contrario, me refiero a modelos de organización que involucran amplios marcos conceptuales, gracias a los cuales se organiza el mundo. Una suerte de humor de la época que se expande hacia todas las formas de la labor intelectual humana. Para ilustrar este fenómeno, brevemente acudiré a la ciencia y a la matemática.
Cuando se acallaron los ecos provenientes principalmente de la teoría del campo electromagnético de James Clerk Maxwell, de la filosofía nietzscheana, y de artistas como Stéphane Mallarmé entre otros, hacia finales del siglo XIX, una nueva perspectiva del mundo comenzó a tomar forma, aproximadamente en 1905 con la aparición de la teoría de la relatividad especial de Albert Einstein. Poco después, la “teoría” de los “modelos lógicos” que elaboró Russell en su Principia Mathematica demostró que los sistemas conceptuales, aún los más sólidos, sólo aparecían garantizados por parámetros provisionales. Y el sueño de David Hilbert de reducir toda la matemática a un pequeño conjunto de axiomas indubitables fue destrozado en 1931 cuando Kurt Gödel publicó sus teoremas, tan inesperados como incómodos: o bien, (a) el valor de verdad de un sistema no puede ser determinado a partir de su propio conjunto de axiomas, sino sólo desde un axioma exterior (el “ principio de incompletud ”), o (b) un sistema dado no puede librarse por completo nunca de sus contradicciones ocultas (el “ principio de inconsistencia ”). En los años siguientes, otros teoremas igualmente incómodos y displacenteros fueron publicados. Howard De Long (1970) los denomina “teoremas limitadores”, un nombre de algún modo tan falaz como inapropiado, puesto que los teoremas son tan limitadores en cuanto impiden que el sistema “cierre”; pero son ilimitados en tanto y en cuanto cualquier conjunto de axiomas de una semejante complejidad a la de los números habrá de generar proposiciones cuya verdad o falsedad no podrá decidirse sin convertir a ese conjunto en parte de un sistema mayor, que a su vez generará proposiciones ulteriores indecidibles, dentro de un sistema aún más amplio, y así sucesivamente. No puede haber un final.
Esta incertidumbre epistemológica puede compararse con el revuelo provocado en el campo de la física, particularmente durante la década de 1920. El principio de incertidumbre de Werner Heisenberg, un equivalente en física de la “indecidibilidad” de Gödel –esto, si aplicásemos el falsacionismo popperiano–, demostró de un modo concluyente que no podemos describir fielmente la realidad ; sólo podemos indagar en nuestro propio conocimiento de la realidad. La complementariedad de Niels Bohr excluyó la posibilidad de conocer distintos patrones de comportamiento de las partículas atómicas en forma simultánea. Y la relatividad einsteniana, que evitó alinearse con la mecánica cuántica hasta el punto de perpetuar la incertidumbre reinante dentro del conocimiento científico, sostuvo un concepto de universo que refutaba la física newtoniana. Pero lo que es más importante para las cuestiones actuales, como veremos, es el intento de David Bohm de reconciliar de una vez por todas la mecánica cuántica con los enfoques relativistas del universo, a partir de una vasta red de articulaciones, a la cual denominó el “ orden implicado” o bien como una potencialidad que, partiendo de los hechos reales, constituye el “ orden explicado”. Como es bien sabido la Relatividad implica marcos conceptuales de referencia, ya sean ellos compatibles en grado variable, o recíprocamente excluyentes. Esta noción de los marcos de referencia relativos, que será abordada más adelante en este artículo, fue denominada “perspectivismo” por Ortega y Gasset, relacionándola con los contextos socio culturales (1923).El “Perspectivismo” presupone un universo plural, a nivel cuantitativo para abordar los marcos conceptuales socioculturales. La Certidumbre y la Determinación, – metas científicas desde Galileo a Bacon o Boyle – parecen un sueño perdido para siempre.
Dejando de lado los fenómenos de la física, la teoría clásica de la comunicación también ha sido socavada. La teoría clásica era determinista. La teoría contemporánea, o mejor dicho, la Perspectiva Emergente resulta compatible con la “nueva cibernética”, que se basa más estadísticamente que determinísticamente, en el principio de distropía : se trata de un parámetro de orden, delineado desde el desorden obstaculizador o entropía.15 La pregunta que surgió durante las décadas de 1940 y de 1950 es la siguiente: si el universo, conforme a probabilidades estadísticas es tan “desordenado”, ¿por qué encontramos en él tanto orden? La respuesta a la que se llegó tras mucha investigación y luego de varios fracasos, consiste en una lucha contra la segunda ley de la termodinámica –condicionada a partir del nivel de los códigos genéticos hasta la conciencia–, que postula grados progresivos de caos. El código genético que involucra un grupo de reglas estadísticas para la generación abierta y la incompleta, en un sistema ilimitado, organiza los problemas en islas de distropía, rodeadas por un mar inorgánico en incesante descomposición. El funcionamiento del código, como ahora ya es un lugar común, es semejante al uso del lenguaje dentro del cual dos o más interlocutores intercambian mensajes. El mensaje verbal de un hablante es indeterminado, y puede o no modificar el conocimiento o el comportamiento del receptor en diversas formas. El receptor, a su vez, se encuentra en una situación de incertidumbre respecto del mensaje que él/ella va a escuchar. Digo incertidumbre en lugar de ignorancia porque él/ella saben (o esperan) que el mensaje encaje dentro de un rango de posibilidades. Una vez más nos encontramos con las probabilidades. Todo modelo “exacto” no puede ser más que estadístico, y de ahí que por siempre habrá de mantenerse en cierto grado de incertidumbre también.
Al igual que la teoría cuántica reemplazó al modelo clásico en física, el enfoque “neo cibernético” reemplazó a la teoría clásica de la comunicación. En esta nueva etapa, y refiriéndonos en general al marco conceptual reinante: incompletud, apertura, inconsistencia, modelos estadísticos, indecidibilidad, indeterminación, complementariedad, polivalencia, interconexión, y marcos y campos de referencia están a la orden del día. Algunos teóricos han intentado recientemente descubrir puntos de contacto entre la Perspectiva Emergente y las tendencias en el Arte.16 Sin embargo, la introducción de la Perspectiva Emergente en general permanece en la oscuridad para las disciplinas humanísticas : obviamente temida por algunos y mencionada sólo al pasar por un puñado de otros teóricos.17
¿Por qué existe esta resistencia general a adoptar esta Perspectiva Emergente ? Aceptarla no implica, contrariamente a lo que se cree, retroceder hacia el nihilismo o hacia el irracionalismo. En realidad, en los términos más amplios posibles se encuentra bien cercana esencialmente a los postulados de Gödel. Esta Perspectiva Emergente obliga a optar entre la completud (clausura) y la consistencia. Un sistema matemático sólo puede ser axiomatizado aceptando la paradoja (inconsistencia), o de otra manera permanecerá por siempre abierto. Pero una paradoja como ésta necesita ser construida de un modo global, no meramente “local”. La revelación deconstructivista del indecidible (ilógico) en el presumiblemente decidible (lógico) del texto, es en sí misma una operación lógica, pero al distinguir entre el marco textual y el universo de la intertextualidad total, la operación “quirúrgica” del deconstructivista y su propio marco de referencia, podríamos darnos cuenta que la clausura en un nivel significa apertura en el otro. La determinación se revierte en indeterminación, y así sucesivamente... En realidad, los matemáticos y los científicos teóricos están por lo general más avanzados sobre este punto que aquellos dedicados a las disciplinas humanísticas, ya que los primeros demostraron que es obviamente intuitivo y hasta natural el camino hacia la paradoja, y que el intento por eliminar todas y cada una de las paradojas es desviado ad hoc , evasivo y antinatural. Por consiguiente, la aceptación de la Perspectiva Emergente iluminará las virtudes de este camino obviamente intuitivo, que si bien no resulta elegante al menos nos brinda algún grado de ignorancia aprendida.
Finalmente, ingreso a la discusión propiamente semiótica (y aquí intentaré ser más específico, por razones obvias), antes de volver sobre la denominada Perspectiva Emergente.
Para Peirce, el signo –sinónimo de lo que también se denomina representamen– es según generalmente se considera, algo que para alguien indica algo, acerca de algún tópico o capacidad. Un signo crea en la mente del destinatario otro signo equivalente, o quizás más desarrollado, que es el interpretante del primer signo. Un signo también denota su objeto, de modo intencional o extensional, como una especie de idea más que como una referencia a un objeto “real”. Este interpretante, en la interacción, deja de ser una idea para convertirse en otro signo, que tiene a su vez su propio interpretante y así sucesivamente, ad infinitum. En este contexto, el objeto de representación:
puede no ser más que una representación con relación a la cual la primera representación es su interpretante ... [Y el] sentido de la representación puede no ser más que otra representación. En realidad, no existe más que la representación en sí misma, totalmente desnuda de sus irrelevantes ropajes. Ropajes que sin embargo no pueden quitarse nunca del todo, sino sólo ser reemplazados por algo más diáfano. En consecuencia, aquí tenemos una regresión al infinito. Finalmente, el interpretante no es más que otra representación... y como tal tiene a su vez su interpretante. De allí, parte otra serie infinita (Peirce (1960):CP. 1.339).
Queda claro que con esta imagen se nos presenta un equivalente de la paradoja de Zenón con la cual Peirce estuvo siempre fascinado. ¿Cuáles son las implicancias de semejante regresión infinita de la significación? La primera de ellas involucra la polémica de Umberto Eco acerca de que el problema en Semiótica es la cuestión de la retrospección (“aliquid stat pro aliquo”, lat. la parte por el todo). Y retrotraerse implica la capacidad de mentir, porque mentir consiste en decir algo presente que refiere a un “hacia atrás”, a algo que la proposición no dice (Eco, 1976:6ff). La negación resulta obviamente una precondición de la mentira. Pero debemos retroceder más allá, mucho más atrás, hacia la verdadera fundación de la lógica moderna: llamada por Sheffer la “función potente”, su equivalente cercano puede encontrarse también en la “lógica de los relativos” de Peirce, ambos conceptos exponen la noción de un “corte” primordial, un “corte” en lo que Peirce denomina “el tejido de proposiciones posibles”, es necesariamente finito, e implica una apertura incompleta, cuyo patrón se define más por los términos que excluye (por ejemplo, lo que es negado) que por los que involucra (por ejemplo, lo que es ); a partir de allí una creciente vaguedad (inconsistencia) se introduce en los cimientos sobre los que se erige el edificio de la lógica. La forma lógica de la negación, así como también la de la inferencia, puede ser generada por esta inconsistencia primigenia, que introduce la noción de lo finito, y en consecuencia “todo el funcionamiento de la lógica radica allí” (Whitehead 1938:52).
Significativamente, E.H. Hutten, filósofo de la ciencia, señala respecto de la “función potente” de Sheffer que “está en la esencia de la racionalidad el abolir las contradicciones; pero la lógica –aún siendo el objeto más racional que existe– es generada por la contradicción” (1962:178). Además, este fundamento de inconsistencia dictamina que dos proposiciones, p y q, no pueden existir simultáneamente, puede darse una o la otra, pero no ambas. Este discreto estado de cosas dista sin embargo de la noción peirciana de la continuidad del signo, porque un continuo escapa a las exclusiones de la inconsistencia; se trata de la inmanencia del infinito introyectada en lo finito. Se disuelven las inconsistencias. Si como afirma Peirce todos los signos constituyen un continuum , entonces todo quiebre constituye al menos el principio aparentemente efímero de una onda expansiva. Aún aquí encontramos las raíces de la indeterminación. Parece que los indeterministas, y especialmente los deconstructivistas, están en lo cierto, sin embargo, al menos en parte, sus argumentos están equivocados; lógicamente, nuestro mundo lógico occidental, está edificado sobre la base de principios contradictorios.
Ahora bien, esta referencialidad hacia atrás de Eco que también implica inconsistencia y genera potencialmente la mentira no ha sido nunca mejor ilustrada que en dicha paradoja griega, que fue significativamente por Jacques Lacan en su polémica sobre el análisis (1981):136-48. Lacan sostiene que la proposición “ yo estoy mintiendo ” no encierra una antinomia si se la contextualiza, pero en tal caso aparece en referencia directa a una proposición pasada o futura. Por otra parte, si el “yo” de “ yo estoy mintiendo ” en el pensamiento formal es construido para ser a la vez el sujeto del enunciado y de la enunciación, entonces la paradoja sobreviene; pero tal razonamiento analítico, afirma Lacan, es de todos modos absurdo. Más significativamente aún, la cinta de Moebius que subyace en varios esquemas lacanianos es la contrapartida visible de la paradoja del mentiroso. Una línea unidimensional (Verdad ) sobre la cinta es plegada sobre sí misma para producir una doble dimensionalidad (Verdad y Falsedad), pero desde el momento en que la línea sobre la cinta carece de interioridad o exterioridad, no hay ni verdad ni falsedad, metafóricamente hablando.
Como sostuviera en otro lugar, la elaboración de ficciones es dependiente de la capacidad primordial de mentir.18 La ficción, por supuesto, es “irreal”, pero desde el momento en que el lector debe poseer necesariamente cierto grado de conocimiento del “mundo real” para comprenderla, una lectura adecuada exige información (tácita en un punto y conciente en el otro), tanto de lo “real” como de lo “irreal”; pero en la medida en que no puede trazarse una línea divisoria absoluta entre ambas puede no ser “real” ni “irreal”, en un sentido absoluto, así es. Hans Vaihinger y F. Nietzsche, cada uno desde su propia perspectiva, han sostenido lo mismo. Podría parecer, entonces, que el pensamiento lógico riguroso resulta incompatible con los postulados que desarrollamos hasta aquí, pero, atrapados en nuestros mandatos culturales, no podemos resistir nuestra voluntad de intentar compatibilizarlos (por ejemplo, la hipótesis de R.D. Laing).
La inconsistencia, por lo tanto, radica en el corazón mismo de la semiosis “enroscada” como una serpiente, replegada sobre / hacia sí misma. Esto es en general ineludible, a pesar de nuestros esfuerzos para establecer criterios de selección viables.
Podría decirse que Peirce es un realista metodológico (como el hacedor de ficciones) pero un idealista ontológico (Rescher & Brandom 1979:113-17 y 123-26). Esto no es una contradicción en sus términos, como podría parecer. Los objetos del conocimiento son el producto de la investigación, no su causa . En consecuencia, lo metodológicamente real es ontológicamente ideal, y para Peirce en el intersticio entre ambos radica la inconsistencia y la incompletud, o lo que él habitualmente denomina en sus escritos vaguedad y generalidad. Esto nos lleva directamente a la noción peirciana de continuidad. Peirce sostiene que la continuidad es de central importancia para la filosofía. Las ideas o interpretantes –es decir signos– consisten en un continuo fluir o “desplegarse” para influir sobre otras ideas, y a medida que la idea se despliega, su capacidad de influencia pierde intensidad, aunque sus propiedades virtualmente se mantengan inmutables. Esto explica la máxima peirciana que dice que no existe comprensión que no se vea determinada por conocimientos previos. Las ideas, entonces, se extienden como un continuo, tanto en el espacio como en el tiempo, del mismo modo en que “el presente se conecta con el pasado a través de una serie real de pasos infinitesimales” ( CP. 6.109). Dicha continuidad “es expuesta por la lógica de los relativos como nada diferente de una forma elevada de lo que conocemos como generalidad. Es una generalidad relacional.” ( CP. 6.190) Esta “forma elevada” es una de las aspiraciones de nuestra propia lógica clásica. Pero en la medida en que el continuum está absolutamente fuera de nuestro alcance, difícilmente podamos esperar comprenderlo adecuadamente.
Es cierto: un continuum es incomprensible si intentamos exponerlo, razonando a partir de la finitud, a una multitud de individuos dada. Considérese, por ejemplo, una línea. Ningún punto puede existir realmente a lo largo de ella, pero si existiera, el continuum quedaría interrumpido, o mejor dicho, “cortado”. Hay una infinidad potencial de “sitios” de los que un punto puede ser abstraído, pero esta potencialidad permanece indeterminada, al menos hasta que se traza un punto específico; pero cuando esto ocurre, la línea como continuidad totalizadora, ha sido mutilada. Bajo esta perspectiva la noción de que la sintaxis es discontinua, mientras que la semántica (por ejemplo, el sentido) es continua, debería convertirse en una mera apariencia. Los signos como marca en un papel o sonidos en el aire, pueden diferenciarse fácilmente para el hablante con competencia: los signos escritos están demarcados por espacios en blanco y signos de puntuación, y su contraparte hablada, por períodos de silencio y rasgos fonéticos particulares. Es obvio que el sentido no se encuentran tan claramente demarcado. Podríamos abrigar la idea de que no existen múltiples sentidos, sino sólo Un sentido, como el continuum de signos de Pierce, que es divisible pero no dividido. Las explicaciones deberían “cortar” este espacio de sentido, como se hace con losobjetos físicos, “cortar” sin destruir el objeto.
W.V.O. Quine significativamente señala que el género de todas las proposiciones, debería incluir, no sólo aquellas que han sido expresadas/escritas, sino también aquellas que pudieron haberlo sido , y no lo fueron. (1953:1-19). Por supuesto que éste género de proposiciones es imperativo por la posibilidad de mentir de Eco. En forma indirecta, Quine utiliza su hipótesis para refutar a la sinonimia y la traductibilidad, que son caras a los deterministas. El condicional contrafáctico de Quine es también desarrollado, debemos presumir que independientemente, por Whitehead, quien proclama lo posible en contraste con lo real. Lo real es atomizado, disgregado; lo posible es continuo, potencialmente de extensión infinita. Entonces, ante contextos espacial y temporalmente variables, el sentido involucra un vasto rango de posibilidades pasadas, presentes y futuras, que deberán tener las propiedades de un continuum. Reemplazando los conceptos pierceanos de ideas, interpretantes, creencias e incluso mente –todos ellos signos– por “significados” llegamos virtualmente... ¡a la misma imagen!
Más aún, alguien podría pensar que las ideas –o significados– son inherentes a los objetos reales, ya que si un perro y la idea de ese perro estuviesen separados, entonces debería existir una relación entre ellos, y consecuentemente una idea de esa relación, y así sucesivamente, ad infinitum . Pero precisamente es esta la disputa entre Peirce y Whitehead que surge de la filosofía “relacional” que comparten. Dado un vasto universo de signos, pasado, presente y porvenir, cada sentido propuesto puede del modo más adecuado ser descripto, explicitado, componiendo un denso e innumerable continuum. Los signos no son objetos, son procesos; no tienen significado, no señalan hacia un sentido, ellos constituyen el sentido, mientras realizan su incesante danza frente a nosotros. Y lo que aún es más importante, afirma Pierce, no hay ningún signo ni primigenio ni final. Los signos como procesos son series infinitas de cajas chinas, en las cuales no existe la caja más grande ni la más chica. Se trata de un fluido : reminiscencias del Anti-Oedipus de Deleuze y Guattari. Por muy sugerente que esta idea del sentido como un continuum pueda parecer, Mortimer Taube, quien brevemente se aproximó a ella, señala que sigue siendo demasiado vaga (1961:115). Sin embargo, creo yo, que a la luz de la “ Perspectiva Emergente ” , esta idea es más que una mera especulación.
Nada menos que un pensador abstracto como Heisenberg ha utilizado también la figura cuasi-Aristotélica del potencial-real (1958). Más significativamente aún, Bohm demostró, en su interpretación radical, que la teoría cuántica exige la necesidad de una visión totalmente renovada de lo que denominamos “realidad” (1980). La teoría cuántica había conservado en parte la visión Cartesiana del mundo conformado por un infinito conjunto de puntos en un espacio tridimensional. Bohm, la reemplaza con una imagen “holográfica”, inspirada por los hologramas (del griego holo = “total” y gram = “escribir”) . Es sabido que un rayo láser puede ser dividido, haciéndolo atravesar un cristal semi espejado. Parte del rayo reflejado choca con un objeto, por lo que se difracta en él y regresa para reunirse en parte con rayo original, produciendo un patrón sumamente complejo, el holograma, en una palca fotográfica. Cuando dicha placa, después de procesada, es iluminada por un rayo láser, se obtiene una reproducción exacta del objeto, aparentemente tridimensional. La propiedad más importante del holograma, es que cada parte de la placa fotográfica puede reproducir la imagen en su totalidad, aunque a más pequeña la parte, mayor será la vaguedad de la imagen.
Bohm, en su hipótesis quántica de la interconectividad del universo, relaciona al holograma con el orden implicado o plegado del universo (el reino de las posibilidades). Las coordenadas cartesianas, entonces, son capaces de expresar el orden explicado o desplegado (los hechos). El primero de estos ordenes, no puede expresarse, sólo puede conocérselo implícitamente, el segundo puede expresarse mediante las leyes clásicas. El primero es fluido, un continuo, una trama sin costuras, el segundo es discontinuo, veteado. La analogía entre la teoría cuántica y el holograma descansa en el postulado de aquella relativo a que, a nivel profundo, la materia no puede ser entendida como constituida por partículas localizadas, ni por campos de ondas moviéndose en el espacio. Posee los atributos de ambos, y al mismo tiempo, y estrictamente hablando, no existen partículas ni campos. Llamativamente, el universo “holográfico” de Bohm es, del modo en que se postula, lógicamente inconsistente, y es incompleto por estar en continuo fluir. Y no podemos conocerlo; por ende, es indeterminado. El modelo de Bohm, encaja de modo completamente adecuado en la “ Perspectiva Emergente” a la que me he referido. Más aún, si pensamos en la intertextualidad no ya como el campo de todos los posibles sentidos textuales, ni como un conjunto dado de lecturas reales en un tiempo dado, captamos una esclarecedora imagen de la metáfora. La intertextualidad no es el texto localizado frente al lector, ni la red de sentidos textuales; es ambas al mismo tiempo, y el texto es tan parte del campo como el campo del texto. Ahora regreso a Pierce, quien desarrolló una imagen similar.
Pierce señaló que “una serie sin fin de representaciones, cada una de ellas representando a la que la precede, debe ser pensada como limitada al interior de un objeto absoluto” ( CP. 1.339). Pierce, correctamente denomina a este objeto absoluto el interpretante final , pero con ello parece estar contradiciéndose, especialmente a la luz de su inclinación hacia la infinitud y las paradojas de Zenón, y en función de las que no puede haber ningún término último. Este interpretante final, o signo, podemos conjeturar (y Eco así lo proclama), “no es realmente un signo, sino que es todo el campo semántico, como la estructura que conecta y correlaciona a los signos entre sí” (1985:69). Yo sugeriría que, dado el continuum pierceano, este campo semántico debe ser en sí mismo un signo, quizás un hipersigno , como Pierce denomina a un grupo de signos agrupados –en realidad deberíamos llamar a este vasto conglomerado el “hipersigno cósmico”. Si es así, entonces el continuo reticular de signos puede ser el conjunto de posibles (un “orden implicado”), y los signos discontinuos (un “orden explicado”). Por ende, todo parece estar envuelto en un solo paquete. Pierce, Bohm, intertextualidad: el sentido como un continuum.
Charles Hartshorne, sin embargo, sostiene que Pierce no previó la cuantización de la física moderna (1973:191-201). Pierce, según él observa correctamente, afirmó el continuum real , y lo justificó mediante el argumento de que la continuidad mantiene todas las posibilidades abiertas en simultáneo. Hartshorne contradice este argumento afirmando que la discontinuidad excluye parte del rango de posibilidades y por ello este continuum no puede, bajo ningún punto de vista, ser actualizado; la discontinuidad no excluye nada excepto la continuidad. Sin embargo, Hartshorne no menciona en ningún momento la interpretación que Bohm sobre la teoría cuántica, en la cual incluye tanto la red continua como a la discontinuidad.19
Pierce ofrece un modelo para dar cuenta de esta interconectividad. Podemos imaginar el reino total de “aserciones” posibles, nos dice, como un “libro de páginas sueltas, unidas en algunos puntos, o conectadas de otra forma” ( CP. 4.512). La primera página de este libro es la tradicional “página de afirmación,” un “universo de individuos existentes [por ejemplo, entes]”; otras partes de él representan proposiciones afirmadas, atinentes a ese sub-universo particular. Un “corte” en esa página permite pasar a la página siguiente, hacia áreas de proposiciones concebidas que aún no han sido actualizadas. Los sucesivos “cortes” en esa página y las sucesivas(...), entonces, permiten “pasar a palabras que, en los mundos imaginarios de los otros cortes, aparecen en sí mismas representadas como imaginarias y falsas, pero que pueden, por todo ello, ser reales y por lo tanto tener continuidad con la propia página de afirmación , aunque esto es incierto” ( CP. 4.512).
Pierce nos invita a contemplar esa “página de afirmación, generalmente en blanco” como una película sobre la cual existe la todavía-no-revelada fotografía de los entes del universo. Pero esto no es una imagen literal, ya que cuando consideramos históricamente el rango de entes que han sido afirmados como reales, deberíamos concluir que este “libro” no puede ser otra cosa que un continuum que “claramente debe contener más dimensiones que una superficie y quizás un suelo; y supondremos que es plástico, para que pueda ser modelado en todo tipo de formas, sin que la continuidad y conexión de sus partes resulte quebrada jamás.” ( CP . 4.512). Pierce continúa comparando esta dócil imagen topológica con un mapa en el cual cada punto de su superficie se corresponde con puntos de la siguiente superficie (y así sucesivamente); todo esto mientras la continuidad se mantiene inquebrantable. De esta manera, cada punto, cada “corte”, se corresponde con la inicial “página de afirmación” donde la situación actualizada de las cosas. Todas las páginas sucesivas representan entonces un conjunto de posibles –muchos de los cuales pueden, en otro tiempo y lugar, actualizarse.
Este “libro de afirmaciones” de Peirce resulta ser también una metáfora de aquello a lo cual Eco llamaba “semiosis ilimitada” (1985: 69ff.). Yo sugeriría una imagen aún más laberíntica que refleja tanto “el demonio de Laplace” como la idea de Dios. Considérese la idea de que la posibilidad de cada signo sea un punto (potencialmente el factor cartesiano) con una serie infinita de líneas que lo conectan a todos los otros puntos del universo (el factor no-cartesiano). Cada signo-punto es como un pulpo quimérico, cuyo cuerpo es el punto y cuyos tentáculos constituyen un infinito número de líneas que salen de él, listas para conectarse con uno o más de los otros signo-puntos, los que a su vez se convertirán entonces en su interpretante, y, por consiguiente, en otro signo-punto. (En realidad, más cercano a Laplace y a Dios, cada tentáculo debería tener en su extremo un ojo que le permita “ver” a todos los otros signo-puntos simultáneamente). 20
Este conglomerado absoluto de líneas, para ser fiel a las formas, tendrá ciertas características: (a) la totalidad puede ser “cortada” en cualquier punto y reconectada a través de cualquiera de sus líneas, como el amorfo “libro de afirmaciones” de Peirce; (b) en un instante dado, el conglomerado queda estático (la dimensión sincrónica), pero mantiene la posibilidad de establecer futuras conexiones (la dimensión diacrónica) –este instante no es el corte saussureano del árbol21 semiológico, se trata de todo el conglomerado presentado en bloque, conteniendo todas las posibilidades pasadas, presentes y porvenir; y (c) el conglomerado es autosuficiente, girando y plegándose sobre sí mismo, como el espacio-tiempo einsteiniano, (llamado universo “bloque”), o como un universo de infinitas delgadas cintas de Moebius interceptándose unas a otras en el punto en el que se pliegan. Sin embargo, (d) respecto de los usuarios de signos finitos, a diferencia de los “puntos-pulpo”, todas las observaciones y relaciones permanecen en su interior; no existe una visión global para las reglas de la inmanencia –comparable con la teoría cuántica, que aniquiló la perspectiva clásica del sujeto/objeto y del observador/observado.22 Y (e) no puede haber una descripción completa del todo puesto que de modo similar al “libro de afirmaciones” de Peirce, las conexiones lógicas no se mantienen iguales a lo largo del tiempo, y además, con nuestro limitado número de recursos y órganos sensoriales nunca podremos procesar todos los signos en un instante.
Ahora bien, ¡esto ES una intertextualidad extrema! Y sí que lo es, lo admito. Una adecuada imagen mental no-formalizable a punto tal que: (a) evita la problemática de la semiología saussureana cuyo corte sincrónico congelaba el proceso de significación; y (b) la semiosis indefinida , implicada en ella, resulta compatible con la indeterminación, incompletud, indecidibilidad, complementariedad, polivalencia, intertextualidad y continuidad de sentido, conceptos todos preponderantes en la “ Perspectiva Emergente”
Todas estas incertidumbres que surgieron hacia finales del siglo XIX y que se nos impusieron con toda su fuerza en la última mitad del siglo XX, nos plantean una opción. Uno puede aceptarla. De lo contrario, se debe adoptar otro marco conceptual. ¿Pero cuál? Así como lo señaláramos en el comienzo de este ensayo, los principales “ismos” están, todos y cada uno, íntimamente arraigados en una o dos premisas contradictorias. Por consiguiente, sobre estos cimientos, ninguna opción posterior estará garantizada. Aquellos que buscan absolutos no encontrarán otro recurso que refugiarse en los monasterios. Pero en realidad no hay necesidad de desesperarse. El postulado de Gödel, los otros teoremas limitativos, la teoría cuántica y la relatividad, no dejaron a todos los matemáticos, lógicos y científicos sin trabajo. En razón de verdad, el juego se volvió mucho más atractivo cuando ellos descubrieron que no debían tomárselo con tanta seriedad. En otras palabras, han aceptado en esencia “la tesis del pulpo”. Al hacerlo, ellos perdieron la certeza de un inmenso poder de resolución, pero por otra parte vastos e inconcebibles horizontes se abrieron ante ellos. En este sentido, la deconstrucción y el postestructuralismo son generalmente y en gran medida compatibles con lo que yo he denominado la “ Perspectiva Emergente ”.
|