Agustín Jimeno Valdés.
Lección nr. 3 ¿Cómo es posible la evolución?
1. Algunas cuestiones históricas y actuales respecto el conocimiento del mundo y la ciencia natural.
A continuación repasaré lo que podemos llamar paradigmas más importantes a lo largo de la historia respecto las ideas sobre el funcionamiento del mundo externo, para alcanzar con algún detalle la situación al comienzo del siglo XX.
Animismo.
En culturas primitivas, pero también hoy día en personas o grupos sociales de escasa aculturación, la interpretación más espontánea sobre el funcionamiento del mundo externo es lo que suele denominarse animismo; es decir la atribución a los seres y fuerzas de la naturaleza entidad personal y fuerzas parecidas a las que ejercemos en la vida cotidiana sobre los menudos objetos a nuestro alcance cotidiano. Así surge la identificación de los dioses del rayo y de las fuentes y de las cosechas y de la lluvia y de la vida y de la muerte. Y recordemos que este pensamiento es propio también de religiones y culturas sin duda superiores como la egipcia y la greco romana, si bien en estas ultimas fueron frecuentes las voces criticas como la de Sócrates – hasta cierto punto . y que fueron condenados a muerte por su impiedad con la que pervertía a sus jóvenes discípulos. El carácter de personal de estas fuerzas o estos dioses permitía la oración y el sacrificio mediante los cuales se intentaba conseguir el favor de estos dioses politeístas respecto las ingentes necesidades y calamidades que sufría el hombre. De forma secundaria aparecieron las castas sacerdotales expertas en la manipulación del miedo al arrogarse el monopolio de la comunicación con los dioses. No debemos negar que tales mecanismos impresos en lo más profundo del ser humano, como veremos después en nuestra lección de Sociobiologia, conseguían consuelo y aguante a los débiles humanos; debilidad desde luego de todos los tiempos y todas las épocas, incluida la nuestra debido a los insaciables deseos de posesión, poder y felicidad que alberga el hombre.
Un pensamiento profundamente antropocéntrico lo que no excluía paralelamente el surgimiento de verdadero conocimiento mediante la empiria.
Conocimiento empírico
El conocimiento empírico deriva simplemente de la experiencia; es decir de la observación que obtiene mediante el ensayo y error, formas correctas de conducta en todos los campos para conseguir los fines propuestos. Cuando sembrar y recolectar, la forma correcta de tallar la piedra o la madera o de cazar un animal o de construir una casa y por ende todo el inmenso desarrollo de la artesanía se basa en el conocimiento empírico que establece reglas normas y consejos para cada caso. En su aspecto más entrañable folklórico y pintoresco piénsese en los refranes del campesino respecto la evolución del año labriego y la previsión del tiempo, Con frecuencia y hasta nuestros días ambos tipos de pensamiento actuaban conjuntamente en un sincretismo que sin duda convenía a la salud mental del sujeto en cuento a integración de los conocimientos más o menos racionales y las creencias religiosas, místicas o meramente supersticiosas.
Cuando el saber popular por ejemplo, nos dice o nos decía que para reparar adecuadamente un huevo pasado por agua había que rezar un credo mientras hervía simultáneamente el actor ingenuo podía creer que el huevo se cocía por la intervención milagrosa del credo o bien por el efecto del hervido durante el preciso tiempo que duraba la recitación del credo. Este proceso actuaba y actúa inequívocamente en multitud de situaciones y de personas y podría condensarse en la conocida frase de
A Dios rogando y con el mazo dando,
Indicios de ete, pensamiento se encuentran en las más diversos campos y situaciones, si bien muchas veces su puesta en practica obedece más bien a la pura tradición y costumbre que a la creencia propiamente dicha, Cuando se bendice a los animales por San Anton, cuando se inaugura un edificio o fábrica bendiciendo las instalaciones o se procede al bautizo de un barco estamos ejerciendo esta línea de conducta humana, si bien como en el ejemplo del bautizo del barco de forma cada vez más lejana a la intención y pensamiento primero del que emanaron aquellas conductas.
Galileo y comienzo de una verdadera ciencia.
La ciencia galileana cumple ya prácticamente todas las características que he descrito en el párrafo anterior. La observación y experimentación reglada, La formulación de magnitudes como aceleración, masa y fuerza. La precisión de sus interrelaciones expresada en ecuaciones matemáticas. La previsión y manejo de sucesos futuros que contrastan las teorías establecidas. Su objetivo es la mecánica; es decir la estática y la dinámica de los objetos pesados y sus interrelaciones muy especialmente la composición de movimientos en formulas llamadas galileanas que fueron superadas más tarde para velocidades próximas a las de la luz por Lorentz y Einstein.
Galileo expuso sus doctrinas, como era común en aquella época en dialogos como Dialogo de la Nueva Ciencia que expresa ya en su nombre la convicción del propio Galileo de estar frente a un auténtico Novum. O bien El Dialogo sobre los Máximos Sistemas del Mundo.
Por la observación instrumental, con el recién descubierto telescopio descubre los cuatro satélites principales de Júpiter y sus movimientos así como las fases de Venus que emula las fases de la Luna. Con frecuencia exponía sus conocimientos en forma de criptogramas que enviaba, como era frecuente, a los científicos amigos proponiéndoles su solución. Todos conocen las dificultades que sufrió a consecuencia de sus descubrimientos; tema en el que no entraré señalando tan solo que también la ciencia tiene sus héroes y sus mártires.
Copérnico. Newton. Laplace. El auge y triunfo del determinismo.
En los siglos siguientes y bajo las mismas premisas galileanas los genios de Copérnico, Kepler, y Newton extendieron primero las leyes de composición de movimientos a todo el cosmos conocido; es decir el sistema solar en el cual Copérnico estableció su modelo heliocéntrico, Kepler describió las leyes de sus orbitas y velocidades y por fin Newton estableció una teoría general y universal de la gravitación que mantenía a los cuerpos celestes en sus orbitas y revoluciones.
La precisión de estas leyes y sistemas fue tan absoluta que hasta hoy día siguen gobernando los cálculos de los cohetes y sondas espaciales, salvo pequeñas irregularidades de las que da cuenta la relatividad general.
Ya en pleno siglo XVIII Kant se sirvió de todo ello para mostrar algunas conjeturas – mostradas . como validas – relativas al origen del sistema solar, teorías reescritas por al gran astrónomo francés, Laplace. Se cuenta como anécdota que con ocasión de presentarse ante Napoleón, este le preguntó, que donde quedaba Dios en sus sistema del universo, a lo que Laplace contestó: Sire; no he tenido necesidad de dicha hipótesis.. También se debe a Laplace la afirmación de que si se conociera completamente el estado del universo en un momento dado podría deducirse a partir de ello todos los detalles de la evolución del mismo a través de todos los tiempos. Los teólogos aunque ante este panorama se debatían respecto el lugar y explicación respecto la libertad y voluntad humana, aceptaban este determinismo total de la marcha del cosmos como presente en la mente divina que ausente de la dimensión temporal mantenía y permitía en si misma todos los acontecimientos del universo. El problema de la libertad en este contexto lideró las controversias teológicas de la época bajo el titulo de De libero arbitrio en las cuales fueron muy importantes teólogos españoles como Bañez y Molina que defendían soluciones diferentes las cuales no importan a efectos de estos apuntes de antropología.
Un episodio culmen del determinismo en la escala cósmica lo constituyó el descubrimiento del planeta Neptuno: Habiéndose observado algunas incongruencias de lo observado respecto lo calculado en la orbita de Urano, el astrónomo Leverrier supuso que se deberían a la presencia de otro planeta aun no descubierto señalando algunas de sus características de masa y orbita y precisando sobre todo, su posición en el cielo en un determinado momento. Dirigidos los telescopios a aquel lugar y en el momento predicho, apareció Neptuno.
Por supuesto que todas estas mismas leyes mostraron su validez en ciencias otras ciencias físicas como la acústica, y la óptica, sobre todo bajo la teoría newtoniana de la luz, teoría corpuscular, por lo que también la luz se reducía a problemas de mecánica estática y dinámica, por lo menos hasta cierto punto.
Un caso especial lo formaba la termodinámica ya que el calor en principio no parecía parangonable a ninguna fuerza mecánica, lo que se resolvió ya en el siglo XIX por la asimilación del calor también a movimiento y agitación molecular en agregados inmensos moleculares que intercambiaban choques entre sí y cuyo promedio de velocidades era medida de su energía media, en este caso el calor. Así la termodinámica se abordaba mediante un modelo estadística que mostraba su validez.
Limitaciones y restricciones.
Los científicos de la época fueron sin embargo pronto conscientes que el edificio de la mecánica servia solo dentro de algunas restricciones; es decir que era valido solamente respecto determinados sistemas y situaciones, que aun siendo las más importantes para la ciencia e ingeniería del siglo XIX no se acercaban ni de lejos a los problemas por ejemplo de la biología, y ni siquiera podían conjeturar cualquier acercamiento a la psicología o a la sociología. Se conjeturaba que las verdaderas ciencias eran matematizables, como la física de la época y que el resto de las ciencias, como por ejemplo la sociología y la historia más bien debían formar parte de los saberes humanísticos. Una diferencia importante consistiría además en que las primeras describían sucesos reversibles y repetitivos, mientras que las segundas estudiaban sucesos no repetitivos ni mucho menos reversibles.
. Con estas líneas me viene al recuerdo una encuesta promovida en los años 50 del siglo XX, por el Profesor D. Pedro Gómez Bosque, época en la que realizaba yo mis estudios de Medicina en la universidad de Valladolid como discípulo de aquel maestro tan querido por tantas generaciones que en multitud de seminarios, reuniones, y escritos mantenía vivas nuestra curiosidad y afán de estudio. Dirigió la encuesta sobre la matematización de la historia a personalidades muy diversas en el ámbito europeo y que fueron publicadas en un librito, me figuro que hoy inobtenible y en el que como era de esperar predominaron las opiniones de que la historia no era ni seria nunca matematizable. Así se consagraba la dicotomía de las ciencias en el sentido ya descrito. por Windelmann: Existirían ciencias nomotéticas o lógicas propias de la ciencia natural, caracterizadas por la repetición de los fenómenos y ciencias ideográficas propias de los conocimientos humanísticos, meramente descriptivos, como la historia, la literatura o la sociología muy diferentes por su objetivo y sus métodos.
Debemos resumir las características de los objetos y sistemas a los que podía aplicarse validadamente la mecánica; es decir, la ciencia física de la época.
a) Se trata de sistemas relativamente sencillos constituidos por pocos elementos.
b) El intercambio de fuerzas sigue pautas lineales. Se trata de sistemas lineales. Las consecuencias de la actuación de una fuerza son proporcionales a la misma. Sea el paradigma de la formula Galileano-newtoniana de: la fuerza es igual a la masa por la aceleración.
Y en esta situación a mediados del siglo XIX explotó la obra de Darwin que trajo tremendas dudas y controversias.
Consigo trajo múltiples problemas y dificultades que intentaré resumir a continuación.
2. Problemas y dificultades.
Desde las publicaciones de Darwin a lo largo del siglo XIX tras las furibundas polémicas que las acompañaron, la doctrina de la evolución biológica y por ende de la evolución en general del planeta tierra y todo el cosmos se fueron afianzando entre los científicos y gran parte del público culto. El resto podemos suponer que estaban más atentos a otras cuestiones. Precisamente por ello paralelamente y en diversos ámbitos se desarrollaron multitud de ideas y pensamientos que intentaban comprensión o integración del hecho evolucionista con las distintas constantes culturales al uso en aquel momento. Ideas, por supuesto que aun continúan con más o menos virulencia como iré exponiendo a lo largo de estas páginas..
En general la iglesia y las iglesias mantuvieron su oposición por razones teológicas; en otros momentos se permitía hablar y escribir sobre la evolución de los animales y plantas pero no del hombre. En otros casos como en el del gran antropólogo P. Schmidt[1] que recogía y evaluaba en su Instituto de Viena los datos que recogían los misioneros católicos de todo el mundo, se esforzaban en demostrar que las culturas más primitivas eran monoteístas al estar como más cercanas al punto de creación del hombre y más lejanas de las desviaciones de la naturaleza caída….
Un caso importante lo presenta el jesuita Teilhard de Chardin, en su época separado de la docencia y la investigación después de haber tenido la suerte de que su esfuerzo de explorador antropólogo hubiera conducido al descubrimiento del hombre de Peking, una especie o subespecie de homínido fósil perteneciente seguramente al grupo de Homo erectus. Apetece reseñar que las preciosas cajas que contenían los restos óseos y líticos de aquella cultura y que navegaban desde Asia a Estados Unidos se perdieron en naufragio y parece ser que nunca más volvió a ser investigado o se encontraron otros hallazgos relativos al hombre de Peking. Teilhard, prolífico escritor creo un sincretismo que no dudamos en calificar grandioso entre la ciencia y la fe. Es decir entre su rotunda afirmación de la evolución como hecho científico y su fe sobre todo cristológica. Así en su obra fundamental El Fenómeno Humano[2] completada con otras como El Medio Divino ( Editadas en los años 50 del pasado siglo XX por Taurus) describe toda la creación como un esfuerzo evolutivo que conduce a través de las sucesivas formas humanas cada vez más perfectas a un punto omega situado en el horizonte de tiempo o en el tiempo místico en el cual se encontrarían el hombre evolucionado en su noosfera
( su mente y cultura) con Cristo lo que señalaría por así decir el fin de los tiempos.
El principio antrópico débil y fuerte.
Dentro de esta hipótesis queda incluida el llamado principio antrópico consistente en afirmar que la delicada y “inexplicable” armonía de las constantes del universo que permiten la aparición del hombre, han sido dispuestas así “intencionalmente” por la mente creadora, precisamente para que aparezca el hombre. Mi maestro D. Pedro G. Bosque lo expresaba admirablemente en la frase: La evolución es el esfuerzote la Naturaleza para la aparición del hombre.
El anterior principio antrópico se denomina fuerte presentando otros autores un principio antrópico débil que constata únicamente que efectivamente esta fina armonía de las constantes universales permite la aparición de organismos complejos como los seres vivos y el hombre.
Muchos años estuvo su persona postergada, pero su obra fue conocida largamente sobre todo por aquellas tantas personas que sufrían dificultades entre sus conocimientos y evidencias científicas y su Fe. Poco a poco ha sido rehabilitado, también por su orden religiosa – jesuitas – y así puedo testimoniar que en un viaje a Munich en me encontré en la magnifica iglesia de los jesuitas de esa ciudad con una completísima exposición de la vida y obra de Teilhard. Desde luego hoy día, quizás no son “necesarios” estos sincretismos, por haberse encontrado otros caminos de convivencia entre ciencia y Fe, pero este asunto lo tratará al final de estas reflexiones si tengo tiempo y ánimo.
Sufrí fuertemente en mi experiencia personal por todas estas dificultades y situaciones. Alternaba la lectura de los biólogos vitalistas en libros como “ La finalidad de las actividades orgánicas” las creencias de mi maestro D. Pedro G. Bosque, o libros del P. Pujiula eminente biólogo jesuita cuyos libros me prestaba mi profesor de ciencias naturales en el Colegio de San José P. Jesús del Portillo. En ellos se aceptaba una evolución moderada que no sobrepasaba la especie extendiéndose al origen de las razas y variantes.
En la iglesia católica fue el papa Pío XII quien por fin declaró en la encíclica Humanae Vitae la compatibilidad entre la evolución biológica y la fe.
Tiempos modernos: Tanto más sorprendente por ello es que en Estados Unidos como patencia primera surja un fundamentalismo religioso, sobre todo por parte de los poderosos presbiterianos que retomen feroz controversia intentando contraponer al evolucionismo una seudohipótesis que pretenden también sea científica y que denominan diseño inteligente. Así se ha prohibido la enseñanza del evolucionismo sobre todo en la educación secundaria en diversos estados y este mismo extremismo quizás es el que ha suscitado también un ateismo militante cuyo principal exponente es R. Dàwkins el conocido autor de El Gen egoísta[3] y “El Relojero Ciego” y que ha desembocado hasta la colocación de pancartas ateísticas en algunos autobuses del reino unido y de alguna ciudad española.
Dificultad filosófica. Del desorden al orden.
La enorme complejidad y dificultad de comprensión que los filósofos desde la más antiguos tiempos han tenido para comprender el origen de las cosas y seres, sobre todo, claro está, los más complejos, tiene su paradigma, creo yo, en las tesis de Aristóteles, reformadas sin rechazarlas por los tomistas; es decir, la filosofía-teología cristiana. El paso del ser de potencia ( posibilidad de ser) a acto ( ser existente) era para el primero ejemplo del propio devenir del mundo bajo sus propias fuerzas o bien por la acción humana definidas en este caso como causas eficientes, y para lo segundos lo mismo pero dirigido, digamos, desde lejos o en la sombra por la mente divina en la que se encontrarían “en potencia” todos los seres posibles. En todo caso el paso del no ser al ser entrañaba una dificultad no resuelta y esta dificultad alumbró las especulaciones de filósofos de todos los tiempos que podemos resumir en las ideas de Bergson con su doctrina del “Elan Vital” o fuerza vital de la Naturaleza , pero cuya propia naturaleza quedaba poco clara, y que propiciaba toda la dinámica del cosmos y por ende la de los seres vivos. En todo caso parecía obvia una tesis que más o menos podría expresarse como sigue: La causa eficiente no puede ser de menor categoría que el objeto que produce. No podía comprenderse como de causas inferiores y aparentemente insuficiencias, digamos ya gravitación, o temperatura pudieran producir moléculas complejas por ejemplo. Recordaré aquí que durante siglos se postuló que las sustancias orgánicas solo podían ser producidas por los seres vivos. La química orgánica sin embargo comenzó puede decirse, cuando el joven químico Whöler en 1828 consiguió sintetizar la urea a partir del amoniaco. La superior no puede proceder de lo inferior, se decía. Evidentemente aquí se menospreciaban o se postulaban limitaciones a las leyes de la Naturaleza que en realidad eran solo limitaciones del conocimiento.
Otro argumento frecuente se centraba en la imposibilidad de que surgieran por azar estas estructuras complejas de los seres vivos por ejemplo. Me hizo especial impacto la que aducía un tal Padre Muñoz, jesuita en defensa de las hipótesis creacionistas. Como siempre decía: Si se arrojasen al aire miles de letras de imprenta ¿Acaso al caer al suelo alguna vez formarían el Quijote entero o al menos una frase coherente? Y lo curioso es que bajo los conocimientos matemáticos del azar, efectivamente existe alguna posibilidad de que ello suceda, sin embargo se precisaría para ello mucho más tiempo disponible del que ha transcurrido y transcurrirá en la existencia del universo. La falacia fundamental del este argumento consiste en suponer que los atomos o las moléculas del cosmos se combinan según un puro azar. Naturalmente que no: Las distintas afinidades químicas entre átomos o moléculas o seres vivos…. etc hacen más probables e incluso necesarias unas uniones o reacciones que otras y precisamente por ello y gracias a ello se forman continuamente nuevas combinaciones, formas y el proceso de la evolución cósmica y de los seres vivos. Estamos en el mundo del Azar y la necesidad, que abordaré más adelante.
Dificultad física. Origen de la complejidad. La Entropía y la segunda ley termodinámica.
Desde la misma física y química de la época, como ciencias más conspicuas, según ya he comentado, y con el marchamo de exactas por ser en gran parte matematizables, tampoco se comprendía como era posible la construcción del orden y de formas más complejas a partir de las más simples. Puedo citar dos libros de aquella época de mediados del siglo pasado en el que dos eminentes físicos intentan comprender el mundo biológico. Por una parte E. Schrödinger premio Nobel que definió las ecuaciones de onda electromágnéticas escribió una pequeña obra que tituló Que es la Vida [4]en la que mostraba como podían compaginarse ambas ciencias en algunos aspectos. Así estudiaba por ejemplo, las condiciones de estabilidad de los genes como estructuras moleculares (Aun no se había descubierto su estructura de doble hélice) Mostraba que no había evidencia de que los procesos biológicos vulnerasen leyes físicas. Este mismo empeño dirigió la obra de uno de los físicos españoles más importantes del momento: Julio Palacios, catedrático de física en la universidad central escribe otro libro en el que aporta el resultado de experimentos concretos como el balance calórico durante la incubación del huevo de gallina.[5] Respecto a los procesos aparentemente vulneradores de la segunda ley de termodinámica aporta el concepto de energía libre o entalpía en contraposición a la entropía o energía degenerada y hasta cierto punto inservible. La evolución de las formas complejas era entendida como excepciones o islas de entalpía abundante cuya dinámica sin embargo aumentaba también la entropía general del sistema en cuanto se tomaba como sistema al conjunto del universo. Todo ello y en mi opinión mostraba que la biología no contradecía las leyes termodinámicas pero aún quedaba por aclarar el como y el porque surgían esas formas complejas tan “dirigidas a un fin”, según se evidenciaba asombrosamente sobre todo en los procesos embrionarios de desarrollo según un aparente plan previo y en los de reparación de heridas o nuevo crecimiento de miembros amputados como sucede en algunos reptiles y anfibios. Balance energético claro, pero incomprensión respecto qué nuevas leyes constituían la base de los desarrollos complejos en la biología y por extensión en otros procesos también complejos del universo.
En este punto es preciso recordar brevemente y en síntesis lo que suponía la segunda ley de termodinámica. La primera respecto la conservación de la energía no ofrecía ningún problema incluso después de las formulas einstenianas de la equivalencia masa-energía. Mas difícil era entender los procesos termodinámicos y de transformación sobre todo del calor en trabajo como sucedía en las maquinas térmicas. Ello exigía un adecuado modelo de lo que fuere el calor. Pronto se aceptó que equivalía a la energía del movimiento molecular medido de forma estadística; es decir el promedio del movimiento del conjunto de las moléculas del objeto, particularmente gases, en cuestión. Mediante este modelo la termodinámica se asimiló a la cinética; es decir a la mecánica, en principio galileana mostrándose la validez del supuesto respecto el intercambio de momentos de fuerza etc. Los ciclos del calor denominados por su descriptor ciclos de Sadi Carnot postulaban, que no todo el calor se convertía en trabajo y que de forma general existía forzosamente una producción de calor que debía ser disipado y que no podía convertirse en energía. El calor era una forma degradada de energía y además a partir de este proceso toda energía del universo se habría de degradar poco a poco hasta que se alcanzara un equilibrio térmico momento en el cual cesaría toda actividad. Seria la muerte térmica del universo. Este equilibrio o igualación termodinámica acababa con toda estructura compleja apareciendo un nuevo concepto o mejor dicho magnitud física que se denomino entropia y que media el grado de igualación ( orden máximo y actividad minima o nula) o de desorden; es decir posible estructura compleja con menor nivel de entropía. La entropía pues se convirtió en una medida del orden- o desorden de un sistema, y todos lo sistemas tomados en amplitud suficiente tienden a la muerte térmica por la desaparición de los gradientes y el cese de toda actividad o trabajo que solo es posible cuando una fuente caliente se pone en comunicación con otra más fría. Quedaba como inexplicable qué fuerzas o cualidades conseguían burlar esta tendencia al mayor aumento de la entropía y a la muerte térmica. Se observaba, como observaban Palacios y Schrödinger que los seres vivos no incumplían la segunda ley, pues en su actividad debían disipar calor, pero no explicaba en absoluto porque el sistema avanzaba hacia la diferenciación y la complejidad.
Dificultades mixtas. La fina armonía de las constantes universales y de los universos múltiples. Los cosmólogos de la modernas filosofías analíticas p. ej. K. Kanitscheider, de la universidad de Giessen, esquivan el delicado problema de la fina armonía de las constantes universales que recoge el principio antrópico suponiendo; es decir, que existen múltiples universos en diferentes escalas del espacio y del tiempo y que de esta forma pueden haberse materializado diversos tipos de constantes universales siendo una de ellas “por azar” las de nuestro mundo que ha permitido la vida y el hombre.
Es dudoso que en buena epistemología de la ciencia pueda aceptarse que dicha suposición sea una autentica hipótesis científica, puesto que es por definición inverificable. Den este punto, y en algunos otros los filósofos juegan a teólogos pues personalmente opino que es mucho más honrado aceptar la ignorancia supina que tenemos y tendremos, seguramente, sobre algunos asuntos. Aquello de Hypotesis non fingo que afirmó me parece el mismo Newton, sin embargo, parece que muy pocos lo cumplen en el afán tan humano de querer explicarlo todo y de inventar explicaciones sin fundamento antes que aceptar la ignorancia.
3. La crisis del determinismo.
Dudas y vacilaciones.
Ya habían expuesto muchos que la acepción de que desde el mismo origen del universo estaban ya predeterminados exactamente todos los sucesos, parecía desmesurada e incomprensible. Y sobre todo incongruente con la variabilidad, flexibilidad y adaptabilidad de cosas y seres en general. Además ya estaba claro que la física del momento era válida solamente para las masas y los cuerpos y además los cálculos en el sistema solar se realizaban en aproximación aunque aproximación suficiente puesto que se tomaban cada vez en consideración la masa del sol y un planeta o la de un planeta respecto su satélite. Además estas leyes cosmológicas podrían ser solo validas dentro de un cierto intervalo de tiempo aunque este inmensamente largo en comparación con la vida e historia humana no permitiria inferencias respecto un “Siempre” o respecto una “eternidad”
El prodigioso comienzo del siglo XX y los sucesivos cambios de paradigma.
El siglo XX comenzaba con una explosión de nuevos hechos, nuevos conocimientos y nuevas preguntas.
Por una parte la física hace crisis por dos caminos:
La aparición de la mecánica cuantica en el mundo submicroscópico con leyes muy distintas a las de la mecánica clásica.
Por otra la formulación por Heisenberg del principio de la incertidumbre que impedía la determinación exacta y simultanea de la posición y velocidad de una partícula.
Paralelamente y precisamente en la prodigiosa ciudad de Viena bajo la estabilidad multietnica del Imperio Austrohungaro aparece la logica matemática, los limites así de la misma y del conocimiento que produce, paralelamente también el lenguaje presenta graves deficiencias y limitaciones respecto a la modelización de la realidad del mundo físico. Russel y Whitehead nos mostraron que la realidad no está constituida por cosas o objetos sino por procesos cuya parcelación por los órganos cognoscitivos producen la apariencia de cosas. El aristotelismo de causas y efectos queda relegado y la gnoseologia kantiana que ya nos habia advertido de estas limitaciones parece recobrar vigor.
Mas como siempre: conocer algo no implica conocerlo en su totalidad. Asi el conocimiento es por esencia parcial, particular y provisonal y aquellos físico que en los albores del siglo XX creyeron que se había llegado al final de la investigación física por quedar toda ella conocida, gozaron del más espantoso ridículo. ( No fueron los mejores)
H. Poincaré y el problema de los tres cuerpos.
Los intentos de computo de las orbitas conjuntas de Júpiter, Saturno y el sol como cuerpos mayores en el Sistema Solar abordados por matemáticos como Weiierstrass arrojaba dudas sobre la estabilidad a largo plazo del sistema solar careciendos sin embargo de instrumentos matematicos seguros para resolver la cuestión. Por extensión se planteaba el problema llamado de los tres cuerpos. Se entendía con ello el establecimiento de las ecuaciones matemáticas que resolverían las interacciones, orbitas y movimientos de tres cuerpos graves de cualesquiera masa y velocidad y en cualesquiera posiciones del espacio respecto unos y otros. Ya hemos dicho que los cálculos astronómicos procedían por reducción del conjunto de los planetas a dos, El asunto presentó una tremenda complejidad matemática. Así las cosas el rey de Suecia estableció un premio para quien resolviera la cuestión. Ganó el premio en 1985 Henry Poincaré, físico y político francés que resolvía parcialmente la cuestión mediante diversas restricciones; es decir, estudiándolo por partes, encontrando sin embargo para algunos casos ninguna solución, paro otros infinitas soluciones, para otros un numero limitado de soluciones. ¿ Se trataba de una insuficiencia de las matemáticas y de los matemáticos, o quizás se trataba de que “realmente no existía una solución fija para cada caso si no varias e infinitas y el azar escogía cual de estas posibilidades se realizaba?. Bien; pues poco a poco fue prevaleciendo esta segunda opinión. El mundo no estaba predeterminado y en cada situación de universo podrían existir múltiples posibilidades de evolución realizándose al azar….. o con distintos grados de probabilidad? Alguna de estas posibilidades.
Pronto entró en liza el problema de la previsión de la evolución del tiempo atmosférico. Aquí no intervenían dos parámetros o variables sino una inmensa cantidad. El problema era insoluble. Hoy día los mejores ordenadores realizan solo prediciones aproximadas y para intervalos limitados de tiempo, si bien estos comprenden cada vez más días. Se describió el efecto mariposa. Una Mariposa aletea en California y se produce una tormenta tropical en el Caribe.
¿Y que pasa si al sencillo y bien conocido péndulo galileano le colgamos a su vez otro péndulo? Aquí, dos sistemas aparentemente sencillos conducen también a procesos no computables; es decir, no predecibles, es decir no sometidos a una ley que pueda enunciarse matemáticamente. ¿ O se precisan unas nuevas matemáticas?
Bien. Pues a estos sistemas se les denominó sistemas caóticos y con ello surge el concepto del caos en la física y en la comprensión de los sistemas complejos o de los sistemas en general. La Teoría General de los sistemas de Bertanlaffy comienza a asentar los postulados doctrinales y el caos se convierte en nueva ciencia desde mediados del siglo xx sobre todo y por el descubrimiento de más y más sistemas caóticos,
Notemos bien: en los sistemas caóticos no todo es posible, si no solo un quantum de variaciones, pero no puede predecirse cual de ellas sucederá. Es obligado que suceda alguna de las posibilidades existentes y por todo ello se denomina a esta situación como:
El Caos determinista.
Y una obra de J. Monod sumamente importante y que lo describe ya el caos en los sistema biológicos titula su libro El Azar y la Necesidad.[6]
Características de los sistemas caótico deterministas:
El sistema debe ser complejo; es decir, compuesto de numerosos elementos o subsistemas.
El sistema es no lineal; es decir, no responde proporcionalmente a la fuerza que se le aplique si no que desarrolla una propia dinámica que condiciona que una fuerza pequeña produzca por ejemplo grandes cambios.
El sistema debe estar lejos de su situación de equilibrio, pues en este caso la aplicación de una o cualesquiera fuerza conduce al sistema al equilibrio; es decir a una situación estable que no sufre evolución.
Por ultimo es típico de estos sistemas que partiendo de situaciones muy parecidas o aparentemente iguales, con las condiciones de medida posibles evolucionen en el tiempo divergiendo enormemente
Autoorganización.
En 1953 Urey y Miller realizaron un curioso y crucial experimento. En reflexión sobre el posible origen de la vida se les ocurrió reproducir en el laboratorio, dentro de un matraz la composición y situación que se suponía existían en la tierra, o mejor dicho el mar primitivo. Así encerraron en el matraz moléculas inorgánicas como amoniaco, cloro, desde luego agua… A continuación bombardearon el matraz durante unos días con descargas eléctricas que remedarían los rayos frecuentes que se suponía habían actuado sobre esa Sopa primitiva” en la que habría aparecido la vida. Al cabo analizaron el contenido del matraz y con enorme sorpresa y no menos entusiasmo descubrieron que se habían formado moléculas orgánicas, en concreto diversos aminoácidos.
Asimismo se descubrieron los así llamados ciclos e hiperciclos de Eigen que se forman mantienen por la autocatálisis y por en el cual aparecen reduplicaciónes espontáneas de diversas moléculas orgánicas sumergidas también en una sopa de componentes abundantes. Parece que pueden llegarse a formar hasta nucleótidos.
Así pues bajo determinadas circunstancias se producen espontáneamente procesos de este tipo que se denominaron de autoorganización en los que se crean estructuras complejas, más complejas en todo caso que los componentes y situación iniciales. Parece ser que bajo similares experimentos han llegado a sintetizarse espontáneamente moléculas tan complejas como los nucleótidos.
Pronto aparecieron por doquier procesos de autoorganización que estaban ahí desde siempre pero que solo ahora; es decir a partir de mediados del siglo XX y con creciente dedicación se fueron estudiando dentro de estas nuevas ciencias del caos y del orden.
Citaré algunos ejemplos.
En la química I. Prigogine en la universidad libre de Bruselas ( Solvay) prepara y describe una reacción química que cambia de color de forma oscilante y espontánea a la vez en toda la masa del reactor; es decir todas las moléculas de forma coherente experimentaban su transición y cambio bajo el mismo ritmo, de forma análoga a la luz laser. Se denominó a esta reacción el Bruselator. I. Prigogine, ya fallecido, y que por diversos avatares es doctor honoris causa de la universidad de Valladolid y a quien he conocido personalmente escribió diversos libros también traducidos al español en los que aborda estos problemas del orden y el caos.
Otro ejemplo verdaderamente sensacional por su importancia teórica y técnico comercial es la luz laser que se produce por proceso de autoorganización en la luz que emite un cristal excitado parcialmente mediante la retroacción sobre el mismo cristal de parte de su propia luz de emisión.
En relación con este tema citaré otros dos conceptos, quizás poco conocidos en España.
Los maravillosos hexágonos de las celdas que fabrican las abejas se consiguen sometiendo a presión esferas deformables de cualesquier material. El hexágono cumple la exigencia de máximos volúmenes de celdas dentro de un espacio dado limitado.
La delicada estructura trabecular del fémur, por ejemplo se reproduce espontáneamente como líneas de distribución de una carga en un remedo de fémur fabricado con un plástico que cambia de color cuando es sometido a presión por lo que permite visualizar estas líneas de carga, que pueden ofrecer diversos patrones respondiendo a aquello de las diversas posibilidades o soluciones que permiten los sistemas caótico dinámicos.
Las figuras a modo de dedos que presenta la difusión de un liquido en un medio poroso como el agua en la arena, lo cual se puede visualizar claramente utilizando agua teñido de color, son ejemplo también de distribución inhomogena de la difusión del agua.
Las celdas de convección de diversos tamaños y formas que se establecen al calentar una masa de agua desde una fuente plana de calor situada en su fondo; es decir al calentar agua en una cazuela, también son ejemplo de autoorganización. Siempre formas más complejas que las de partida y producidas en sistemas complejos de abundantes componentes, fuera de la situación de equilibrio y en abundancia de energía.
Autopoiesis
Autopoiesis o autopoyesis (del griego αυτο-, auto, ‘sí mismo’, y ποιησις, poiesis, ‘creación’ o ‘producción’), es un neologismo propuesto en 1971 por los biólogos chilenos Humberto Maturana y Francisco Varela para designar la organización de los sistemas vivos, caracterizados porque se producen a sí mismos. Se caracterizan así por la permanente conservación de una misma estructura que sustenta su identidad aunque debido a las agresiones del medio partes del sistema ( el ser vivo) mueran y desparezcan.
Por extensión puede aplicarse a otros sistemas que también se organizan o mantienen a sí mismos. La extensión más conocida de este concepto la estableció el sociólogo alemán Niklas Luhman que pretendió con ello sentar las bases de una nueva forma de entender y estudiar a la sociedad humana como fenómeno más complejo.
Muchos autores, sobre todo en Latinoamerica y algunas paises de Europa como al menos Alemania y Suiza, que yo sepa, han trabajado y escrito abundate,ente utilizando este termino. En mi opinión, sin embargo, el me parece más novedoso el término que el concepto al que significa, pues ya desde siempre se caracterizó al ser vivo precisamente por su capacidad de autorregulación, autoreparación y generación, conceptos todos ellos implicitos en el termino autopoiesis, sin que su utilización muestre, como pretenden los autores un nuevo paradigma. En la red pueden encontrarse abundantes referencias a este término en el que aquí no me parece necesario profundizar más.
Respecto a su aplicación en la sociología puede presentarse el mismo o pareecido comentario, a pesar de la abundante producción editorial, como buen germano de Luhmann
Sinergética de Hayek.
Más importante me parece el termino y concepto de Sinergetica debido al físico alemán Hermann Haken descubridor del uno de los hitos de la ciencia y técnica actuales: el emisor de luz laser.
La luz laser es luz altamente coherente; es decir, que todas las ondas que la componen vibran, si puede utilizarse este termino todavía, al unísono; o dicho de otra manera todos los electrones del sustrato que saltan de un orbital a otro produciendo luz lo hacen, saltan, a la vez.
Este asombroso resultado se consigue “simplemente” consiguiendo que parte de la luz emitida por un diodo luminiscente vuelva a actuar excitándole a este mismo diodo, lo que se produce situando un espejo semitransparente en el punto de salida de la luz.
Así pues la retroacción o la acción de una actividad sobre el mismo sistema que lo produce consigue esta superautoorganización o superorden.
Así por extensión la sinergética de Haken caracteriza el establecimiento de círculos virtuosos que de forma autoorganizada avanzan a niveles superiores de complejidad. La novedad más importante es la extensión de estos estudios al ámbito de la economía y su defensa del libre mercado como factor supremo de autoorganización y de éxito en una defensa a ultranza del sistema económico liberal. En el momento actual de crisis económica producida precisamente por un sistema financiero economico escaso de supervisión y control provoca sin embargo bastante escepticismo, claro estaá que en los sistemas planificados el resultado es o fue mucho peor.
.
Con este nombre se desarrolló también una doctrina psicofisiologica que pretende a través de la autorelajación conseguir una imagen interna de uno mismo a fin de profundizar en el conocimiento del propio yo y por lo tanto del aumento de una supuesta autoorganización del yo.
No debe confundirse Haken con Friedrich August von Hayek que de alguna manera defiende las mismas ideas aplicadas a la economía según antes escribía Fue un filósofo y economista de la Escuela Austríaca,. Ha sido uno de los grandes economistas del siglo XX y es considerado por muchos uno de los padres del liberalismo moderno. Ha sido también uno de los mayores críticos de la economía planificada y socialista ya que conducen al totalitarismo y a la ausencia de la libertad para el desarrollo individual, como se sostiene en Camino de servidumbre. Fue galardonado con el Premio Nobel de Economía en 1974. Su obra, no se limita únicamente a la ciencia económica, sino que trata desde filosofía política hasta antropología jurídica o historia, y en general todo lo referente a las ciencias sociales, por lo que puede y debe citarse al lado del autor anterior y en el mismo contexto..
4. Consecuencias doctrinales a partir de los conocimientos sobre el caos determinista y los procesos de autoorganización.
1. El Hombre y los seres vivos parte de la Naturaleza Unitaria del Universo.
2. Comprensión desde la físico-química de los procesos de aumento de complejidad.
3. Teleología: Concepto subjetivo. (Finalidad)
4. Teleonomia: Concepto objetivo. (Direccionalidad)
5. Superación de las dialécticas de los monismos-dualismos.
6. El concepto de información identificable con el de “forma” en las doctrinas materia forma de Aristóteles.
1. El Hombre y los seres vivos parte de la Naturaleza Unitaria del Universo.
La aceptación del origen evolutivo biológico del hombre y su adecuada ubicación en el conjunto del universo no solo provocan una autentica revolución individual y social si no que determinan la aparición de una de las grandes aportaciones éticas, en mi opinión de los valores del mundo actual. Me refiero a los valores ecológicos y a la convicción de que la salvación, o supervivencia de la especia humana esta ligada a la supervivencia de su entorno natural, el entorno donde apareció y respecto a cuyas características de todo tipo está adaptado, pero también de las que depende.
2.Comprensión desde la físico-química de los procesos de aumento de complejidad.
Esta comprensión condiciona una valoración adecuada de las leyes físico químicas y por extensión de todas las fuerzas y leyes de la Naturaleza , que habían sido claramente minusvaloradas por los científicos de la época clásica. La consecuencia ideológica más importante de estos conocimientos es que la evolución creadora, no es solo una especie de capricho o caso particular, sino precisamente una necesidad del sistema. Deriva de este conocimiento la feliz expresión de J. Monod de El azar y la Necesidad. El hecho de la evolución y muchas de sus características son una necesidad, pero gran parte de los detalles se deben al azar. La comprensión de este azar constituye también un problema físico filosóficos difícil, pues un azar absoluto parece es imposible o al menos no demostrable. Incluso en las cifras del numero pi o en la sucesión de los números primos es imposible, parece, demostrar que no puedan aparecer en alguno momento pautas regulares, mas bien ocurre lo contrario según el teorema de Ramsay que citamos después.. La generación de números aleatorios por ello también es un problema matemático difícil. Estos números son útiles o imprescindibles para determinados sistemas de encriptación
El Teorema de Ramsay. Este importante teorema matemático nos expresa que dado un numero suficiente de elementos siempre puede encontrarse una configuración dada de dichos elementos; es decir el desorden absoluto es imposible, siempre aun en las estructuras matemáticas generadas por azar o aleatoriamente pueden y deberán encontrarse cualesquiera pautas que solicitemos.
3. Teleología: Concepto subjetivo. (Finalidad)
El concepto de teleología es esencialmente antropocéntrico y califica a una acción voluntariamente dirigida a un propósito concreto. Por ejemplo ahorramos dinero para comprar luego un coche. Es por lo tanto intencional y deriva o debe derivar, siguiendo a Castilla del Pino de un sujeto capaz de intencionalidad. Seria precisamente la característica más importante del “sujeto” : el estar dotado de intencionalidad. Por extensión en las doctrinas vitalistas se atribuían a las funciones biológicas el carácter de teleológicas; dirigidas a un fin. Recuerdo un libro estudiado en aquellos años 50 en los que me debatía entre estos temas intentando llegar a una propia clarificación: La Finalidad de las actividades Orgánicas de E. Russell. Con tanta mayor razón se atribuía conducta teleológica a los animales más superiores, sea un perro, que acudiría al sonido de la campanilla para. Recibir su comida.
4. Teleonomia ( concepto objetivo: mero acontecer)
Teleonomia en cambio expresa tan solo el fin, y no la finalidad, de determinadas actividades orgánicas. Elimina así el posible antropocentrismo, y describe que evidentemente el perro al escuchar la campanilla de su reflejo condicionado acudirá siempre a recibir su comida, pero esta conducta, para un biólogo no vitalista, indica meramente que la campanilla conduce a la comida y que desde luego esto es util para el animal, pero ello no quiere decir que la conducta derive de una intención y menos voluntaria o libre. Otra situación aparece en el hombre como un problema psicológico. Parece oportuno afirmar que el hombre con su voluntad sí podría “dejar de acudir” al toque de campanilla y decidir hacer, por ejemplo ayuno…. Lo cual indicaría una conducta intencional y también teleológica: sin duda esta negación obedeciera a algún motiva explicable. Por ejemplo hacer penitencia.
5. Superación de las dialécticas de los monismos-dualismos.
El concepto de información identificable con el de “forma” en las doctrinas materia forma de Aristóteles.
Estas dos consecuencias pueden tratarse conjuntamente. La aceptación de que las meras fuerzas naturales en el contexto de sistemas complejos pueden evolucionar hacia la complejidad, incluyendo a todos los seres vivos, invalida como innecesaria la existencia de un principio vital, alma o como quiera que se denomine; es decir invalida el dualismo sustancial, que describía en la lección nr. 1. Sin embargo bien puede aceptarse como derivado de estos conocimientos la de un dualismo lógico; un dualismo realmente aristotélico en el cual la materia prima seria el sistema físico, átomos o componentes del sistema y la forma sustancial aristotélica seria la estructura o forma del sistema identificable con sus contenidos en información. La información o programa o soporte lógico desde luego no puede sobrevivir sin estar integrado o embebido en un soporte físico. Hoy día en el que todos estamos familiarizados con los ordenadores esta cuestión, creo que no necesita mayor explicación.
5. Algunas definiciones en las doctrinas del caos determinista.
Concepto de Atractor.
El atractor es de suyo una figura en un espacio geométrico, denominado espacio de fases, que describe o visualiza la evolución actual y posible del sistema. Cada punto de la figura señala por sus correspondientes coordenadas la situación del sistema respecto los valores de sus parámetros.
Por ejemplo el atractor de un péndulo ideal ( sin rozamiento) normal es una circunferencia puesto que cada cierto intervalo de tiempo, el periodo del pendulo, el sistema vuelve al punto de partida volviendo a repetir el ciclo.
Los atractores de sistemas caótico deterministas se denominan extraños, no solo por sus extrañas y complejas formas si no por comprender un gran numero de trayectorias posibles, aunque no todas se realicen en el tiempo disponible para la evolución del sistema. El primer atractor de este tipo es llamado el atractor de Lorenz pues éste investigador metereólogo con ayuda de los ordenadores y a partir de parámetros de una situación metereológica concreta muestran las diversos posibles evoluciones.
El atractor por otra parte y respecto sistemas menos matematizables como la evolución de un phylum biológico se entiendo como el conjunto de las formas posibles que podrían aparecer. Por ejemplo no es posible un elefante volador, pero sí podrían haber aparecido vertebrados terrestres con seis patas e insectos por ejemplo con cuatro.
Bifurcación del sistema. El ejemplo anterior muestra lo que se denomina punto de bifurcación del sistema que se presenta frecuentemente o continuamente durante su evolución: En cada punto o momento evolutivo se ofrecen multitud de caminos posibles ( no infinitos, sino más o menos numerosos según los caso) Por azar el sistema “escoge” ( a ciegas…) un camino que impide la vuelta atrás. Por ejemplo en un momento arcaico de la evolución de seres vivos con simetría por ejemplo esférica ( la mórula del desarrollo embrionario) , grupo “escoge” la simetria radial produciendo el phylum de las hydras, estrellas de mar…. Y otro la simetría bilateral produciéndose los cordados de los que derivan todos los cuadrúpedos entre otros….
La flecha del tiempo. Se trata de una expresión y titulo de una monografía de P. Coveney y R. Highfield, prologada por I. Prigogine premio Nobel de química.[7] [8] El hecho de las bifurcaciones condiciona la irreversibilidad de la evolución del sistema y así muestra y enseña el cómo y el porque de la marcha irrepetible del tiempo, dentro de la evolución de un mismo sistema, pero aplicable al conjunto del universo. Esta cuestión es sumamente importante pues en la mecánica y demás sistemas hamiltonianos estudiables mediante ecuaciones diferenciales y que eran típicos de la mecánica y física clásica los sistemas tanto podrían evolucionar ( teóricamente; es decir según las teorías aplicables en esas fechas) tanto podrían evolucionar hacia delante como hacia a atrás en el tiempo, lo que contradecía desde luego la experiencia.
Espacio de fases. Se trata de un espacio geométrico con tantas dimensiones cuantos parámetros o dimensiones se identifiquen y tengan en cuenta en el sistema. Solamente pueden representarse en el espacio plano figuras de dos, o en proyección de tres dimensiones; para dimensiones mayores valen las correspondientes ecuaciones de espacios matemáticos.
Dimensión. Las dimensiones son valores de las distintas variables del sistema, como por ejemplo presión temperatura y volumen de un gas y cuyos valores para cada instante de la evolución del sistema se identifican por el punto correspondiente de su atractor.
Índices de complejidad.
Existen diversos índices que miden la complejidad de un sistema. Uno de los más conocidos es el exponente de Liapunov cuyo algoritmo de calculo no es necesario que describa aquí. Casi todos los índices de complejidad se calculan a partir de la autosemejanza. Es decir se compara una pequeña parte de la señal con otra mayor basándose semejanzas y diferencias. Mediante la electrónica y la señal digitalizada es posible escoger la iongitud de ambos secciones de señal de la forma más adecuada. Este es el método utilizado en biología sobre todo en los estudios más conocidos (al menos por mí) de la señal del e.c.g y del e.e.g.
Las cadenas de Markov. Una cadena de Márkov, que recibe su nombre del matemático ruso A. Markov 56-1922), es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda aire o un dado.
Podemos suponer que en las conductas humanas, sobre todo en las consistentes en movimientos repetitivos operan cadenas de Markov, si bien estas cuestiones no están aun suficientemente estudiadas.
Véase la dirección web:
http://www.google.es/#hl=es&source=hp&q=Cadenas+de+Markov&meta=&aq=f&aqi=g10&aql=&oq=&gs_rfai=&fp=86c829af658d10d1
6. Algunos ejemplos de sistemas complejos en fisiología humana.
Los sistemas complejos por lo tanto se mueven dentro de un atractor que muestra múltiples trayectorias, lo que quiere decir que nunca es periódico puro como el péndulo perfecto. Por ejemplo el ritmo cardiaco. A efectos de su estudio en un electrocardiograma grafico en un caso concreto y de corazón sano podría identificarse una pauta rítmica sencilla y repetitiva. Por supuesto el ritmo varia en frecuencia en diversas situaciones pero dentro de la misma situación de toma del e.c.g en el laboratorio para un caso concreto el ritmo leído en la grafica seria regular. Ahora bien si estudiamos la señal electrocardiográfica digitalizada y grabada en un ordenador susceptible de realizar en ella un análisis matemático más preciso descubriremos que ese ritmo no es totalmente estable y varia continuamente provocando complejas pautas o quizás ninguna. Es más un ritmo especialmente estable, idéntico o de escaso índice de complejidad, según antes hemos descrito es patológico, poro adaptativo y presagia una fibrilación ventricular. Ello dicho sea de paso permitiría realizar una desfibrilación preventiva. Algo parecido sucede respecto el encefalograma y por extensión todos los ritmos biológicos sanos son complejos, pudiendo tomarse como índice de salud precisamente esta complejidad. Durante la maduración cerebral en el niño se ha comprobado un aumento paulatino de la complejidad de la señal electroencefalográfica y su disminución por ejemplo en los pródromos de un ataque epiléptico, o en las demencias o en el defecto esquizofrénico.
Por extensión comprobado todos los ritmos biológicos muestran mayor o menor grado de complejidad. Podemos entender que precisamente esta variabilidad y complejidad es lo que permite la adaptación del sistema al que pertenece el ritmo en cuestión, a la situación concreta de cada momento. Podría compararse todo ello a la necesidad de la existencia de un amplio pool genético en una población a fin de que surjan en la generación siguiente múltiples fenotipos sobre los que pueda ejercerse la selección natural, reproduciéndose y pasando su genoma a la generación siguiente de aquellos mejor adaptados. Adaptación es igual en suma a la tasa de supervivencia.
Parece, además, que basta estudiar un tipo de ritmo, por ejemplo el e.c.g. para realizar inferencias respecto los demás ritmos; ello supondría que ésta característica de los ritmos complejos formaría de alguna manera una constante propia de cada organismo en un momento dado de su evolución.
Así mismo la capacidad de generar voluntariamente ritmos aleatorios complejos; es decir, con escasa ritmicidad, puede ser paralela y equivalente a la anterior. Me estoy refiriendo por ejemplo a los complejos ritmos que se generan en la música de jazz o los que puede producir un percusionista de orquesta o simplemente, como acostumbraba, el gran físico Feymann a jugar con ello, un tamborileo de los dedos sobre la mesa.
El autor de estas paginas junto con sus colaboradores basándonos en estos conocimientos hemos desarrollado y patentado una prueba psicofisiológica consistente en demandar al probando que tecleando una tecla del ordenador intente producir una secuencia de golpeteos lo más desordenada posible. El ordenador analiza dicha secuencia generando histogramas de frecuencias e índices de complejidad. Parece, según los estudios todavía incompletos que efectivamente en determinadas enfermedades mentales, como inicios de demencias, esquizofrenias y otros las pautas generadas tienden a ser simples y repetitivas, a diferencia de las personas sanas-
Quizás esta capacidad sea paralela o equivalente a las capacidades motoras generales como elegancia de los movimientos, capacidad para la danza, la gimnasia rítmica, montar en bicicleta o conducir vehículos y otros, Desde siempre se conocía que los esquizofrénicos eran especialmente desgarbados y torpes en sus movimientos y que las personas mayores o al comienzo de las demencias orgánicas la marcha y demás movimientos se tornas inseguros y torpes.
7. Algunos mecanismos involucrados en los procesos evolutivos.
Enumeraré en primer lugar los ítems que voy a considerar.
1. Ley de la variedad requerida.(Para adaptarse a entorno cambiante)
2. Transiciones metasistemáticas. (Diferenciación y emergencia de funciones superiores nuevas)
3. Autorefuerzo o autocatálisis.
4. Ley de la “Reina de corazones roja”
5. Ley del Principio de Peter.
Tomo estas condiciones o mecanismos evolutivos de uno de los tratados más clarividentes sobre la cuestión debidos a y H Turchin F. Heylighen[9] que puede encontrarse fácilmente en Internet en las dirección a pie de página. Describen algunas de las condiciones necesarias para que se produzca una evolución ascendentes; es decir, hacia sistemas más complejos. Respecto algunos sistemas relativamente simples es posible bajo estas leyes o condiciones el establecer índices numéricos o cuantitativos. Respecto los sistemas biológicos ello es casi siempre imposible excepto en lo relativo a algunas “masas” críticas” necesarias para determinadas transiciones. Se trata de unos magnificosd textos que remiten continuamente a otros en la red y que permiten un estudio exhaustivo de estos “complejos” problemas.
a) Ley de la variedad requerida.(Para adaptarse a entorno cambiante)
Es fácilmente comprensible que para que la presión selectiva al paso a la siguiente generación o estado del sistema sea eficaz es necesario contar con un numero suficiente de variedades alternativas. Fácilmente se comprende en el terreno de la herencia biológica. La presión selectiva del medio debe obrar sobre un gran numero de variedades fenotípicas producidas mediante la hibridación, la matación o las condiciones de crecimiento de cada individuo. Ello proporciona un pool; es decir un conjunto o populación de individuos diferentes de los cuales pasaran a la generación posterior los mejor adaptados.
Ello permite definir la magnitud adaptación: Adaptación es la tasa de individuos con una determinada característica que accede a la siguiente generación o estado del sistema.
Aunque es de sobra conocido contradiciendo muchas ideas o deseos filosóficos o políticos, las razas puras tienden a estancarse, o más bien a degenerar debido al principio de la Reina Roja que describiré después. El libre comercio que produce variedad y competición, la tolerancia cultural e ideológica que permite la aparición constante de nuevas ideas y la selección histórica de las mismas son ejemplote la vigencia e importancia de esta condición también en el ámbito de lo que después llamaré sociobiología,
c) Transiciones metasistemáticas. (Diferenciación y emergencia de funciones superiores nuevas)
Con este término denomina Heylighen ( http://pespmc1.vub.ac.be/heyl.html ) aquellas transiciones del sistema en el que emergen nuevas estructuras o funciones. Es el momento decisivo en la evolución de los sistemas complejos. El término metasistemáticas alude al hecho de aparición de un sistema ( nuevo) más allá del sistema existente que lo produce..
d) Autorefuerzo o autocatálisis.
Ya he aludido a este concepto en relación con los ciclos autocatalizadores d Eigen que se producirían en la sopa del mar primitivo donde se sintetizaron las primeras macromoléculas. Autocatálisis quiere decir que el propio producto producido actúa como catalizador para la producción de más cantidad de producto del mismo tipo. De esta manera el crecimiento cuantitativo de este nuevo producto se acelera e incrementa enormemente. La autocatálisis opera por distintos procesos fisicoquimicos, uno de ellos es la autocopia o reduplicación que podemos aceptar inaugura la vida cuya principal característica es la reproducción. Notemos que también un cristal de una especie mineralógica se autoreproduce; y que la autocatálisis puede encontrarse por doquier en el mundo mineral y en el orgánico. De la misma manera podemos aceptar que en los procesos de imitación y copia que se producen sobre todo en las culturas de masas bien intercomunicadas como en la actual, también se producen efectos similares a los de autocatalisis por los cuales aumenta rápidamente el numero de personas que compran un i pod, o se apuntan al Facebook o compran Coca Cola o visten vaqueros. El principio de autocatálisis por lo tanto expresa que quienes o lo que es más tiende a aumentar en detrimento de lo que es o quien es o tiene menos. El pez grande se come al chico y al fin solo quedan peces grandes.
e) Ley de la “Reina de corazones roja”
Este curioso nombre procede del conocido cuento de Lewis Carroll de Alicia en el País de las Maravillas. En él la malvada reina de corazones roja que continuamente decreta la decapitación de sus súbditos, afirma a Alicia que para permanecer en el mismo lugar tiene que correr con todas sus fuerzas. Esto mismo sucede con los sistema complejos: Para mantener su identidad y su complejidad continuamente tienen que permanecer en actividad y trabajo, pues en caso contrario se degradarían a niveles inferiores. Ello es tanto aplicable a sistemas orgánicos metabólicos, como a las sociedades avanzadas; es decir, complejas, que precisan un trabajo e innovación continuos para mantenerse en los mismos niveles de prosperidad, y por lo tanto necesitan un esfuerzo todavía mayor para avanzar. Los sistemas cuanto más simples son menos esfuerzo necesitan para permanecer en su ser, que diría el filosofo. La piedra inerte, salvo que sea radiactiva puede permanecer durante millones de años sin cambios, pero también sin esfuerzo alguno. Claro está que las escalas temporales bajo este concepto no son absolutas y es precisa realizar las modificaciones pertinentes si desde una escala humana o de la vida del hombre hemos de pasar a una escala cosmológica, por ejemplo.
d) Ley del Principio de Peter.
El principio de Peter surgió en la sociología de la empresa. Afirma que los puestos de más responsabilidad en una empresa están generalmente ocupados por personas incompetentes. Ello es debido a que cada empleado o funcionario competente en las empresas dinámicas es promovido a la categoría superior, para la que sin embargo es incompetente. Ha sido demostrado, o mejor mostrado infinidad de veces y seguramente todos podemos nombrar algún ejemplo en el que se cumple dicho principio. En los procesos evolutivos que aquí estudiamos puede enunciarse así:
Toda especie, o muchas especies, evolucionan a una mayor complejidad pudiendo llegar a un punto en el que dejen de estar adaptadas en su medio por lo que comienzan a involucionar o a extinguirse.
Sin duda este proceso es lo que ha extinguido muchas especies que sucumben por exceso de éxito como puede suceder a los individuos, o al conjunto de la especie humana. No se si es oportuno citar a los dinosaurios absolutos dueños de su entorno en su momento pero que sucumben ante la llegada de los mamíferos. O también ese superéxito de tantas estrellas de los deportes ( Maradona) del espectáculo ( Elvis Priystley o Marilyn Monroe que sucumben también por su propio éxito. En todo caso es un principio a considerar en la evolución de los sistemas complejos.
8. Más mecanismos involucrados en los procesos evolutivos.
Dado que en estos apuntes tan solo deseamos ilustrar al lector con algunos términos y mecanismos del complejo tema de la evolución de lo sistemas complejos y a fin de no prolongar excesivamente esta lección señalaré meramente algunos otros procesos que tomo de los autores citados anteriormente.
a) Variación: Secuencial, paralela, Interna o externa.
b) Selección: Interna o Externa. Eliminación de las variaciones inválidas.
c) Adaptación: Probabilidad de que una variación quede seleccionada.
d) Un sistema se selecciona ( sobrevive) si sus diversos componentes o partes se conexionan de forma estable entre sí y con el ambiente.
e) Ecosistema. Macrosistema que engloba a otros. (Mundo natural englobando seres vivos)
9. Por ultimo es necesario citar:
a) Teoría General de los sistemas.
b) Teoría de la Información.
c) Ontología de N. Hartmann.
a) Teoría General de los sistemas.
Estas doctrinas debidas sobre todo a Bertanlaffy son quizás las mas antiguas en relación con el tema que nos ocupa( Desde mediados del siglo XX) y trata de las características generales de los sistemas de cualquier tipo y que realizan cualquier función. Una caracterstica esencial es el tipo de canales de comunicación entre cada una de las partes del sistema ( y de ahí la importancia de la informática o teoría de la información) y por supuesto del tipo de efecto que cada comunicación produce. Enumeramos las principales características según las exponemos en la diapositiva.
a) Retroalimentación y control.
b). Cibernética y automatismos. ( N. Wiener)
c). La Información. Nuevo concepto y dimensión físico matemática. ( Shannon)
d). Funciones emergentes.
Entrar con algún detalle en todas estas doctrinas alargarían excesivamente estos “Apuntes” por lo que quede únicamente su enunciado para que quien tenga interés pueda profundizar más en estos temas tan fascinantes.
Lección 3. Apéndice.
Por ultimo en esta lección insertaré un apéndice sobre la ontología de n. Hartmann que debe considerarse como un genial adelantado respecto la estructura del ser real que nos ha ido desvelando la Ciencia Natural a lo largo del siglo XX y que sigue consolidándose en la actualidad,.
1. Nicolai . Hartmann.
Nicolai Hartmann fue un filósofo alemán de la primera mitad del siglo XX. Profesor de filosofía en Marburg, antecesor de Heidegger y Muy distinto de él, efectúo una profunda revisión de las doctrinas sobre el ser, el determinismo y la libertad, la ética y otras muchas cuestiones, desde sus estudios críticos históricos en la filosofía griega y en la de Kant de quien se fue parcialmente separando si bien utiliza en su mismo sentido el concepto de categoría. En años posteriores fue injustamente olvidado dedicándose la filosofía al uso por una parte a lo seudoliterario en el existencialismo y cuestiones similares. Hoy Hartmann nos resulta especialmente importante por sus tratados sobre ontología accesibles en su obra sintética [11] En ellos postula la estructuración en estratos de la realidad real, formulando muy importantes leyes, que denomina categoriales que definen las características de cada estrato y sus relaciones. Hoy a través de la Filosofía Analítica que se ocupa de los problemas más abstractos comunes a las ciencias de la Naturaleza , la figura de Hartmann esta volviendo a una importante actualidad y en la red pueden encontrarse sus obras, abundantes comentarios y hasta una nueva sociedad de estudiosos de su filosofía.
Aquí por mi parte voy solo a presentar en esquemas algunas de sus más importantes aportaciones para las que su comprensión completa, desde luego precisa el estudio pormenorizado del filósofo. Puede aceptarse que ello es congruente con todo lo expuesto anteriormente sobre sistemas complejos, transmisión de información y surgimiento de las nuevas estructuras y funciones que Hartmann denomina Novum. Por todo ello Hartmann puede considerarse como un profundo pionero de las concepciones que hoy tenemos en ciencia Natural sobre la estructura y funcionamiento del mundo, si bien expresadas en el leguaje de Hartmann con más profundidad y quizás, me atreve a decir con innecesaria complejidad como expresión de la influencia del legado de la filosofía tradicional, incluido el idealismo alemán, determinante de la formación inicial y pensamiento de Hartmann.
Concepto de categoría: Categorías son los conceptos que describen cualidades determinantes de cada uno de los estratos del Ser Real. Las categorías no tienen existencia real fuera del “concretum” ( cosa) al que se refieren.
Estratos: Son cada uno de los niveles fundamentales de complejidad en los que está estructurado el ser real. Se postula que bastan cuatro estratos fundamentales, si bien su enumeración no está totalmente clara en la obra antedicha. En todo caso afirma que los limites entre los estratos son borrosos y a veces se superponen y que .las divisiones son hasta cierto punto arbitrarias siendo posible identificar más o menos estratos según necesidad.
1. Estrato de lo inorgánico atómico molecular.
2. Estrato del mundo vivo vegetal y animal.
3. Estrato del mundo psíquico individual.
4. Estrato del mundo espiritual identificado con la historia las normas morales y sociales y todos los conocimientos de la humanidad.
Categorías de la modalidad del ser;
Son dos: el ser ideal y el ser real.
Categorías elementales de la metafísica tradicional:
Unidad,
Multiplicidad
Materia y forma.
2. Leyes de la legalidad categorial
Son cinco leyes:
Ley de la vigencia
Ley de la Coherencia
Ley de la estratificación
Ley de la dependencia entre estratos.
Ley de la separabilidad,
Ley de la vigencia
1. En toda superposición de los estratos ontológicos siempre existen categorías del estrato inferior que retornan ( es decir vuelven a encontrarse) en lemas alto, pero nunca habrá categorías del estrato superior que se repitan en el inferior.
Ley de la Coherencia
2. El retorno de las categorías es, en todos los casos limitado. No rige para todas las categorías del estrato inferior y no se extienden simplemente a todos los superiores. A determinada altura del estrato el retorno cesa.
Ley de la estratificación
3. Al trascender a estratos superiores, las categorías que se repiten se modifican. Son supraconfiguradas por el carácter del estrato más alto. Lo que permanece invariable es solo un momento categorial fundamental.
Ley de la dependencia entre estratos.
4. El retorno de las categorías inferiores nunca constituye lo peculiar del estrato superior que siempre se apoya sobre el añadido de un novum categorial independiente de aquel retorno, puesto que consiste en el surgimiento de categorías de especie nueva. La modificación de los elementos que se rpiten descansa de antemano en la emergencia del novum.
Ley de la separabilidad,
5. La serie ascendente de las formas ontológicas no constituye continuidad alguna. Puesto que en secciones determinadas de la serie el novum categorial afecta al mismo tiempo a a muchas categorías, los estratos ontológicos se separan unívocamente unos de otros. Tal separabilidad es el fenómeno característico de las distancias existentes entre los estratos. Y de su ordenación jerárquica.
3. Leyes de la dependencia o de la interrelación entre los estratos.
Son cuatro leyes:
2. Ley de la indiferencia:
3. Ley de la materia:
4. Ley de la libertad:
1. Ley de la fuerza:
La dependencia categorial domina desde las categorías inferiores a las superiores, no a la inversa. Las inferiores son por lo tanto las más fuertes desde el punto de vista de la determinación. La fuerza y altura de las categorías están dentro de la serie estratificada en relación inversa.
Esta ley es la más importante y fundamental.
2. Ley de la indiferencia:
Las categorías de un estrato inferior constituyen el fundamente ontológico del superior y son indiferentes respecto a este; es decir, que no consisten en ser dicho fundamento. Es cierto que toleran la supraconfiguración y la superconstrucción; pero no las fomentan. El estrato ontológico superior no puede existir sin el inferior, pero éste puede existir sin aquel.
3. Ley de la materia:
Las categorías inferiores solo determinan el estrato ontológicos superior como materia, o fundamento de su ser. Por lo tanto únicamente limitan el margen de las categorías superiores, sin determinar su superioridad ni su peculiaridad. Estas categorías superiores no configuran cualquier cosa en la materia inferior si no solo lo que es
posible.
4. Ley de la libertad:
El novum del estrato superior es por completo libre frente al inferior. A pesar oda su dependencia afirma su autonomía. La estructura de lo más alto, así presupuesto, no tiene espacio libre alguno en lo inferior, pero sí” por encima” de él.
En clarividentes párrafos sucesivos Hartmann precisa algo más el sentido de las anteriores leyes y aborda la comprensión de la libertad, del espíritu bajo el significado concreto de las leyes de la dependencia y de la fuerza de los estratos más inferiores. Así leemos
La mayor fuerza de la estructura inferior no tiene el sentido de determinar todo el ser superior; antes bien, ocurre lo contrario: los hilos de esta insuperable dependencia se tornan tanto más delgados e invisibles cuanto más se asciende en la serie estratificada y reducen cada vez más su papel hasta convertirse en meras condiciones previas y negativas
La dependencia no anula la autonomía. Es uno de los muchos errores derivados de una vieja metafísica. En ética condujo al concepto de una libertad de la voluntad que seria la negación de la dependencia… Las convicciones y acciones de los hombres no están determinadas por la estructura anatómica del cuerpo, aunque como el resto de la vida espiritual de la persona estén soportados por él. Lo mismo sucede con el cuerpo que no está determinado por los átomos…
La voluntad libre que ocurre en el nivel espiritual se produce por una autodeterminación en dicho estrato.
El secreto del poder del espíritu sobre la Naturaleza depende de su obediencia a la misma …….. reside en su capacidad de entender la legalidad de dichas fuerzas y de adaptarse a ellas en sus creaciones técnicas. Lo que el espíritu prescribe a la naturaleza son los fines perseguidos por él al emplear la fuerza natural como medio dado.
No referiré más sobre Hartmann. Hoy todo podemos encontrarlo en la red. Añadiré tan solo que sus leyes y formulaciones se encontraron ya en la neurofisiología. ( Leyes de Jackson). En la teoría de los sistemas, y hoy dentro de la filosofía analítica subyacen a todos los estudios e interpretaciones del ser real además de constituir el sustrato teórico de la sociedad de la información y de tal manera común que no es necesario explicitarlo, como se expresa hoy con este barbarismo, sin embargo tan comprensible.
Por lo demás ya en la lección 1 y bajo el titulo de Leyes de la organización dinámica referidas como explicación de la coordinación entre estratos dentro de una concepción monástica del hombre, ya adelanté de una forma más sencilla estas mismas leyes que pormenorizó Hartmann en su ontología.
[1] Expuso los resultados en su obra enciclopédica: Die Ursprung der Gottesidee. ( El origen de la idea de Dios)
[7] P. Coveney, R. Highfield. La Flecha del Tiempo. Plaza Janés. Colección Saber Mas. Barcelona 1992.
[8] Veáse también: Ilya Prigoigine e Isabel Stengers: Entre el Tiempo y la Eternidad. Alianza Universidad Madrid 1988.
[10] La mejor pagina de referencia en Internet sobre Hartmann es: http://www.ifomis.org/Home/HartmannPoster.WhiteVersion.pdf
[11] Nicolai Hartmann. La Nueva Ontología. Editorial Sudamericana. Biblioteca de Filosofía. Buenos Aires 1954,
No hay comentarios:
Publicar un comentario