lunes, 29 de enero de 2018

Tanatopolítica

Resulta evidente que el capitalismo tiene una veta antinatalista o como Raúl Fernández Vítores señala, una tendencia tanatopolítica. Las máquinas desplazan continuamente el trabajo humano y el paro se hace cada vez más abundante y más crónico. En resumen, sobra población. También he leído comentarios similares en mi amigo Zarpax, José María Rodríguez Vega y en el escritor Juan Manuel de Prada a propósito de los derechos de bragueta. La tanatopolítica no sólo estaría representada por los nazis alemanes en su pretensión simple, directa y contundente de eliminar a los inservibles, locos, marginales, lisiados, judíos, enfermos incurables, etc, para garantizar la pervivencia y la sostenibilidad del Estado social o del Bienestar alemán ario, la tendencia eugenésica proviene de los países protestantes del Norte de Europa a partir de Galton, primo de Darwin.
Se nos ocurre que la eugenesia, la eutanasia, el aborto, la disolución del matrimonio y de la familia, el fomento de la homosexualidad, del animalismo, de las tendencias hedonistas e individualistas configuran los dispositivos tanatopolíticos para reducir la población amén de por otros motivos emic y etic que favorecen el desarrollo de las fuerzas productivas y el tener una mayor disponibilidad de la mano de obra.

viernes, 19 de enero de 2018

El atomismo

El atomismo es una respuesta al eleatismo, surge por la necesidad que hay de postular el vacío, un cierto no ser para así poder garantizar el movimiento. Tiene que haber vacío para poder explicar el movimiento. Hay materia prima real y con plena existencia que existe en forma de partículas distintas entre sí. La materia es eterna y el movimiento de partículas garantiza la permanencia de los cuerpos.
Con esto se mantiene la plena realidad de lo corpóreo y su homogeneidad. En segundo lugar, los átomos, partículas indivisibles, son tan pequeños que no son visibles, aunque Demócrito llegó a sostener la existencia de átomos gigantes. En tercer lugar, los átomos son indivisibles e indestructibles. Esto es algo fáctico, no de principio ni racional. En cuarto lugar los átomos sólidos son infinitos en número y figura y están dispersos por el vacío infinito cuya existencia afirma el atomismo. El vacío permite el movimiento y la unión de los átomos. En quinto lugar el vacío sólo existe donde no hay átomos. En Sexto lugar los átomos difieren entre sí no por su materia, sino sólo por su disposición y figura; todas las diferencias cualitativas de los objetos, que son conglomerados de átomos, dependen, en consecuencia de diferencias cuantitativas y locales solamente.
Los átomos se mueven en línea recta y a velocidad uniforme.
Si los átomos son la única realidad, entonces, colores, olores, sabores son apariencias fenoménicas. Además, en un espacio infinito hay cabida para infinitos universos. Los universos se están formando y destruyendo continuamente. Cada universo es el resultado de un remolino o vórtice que agrupa en el vacío a una gran cantidad de átomos. No existe la finalidad, sino la necesidad o azar, to autómaton. En un vórtice los átomos tienden a agruparse con sus semejantes. Los átomos más grandes se congregan en el centro y los más pequeños son lanzados fuera.

miércoles, 17 de enero de 2018

El podemismo sí es un izquierdismo

Ser de izquierdas hoy, cuando las generaciones de la izquierda o se han extinguido o se han ecualizado en el seno de los Estados del Bienestar bajo el consenso socialdemócrata, no es más que los residuos, los detritus, la escoria política antisistema, pero a veces estos detritus se aglomeran temporalmente y forman partidos y movimientos. Es el caso de Podemos: mezcla de la basura del PSOE, de IU, PCE y lumpemproletariado del 15 de mayo de 2011, aglomerado por los medios de comunicación y subvenciones de Venezuela y de Irán.
Podemos es de izquierdas porque es filoterrorista, antinacional, filoseparatista y progresista. Todo apunta a cumplir el lema leninista de que cuanto peor, mejor. Cuanto más se deteriore el Estado Español, España, más fácil será para Podemos apoderarse del Estado, conquistarlo. El debilitamiento del Estado en sus diversas capas del cuerpo político forma parte de la estrategia de Podemos: deteriorar las instituciones sociales, políticas, fomentar y apoyar todo aquello que deteriore la sociedad política es el medio para lograr su fin: el poder. Todo lo que hemos predicado del izquierdismo en otras intervenciones se cumple paradigmáticamente en Podemos.
Podemos es izquierda terrestre, la izquierda real, ágrafa, antinacional, antiespañola, antipatriótica. Hoy por hoy, ser de izquierdas es eso. Vale todo para tomar el poder político. Hacer una revolución demagógica, sin un proyecto político definido y por eso ser de izquierdas es ser demagogo y sofista.

Cretinos y malnacidos

El peor crimen político contra el Estado, contra la Nación y contra la Patria es la sedición para obtener la secesión de una parte del suelo patrio. En el límite sólo puede ser sancionado adecuadamente con la muerte, con la ejecución capital. Ahora con las modas democráticas, socialdemócratas del Estado plutocrático pletórico de bienes se opta por no conceder tanta importancia a semejante crimen político. A lo mejor es porque los secesionistas de nuestra época además de malnacidos por traidores, son idiotas y cretinos, unos débiles mentales. Gustavo Bueno ya nos dijo que el nacionalismo fraccionario se funda en la mentira histórica y que primero se da el deseo y propósito de lograr la secesión y luego surge la leyenda, el mito dialectal e histórico para justificar ante el vulgo ignorante la secesión. En el Régimen de 1978, un régimen antinacional, antiespañol se consiente toda esta infamia de tener autonomías, privilegios fiscales y dialectales amén de partidos separatistas.
Cataluña está dominada por los separatistas dialectales merced a la pasividad política de los gobiernos españoles. Finalmente, desde 2012 Cataluña vive en rebeldía abierta y permanente no sancionada aún de manera conveniente y contundente. Por eso la pantomima se prolonga. Pantomima, peligrosa, sedición posmoderna y progre pero peligrosa en última instancia en cuanto grandes potencias extranjeras decidan involucrarse a fondo en estos asuntos tan graves.
Los secesionistas son delincuentes por buscar la destrucción y el desmembramiento del Estado del que son súbditos, por ello son malnacidos y son cretinos porque sus argumentos son camelos propios de tontos de baba y porque no hay tonto bueno. Seguirán cometiendo delitos mientras se les permita cometerlos. No sabemos qué nos depara el futuro. Ójala España y el buen sentido triunfen.

sábado, 13 de enero de 2018

El criticismo nominalista y la ciencia del siglo XIV


El criticismo nominalista y la ciencia del siglo XIV.

Ya a partir del siglo XIII se produce una crítica a la física de Aristóteles. La crítica se produce dentro del propio pensamiento científico aristotélico, el cual proporcionó dese la base de su propio sistema las armas con las que fue atacado. El aristotelismo proporcionó los elementos y las premisas para su propia destrucción.

Durante estos años surgen nuevas ideas acerca de la naturaleza del método científico, sobre la inducción y el experimento y sobre el papel de las matemáticas en la explicación de los fenómenos físicos. El terreno de máximo efecto de la crítica escolástica es el de la dinámica; se minan las bases de todo el sistema de física (excepto la biología), con lo cual se prepara el camino a la aparición de nuevos métodos.

Hubo una idea recobrada en el siglo XII que hizo posible la expansión inmediata de la ciencia. Es la idea de que un hecho concreto es explicado cuando puede ser deducido de un principio más general. Se recurre así a una demostración formal. Esto fue utilizado antes por los lógicos y por los filósofos. Ya se estaba esbozando la importante distinción entre conocimiento racional y conocimiento experimental.

Por ello se recupera la idea de una ciencia racional demostrativa y se empiezan a estudiar los problemas metodológicos que van surgiendo. Se investiga sobre la relación lógica entre los hechos y las teorías o entre los datos y las explicaciones.

Sin embargo, la ciencia medieval se mantuvo siempre en general, dentro de la estructura de la teoría aristotélica de la naturaleza y no siempre sus deducciones eran completamente rechazadas aunque se contradijeran con los resultados de los nuevos procedimientos matemáticos, lógicos y experimentales.

Roberto Grosseteste fue uno de los primeros en entender y utilizar la nueva teoría de la ciencia experimental. Su teoría reúne tres aspectos, el inductivo, el experimental y el matemático.

No es posible la inducción total. Tampoco es siempre posible en la ciencia de la naturaleza llegar a una definición completa o a un conocimiento absolutamente cierto de la causa o forma de la que provenía el efecto, al contrario de lo que ocurría, por ejemplo, con los temas abstractos de la geometría, como los triángulos.

Grosseteste funda su método inductivo de eliminación o refutación sobre dos hipótesis acerca de la naturaleza de la realidad. La primera es el principio de uniformidad de la naturaleza, que dice que las formas son siempre uniformes en el efecto que producen. La segunda hipótesis de Grosseteste era el principio de economía.

Grosseteste consideró las ciencias físicas como subordinadas a las matemáticas, en el sentido de que las matemáticas podían dar la razón de los hechos físicos observados.

Tuvo lugar la crisis del paradigma antiguo porque con el tiempo las explicaciones causales físicas tomadas de la física aristotélica se volvieron cada vez más embarazosas.

Alberto Magno trató seriamente el problema de la inducción. Pero mucho más importante que él fue Rogelio Bacon, puesto que en él se hace explícito el programa de la matematización de la física y el cambio en el objeto de la investigación científica desde la naturaleza o forma aristotélica a las leyes de la naturaleza en un sentido moderno.

Tuvieron gran importancia para el conjunto de la ciencia de la naturaleza las discusiones sobre la inducción realizadas por dos frailes franciscanos de Oxford. Duns Escoto (1266-1308) realizó una contribución al problema de la inducción que fue la distinción muy clara que estableció entre las leyes causales y las generalizaciones empíricas. Escoto dijo que la certeza de las leyes causales descubiertas en la investigación del mundo físico estaba garantizada por el principio de uniformidad de la naturaleza, que él consideraba como una hipótesis autoevidente de la ciencia inductiva. Aun cuando era posible tener experiencia de sólo una muestra de los fenómenos asociados que se investigaban, la certeza de la conexión causal subyacente a la asociación conservada era conocida por el observador. El conocimiento científico más satisfactorio era aquel en el que la causa era conocida.

Guillermo de Ockham realizó un ataque radical contra el sistema de Aristóteles desde un punto de vista teórico. Atacó a la metafísica de las esencias debido a su voluntarismo teológico, pues el postulado fundamental de la teología de Ockham es una interpretación radical del primer artículo del Credo cristiano: Credo in unum Deum, Patrem omnipotentem. La posibilidad de formular principios necesarios y de apoyar en ellos demostraciones apodícticas supone que las cosas no sólo son de hecho tal como dicen esos principios y demuestran esas demostraciones (porque sobre puros hechos sólo puede informarnos la experiencia), sino que tienen que ser así; y, si admitimos esto, estamos restringiendo la omnipotencia de Dios. Si Dios es absolutamente omnipotente, carece de sentido especular sobre cómo tienen que ser sus obras; todo es como Dios Quiere, y Dios quiere lo que él quiere.

Entonces Dios es absolutamente libre. La esencia es la determinación, la ley necesaria de cada cosa. Si hay esencias, entonces hay una articulación racional del mundo por encima de la cual no es posible saltar. Y es preciso que nada sea absolutamente imposible, porque Dios lo puede todo. Por lo tanto, es preciso que, en términos absolutos, no haya esencias. Para Ockham la teoría que afirma la realidad del universal en la mente de dios implicaba que Dios quedaba gobernado o limitado en su acto creador por las ideas eternas. Hay una contingencia radical debido al voluntarismo teológico de Ockham. No hay esencias, no hay leyes absolutas, pues Dios es absolutamente libre.

La lógica terminista incipiente, iniciada en el siglo  XIII (Pedro Hispano, William de Wood) se caracteriza por su interés en el lenguaje y el significado.

 Se distinguen varias clases de términos: categoremáticos, referidos a la realidad, a la referencia, significan aisladamente. Y sincategoremáticos: son los functores, términos relatores.

Palabras y conceptos: la inferencia significativa de las palabras es convencional. El verdadero material de nuestro razonamiento no es el símbolo artificial, sino el natural (concepto). La aprehensión directa de una cosa causa de modo natural en la mente un concepto de esa cosa que es el mismo aunque se hablen idiomas distintos. El significado lógico de palabras en distintos idiomas es el mismo.

La proposición y la representación (suppositio). Los términos son los elementos de las proposiciones. Sólo en el seno de éstas adquieren la función de representar (suppositio). Esta función presenta varias modalidades:

Se representa a un individuo (Suppositio personalis).

Se representa a los miembros de una clase (Suppositio simplex).

Se representa a la palabra misma (Suppositio materialis).

Términos de primera o segunda intención. Los términos de primera intención representan a cosas que no son por su parte signos. Los términos de segunda intención representan términos de primera intención y se predican de éstos.

Los universales son términos que significan cosas individuales y que las representan en las proposiciones. Solamente existen las cosas individuales y por el mero hecho de que una cosa exista es por ello individual. Si el universal existe, ha de ser individual, por tanto afirmar su existencia extramental es contradictorio.

Una evidencia que recae directamente sobre universales sólo puede ser evidencia de conexiones entre nociones, en ningún caso evidencia de que haya realmente algo que corresponda a esas nociones. En otras palabras sólo el conocimiento intuitivo (esto es, experimental) nos da noticia de la existencia de alguna cosa; y el conocimiento intuitivo o experimental versa siempre sobre cosas individuales y concretas. Que hay tal o cual ente es una afirmación que no podremos jamás sacar de otra parte que de la experiencia. No es lícito racionalmente aceptar más entidades que aquellas que se dan en una experiencia concreta o aquellas cuya admisión es absolutamente necesaria en virtud de una experiencia concreta. Este es el sentido de una célebre fórmula que Ockham maneja constantemente: Non sunt multiplicanda entia sine necessitate; el propio Ockham lo explica así: sine necessitate, puta nisi per experientiam possit convinci.

Con esto está ya dicho que todo aquello cuya existencia Pueda ser afirmada es una cosa individual: omnis res positiva extra anima eo ipso est singularis. Ockham niega todo tipo de realidad al universal. Universalia sunt nomina.

La lógica del siglo XIII había llamado suppositiio a la propiedad que el término tiene de valer por o hacer las veces de la cosa (Terminus supponit pro re). Ockham insiste en que a) sólo lo individual existe, b) que los individuos pueden ser clasificados por la mente y para la mente, en géneros y especies; se trata de no añadir nada a esto, de resolver el problema ateniéndose estrictamente a los datos. Nada es universal para Ockham, ni siquiera el nombre, el nombre es singular.

Guillermo de Ockham era escéptico respecto de la posibilidad de conocer alguna vez las conexiones causales particulares o de ser capaz de definir las sustancias particulares, aunque no negó la existencia de causa o de sustancias como identidad que persistía a través del cambio. De hecho, creía que las conexiones establecidas empíricamente poseían una validez universal en razón de la uniformidad de la naturaleza.

Ockham basó el tratamiento de la inducción sobre dos principios. Primero, defendió que el único conocimiento cierto sobre el mundo de la experiencia era el que llamaba conocimiento intuitivo, adquirido por la percepción de cosas individuales a través de los sentidos.

El segundo principio de Ockham era el de economía, la llamada navaja de Ockham.

El efecto del ataque de Ockham a la física y a la metafísica de su tiempo fue destruir la creencia en la mayor parte de los principios sobre los que se basaba el sistema de la física del siglo XIII. En particular atacó las categorías aristotélicas de relación y de sustancia y el concepto de causalidad. Defendió que las relaciones como la de estar una cosa sobre la otra en el espacio, no tenían realidad objetiva, aparte de las cosas individuales perceptibles entre las que se observaba la relación. Según él, las relaciones eran simplemente conceptos formados por la mente. Esta idea era incompatible con la idea aristotélica de que el cosmos tenía un principio objetivo de orden, según el cual sus substancias componentes estaban ordenadas, y abrió el camino a la noción de que todo movimiento era relativo en un espacio geométrico indiferente sin diferencias cualitativas.

Ockham dijo, al tratar de la sustancia, que sólo se poseía experiencia de los atributos y que no se podía demostrar el que unos determinados atributos observados fueran causados por una forma sustancial determinada. Defendió que las secuencias de fenómenos regulares eran simplemente secuencias de hechos y que la función primaria de la ciencia era establecer estas secuencias por la observación. Era imposible tener certeza de una conexión causal. concreta, porque la experiencia proporcionaba conocimiento evidente sólo de los objetos o fenómenos individuales y nunca de la relación entre ellos como causa y efecto.

Un grado mayor aún de empirismo filosófico fue logrado por un francés contemporáneo de Okham, Nicolás de Autrecourt (muerto después de 1350). Este dudó absolutamente de la posibilidad de conocer la existencia de sustancias o de relaciones causales. Llegó a la conclusión de que del hecho de que se sepa que una cosa existe no se puede inferir evidentemente que otra cosa existe, o no existe,; de lo cual él concluía que del conocimiento de los atributos no era posible inferir la existencia de las sustancias.

El nominalismo afirmaba que el mundo natural era contingente y que por lo tanto las observaciones eran necesarias para descubrir algo sobre él.

En física el primero que realiza un análisis cinemático del movimiento es Gerardo de Bruselas (1187-1260) en su tratado “De motu”, al tratar el movimiento de rotación adoptó un enfoque característico de la ciencia moderna, considerando como objeto principal del análisis la representación de las velocidades no uniformes por medio de velocidades uniformes, análisis que implicaba inevitablemente el concepto de velocidad y parece que supuso que la velocidad de un movimiento puede expresarse por un número o una cantidad haciendo de ella magnitud, como el espacio y el tiempo.

Hacia finales del siglo XIII Gil de Roma propuso una forma completa de atomismo, que derivó su base de la teoría de Avicebrón sobre la materia como extensión especificada sucesivamente por una jerarquía de formas. Gil sostuvo que la magnitud podía ser considerada de tres maneras: como una abstracción matemática, como realizada en una substancia material no específica y en una específica.

Nicolás de Autrecourt abandonó por completo la explicación de los fenómenos en términos de formas sustanciales y llegó a adoptar una física completamente epicúrea. Llegó a la conclusión probable de que un continuum material estaba compuesto de puntos mínimos, infrasensibles e indivisibles, y el tiempo de instantes discretos, y afirmó que todo cambio en las cosas naturales se debía a movimiento local, esto es, a la agregación y a la dispersión de partículas. También creyó que la luz era un movimiento de partículas con una velocidad finita.

Según Ockham tiempo y movimiento no designaban res absolutae, sino relaciones entre res absolutas. Designaban rei respectivae, sin existencia real. Rechazó el principio básico de Aristóteles de que el movimiento local fuera una potencialidad actualizada. Definió el movimiento como la existencia sucesiva, sin reposo intermedio, de una identidad continua que existía en lugares diferentes; y para él el mismo movimiento era un concepto que no tenía realidad, aparte de los cuerpos en movimiento que podían ser percibidos. Era innecesario postular cualquier forma inherente que causara el movimiento, cualquier entidad real distinta del cuerpo en movimiento, cualquier flujo o curso. Todo lo que era necesario decir era que de instante a instante el cuerpo en movimiento tenía una relación espacial diferente con otro cuerpo. Cada efecto nuevo requería una causa; pero el movimiento no era un efecto nuevo, porque no era nada, sino que el cuerpo existía sucesivamente en lugares distintos. Ockham rechazó, por tanto, las tres explicaciones corrientes de la causa del movimiento de los proyectiles, el impulso del aire, la acción a distancia mediante las especies y la fuerza impresa dada al mismo proyectil. Rechazó la frase omne quod movetur, movetur ab alio y dio el primer paso hacia la formulación del principio de inercia y  a la definición de fuerza como lo que altera el reposo o el movimiento.

No fue sin embargo Ockham el que produjo la teoría física más significativa del siglo XIV, sino un físico, Juan Buridán. A las críticas corrientes de las teorías del movimiento de los proyectiles platónica y aristotélica añadió la de que el aire no podía explicar el movimiento rotatorio de una piedra de molino o de un disco, porque el movimiento continuaba aun cuando se colocara una cubierta sobre los cuerpos, cortando así el aire. Igualmente rechazó la explicación de la aceleración de los cuerpos que caen libremente por la atracción del lugar natural, porque defendía que el motor debe acompañar al cuerpo movido. La teoría del impetus, por medio de la cual explicaba los diferentes  fenómenos del movimiento constante y acelerado, se basaba, como la teoría anterior de la virtus impressa, sobre los principios de Aristóteles de que todo movimiento requiere un motor y de que la causa debe ser proporcionada al efecto. En este sentido, la teoría del impetus era la conclusión histórica de una línea de desarrollo dentro de la física aristotélica, más que el comienzo de una nueva dinámica de la inercia. Buridán sin embargo, formuló su teoría con mayor exactitud cuantitativa que sus predecesores.

Puesto que las explicaciones de la persistencia del movimiento de un cuerpo después de haber abandonado al motor original fracasaron, Buridán concluyó que el motor debe imprimir al mismo cuerpo un cierto impetus, una fuerza motriz gracias a la cual continuaba moviéndose hasta que era afectada  por la acción de fuerzas independientes. En los proyectiles este impetus se reducía progresivamente por la resistencia del aire y por la gravedad natural a caer hacia abajo; en los cuerpos que caían libremente, aumentaba gradualmente por la gravedad natural, que actuaba como una fuerza aceleradora que añadía incrementos o impetus sucesivos o gravedad accidental, a los ya adquiridos. La medida del impetus de un cuerpo era su cantidad de materia multiplicada por su velocidad.

Se ha pretendido hacer del impetus  una fuerza motriz duradera al hacer del impetus una res permanens, la cual mantiene al cuerpo en movimiento sin cambio en la medida en que no era afectado por fuerzas que lo disminuían o lo aumentaban. Buridán dio un paso estratégico hacia el principio de inercia. Es verdad que su impetus tenía algunas semejanzas notables con la dinámica del siglo XVII. La medida que propone Buridán del impetus  de un cuerpo como proporcional a la cantidad de materia y a la velocidad sugiere la definición de Galileo del impeto o momento, la quantité de mouvement de Descartes, e incluso el momento de Newton como el producto de la masa multiplicada por la velocidad. Es verdad que el impetus  de Buridán, en ausencia de fuerzas independientes, podía continuar en círculo en los cuerpos celestes y en línea recta en los cuerpos terrestres, mientras que el momento de Newton permanecía solamente en línea recta en todos los cuerpos y necesitaría una fuerza para ser llevado a una trayectoria circular. Galileo en esto no estaba con Newton, sino en una posición intermedia entre él y Buridán.

También existe una cierta semejanza entre el impetus de Buridán y la forcé vive, o energía cinética, de Leibniz. Buridán proponía el impetus  como una causa aristotélica del movimiento que debía ser proporcionada al efecto; por tanto, si la velocidad aumentaba, como en los cuerpos que caen, también debía hacerlo el impetus. Es verdad que se puede considerar el impetus de Buridán como un resultado de su intento de formulaciones cuantitativas, como algo más que una causa aristotélica, como una fuerza o poder poseído por un cuerpo, en razón de estar en movimiento, de alterar el estado de reposo o movimiento de otros cuerpos en su trayectoria. Es verdad también que existen demasiadas semejanzas entre esto y la definición de impeto o momento dada por Galileo en su “Dos nuevas ciencias” para  suponer que éste no debía nada a Juan Buridán. Pero considerándolo en su propia época, es evidente que el mismo Buridán consideró su teoría como una solución a los problemas clásicos que surgían dentro del contexto de la dinámica aristotélica de la que él nunca se evadió. No concibió el principio de inercia en el espacio vacío.

La teoría del impetus de Buridán fue un intento de incluir los movimientos celestes y los terrestres en un único sistema mecánico. En este terreno fue seguido por Alberto de Sajonia, Marsilio de Inghen y Nicolás Oresme. Oresme defendió que en la región terrestre había solamente movimientos acelerados y retardados. Adaptó la teoría del impetus a esta hipótesis y parece que no lo consideraba como una res naturae permanentes, sino como algo que duraba solamente algún tiempo.

Respecto de la dinámica terrestre, Buridán explicó el rebote de una pelota por analogía con la reflexión de la luz, diciendo que el impetus inicial comprimía la pelota con violencia cuando ella golpeaba el suelo; y cuando rebotaba, esto le daba un nuevo impetus, que hacía que la pelota saliera hacia arriba. Dio una explicación similar de la vibración de la cuerda y de la oscilación de una campana balanceándose.

Buridán, en sus Quaestiones de Caelo et Mundo, mencionaba que muchos defendían que el movimiento diario de rotación de la Tierra era probable, aunque añadía que ellos proponían esta posibilidad como un ejercicio escolástico. Se dio cuenta de que la observación inmediata de los cuerpos no podía ayudar a decidir si eran los cielos si se movían o lo era la Tierra basándose en observaciones. Esto tiene que ver con la relatividad del movimiento. Una flecha disparada verticalmente caía en el lugar desde el que había disparada. Si la Tierra girara, decía, eso sería imposible; y respecto a la sugerencia de que el aire que giraba arrastrara a la flecha decía que el impetus de la flecha resistiría la tracción lateral del aire.

El estudio de la rotación diaria de la Tierra realizado por Oresme fue más elaborado. El análisis de Oresme de todo el problema fue el más detallado y agudo realizado en el período que va de los astrónomos griegos a Copérnico.

Al defender el sistema geoestático, una cuestión importante estudiada por Oresme fue la del movimiento constante de las esferas. Puesto que su versión de la teoría del impetus no podía explicar el movimiento constante, retornó a una teoría vaga del equilibrio entre las cualidades y fuerzas motrices que Dios comunicó a las esferas en la creación para corresponder a la gravedad (pesanteur) de los cuerpos terrestres y la resistencia proporcionada que se oponía a estas fuerzas (vertus). De hecho, decía que en la creación estas fuerzas y resistencias habían sido conferidas por Dios a las inteligencias que movían los cuerpos celestes; las Inteligencias se movían con los cuerpos a los que movían y estaban relacionadas con ellos de la misma forma que el alma lo estaba con el cuerpo.

Oresme afirmaba que las direcciones del espacio, el movimiento y la gravedad natural y la levitación debían, en la medida en que eran observables, ser consideradas todas ellas relativas.

Oresme estaba de acuerdo con los que argüían que Dios por su potencia infinita podía crear un espacio infinito y tantos mundos como quisiera.

Oresme afirmó que sólo se podía decir que arriba y abajo eran absoluta y realmente distintos, pero únicamente respecto de un universo determinado. Podíamos, por ejemplo, distinguir arriba y debajo de acuerdo con el movimiento de los cuerpos ligeros y pesados. Oresme combinando esta teoría pitagórica o platónica de la gravedad con la concepción del espacio infinito, podía así prescindir de un centro del universo fijo al que estuvieran referidos todos los movimientos naturales de la gravitación. La gravedad era sencillamente la propiedad de los cuerpos más pesados de dirigirse al centro de las masas esféricas de materia. La gravedad producía movimientos únicamente en relación a un universo determinado; no había una dirección absoluta de la gravedad que se aplicara a todo espacio.

No había fundamento, por tanto, para argüir que, suponiendo que los cielos girasen ver, la Tierra debía estar necesariamente fija en el centro. Oresme demostró, basándose en la analogía de una rueda que gira, que era solamente necesario en el movimiento circular el que un punto matemático imaginario estuviera en reposo en el centro, como era supuesto, en efecto, en la teoría de los epiciclos. Además, decía que no era parte de la definición del movimiento local el que estuviera referido a algún punto fijo o a algún cuerpo fijo.

Oresme decía que le parecía que era posible defender la opinión, siempre sujeta a corrección, de que la tierra se mueve con movimiento diario y los cielos no. Y se dedicó a refutar las objeciones en contra: las objeciones que Oresme citó en contra del movimiento de la Tierra habían sido todas ellas tomadas de Ptolomeo e iban a ser utilizadas contra Copérnico; las hizo frente con argumentos que a su vez iban a ser utilizados por Copérnico y por Bruno.

La primera objeción a partir de la experiencia era que se observaba efectivamente que los cielos giraban alrededor de su eje polar. Oresme replicaba a esto citando el cuarto libro de la perspectiva de Witelo, que el único movimiento observable era el movimiento relativo.

La segunda objeción a partir de la experiencia era que si la Tierra giraba por el aire de Oeste a Este habría un soplo de viento fuerte continuado de Este a Oeste. Oresme replicó a esto que el aire y el agua participaban de la rotación de la Tierra, de forma que no habría tal viento. La tercera objeción era la que concibió Buridán: que si la Tierra giraba, una flecha o una piedra disparadas verticalmente hacia arriba deberían quedar atrás hacia el Oeste cuando cayeran, mientras que de hecho caían en el lugar de donde habían sido lanzadas. La respuesta de Oresme a esta objeción era muy significativa. Decía que la flecha se mueve muy rápidamente hacia el Este con el aire que atraviese y con la masa entera de la parte inferior del universo indicada antes que se mueve con movimiento diario y de este modo la flecha vuelve al lugar en la Tierra desde donde fue lanzada. De hecho, la flecha tendría dos movimientos y no uno sólo, un movimiento vertical a partir del arco, y un movimiento circular por estar en el globo en rotación.

Así, de la misma forma que a una persona que esté en un barco en movimiento cualquier movimiento rectilíneo respecto del barco le parece rectilíneo, a una persona en la Tierra la flecha le parecerá que cae verticalmente al punto de donde fue lanzada. El movimiento le parecería el mismo a un observador sobre la Tierra tanto si este girara como si estuviera en reposo. Esta concepción de la composición de movimientos se iba a convertir en una de las más fecundas en la dinámica de Galileo.

Las objeciones de razón contra el movimiento de la Tierra provenían principalmente del principio de Aristóteles de que un cuerpo elemental podía tener únicamente un solo movimiento que, para la Tierra, era rectilíneo y hacia abajo. Oresme afirmó que todos los elementos, excepto los cielos, podían tener dos movimientos naturales, siendo uno la rotación en círculo cuando estaban en su lugar natural, y el otro el movimiento rectilíneo por el que volvían a su lugar natural cuando habían sido desplazados de él. La vertu que movía a la Tierra en forma de rotación era su naturaleza o forma, igual que la que la movía rectilíneamente hacia su lugar natural. A la objeción de que la rotación de la Tierra destruiría la astronomía, Oresme replicaba que todos los cálculos y tablas serían los mismos de antes.

Los principales argumentos positivos que Oresme adujo en favor de la rotación de la Tierra se centraban todos ellos en que era más sencilla y perfecta la rotación que la otra alternativa, anticipándose una vez más notablemente a los argumentos de inspiración platónica de Copérnico y Galileo. Si la Tierra tenía un movimiento de rotación todos los movimientos celestes aparentes tendrían lugar en el mismo sentido, de Este a Oeste; la parte habitable del globo estaría en su lado derecho o noble; los cielos gozarían del estado más noble de reposo y la base de la Tierra se movería; los cuerpos celestes más alejados harían sus revoluciones proporcionalmente más despacio que los más cercanos al Este, en vez de más rápidamente, como ocurriría en el sistema geocéntrico. Entre las ventajas de la sencillez se contaba la de que la novena esfera ya no era necesaria. Sin embargo, Oresme creía en el geocentrismo. Oresme comprendió bien que ninguno de sus argumentos probaba positivamente el movimiento de la Tierra.

 

 

 

 

jueves, 11 de enero de 2018

Franco. El hombre superior providencial


Verdades obvias que todos debieran suscribir por higiene intelectual, moral y política. Franco fue el hombre superior providencial que libró a España del comunismo, de la miseria y del hambre. Uno de los hombres más inteligentes del siglo XX. Nada que reprocharle a un hombre que inauguró una edad de oro para España en el siglo XX. Sólo los resentidos, mediocres y enanos lo aborrecen y quieren ejercitar una damnatio memoriae de su figura gigante en contraposición a los enanos demócratas y progresistas. La falta de lecturas hace que la izquierda sea ágrafa.


PÍO MOA RESPONDE A GARCÍA CÁRCEL

‘Franco ganó la guerra sin perder ninguna batalla importante’

 

La Gaceta

España          / 05 enero, 2018 

 El historiador Ricardo García Cárcel escribía hace algunos días en El Español un texto hipercrítico con el régimen franquista donde arremetía duramente contra el general. Moa responde, uno por uno, a lo que considera “mitos” de García Cárcel.

Ricardo García Cárcel se ha creído en la obligación de clarificar lo que llama “el mito de Franco”, que según él gira “En torno a cuatro ejes: que Franco ganó la Guerra Civil con habilidades estratégicas dignas de Napoleón; que salvó a España de la destrucción al resistirse a entrar en la órbita de Hitler; que pilotó la salida de España del hundimiento económico y que fue el que urdió el proceso de la transición a la democracia. Vida privada y vida pública impecables conjugadas. Tenacidad, serenidad, sobriedad, desconfianza gallega y laboriosidad serían sus principales cualidades. Los defectos o más bien excesos se le atribuirían a su mujer. La nómina de elogios ha sido abrumadora y entre sus virtudes añadidas se han destacado su condición de gran cazador y pescador, experto en poderes sobrenaturales y hasta dominador extraordinario de las constantes fisiológicas. Hoy el relato épico y heroico de Franco está agotado pese a los intentos de Pío Moa. Los historiadores, ya desde la derecha (Payne), ya desde la izquierda (Preston), están todos de acuerdo en asumir la extrema mediocridad del personaje, su falta de ideas, su ambición de poder, su capacidad de supervivencia, su cercanía a dictadores latinoamericanos más que al propio fascismo europeo, su inserción en una historia larga de reaccionarismo ideológico español y de guerracivilismo”.

Esta sarta de… lo que sea, ha sido publicada en El Español bajo el rótulo de pensamiento, y ciertamente da una idea de lo que es el pensamiento antifranquista. Por partes: Franco ganó la guerra sin perder ninguna batalla importante. Napoleón perdió la guerra y además varias batallas cruciales. No hay, por tanto, comparación, salvando las escalas. Además, Franco partió de una posición prácticamente desesperada que habría hecho abandonar la partida por anticipado a casi cualquier otro general o político. Y la terminó elegantemente, sin disparar un tiro, después de haber adquirido poco a poco una superioridad aplastante, mientras sus enemigos se masacraban y fusilaban entre ellos mismos. ¿Ignora estos datos elementalísimos  el señor García Cárcel? Pues, la verdad, no me extrañaría, dado el penoso estado de la universidad. La guerra, además, no se hizo porque sí, no la hicieron cuatro locos como pretende Pedro J, otro pensador antifranquista. Se hizo para salvaguardar la unidad nacional, la cultura cristiana, la propiedad privada y la libertad personal, aunque para todo ello fuera necesario restringir  las libertades políticas. Y la iniciaron las izquierdas, no los “reaccionarios” como sugiere García Cárcel.

Luego, España no entró en la guerra mundial, con Franco ostentando la máxima autoridad; pero al pensamiento antifranquista le parece que no hay ninguna relación entre una cosa y la otra: la neutralidad, afirman, no se debió a Franco.  Aquí, el retorcimiento argumental escala cimas muy altas. Sin Franco, les guste o no, habría sido imposible evitar para España una guerra mucho más devastadora que la civil. Y ello se logró en medio de tremendas presiones y peligros, en situaciones rápidamente cambiantes en Europa. Fue una hazaña muy poco inferior a la de haber vencido a un Frente Popular compuesto de totalitarios, separatistas y golpistas  e indirectamente a su tutor Stalin.  ¿O le parece al señor García Cárcel que se trata de una fruslería que habría realizado cualquiera?  En el fondo, los pensadores antifranquistas desearían que España hubiera sido arrastrada al conflicto para poder ser “liberada” después por los bombardeos y tanques useños;  y volver al caos de la república  o de una monarquía como la que engendró aquel caos. Les da igual el torrente de sangre que habría costado tal “liberación”, no solo a España, sino a los demás países, incluidos los finalmente vencedores. ¿O no entran estas consideraciones en los análisis de García Cárcel?

Por otra parte, nadie, que yo sepa, sostiene que Franco urdiera o pilotara la transición a la democracia, como afirma nuestro pensador. Sí, en cambio, son ciertas dos cosas: que sin la transformación social y económica del franquismo, la democracia habría sido inviable; y que, efectivamente, la transición se hizo de la ley a la ley, es decir, a partir del franquismo, de su legitimidad; y no a partir del criminal Frente Popular, como propugnaban y propugnan los descerebrados antifranquistas. Estas no son opiniones sino hechos históricos que no podrá borrar la retórica hueca al uso, que está pudriendo la democracia hasta hacerla irreconocible.

Prieto sobre Franco: “alcanza el grado supremo del valor: es sereno en la lucha” En cuanto al carácter personal de Franco, es indudable su sobriedad, que no deja de ser una acusación a los políticos corruptos hoy tan frecuentes; o su valor, reconocido  por sus enemigos (“alcanza el grado supremo del valor: es sereno en la lucha”, admitía el socialista Prieto). Y su inteligencia militar y política está fuera de duda, salvo para ciertos descerebrados: durante cuarenta años venció sistemáticamente a todos sus enemigos, militares o políticos, internos o externos… ¡el condenado mediocre! Pero García Cárcel, siguiendo una línea permanente en el antifranquismo, caricaturiza opiniones contrarias para permitirse el gusto pueril de reírse de ellas.

Por lo demás, otros méritos contribuyen al “mito” de Franco: venció también al maquis, una difícil guerra de guerrillas comunista como la que en Grecia obligó a Inglaterra a tirar la toalla. Venció asimismo al aislamiento internacional, que perseguía el bonito objetivo de sembrar hambre masiva en España, a ver si los españoles se decidían a derrocar a Franco. Un aislamiento decidido por regímenes comunistas, demócratas y dictaduras variopintas, todos juntos y en unión: no alcanzaron su objetivo y tuvieron que tragar, resignarse al régimen español, aunque no dejaran de hostigarlo. Un régimen históricamente necesario y que no habría podido resistir a tales presiones y hostilidad sin un enorme apoyo de la gente. Pues el pueblo recordaba muy bien lo que habían sido la república y el Frente Popular, no como ahora, cuando sus panegiristas los pintan contra toda evidencia como un ridículo paraíso de libertad y progreso. Y al morir Franco, España era uno de los países más ricos y con mayor esperanza de vida del mundo, había salido de la miseria y degradación de la república y el Frente Popular, y olvidado los odios que ahora vuelven a resurgir por obra de los geniales antifranquistas.

En fin, traten ustedes de pensar en otro general o político del siglo XX, demócrata o no demócrata, español o extranjero, con un historial de logros comparable al de Franco. Hagan este pequeño ejercicio intelectual, que propongo en el libro Los mitos del franquismo.

 

Pero, concluye García Cárcel repitiendo la letanía de rigor: Franco era un mediocre lamentable, sin ideas y con no sé cuántas deficiencias más. Vamos a ver hombre, mírense ustedes al espejo y verán un perfecto reflejo de ese Franco que ustedes se empeñan en imaginar.

 

Mientras no salgamos de esta miseria intelectual y moral, la sociedad continuará descomponiéndose. Y en esto no hay que transigir. Porque existen también tendencias que intentan pasar por imparciales y objetivas a base de dar una de cal y otra de arena: “Hay quien dice que dos y dos son cuatro, otros afirman que son seis. Pongámonos en el justo medio: son cinco”.

 

 

 

 

   

 

 

 

 

 

 

 

sábado, 6 de enero de 2018

La antropofagia precolombina

Es un hecho evidente el de la antropofagia de los aborígenes o indígenas americanos precolombinos. Se comían los unos a los otros. Hernán Cortés nos refiere y también Bernal Díaz del Castillo, tres cosas aberrantes: la sodomía, la antropofagia y por lo tanto, los sacrificios humanos y la idolatría. Cortés siempre intentó acabar con tales prácticas y a fé mía que sí lo consiguió. Siempre decía que venía a poner orden y paz allá por donde pisaba y exigía la cesación de tales prácticas. La sodomía prosigue existiendo a día de hoy, pero la idolatría y la antropofagia fueron erradicadas. Los progresistas e indigenistas mexicanos, hombres blancos, con apellidos españoles, nombres anglosajones, criollos y residentes en México no tienen ni puta idea de historia y repiten la Leyenda Negra Antiespañola en América. En 1800 se vivía mejor en México que en Europa Occidental y en 1900 ya mucho peor. Fue la secesión la que destruyó todo y no supo poner un orden social, político y jurídico mejor. Pero es que en su ignorancia culpable tales criollos afirman que serían los españoles quienes en 1800 vivirían mejor. Idiotas. Españoles eran los de la Nueva España y los de España, la Península. Había menor presión fiscal en América que en la Península. Ejemplo de un Imperio generador que no solo reproduce las condiciones materiales y políticas de la Metrópoli, sino que además eleva las condiciones materiales de las provincias por encima de las que disfruta la Metrópoli. No existe ningún otro imperio en la Historia en el que se haya dado tal situación. La suerte de los indígenas empeoró con la secesión. Basta ya de imposturas y falsedades sobre España propaladas por los criollos para justificar su incompetencia y su fracaso político. El imperio mexicano consistía en saquear a los demás grupos o tribus indígenas, incluidas las proteínas animales humanas extraídas de los indígenas que eran sacrificados y devorados por los mexicanos antiguos. Imperio depredador, salvaje y carente de escritura. En fin. Hernán Cortés trajo la civilización a México y lo elevó a la altura de Europa Occidental para bien de los mexicanos y para gloria de España.

viernes, 5 de enero de 2018

La lucha contra el hombre inferior dialectal

El hombre dialectal es aquel hombre que tiene su cabeza, su entendimiento, su conciencia invadidos por el dialecto. El dialecto es una lengua ridícula sin importancia política, intelectual, científica, filosófica, literaria, minoritaria, familiar, comarcal, regional. Sin embargo, en España las élites caciquiles regionales fomentan el dialecto para consolidar su poder político y la división política, bases de la duración y consolidación de su poder político y de paso hacer a sus hablantes unas bestias de carga. El español siempre ha sido emancipador y liberador porque es una lengua universal, mundial. El dialecto empequeñece y embrutece, aísla, divide y separa y provoca disensiones. Imponer el dialecto siembra discordias en España y hace todo más ridículo e idiota. Por esta razón se impone necesariamente para el buen sentido la lucha contra el hombre inferior dialectal. Un hombre dialectal es un ser profundamente defectuoso. Pudiendo hablar español para hacerse entender por todos prefiere usar el dialecto para hacerse entender por pocos. La lucha contra el Estado de las autonomías exige igualmente la lucha contra el dialecto, contra su imposición obligatoria, contra su uso oficial, contra aquellos que promueven la división y en última instancia la desmembración de España. Ni imposición, ni oficialidad ni inmersión lingüística, digo dialectal, en la escuela.

lunes, 1 de enero de 2018

Facebook, el edén de los derechos naturales del hombre

La arbitrariedad de los dueños de Facebook no conoce límites ni fronteras. Prohíben desnudos o lo que les parece que no es apropiado. Sus normas comunitarias son objeto de interpretación parcial e interesada. Bastan denuncias de un puñado de bastardos para que te suspendan la potestad de escribir y de comunicarte, tanto en Facebook como en el mensajero. No puedes enviar mensajes y nunca te hacen caso de tus alegaciones. Cosas tan ridículas como acusarte de ser malo por afirmar una verdad palmaria para todo el mundo, como por ejemplo, que los mexicanos -así los llama Bernal Díaz del Castillo, no aztecas- eran antropófagos y se alimentaban de las tribus indias vecinas, eso provoca denuncias de los progres indigenistas mexicanos actuales que desean retornar a la época precolombina hablando español y teniendo apellidos españoles, y entonces Facebook ejecutando su ortograma imperialista progresista negrolegendario antiespañol pues nada, te prohíbe arbitrariamente escribir durante un tiempo. Las alegaciones bien fundadas no te sirven de nada ante estos atropellos. Facebook es pues el edén de los derechos naturales del hombre.

Determinismo e indeterminismo en la naturaleza


Determinismo e indeterminismo en la naturaleza.


Los términos determinismo e indeterminismo aparecieron en el siglo XVIII con motivo de las discusiones en torno al principio de razón suficiente enunciado por Leibniz. La cuestión que surgía inevitablemente ahí era si ello negaba la libertad. El problema sin embargo, tiene un origen muy antiguo. Ya Aristóteles se preguntaba –supuesto que todas las proposiciones sean necesariamente o verdaderas o falsas- si todos los acontecimientos están predeterminados en el sentido más estricto, y son, por tanto, absolutamente necesarios. En la Baja Edad Media se discutió esta problemática bajo el título De veritatibus futurorum contingentium: si algún suceso futuro se produce de un modo no necesario, ¿cómo es posible que una proposición que se refiere a este suceso sea necesariamente verdadera o falsa? Con Leibniz se agudizó esta problemática al afirmar éste que toda determinación de la voluntad tiene que estar inequívocamente determinada por razones suficientes; una “indiferencia indeterminada” de la voluntad hace imposible toda decisión. Leibniz rechazó la objeción, planteada por Clarke, de que esta teoría conduce al fatalismo; indicó, por ejemplo, que las decisiones de Dios están movidas por su sabiduría. Desde entonces se ha entendido con frecuencia el determinismo como sinónimo de fatalismo. Kant distingue algunas veces el determinismo como la teoría de que la voluntad siempre está determinada por razones suficientes, del predeterminismo, en el que las acciones arbitrarias, es decir, voluntarias, como sucesos tienen sus causas determinantes en un tiempo precedente (que con todo lo que contiene no está en nuestro poder), y opina que sólo el predeterminismo plantea un problema en relación con la libertad de elección.

En 1865 el médico francés Claude Bernard introdujo la expresión determinismo para definir el hecho de que las condiciones de existencia de todos los fenómenos están determinadas de un modo absoluto., en el sentido de que ningún científico que haga experimentos puede añadir una variación a un determinado fenómeno, que se presupone dado, sin que se hayan añadido…al mismo tiempo nuevas condiciones. El determinismo ha estado ligado a la física mecanicista hasta 1900, cuando la física mecanicista entró en crisis.

Implicaciones filosóficas del determinismo-indeterminismo de la Física.

Actualmente, la expresión determinismo tiene varios sentidos estrechamente ligados entre sí. En la física contemporánea se entiende generalmente por determinismo lo que entendía por determinismo Laplace, la afirmación de que todos los procesos físicos pueden ser predichos o precalculados en cualquier momento en virtud de las leyes de la mecánica clásica, si se indican tan sólo exactamente las coordenadas de lugar y de impulso del sistema en el momento elegido. Este determinismo se puso en duda con el principio de indeterminación (1930) de Heisenberg: en la microfísica no se puede determinar con toda exactitud el lugar q y el impulso p de una partícula. Similarmente ocurre en la energía y para el momento para el que vale la medición de la energía. Queda claro así que es imposible un cálculo previo exacto del movimiento de una partícula concreta.

Al interpretar la mecánica clásica toda causalidad de un modo funcional, es decir, identificándola con su predictibilidad, con frecuencia se entendieron estos resultados de tal modo, que se creyó que existía una indeterminación causal en los fenómenos microfísicos, y que eran, por lo tanto, un caso de acausalismo. Hallamos aquí un segundo significado de la expresión determinismo, que muchos físicos que filosofan no distinguen, por desgracia, de un modo suficientemente claro del primero. Mientras que el determinismo en el primer sentido significa la aceptación de una predictibilidad continua y totalmente exacta, el determinismo en este segundo sentido indica la aceptación de un grado de determinación continua en el sentido del principio de razón suficiente de Leibniz. La relación de indeterminación de Heisenberg pone en duda exclusivamente la posibilidad de medir el estado inicial de un proceso físico, y por eso también su previa calculabilidad; el otro problema de principio –si todos los procesos físicos están determinados causalmente de un modo continuo- no lo menciona la física moderna, o lo menciona sólo en caso de que se confunda, injustificadamente, el grado de determinación causal con la predictibilidad continua aceptada por la mecánica clásica.

 

Determinismo/indeterminismo en la ciencia natural.


1.    Concepto.

En la moderna ciencia natural se entiende por determinismo la afirmación de que todos los sucesos están determinados inequívocamente de un modo causal, es decir, que el fin (calificativo del modo que sea) de un acontecimiento está ya fijado desde su comienzo.

Esta definición tiene que ser delimitada en algunos aspectos. Con frecuencia se expresa con la palabra determinismo que en el campo de los sucesos naturales no reina ningún tipo de libertad; y, por lo general (de modo erróneo) se define incluso la libertad en este sentido: afirmando que un proceso que discurre libremente no está determinado. Por el momento, se puede proponer una significativa delimitación entre libertad y grado de determinación, considerando la libertad como un concepto de la autocomprensión del hombre que se aplica por analogía a los sucesos extrahumanos. Pero, si se pretende entender a partir de aquí el grado de determinación, habría que decir que un proceso está determinado cuando se niega o se anula con él la libertad subjetivamente vivida del poder de decisión.

2.    Nivel de determinación en las ciencias naturales exactas.

En las llamadas ciencias exactas de la naturaleza, el concepto de determinación es, sobre todo, aplicable, y ha sido aceptado sin contradicción, conde se pueda predecir con seguridad el futuro de un sistema cerrado a partir del conocimiento de su estado actual. Pero esto sólo es posible cuando el estado que hay que predecir puede ser producido con efectos enérgicos que sean notablemente mayores que un quantum de energía. Puesto que teoréticamente no hay que olvidar nunca el tamaño de un quantum, es imposible, en un sentido estricto, hacer una predicción completamente exacta de los estados físicos. El teorema de la indeterminación de Heisenberg, sin embargo, sólo afirma que no se puede responder con sentido el problema de la determinación de la naturaleza, y de aquí que una definición operativa conduzca al concepto de indeterminabilidad (no indeterminación) de los sucesos elementales de la naturaleza. Sólo hay indeterminabilidad, no indeterminación, en la física cuántica.

En su forma apodíctica es, pues, insostenible la equiparación de determinación y predictibilidad que caracterizó el materialismo clásico del siglo XIX. Siguen siendo predecibles los sucesos de la naturaleza sólo donde intervengan muchos quanta de energía y donde sea experimentable con suficiente exactitud su estado inicial. En esta predictibilidad se basan todas las ciencias aplicadas en la naturaleza y, sobre todo, la técnica. Pero donde no sea experimentable con suficiente exactitud el estado inicial en virtud del principio de indeterminación de Heisenberg, no hay posibilidad alguna de predicción. Permanece, sin embargo, abierto el problema (que se podría aún formular con sentido, aunque no es posible responderlo) de si este salto de un quantum está de hecho, predeterminado, y, por tanto, determinado. Es el problema de la determinación de los quanta.

Este problema es insoluble desde el punto de vista de la ciencia natural. La ciencia natural de orientación positivista se inclina a definir las preguntas insolubles como preguntas sin sentido. Una discusión filosófica podría ir más lejos, argumentando, p. ej., que la predictibilidad en lo general demuestra la determinación en el campo de los quanta, aunque también este argumento parece carecer igualmente de demostrabilidad.

Es dudoso que el indeterminismo radical, o sea, la negación de toda regularidad, haya sido sostenido coherentemente. A veces se ha afirmado que la mecánica cuántica confirma el indeterminismo radical. Este es un error, porque toda teoría científica está centrada en torno a un conjunto de enunciados de leyes, y la mecánica cuántica no es una excepción. (En particular la ecuación de Schrödinger puede considerarse como la ley central de la mecánica cuántica. Sin ella los físicos estarían perdidos).

La investigación científica –que esencialmente es la búsqueda de regularidades objetivas- no avala el indeterminismo radical, porque no reconoce que haya caos. La ciencia avala la regularidad y la causalidad.

3.    Incertidumbre, indeterminación y complementariedad.

En el panorama que presentan Einstein y Minkowsky de una multiplicidad espacio-temporal integrada se afirma la objetividad de todos los marcos locales de referencia, y al mismo tiempo se elimina todo relativismo del mundo físico, porque todas las leyes físicas que valgan en un marco de referencia, valdrán, una vez realizada la debida transformación, para otro cualquiera. De este modo se conserva de una forma sumamente peculiar la invariancia universal que postulaba la física newtoniana sobre la base de un espacio y tiempo absolutos; a saber, se conserva abandonando este marco absoluto “privilegiado”.

Uno de las más interesantes consecuencias generales de la moderna física atómica, la constituyen las transformaciones que bajo su influjo ha sufrido el concepto de las leyes de la naturaleza. En los últimos años, se ha hablado a menudo de que la moderna física atómica parece abolir la ley de la causalidad, o por lo menos dejar parcialmente en suspenso su validez, de modo que no cabe seguir admitiendo que los procesos naturales estén determinados por leyes. Tales formulaciones son siempre imprecisas, en tanto no se expliquen con suficiente claridad los conceptos de causalidad y de regularidad.

Uno de los problemas es el planteado por las limitaciones de la mensurabilidad. Por debajo de una unidad mínima de medida, las unidades de medida, sus diferencias, quedan indeterminadas. Leibniz definió la identidad como la relación que existe entre las cosas “indiscerniblemente diferentes”, esto es, cuando no hay suficiente razón para distinguir diferencias entre una cosa y la otra en ninguna forma (incluyendo también, por lo tanto, las diferencias de magnitud).

Con la introducción de la teoría de los cuantos por Planck, Bohr, Heisenberg y otros físicos, esta formulación se convirtió en algo más que una limitación práctica de la medida; se vió entonces que tenía una interpretación teorética apoyada en la noción de unidad mínima de energía. Esta última se basaba, a su vez, en la hipótesis de Planck de que las ondas electromagnéticas emitidas por cargas oscilantes sólo pueden tener valores discretos; así pues, los osciladores tienen unos niveles de energía que no suceden unos a otros en forma continua, sino tales que entre ellos hay saltos cuánticos. Einstein llevó este concepto más allá al investigar y explicar el llamado efecto fotoeléctrico, y propuso que después de la emisión de un cuanto de energía perdido por un emisor de radiaciones, este cuanto permanece intacto, sin dispersarse por el frente de la onda en expansión; más bien ocurriría que, a medida que el frente de la onda se expande, la distancia entre paquetes de energía aumenta, con lo cual la energía por unidad de área del frente de la onda decrece. Si consideramos la radiación electromagnética como una onda, se nos hará problemático concebir cómo es posible que los paquetes intactos de energía constituyan una onda; ahora bien, tras la larga historia de los modelos conceptuales de la luz, para unos de los cuales era ondulatoria y para otros corpuscular (formada por partículas), se proponía así la idea de que estaba formada por corpúsculos (luego denominados fotones), con lo que se revivía la ya zanjada disputa entre los seguidores de Newton y los de Huygens, en la que el modelo ondulatorio de Huygens había acabado por vencer. Pero un corpúsculo es un “cuerpo”, según parece, y, por tanto, una partícula materia en el espacio; en cambio, los fotones no se pueden considerar como partículas materiales con energía cinética, porque cuando se los detiene se destruyen o absorben; y también el fenómeno de las figuras de interferencias producidas por la luz al pasar por dos hendiduras puede explicarse si la luz es ondulatoria, pero no si es corpuscular (como habían mostrado los experimentos de Thomas Young a comienzos del siglo XIX).

Hasta ese momento, el problema se planteaba en lo referente a la luz no como una forma de la materia, sino como una radiación; luego se amplió hasta incluir a los rayos X, y más radicalmente en 1923, De Broglie sugirió que la dualidad de onda y corpúsculo podía extenderse al comportamiento de los electrones. A partir de entonces quedó en cuestión la fatalidad del concepto de materia, ya que la partícula atómica clásica, como cuerpo que se mueve en el espacio con una posición puntual en cada instante dado, también se comporta a veces en forma tal que la única explicación que parece posible es la de que es una onda. Si las ondas de luz son corpusculares, y las partículas de materia son ondulatorias, todo el panorama de la estructura de la naturaleza se torna a un mismo tiempo más coherente y menos sencillo: en lugar de una variedad de tipos de cosas, -luz, electricidad, materia, etc,- , se ha descubierto una manera de interpretar estos distintos fenómenos apoyándonos en un modelo común; pero este modelo es tal que los elementos comunes tienen propiedades incompatibles; en efecto, si tanto la materia como la radiación pueden ser ondulatorias y corpusculares, parece haberse en la naturaleza una dualidad fundamental.

El problema se agudiza cuando se ve que las condiciones relativas a la medida de partículas del tamaño de los electrones quedan radicalmente afectadas por estas consideraciones. A fin de determinar la posición y la cantidad de movimiento o momento de una partícula concebida al modo clásico, habrá que medir u observar de alguna forma; y esto supone interactuar; en algún punto, pues, el aparato del observador tendrá que coincidir con la partícula por medio de una interacción física; pero respecto a la partícula, para perturbarla, esto es, para modificar su cantidad de movimiento, acelerándola, entonces el valor que tenía a la vez su posición en aquel instante dado se hace indeterminado.

La teoría de los cuantos introdujo cambios fundamentales en el panorama físico del mundo. En primer lugar, con la dualidad partícula-onda, al mostrar que no sólo tenía validez para la radiación, sino también para la materia: aquel claro e inequívoco modelo de la estructura del mundo físico pareció desmoronarse ante esa dualidad. En segundo lugar, tampoco pareció ya posible, dada la relación de indeterminación, determinar las condiciones precisas de contorno relativas a la posición y la cantidad de movimiento de las partículas físicas que constituían la base de la representación física clásica de unos puntos básicamente unívoca y determinadamente asociados a unos valores temporales instantáneos. Esto motivó y continúa motivando una reevaluación crítica de los fundamentos conceptuales de la ciencia física, especialmente en lo que se refiere a las distintas interpretaciones de la teoría de los cuantos.

Porque, ¿es la indeterminación una condición de la medida que delata tan sólo nuestra incapacidad para ir más allá de cierta precisión?; ¿podemos suponer que, sea o no posible descubrirlo, las partículas siguen estando en un lugar en un tiempo dado?; ¿qué es lo que está en juego: es sólo la incertidumbre de nuestro conocimiento, o es la indeterminabilidad física de la posición “real” o de la cantidad de movimiento real”? Son muchas las dificultades que se nos presentan. En primer lugar, tal pregunta pude dejar de tener sentido, ya que adopta como modelo del mundo físico la partícula clásica situada en un punto del universo del también clásico y la introduce en un sistema formal (la física cuántica) en el que no existe una descripción para esa partícula: la teoría de los cuantos es una teoría estadística. Sus entidades no son partículas, sino distribuciones estadísticas de enjambres de éstas.  En esta teoría no podemos hablar ya de la indeterminabilidad de la partícula clásica.

Por otra parte, la incompatibilidad de las imágenes ondulatoria y corpuscular de la estructura del mundo físico puede significar que lo que estamos tratando con los conceptos de onda y partícula son unos modelos parcialmente isomorfos de la realidad física de la que son modelo; y los hechos experimentales con que ahora contamos pueden ser tales que se hayan rebasado los límites de este tipo de representación. Niels Bohr ha propuesto que conservemos tales imágenes para caracterizar los elementos del mundo físico como algo que a veces actuaría como ondas y a veces como partículas. Los dos modelos serían complementarios. Esto significa que no hay que preocuparse de cuál sea realmente cierto en la realidad. Podemos decier así que la onda y la partícula son construcciones conceptuales que tienen ciertos límites.

De acuerdo con este punto de vista, se ha interpretado la densidad como la probabilidad de encontrar una partícula en una zona determinada. Pero si esta probabilidad se aplica a una partícula aislada, parece implicar una de estas dos cosas. Primero, que la partícula esté realmente en un lugar determinado en un tiempo también determinado, y que las posibilidades estadísticas de encontrarla en un punto dado, p, son proporcionales a la densidad de probabilidad en dicho punto; pero esto, de hecho, lleva a unas consecuencias muy análogas a la relación de indeterminación: se desmorona nuestro concepto corriente de “estar en un lugar”.

El efecto más traumático de la indeterminación cuántica estriba en que, en la mayoría de las interpretaciones típicas, parece no tener encuenta el postulado de causalidad. Es esta una cuestión engañosa y problemática. El determinismo estricto clásico exige, al parecer, que los estados del universo en cualquier momento dado estén determinados en forma unívoca; pero al decir estado nos referimos siempre a un modelo particular de estado; y es obvio que, en el modelo corpuscular clásico, si en el nivel cuántico no existieran estados totalmente determinados según los valores simultáneos (realmente instantáneos) de la ubicación espacio-temporal, el determinismo estricto se vendría abajo. Ahora bien, parece ser que esto ocurriría porque la concepción clásica de partícula no tiene equivalente en el marco de la teoría cuántica; lo que no quiere decir que esta teoría postule algo que no puede descubrirse: es engañoso hablar de indeterminación en cuanto se refiere a posición y cantidad de movimiento dentro de la teoría cuántica, porque estar indeterminado es estarlo con respecto a algo determinado, y este mismo estado de determinación no es formulable dentro de la teoría si al referirnos a él queremos expresar las clásicas posición y velocidad de un punto. Decir, como se hace que la naturaleza es indeterminada es un error.

La física cuántica es tan causal como la física clásica. Sus predicciones resultan certeras. La teoría cuántica puede interpretarse como determinista o indeterminista solamente con respecto a una tesis acerca de lo que el determinismo y la relación causal debieran ser realmente.

El determinismo y el indeterminismo en la física clásica y en la contemporánea.

La física clásica de Newton era mecanicista y se hallaba estructurada de tal manera que a partir del estado de un sistema en un instante determinado podía preverse el futuro movimiento del sistema. Cuando al término de causalidad se le da una interpretación tan estricta, acostumbra a hablarse de determinismo, entendiendo por tal la doctrina de que existen leyes naturales fijas, que determinan unívocamente el estado futuro de un sistema a partir del actual.

La Física atómica ha desarrollado desde sus inicios concepciones que no se ajustan propiamente a este esquema. Cierto que no lo excluyen en forma radical; pero el modo de pensamiento de la teoría atómica hubo de distinguirse desde el primer momento del que es propio del determinismo. En la antigua teoría atómica de Demócrito y Leucipo, el azar no se opone a la necesidad, no hay finalidad causal, ya se admite que los procesos de conjunto tienen lugar gracias a la concurrencia de muchos procesos irregulares de detalles. La idea de la colaboración estadística de muchos pequeños sucesos individuales sirve, ya para la antigua teoría atómica, como fundamento de su explicación del universo.

Al iniciarse la Edad Moderna, no tardó en aparecer el intento de explicar el comportamiento de las materias mediante el comportamiento estadístico de sus átomos, y no sólo cualitativa sino también cuantitativamente.

Este empleo de las regularidades estadísticas recibió su forma definitiva en la segunda mitad del siglo XIX, en la llamada “mecánica estadística”. Esta teoría, que ya en sus principios fundamentales diverge considerablemente de la mecánica clásica, estudia las consecuencias que pueden sacarse del conocimiento imperfecto de un sistema mecánico complicado.

Max Planck halló en sus investigaciones sobre la teoría de la radiación un elemento de discontinuidad en los fenómenos de radiación. Demostró que un átomo radiante no despide su energía continua sino discontinuamente, a golpes. Esta cesión discontinua y a golpes de la energía, y con ella todas las concepciones de la teoría atómica conducen a admitir la hipótesis de que la emisión de radiaciones es un fenómeno estadístico. Pero no fue sino al cabo de un cuarto de siglo cuando se manifestó que la teoría de los cuantos obliga a formular toda ley precisamente como una ley estadística, y por ende a abandonar ya en principio al determinismo. (Heisenberg). Al formular matemáticamente las leyes de la teoría cuántica ha sido preciso abandonar el puro determinismo.

La desviación respecto a la física precedente puede simbolizarse en las llamadas relaciones de indeterminación. Se demostró que no es posible determinar a la vez la posición y la velocidad de una partícula atómica con un grado de precisión arbitrariamente fijado. Puede señalarse muy precisamente la posición, pero entonces la influencia del instrumento de observación imposibilita hasta cierto grado el conocimiento de la velocidad; e inversamente se desvanece el conocimiento de la posición al medir precisamente la velocidad; en forma tal, que la constante de Planck constituye un coto inferior del producto de ambas impresiones. Esta formulación sirve para poner de manifiesto con toda claridad que a partir de la mecánica newtoniana no se alcanza gran cosa, ya que para calcular un proceso mecánico, justamente, hay que conocer a la vez con precisión la posición y la velocidad en determinado instante; y esto es lo imposible, según la teoría de los cuantos. Una segunda formulación ha sido forjada por Niels Bohr, al introducir el concepto de complementariedad. Dicho concepto significa que diferentes imágenes intuitivas destinadas a describir los sistemas atómicos pueden ser todas perfectamente adecuadas a determinados experimentos, a pesar de que se excluyan mutuamente. De modo que dichas distintas imágenes son verdaderas en cuanto se las utiliza en el momento apropiado, pero son incompatibles unas con otras; por lo cual se las llama recíprocamente complementarias. La indeterminación intrínseca cada una de tales imágenes, cuya expresión se halla precisamente en las relaciones de indeterminación, basta para evitar que el conflicto de las distintas imágenes implique contradicción lógica. Estas indicaciones permiten comprender que el conocimiento incompleto de un sistema es parte esencial de toda formulación de la teoría cuántica. Las leyes de la teoría de los cuantos han de tener un carácter estadístico.

El determinismo.

El determinismo causal o causalismo o a menudo simplemente causalidad, es la doctrina que afirma la validez universal del principio causal. Todo ocurre de acuerdo con la ley causal.

En ciencia, el uso más frecuente de la palabra “determinación” es el de conexión constante y unívoca entre cosas o acontecimientos, o entre estados o cualidades de las cosas, así como entre objetos ideales. El determinismo en sentido general, admite la hipótesis de que los acontecimientos ocurren en una o más formas definidas (determinadas), que tales formas de devenir no son arbitrarias sino legales y que los procesos a través de los cuales todo objeto adquiere sus características se desarrollan a partir de condiciones preexistentes.

Hasta el azar, que a primera vista es la negación misma de la determinación, tiene también sus leyes, y los accidentes emergen de condiciones preexistentes.

 En los juegos de azar los resultados finales proceden de condiciones definidas, según leyes también definidas; por consiguiente, no pueden ser utilizados para ejemplificar ni para sostener el indeterminismo, como tan a menudo se hace. Lo que sucede es que los juegos de azar no siguen cierto tipo acostumbrado de ley, a saber, el newtoniano, sino que obedecen a leyes estadísticas: son estadísticamente determinados.

Por ello, aparece en primer plano la cuestión de si la teoría cuántica ha conducido a la bancarrota del determinismo, como tan a menudo se sostiene.

La respuesta a la pregunta de si la teoría cuántica acarrea la quiebra del determinismo depende no sólo de la definición del determinismo sino también de la interpretación de la teoría cuántica que se elija. Por cierto, que hay en la actualidad todo un cúmulo de interpretaciones coherentes y empíricamente equivalentes de la mecánica cuántica.

La presentación habitual de la teoría de los quanta, tal como la han presentado Bohr y Heisenberg, elimina la causalidad en lo que se refiere a los resultados de la observación, en el sentido de que una misma situación física puede ser sucedida en forma impredecible por un gran número (usualmente infinito) de estados diferentes. Pero esta restricción de la causalidad no acarrea la quiebra del determinismo, por cuanto en tal interpretación se retiene de modo inequívoco la determinación estadística, para no hablar siquiera de las leyes francamente no estadísticas de la mecánica cuántica, tales como las leyes de conservación, las reglas de selección o el principio de exclusión.

Además, hasta la interpretación ortodoxa de la mecánica cuántica restringe el alcance de la causalidad sin rechazarla por entero. Así, cuando escribimos la probabilidad de una transición de un sistema físico del estado 1 al estado 2 solemos atribuir esa transición  a alguna fuerza (causa) usualmente representada por un potencial de interacción. Sólo que la causa y el efecto no están aquí ligados en la forma constante y unívoca afirmada por el principio causal. En otras palabras, la interpretación usual de la mecánica cuántica no barre con las causas y los efectos, sino con los nexos causales rígidos entre unas y otros.

La interpretación usual de la teoría cuántica no elimina, en realidad el determinismo en sentido general; no sólo esto, sino que además retiene cierta dosis de causalidad. Pero en cambio restringe drásticamente la forma newtoniana del determinismo según la cual todos los procesos físicos se reducen a cambios de lugar determinados por el estado de movimiento anterior y por fuerzas que obran desde afuera, y los recorridos de las masas puntuales afectadas son trayectorias definidas de modo preciso (plenamente determinadas) en el espacio-tiempo. También puede decirse que el determinismo newtoniano es a la vez superado y englobado por la mecánica cuántica en su interpretación ortodoxa, dado que se mantiene válido en promedio.

Por su parte, la filosofía positivista construida sobre la interpretación usual de la teoría cuántica (y en parte entretejida con ésta)elimina el determinismo, pero, al mismo tiempo, también el indeterminismo en el sentido ontológico, o sea, en relación con el comportamiento de las cosas mismas tales como éstas existen, ya sea que se las observe o no. Propugna entonces una suerte de indeterminación empírica, que empero no excluye leyes estadísticas definidas. En rigor, la interpretación empirista lógica de la mecánica cuántica declara que la indeterminación cuántica se refiere de modo exclusivo a los resultados de la observación y no a la materia misma, considerando que la materia es una ficción metafísica carente de sentido.

Fácil es descubrir la raíz de esta indeterminación empírica: se pretende que el vínculo entre dos estados sucesivos de un sistema atómico es el observador, quien actúa libremente con respecto al sistema. En otros términos, el comportamiento del observador es encarado, en esta interpretación, como algo independiente del objeto de observación, pero no a la recíproca: las propiedades del sistema observado son las que el observador decide preparar o reunir. No existiendo conexiones objetivas directas entre los estados consecutivos de un sistema físico, no es sorprendente que se pierda toda forma de determinismo científico en sentido ontológico, con la única excepción de la determinación estadística. Esta clase de indeterminación es, evidentemente, una consecuencia de la doctrina subjetivista sobre la intervención casi arbitraria del observador, a quien se erige en mago evocador de los fenómenos de escala atómica. La indeterminación cuántica es, pues, una consecuencia de la hipótesis idealista inherente al positivismo moderno.

En algunas interpretaciones recientes de la mecánica cuántica, ni siquiera se renuncia al principio causal por entero. Así, en la presentación que Bohm ofrece de la teoría cuántica, el determinismo newtoniano, con su ingrediente causal, queda prácticamente restaurado con el expediente de asignar un significado físico a la función de onda psi, que en la interpretación usual sólo cumple una función matemática. Bohm deriva una ecuación de fuerza, según la cual la aceleración de una partícula es el efecto de la acción conjunta de las fuerzas externas y de una fuerza nueva, interna, dependiente del campo psi que rodea a la partícula. Y no considera la distribución estadística de los resultados de una medición como una última ratio ininteligible, sino que la explica como resultado de una interacción definida entre el sistema físico en cuestión y el dispositivo de medición (que es otro sistema físico más). En esta forma, los saltos cuánticos dejan de ser Urphänomene elementales (inanalizables); el azar al nivel cuántico deja de ser un factor definitivo, y pasa a ser analizado en ulteriores categorías de determinación. Pero la determinación estadística peculiar a la mecánica cuántica no se elimina así de modo concluyente: lo que se demuestra es que se trata del resultado de procesos que tienen lugar a un nivel inferior.

De una manera u otra vemos que la mecánica cuántica no prescinde del determinismo en general, sino que como mucho desecha el de tipo newtoniano. También comprendemos que, ya se considere o no el azar como un elemento último radical (como lo veían Peirce y Eddington), la determinación estadística tiene que ser tomada en cuenta por toda la filosofía de la ciencia moderna: ya no es posible afirmar dogmáticamente que el azar no es sino un nombre de la ignorancia humana, ni expresar la esperanza de que finalmente se demuestre que puede reducirse a causación. El azar es un tipo peculiar de determinación, y sus relaciones con otras categorías de la determinación son dignas de indagarse.

El espectro de las categorías de la determinación.

Autodeterminación cuantitativa. Determinación del consecuente por el antecedente.

Determinación causal o causación: determinación del efecto por la causa eficiente externa.

Causación recíproca: Interdependencia funcional.

Determinación mecánica: del consecuente por el antecedente, por lo general con la adición de causas eficientes y acciones mutuas

Determinación estadística del resultado final por la acción conjunta de entidades independientes o semiindependientes.

Determinación estructural o totalista: de las partes por el todo.

Determinación teleológica de los medios por los fines u objetivos.

Determinación dialéctica o autodeterminación cualitativa: de la totalidad del proceso por la lucha interna y por la eventual síntesis subsiguiente de sus componentes esenciales opuestos.

El determinismo, principio de determinación.

El determinismo general será, pues, la siguiente definición: determinismo, en sentido amplio, es aquella teoría ontológica cuyos componentes necesarios y suficientes son:

El principio genético o principio de productividad, según el cual nada puede surgir de la nada ni convertirse en nada; y el principio de legalidad, según el cual nada sucede de forma incondicional ni completamente irregular, o sea, de modo ilegal o arbitraria.

Ambos principios pueden ser fundidos en uno solo, a saber: todo es determinado según leyes por alguna otra cosa, entendiéndose por esta última las condiciones externas tanto como las internas del objeto en cuestión. Se trata de un supuesto filosófico de la ciencia confirmado por los resultados de la investigación científica; es evidente que no puede ser refutado tal principio.

La ecuación de la causalidad con la predictibilidad es, común entre los partidarios de la investigación positivista de la mecánica cuántica. Resulta precipitado proclamar el fracaso del determinismo tan sólo porque no es posible reunir toda la información necesaria para poner a prueba el principio causal en un dominio particular.

Incertidumbre e indeterminación. ¿Es el determinismo ontológico incompatible con el probabilismo gnoseológico?

La predicción acertada nos permite confirmar o refutar los enunciados legales científicos, tanto causales como no causales. La predicción y la aplicación práctica son pruebas de todas las hipótesis generales de la ciencia y la tecnología, sea cual fuere su contenido causal. El sistemático fracaso de los esfuerzos por predecir mediante una ley dada que contiene un fuerte componente causal es una razón de peso para poner en duda la verdad de dicho enunciado legal en el terreno que se está investigando; pero no anula esa ley en todos los terrenos, ni constituye una refutación del principio causal. El fracaso de hipótesis causales particulares –y aun el posible fracaso de la causalidad en sectores enteros de la investigación- sólo prueba que el principio causal no tiene validez universal. En particular, el ingrediente estadístico en todos los enunciados que hemos llamado leyes demuestran que por lo menos un dominio, el de la relación sujeto-objeto, no se agota en las conexiones causales.

La causalidad en consecuencia no puede definirse en términos de predictibilidad según leyes; ni es tampoco correcto definir el azar como incapacidad de predecir. La predicción es una capacidad humana, falible y perfectible a la vez; la predictibilidad es una consecuencia gnoseológica de la existencia y del conocimiento de leyes de cualquier tipo, tanto causales como no causales. La  incertidumbre, por tanto, no implica indeterminación. La determinación completa, fijada de modo unívoco por la totalidad de las leyes, es una condición necesaria pero no suficiente para alcanzar la predictibilidad completa: no sería justo culpar al universo de nuestras propias limitaciones. El determinismo ontológico es, conforme a lo dicho, compatible con el probabilismo gnoseológico, doctrina según la cual sólo proposiciones generales probables pueden afirmarse con referencia a asuntos empíricos, aunque no todas son igualmente verosímiles.