CAFÉ FILOSÓFICO
Facultad de Filosofía y Letras – U.C.A.
6 de mayo de 2003
Los acontecimientos de la naturaleza se asemejan más a dados que se
tiran sobre la mesa que a estrellas que giran; se hallan regidos por leyes de
probabilidad, no por la causalidad, y el científico se acerca más al jugador
que al profeta [...] Si se le pregunta por qué sigue sus métodos, a título de qué
hace sus predicciones, no puede responder que tiene un conocimiento irrefutable
del porvenir; lo único que puede hacer son sus mejores apuestas. Pero puede
demostrar que son las mejores apuestas, que eso es lo mejor que puede hacer, y si
un hombre hace lo mejor que puede hacer, ¿qué más se le puede pedir?
H.REICHENBACH La filosofía científica
Mientras una mirada confiada e ingenua todavía hoy nos promete alcanzar la certidumbre y la seguridad, el oráculo de la ciencia parece haber reducido sus pretensiones drásticamente. Nuestra educación y nuestro entorno cultural nos habían inculcado que los conocimientos opinables y tentativos eran sólo la consecuencia de la desinformación, y que incluso las convicciones hijas de la fe religiosa terminarían, tarde o temprano, por ceder su lugar a una respuesta avalada por argumentos y no por testimonios, o a lo sumo llegaríamos a la inapelable aseveración de que no hay respuesta. Algunos de nosotros quizá sabíamos que ese rigor apodíctico de la ciencia sólo se verificaba en el territorio de las disciplinas naturales, particularmente la física matemática, mientras las ciencias humanas, y hasta cierto punto las ciencias biológicas, retenían un cierto margen de error en sus conclusiones. Pero he aquí que al acercarnos al murmullo de los debates epistemológicos actuales resulta que, al fin y al cabo, estamos literalmente viviendo en el “reino de la probabilidad”. Ya no funciona la jactancia de un médico que quiere reparar con drogas de efecto estrictamente previsible los trastornos que la psicología sólo puede encauzar “más o menos”. Centenares de embriones quedaron por el camino hasta darle vida a la simpática Dolly. La misma tecnología que hizo hoyo en uno al embocar una nave en Marte observa con desconcierto cómo un misil destinado a Irak estalla en Irán (lo cual supongo que a los iraníes les produce algo más que desconcierto...). Palabras como caos, turbulencia, catástrofe, singularidad, ya no se esconden como vástagos deformes en la pieza del fondo. La probabilidad, en suma, parece haber alcanzado un lugar definitivo en la formulación de las leyes científicas.
Ahora bien, ¿qué es esto? ¿Un repentino ataque de modestia por parte de los sabios? ¿Será tal vez el síntoma de esa enfermedad que llaman “pensamiento débil”, a la que ningún método ni sistema es capaz de repeler? ¿Acaso estaremos por descubrir que no se puede hablar de otra manera si se quiere ser fiel a la naturaleza misma de las cosas, donde yacen la libertad y el capricho? Me temo que a nuestro modesto y coloquial encuentro de hoy no le da el talle para calzarse estas preguntas, pero al menos quisiera convidarlos a echar un vistazo sobre el sentido filosófico de esta idea tan añeja y, sin embargo, tan perturbadora.
En su Lexicon Totius Latinitatis nos instruye Forchellini sobre las tres acepciones primordiales del verbo probo, del cual deriva probabilitas, probabilidad:
Probar, gustar, examinar, escudriñar, establecer el valor o la autenticidad de algo
Aprobar, alabar, admitir, dar por bueno
Justificar, refrendar, fundamentar una afirmación
Lo probable, en nuestro caso, no se refiere al primer uso, como si se tratara de aquello que es simplemente susceptible de ponerse a prueba. Tampoco al tercero, donde se involucra la posibilidad de un procedimiento discursivo capaz de acreditar una verdad. A mi entender hablamos de lo probable en referencia a la estimación o ponderación relativas a un hecho o afirmación cuya existencia o verdad ignoramos. Así nos parece probable el advenimiento de la lluvia en vista de sus signos típicos, y damos a entender esa inclinación de juicio al tomar la determinación de salir con paraguas.
Hablando en términos más generales y ordenados, diríamos que hay en principio un doble concepto de probabilidad:
a) el concepto gnoseológico (llamado por algunos probabilidad subjetiva), que consiste en un estado del sujeto vecino a la certeza y en relación a un determinado conocimiento. Sería algo así como el grado de aceptación o credibilidad que dicho conocimiento tiene en el ánimo de un sujeto dado (individual o, incluso, trascendental). Este enfoque da lugar, entre otras, a cuestiones delicadas en el orden moral, donde debaten los posibilistas, probabilistas y probabilioristas
b) el concepto ontológico (llamado a su vez probabilidad objetiva), que se adjudica a una cosa u hecho considerados en sí mismos, en cuanto se juzga según una cierta medida su perspectiva de realización. Por este camino se han abierto discusiones referidas a la noción metafísica de contingencia, al azar y otras semejantes.
Uno de los problemas que se enfrentan en el rastreo histórico de esta cuestión es precisamente la falta de claridad con la que se disciernen ambos sentidos. Daría la impresión que su uso es algo desprolijo, y a menudo exige un cierto esfuerzo de exégesis para descubrir el pensamiento subyacente.
En el caso de Aristóteles parece prevalecer el sentido subjetivo de la probabilidad. Al referirse a los modos de conocer, el Estagirita distingue tres entornos fundamentales, de los cuales el primero es, por supuesto, la epistéme, la scientia, conocimiento de lo universal y necesario alcanzado por demostración estricta y que engendra certeza. A él le dedica sus Analíticos Posteriores. Luego aparece la dóxa, o sea la opinio, que se engendra en ausencia de razones definitivas pero en virtud de ciertos indicios o evidencias que bastan para inclinar el ánimo y dar una respuesta transitoria. Pertenecen a este dominio aquellas materias de alto grado de especificidad, donde no es posible alcanzar el estado de pureza abstractiva que requiere el término medio silogístico, como así también en las hypóthesis, que son supuestos que el científico se plantea al comenzar una investigación a la espera de argumentos confirmatorios. Hay un detallado tratamiento de los razonamientos probables en los Tópicos. Por último se encuentra la pístis o fides, conocimiento que no procede de razones determinantes como las de la ciencia, ni tentativas, como las de la opinión, sino del modo persuasivo con el que se lo presenta (ejemplos, toques emocionales, elocuencia del discurso, etc.) o bien por el apoyo en la autoridad de quien lo comunica.
Como apunta W.Wallace, esta división alcanza para trazar un diagnóstico de la situación actual, en la que la ciencia apolínea está en franca retirada, sin que sobrevivan aun los principios metafísicos y éticos, sustituidos por variantes de color existencialista o hermenéutico, ni tampoco los matemáticos, desde que se cuestiona la validez intrínseca de los axiomas y el carácter no decidible de los sistemas complejos a partir del teorema de Gödel. Más bien habría que asimilar la idea actual de ciencia a la dóxa aristotélica, poniendo el énfasis en su aspecto conjetural, a la manera de Popper, dando cabida a la pístis como expresión fiduciaria de un especialista acerca de otro en una comunidad tan heterogénea de saberes que se encamina hacia una nueva Babel. De hecho, durante años casi no había otro científico que Eddington capaz de seguirle el tren a la relatividad de Einstein sin tener que apelar a la fe en el genio del ilustre alemán. Y hasta podría reinterpretarse en estos términos el concepto de paradigma que propone la sociología de la ciencia encarnada en Kuhn y otros.
Volviendo al derrotero histórico, la crisis del aristotelismo medieval desemboca en la filosofía cartesiana de las certezas matemáticas connaturales a la res cogitans y el atomismo físico como única versión compatible con la res extensa. A su vez, esto conduce a una suerte de “atomismo lógico”, en el cual la substancia, la cosa, es reemplazada por “hechos” o “eventos” puntuales y la relación de causalidad se replantea entonces como un vínculo de pura sucesión vacío de toda necesidad. Desde aquí se me ocurre que es posible avizorar el creciente protagonismo de la noción de probabilidad como recurso sucedáneo para formular las leyes naturales.
En el tronco racionalista se afianza la que podríamos denominar “interpretación a priori” de la probabilidad. Así como el centro de gravedad del sistema racionalista es el principio de razón suficiente, cuando las condiciones no permiten aplicarlo se recurre a una suerte de “principio de razón insuficiente”, más conocido como principio de indiferencia. Ya desde el siglo XVII se había suscitado el interés por el cálculo de probabilidades entendido como criterio de expectativa y de apuesta en un juego de azar basado en ciertas reglas. La proliferación de estas aficiones en las opulentas y ociosas cortes europeas del absolutismo le dio de comer a ilustres matemáticos que respondían, supongo que con algo de vanidad y estoicismo, las consultas de los nobles, como aquel caballero de Le Mère que obligó a Pascal a pedirle ayuda a Fermat. Una obra fundamental en esta etapa fue el Ars Conjectandi de J.Bernoulli (1713), en el que aparece, probablemente por primera vez, la definición de probabilidad como frecuencia de los casos favorables en relación a los casos posibles. Los mismos términos aparecen en el Tratado analítico de las probabilidades y en el Ensayo filosófico sobre las probabilidades del barón P.de Laplace. La clave de este concepto es asumir la equiprobabilidad de todos los casos posibles, ya sea porque se admite como regla de juego o porque se carece de razones para considerar a unos casos más probables que a otros. Y es justamente esta aseveración a priori la que parece invalidar dicha noción. En efecto, como se ocupará de criticar v.Mises, si se pretende dar sentido a lo probable más allá de las mesas de salón, seguramente nos encontraremos en la naturaleza con fenómenos que acontecen bajo condiciones difícilmente asumibles como de igual probabilidad, como por ejemplo la emisión radioactiva o los índices de mortalidad. Además se recurre a lo equiprobable para definir la probabilidad cometiendo una flagrante falacia de circularidad (démosle a Bernoulli la oportunidad de defenderse diciendo que él no pretende definir la probabilidad sino tan sólo su medida matemática).
Si buscamos por el lado del empirismo, veremos que proponen, fieles a su estilo, el concepto a posteriori de probabilidad, esto es, no ya la frecuencia absoluta definida por las condiciones mismas del fenómeno, sino la frecuencia relativa, léase la razón entre los casos favorables y el total de los casos evaluados. De esta manera se subsana el inconveniente de la dudosa equiprobabilidad, de tal manera que si nos toca apostar en un juego con dados no perfectamente simétricos, o incluso deliberadamente “cargados”, diremos a priori que nuestras chances son de 1/6, pero ese valor puede modificarse si al cabo de 100 tiradas nuestro número salió 14 o 20 veces en lugar de las 16 y pico que el primer cálculo auguraba. Ahora bien, este criterio tampoco está libre de inconvenientes. En primer lugar, hay muchos fenómenos naturales donde el principio de continuidad de la materia provoca un rango virtualmente infinito de posibilidades, frente a las cuales cualquier repetición de casos favorables da un cociente 0. Por otra parte, ¿quién me asegura que la frecuencia relativa observada en un número n de casos se conservará para cualquier tamaño de la muestra? ¿Por qué si obtuve 14 ases en 100 tiradas de un dado debo suponer que obtendré 28 en 200? Esta no es más que una versión típica del conocido “problema de la inducción”: se arguye que si una propiedad se verifica en un número considerable de casos se verificará en los demás según el principio de regularidad de la naturaleza. Pero a su vez este principio es válido porque la naturaleza se ha mostrado regular en un número considerable de casos, con lo cual reincidimos en el vicio de circularidad lógica.
Como es bien sabido, el cricitismo kantiano aparece en escena para tratar de desatar el nudo invocando la noción de causalidad como categoría. De este modo ya no tiene caso averiguar si los vínculos causales en sí mismos existen y si se dan con necesidad o probabilidad. Lo que cuenta es la síntesis a priori en la cual la secuencia de fenómenos asume carácter universal y necesario por cuenta del sujeto. La exacerbación de este enfoque deriva en el idealismo absoluto ante el cual se plantea, ya en pleno siglo XIX, la reacción positivista. Al cabo de tantas idas y vueltas, lo mejor que podemos hacer con la causalidad es tirarla a la basura, y junto con ella todo el pesado e inservible bagaje de conceptos acuñados durante la etapa teológica y metafísica de la humanidad. Está probado, según parece, que no hay otro saber digno de mínima confianza que no sea la ciencia, y la clave de su método y de su eficiencia consiste esencialmente en sustituir en todo la inaccesible determinación de las causas propiamente dichas por la simple averiguación de las leyes, o sea de las relaciones constantes que existen entre los fenómenos observados, según leemos en el Discurso sobre el espíritu positivo. El esquema que, más o menos explícitamente, va tomando forma a partir de ahora es el del método hipotético inductivo (MHD). En pocas palabras, se trata de justificar una hipótesis H a partir de la comprobación empírica de un cierto hecho E que se deriva lógicamente de ella. Entonces se aplica el siguiente argumento
Si H, entonces E
E
Luego, H
Obviamente, se trata de un razonamiento lógicamente incorrecto, al que se denomina falacia de afirmación del consecuente. Si por definición la hipótesis H no es la única capaz de explicar E, no se sigue necesariamente de su ocurrencia. La cuestión que se plantea es si, admitiendo ello, es aceptable atribuir a H una cierta verosimilitud, o también una cierta probabilidad. Podemos plantear un caso más general, en el cual el hecho E se registre para un cierto número n de casos, de modo que tendremos
Si H entonces (E1, E2, ... En)
(E1, E2, ... En)
Luego, H
De modo que la cuestión será si es posible afirmar que, bajo el supuesto de ser confirmada en n casos, la hipótesis H es más probable que con un solo caso, e incluso si se puede estimar esa probabilidad como proporcional a n. La respuesta negativa de Popper generó el primer gran alboroto de la epistemología contemporánea. En efecto, la probabilidad que, en este caso, se intenta definir a posteriori, debe ser conjugada con la probabilidad a priori que para Popper es inversamente proporcional al contenido empírico de la hipótesis, o si se prefiere, al número de falsadores potenciales que ella implica. No se puede equiparar una hipótesis de la que sólo depende el fenómeno E con otra que exige simultáneamente el cumplimiento de E, F y G. Supongamos que Fulano consulta al médico por una angina de pecho, síntoma ante el cual el facultativo debe evaluar dos hipótesis: la primera, si es un dolor orgánico o meramente emocional; la segunda, si la causa orgánica es de orden cardíaco. Se supone que son menos los indicios que permiten corroborar la primera hipótesis que los que dependen de la segunda. Por lo tanto, dirá Popper, la primera hipótesis es, a priori, más probable que la segunda.
El asunto también es complicado cuando se trata de refutar una hipótesis. Ya sabemos que el propio Popper instaló el concepto de “falsación” para tomar distancia de las posturas neopositivistas. Pero sucede que hay dos versiones de este asunto. Se puede asumir que si el fenómeno E que la hipótesis predice no se cumple, la hipótesis queda refutada. A saber
Si H entonces E
No E
Luego, no H
A este esquema se lo denomina, no sin razón, “falsacionismo ingenuo”, porque puede haber alguna hipótesis complementaria, o “hipótesis ad hoc”, que sirva para “proteger”, por decirlo así, a la hipótesis principal. En general, tal como lo han destacado Quine y Duhem, en cualquier experimento se ponen en tela de juicio varias hipótesis concurrentes H1, H2, ... Hn (e incluso varios supuestos acerca de las condiciones iniciales, como el buen funcionamiento de los instrumentos y la correcta lectura de sus registros). En consecuencia, si el experimento no confirma la presencia de E sabemos que hay al menos una hipótesis que no se verifica, pero no sabemos exactamente cuál es
Si (H1, H2, ... Hn) entonces E
No E
Luego no (H1, H2, ... Hn)
Y este último enunciado es lógicamente equivalente a
O bien no H1, o bien no H2, ... o bien no Hn
La controversia que se plantea a partir del esquema MHD irá dejando lugar a otra todavía más intrincada. En efecto, el MHD supone una concepción relativamente simplificada del mundo de los fenómenos físicos, donde es posible identificar un número finito de variables macroscópicas de comportamiento determinista y someterlas a observación controlada. Pero a lo largo del siglo XIX el avance de la física conduce a un escenario mucho más lábil y escurridizo. Los nuevos capítulos sobre dinámica del calor y de los fluidos exigen reemplazar el modelo corpuscular de la mecánica de Newton por un modelo estadístico, donde la imposibilidad de monitorear el estado de un sistema a partir de la suma de los estados de sus unidades componentes (porque son incontables y en extremo pequeñas) exige adoptar el supuesto de una tendencia estadística sobre la base de probabilidades a priori. De aquí surgen ideas muy características, como la de entropía. Su estricta justificación es bastante complicada, pero intuitivamente nos quiere decir que todo sistema cerrado (sin pérdida ni ganancia de energía o de información) tiende a evolucionar hacia el estado más probable, que es el de máximo desorden. Para poner un ejemplo muy simplificado, imaginemos un recipiente completamente hermético, aislado y vacío, al que dividiremos convencionalmente en cinco sectores iguales. Supongamos que el sector del medio está separado de los demás por dos tabiques móviles, y en su interior hay un cierto número de partículas de gas, pongamos por comodidad 84. Luego quitamos los tabiques para que esas particulas vaguen libremente por el interior del recinto. Si se asume que cualquier trayectoria de una partícula dada es igualmente probable a cualquier otra entonces al cabo de un cierto tiempo t1 un tercio de esas partículas habrán pasado al sector de la izquierda, un tercio al de la derecha y un tercio habrá permanecido en el mismo sector. Si repetimos el razonamiento para sucesivos intervalos de tiempo, llegaremos a una tabla como la siguiente
T0 - - -----84
T1 ---- 27 27 27
T2 --9 18 27 18 -9
T3 12 18 24 18 12
T4 14 18 20 18 14
T5 15 18 18 18 15
T6 16 17 18 17 16
Si continuamos la tabulación, comprobaremos que a partir de un cierto momento el número de partículas tiende a distribuirse en modo uniforme por todo el recipiente, y ello bajo consideraciones meramente estadísticas. Este tipo de análisis encontrará una forma más sofisticada a partir del desarrollo de la mecánica cuántica. Uno de los formalismos matemáticos que se proponen para la descripción de la dinámica de partículas es el de la ecuación de onda Ψ de E.Schrödinger, en la cual los parámetros del sistema se definen en términos probabilísticos.
Varios de los científicos que trabajaban en los campos revolucionarios de la física cuántica y relativista influyeron de manera decisiva e incluso formaron parte del Círculo de Viena, fundado oficialmente en 1929 y al que también se conoce como neopositivismo o empirismo lógico. Esta última denominación obedece al propósito manifiesto de superar las limitaciones ingenuas del positivismo original introduciendo pautas estrictas de control en el lenguaje de la ciencia, a partir de estructuras discursivas rigurosas inspiradas en la lógica matemática. Ya hemos señalado las reservas de Popper con respecto al inductivismo y al fundamento de la probabilidad de las hipótesis. En el fondo, su planteo es el de la mayoría de los epistemólogos que en la década del 30 se zambulleron en la problemática de la fundamentación lógica de la ciencia, dando origen al tercer concepto de probabilidad (además del gnoseológico y el ontológico anteriormente definidos) que es el de probabilidad lógica.
Ya en 1878 Ch.Pierce definía el asunto como el problema de hallar el valor, numérico en lo posible, de la probabilidad de una conclusión dada la probabilidad de sus premisas.Tal como aparece enunciado por Carnap, se trata de establecer un método que permita asignar valor numérico a una “función de confirmación”
C (H, e)
teniendo en cuenta una cierta hipótesis H y el conjunto e de evidencias disponibles. Una de las herramientas más utilizadas en este sentido, ya desde el siglo XVIII, es el famoso teorema de Bayes, que se aplica para calcular la probabilidad de un determinado suceso bajo el supuesto de que se haya producido otro. El esquema bayesiano se puede trasladar al terreno epistemológico del siguiente modo: la probabilidad de que una cualquiera de las diferentes hipótesis H1, H2, ... Hn sea la verdadera explicación de un hecho E, suponiendo que sean mutuamente excluyentes y que E haya efectivamente sucedido, será
Igualmente podría calcularse la probabilidad de que el fenómeno En se siga de H sabiendo que En-1 se sigue de H. Un ejemplo frecuente de aplicación del teorema es cuando se busca determinar la probabilidad de un condicional en función de la probabilidad de su converso. Así, digamos, la probabilidad de que si alguien contrae SIDA haya sido infiel a su pareja es igual a la probabilidad de que si es infiel se contagie de SIDA, multiplicada por la probabilidad de que sea infiel, y dividida por la probabilidad de que se infecte (por cualquier causa). Es un lío: mejor quedémonos en casa.
El teorema de Bayes ha estado y sigue estando en la picota porque tiene algunos aspectos vulnerables o restrictivos, que no viene al caso detallar. Uno de los primeros en desarrollar el concepto lógico de probabilidad, entendida no como expectativa de sucesos sino como una relación entre enunciados, fue ni más ni menos que J.Keynes, un célebre economista cuyas acciones parecen haber vuelto a cotizar fuerte en estos tiempos de fatiga neoliberal. H.Reichenbach, por su parte, critica el tratamiento racionalista del problema, porque introduce el “principio de indiferencia” (o sea la equiprobabilidad de todos los casos posibles) como un juicio sintético a priori e injustificado. A cambio propone definir la probabilidad como límite de la frecuencia cuando el número de casos posibles tiende a infinito, con lo cual un determinado valor p de probabilidad es “tanto más probable” (perdón por el juego de palabras, pero aquí lo probable no es el hecho o la hipótesis sino el enunciado acerca de esa probabilidad en función de sus antecedentes) cuanto más aumenta el número de observaciones. Incluso para los llamados “casos aislados” se aplica el mismo criterio, tomándolos como “el próximo caso” dentro de la clase de los que ya se produjeron en condiciones similares. Aquí vemos una versión algo más refinada del planteo tradicional del empirismo, al que se le reprocha la petición de principio en el recurso a la inducción para justificar la inducción (paso al límite). Pero Reichenbach se defiende diciendo que la necesidad de justificación analítica es un prejuicio. Justamente la inducción se caracteriza por ser un modo de razonamiento que no necesita tal justificación, sino que vale como supuesto. Con otras palabras, como la Naturaleza nos ha condenado a vivir en estado de conjetura permanente, aplicar la inducción es sencillamente lo mejor que podemos hacer (sic).
Carnap no se resigna y propugna un enfoque estrictamente analítico de la probabilidad lógica, lo cual lo conduce a un esfuerzo denodado por encontrar el formalismo adecuado para cuantificar la relación entre premisas y conclusión, partiendo de que en un esquema deductivo la probabilidad de la conclusión será siempre igual a 1 (conclusión válida) o a 0 (conclusión inválida). Si bien el desarrollo de su investigación lo pone muy lejos de nuestro modesto alcance, podemos aprovechar las accesibles consideraciones que aparecen en su Fundamentación lógica de la física. Supongamos primero el caso de un silogismo en BARBARA, donde una proposición singular se infiere como caso de otra universal, a saber
1. (x) (Px Qx)
2. Pa
3. luego, Qa
Aquí se da una deducción estricta, y dado que la probabilidad de Q con respecto a P es p = 1 (porque se afirma que para todo x si es P entonces es Q) la conclusión será igualmente cierta (o sea que p(Qa)=1).
Veamos ahora el caso en que el valor de la probabilidad del predicado con respecto al sujeto es menor que 1
1. p (Q, P) = 0,8
2. Pa
3. luego, Qa
Lo que puede decirse en este caso es que, en términos metalingüísticos, la probabilidad del enunciado (3) de acuerdo a (1) y (2) es de 0,8. En otros términos, la probabilidad de Q con respecto a P es una probabilidad estadística, mientras que la de (3) es puramente lógica.
Ahora bien, si el enunciado (1) expresa el valor de p para toda la población, y (2) se refiere a un caso a o a una muestra, la inferencia es inductiva pero directa (o, por así decir, cuasi deductiva). Pero si (1) se refiere a una muestra, de la cual se pretende pasar a toda la población, o a otra muestra, o a otro caso futuro, la estimación final de la probabilidad de (3) dependerá del tamaño de la muestra.
Otro importante autor que ha trabajado el tema de la probabilidad lógica es C.Hempel. En su obra La explicación científica ilustra las dificultades que apareja el intento de formalizar conclusiones estadísticas por vía del silogismo. Así, por ejemplo, si se toma la siguiente forma de razonamiento:
1) a es F
2) la proporción de F que son G es igual a q
3) luego, la probabilidad de que a sea G es igual a q
es posible llegar a conclusiones mutuamente contradictorias, por lo cual se trata de una forma inconsistente. Si suponemos que a es un filósofo de Texas, y hacemos que G signifique “ser millonario”, entonces resultará que a casi seguro es millonario, porque casi todos los texanos lo son, y a casi seguro no es millonario porque casi ningún filósofo lo es. La aparente paradoja que aquí tenemos se debe justamente a la confusión entre la probabilidad estadística de que un texano o un filósofo sea millonario y la probabilidad lógica del enunciado de la conclusión con respecto a las premisas.
Al cabo de este ágil recorrido por las voces que se han ocupado del asunto sumaremos la nuestra con temor y temblor. Apenas si queremos destacar, como nos parece ser obligación de buen filósofo, el trasfondo realista que se esconde bajo el rumoreo de la discusión. La naturaleza, decían los antiguos, es una determinatio ad unum, tiene un inequívoco carácter tendencial. Hay un modo definido de obrar que es propio de cada cosa. Sin embargo, a la luz de sus efectos esa determinación aparece en muchos casos relativizada, y sólo se verifica ut in pluribus, en la mayoría de los casos. Y la razón profunda de ello está en la composición acto potencia a nivel substancial, en la cual la materia prima actualizada por una forma permanece abierta a las demás haciendo al compuesto intrínsecamente contingente en su ser y en su dinamismo. No parece fuera de lugar atribuir a la probabilidad, en su expresión matemática, la manifestación mensurable de un estado metafísico que la trasciende pero a la vez la incluye. No queremos contarnos entre los profetas del cartesianismo pero tampoco entre quienes los demonizan. La cantidad es un accidente real de los cuerpos, intrínseco a ellos y razón de numerosas propiedades. Resulta entonces natural que la contingencia y variabilidad de las cosas tenga un rostro cuantitativo. Más aún, aunque parezca paradójico, la probabilidad misma se expresa conforme a leyes que no son en sí probables, sino ciertas. Es de absoluta necesidad que, a medida que el número de tiradas aumenta, el número de caras obtenido se aproxime más y más a la mitad de aquél. La tendencia será tanto más firme cuanto más lo sea su principio, que no es otro que la forma simétrica y equilibrada de la moneda. Hablando en general, existe un teorema matemático, popularmente identificado como ley de los grandes números, según el cual la probabilidad a priori, o frecuencia absoluta, y la probabilidad a posteriori, o frecuencia relativa, tienden a igualarse a medida que aumenta el número de casos, de suerte que el margen de discrepancia se hace proporcional al inverso de la raíz cuadrada de dicho número: en 100 casos será de 1/10, pero en 10.000 casos de 1/100, etc.
El desarrollo analítico de esta función de probabilidad se conoce como función de distribución normal, que se representa mediante la célebre campana de Gauss. Justamente la mayor concentración de casos en torno al valor más probable (la “cúspide” de la campana) expresa analógicamente esa determinatio de la naturaleza, radicada en la forma. Por otra parte, la creciente afirmación de la tendencia en proporción al número de casos insinúa aquella intuición aristotélica de que la necesidad radica en la especie y no en los individuos. Es posible verificar en este sentido una progresiva distorsión de esa curva normal a medida que la aplicamos a las especies superiores de la naturaleza, donde la perfección de la forma significa a la vez mayor espontaneidad e “individualidad”. De cualquier manera, merece observarse cómo la confiabilidad de esta tendencia permite curiosamente obtener en algunos casos resultados más exactos aplicando el cálculo de probabilidades que recurriendo al determinismo del esquema mecanicista.
Seguramente nuestra propia condición de seres materiales y viandantes tampoco es ajena al entrevero de la probabilidad. En el fondo, no son muchas las cosas de las que podemos estar completamente seguros, en comparación con las demás. Es de presumir que los antiguos no considerarían hasta tal extremo las limitaciones que imponen a la vez el objeto y el sujeto, pero es parte del espíritu de aquellas tradiciones la aceptación de un orden de cosas donde el presente sorprende a cada paso en dirección a un futuro ya escrito.
Facultad de Filosofía y Letras – U.C.A.
6 de mayo de 2003
Los acontecimientos de la naturaleza se asemejan más a dados que se
tiran sobre la mesa que a estrellas que giran; se hallan regidos por leyes de
probabilidad, no por la causalidad, y el científico se acerca más al jugador
que al profeta [...] Si se le pregunta por qué sigue sus métodos, a título de qué
hace sus predicciones, no puede responder que tiene un conocimiento irrefutable
del porvenir; lo único que puede hacer son sus mejores apuestas. Pero puede
demostrar que son las mejores apuestas, que eso es lo mejor que puede hacer, y si
un hombre hace lo mejor que puede hacer, ¿qué más se le puede pedir?
H.REICHENBACH La filosofía científica
Mientras una mirada confiada e ingenua todavía hoy nos promete alcanzar la certidumbre y la seguridad, el oráculo de la ciencia parece haber reducido sus pretensiones drásticamente. Nuestra educación y nuestro entorno cultural nos habían inculcado que los conocimientos opinables y tentativos eran sólo la consecuencia de la desinformación, y que incluso las convicciones hijas de la fe religiosa terminarían, tarde o temprano, por ceder su lugar a una respuesta avalada por argumentos y no por testimonios, o a lo sumo llegaríamos a la inapelable aseveración de que no hay respuesta. Algunos de nosotros quizá sabíamos que ese rigor apodíctico de la ciencia sólo se verificaba en el territorio de las disciplinas naturales, particularmente la física matemática, mientras las ciencias humanas, y hasta cierto punto las ciencias biológicas, retenían un cierto margen de error en sus conclusiones. Pero he aquí que al acercarnos al murmullo de los debates epistemológicos actuales resulta que, al fin y al cabo, estamos literalmente viviendo en el “reino de la probabilidad”. Ya no funciona la jactancia de un médico que quiere reparar con drogas de efecto estrictamente previsible los trastornos que la psicología sólo puede encauzar “más o menos”. Centenares de embriones quedaron por el camino hasta darle vida a la simpática Dolly. La misma tecnología que hizo hoyo en uno al embocar una nave en Marte observa con desconcierto cómo un misil destinado a Irak estalla en Irán (lo cual supongo que a los iraníes les produce algo más que desconcierto...). Palabras como caos, turbulencia, catástrofe, singularidad, ya no se esconden como vástagos deformes en la pieza del fondo. La probabilidad, en suma, parece haber alcanzado un lugar definitivo en la formulación de las leyes científicas.
Ahora bien, ¿qué es esto? ¿Un repentino ataque de modestia por parte de los sabios? ¿Será tal vez el síntoma de esa enfermedad que llaman “pensamiento débil”, a la que ningún método ni sistema es capaz de repeler? ¿Acaso estaremos por descubrir que no se puede hablar de otra manera si se quiere ser fiel a la naturaleza misma de las cosas, donde yacen la libertad y el capricho? Me temo que a nuestro modesto y coloquial encuentro de hoy no le da el talle para calzarse estas preguntas, pero al menos quisiera convidarlos a echar un vistazo sobre el sentido filosófico de esta idea tan añeja y, sin embargo, tan perturbadora.
En su Lexicon Totius Latinitatis nos instruye Forchellini sobre las tres acepciones primordiales del verbo probo, del cual deriva probabilitas, probabilidad:
Probar, gustar, examinar, escudriñar, establecer el valor o la autenticidad de algo
Aprobar, alabar, admitir, dar por bueno
Justificar, refrendar, fundamentar una afirmación
Lo probable, en nuestro caso, no se refiere al primer uso, como si se tratara de aquello que es simplemente susceptible de ponerse a prueba. Tampoco al tercero, donde se involucra la posibilidad de un procedimiento discursivo capaz de acreditar una verdad. A mi entender hablamos de lo probable en referencia a la estimación o ponderación relativas a un hecho o afirmación cuya existencia o verdad ignoramos. Así nos parece probable el advenimiento de la lluvia en vista de sus signos típicos, y damos a entender esa inclinación de juicio al tomar la determinación de salir con paraguas.
Hablando en términos más generales y ordenados, diríamos que hay en principio un doble concepto de probabilidad:
a) el concepto gnoseológico (llamado por algunos probabilidad subjetiva), que consiste en un estado del sujeto vecino a la certeza y en relación a un determinado conocimiento. Sería algo así como el grado de aceptación o credibilidad que dicho conocimiento tiene en el ánimo de un sujeto dado (individual o, incluso, trascendental). Este enfoque da lugar, entre otras, a cuestiones delicadas en el orden moral, donde debaten los posibilistas, probabilistas y probabilioristas
b) el concepto ontológico (llamado a su vez probabilidad objetiva), que se adjudica a una cosa u hecho considerados en sí mismos, en cuanto se juzga según una cierta medida su perspectiva de realización. Por este camino se han abierto discusiones referidas a la noción metafísica de contingencia, al azar y otras semejantes.
Uno de los problemas que se enfrentan en el rastreo histórico de esta cuestión es precisamente la falta de claridad con la que se disciernen ambos sentidos. Daría la impresión que su uso es algo desprolijo, y a menudo exige un cierto esfuerzo de exégesis para descubrir el pensamiento subyacente.
En el caso de Aristóteles parece prevalecer el sentido subjetivo de la probabilidad. Al referirse a los modos de conocer, el Estagirita distingue tres entornos fundamentales, de los cuales el primero es, por supuesto, la epistéme, la scientia, conocimiento de lo universal y necesario alcanzado por demostración estricta y que engendra certeza. A él le dedica sus Analíticos Posteriores. Luego aparece la dóxa, o sea la opinio, que se engendra en ausencia de razones definitivas pero en virtud de ciertos indicios o evidencias que bastan para inclinar el ánimo y dar una respuesta transitoria. Pertenecen a este dominio aquellas materias de alto grado de especificidad, donde no es posible alcanzar el estado de pureza abstractiva que requiere el término medio silogístico, como así también en las hypóthesis, que son supuestos que el científico se plantea al comenzar una investigación a la espera de argumentos confirmatorios. Hay un detallado tratamiento de los razonamientos probables en los Tópicos. Por último se encuentra la pístis o fides, conocimiento que no procede de razones determinantes como las de la ciencia, ni tentativas, como las de la opinión, sino del modo persuasivo con el que se lo presenta (ejemplos, toques emocionales, elocuencia del discurso, etc.) o bien por el apoyo en la autoridad de quien lo comunica.
Como apunta W.Wallace, esta división alcanza para trazar un diagnóstico de la situación actual, en la que la ciencia apolínea está en franca retirada, sin que sobrevivan aun los principios metafísicos y éticos, sustituidos por variantes de color existencialista o hermenéutico, ni tampoco los matemáticos, desde que se cuestiona la validez intrínseca de los axiomas y el carácter no decidible de los sistemas complejos a partir del teorema de Gödel. Más bien habría que asimilar la idea actual de ciencia a la dóxa aristotélica, poniendo el énfasis en su aspecto conjetural, a la manera de Popper, dando cabida a la pístis como expresión fiduciaria de un especialista acerca de otro en una comunidad tan heterogénea de saberes que se encamina hacia una nueva Babel. De hecho, durante años casi no había otro científico que Eddington capaz de seguirle el tren a la relatividad de Einstein sin tener que apelar a la fe en el genio del ilustre alemán. Y hasta podría reinterpretarse en estos términos el concepto de paradigma que propone la sociología de la ciencia encarnada en Kuhn y otros.
Volviendo al derrotero histórico, la crisis del aristotelismo medieval desemboca en la filosofía cartesiana de las certezas matemáticas connaturales a la res cogitans y el atomismo físico como única versión compatible con la res extensa. A su vez, esto conduce a una suerte de “atomismo lógico”, en el cual la substancia, la cosa, es reemplazada por “hechos” o “eventos” puntuales y la relación de causalidad se replantea entonces como un vínculo de pura sucesión vacío de toda necesidad. Desde aquí se me ocurre que es posible avizorar el creciente protagonismo de la noción de probabilidad como recurso sucedáneo para formular las leyes naturales.
En el tronco racionalista se afianza la que podríamos denominar “interpretación a priori” de la probabilidad. Así como el centro de gravedad del sistema racionalista es el principio de razón suficiente, cuando las condiciones no permiten aplicarlo se recurre a una suerte de “principio de razón insuficiente”, más conocido como principio de indiferencia. Ya desde el siglo XVII se había suscitado el interés por el cálculo de probabilidades entendido como criterio de expectativa y de apuesta en un juego de azar basado en ciertas reglas. La proliferación de estas aficiones en las opulentas y ociosas cortes europeas del absolutismo le dio de comer a ilustres matemáticos que respondían, supongo que con algo de vanidad y estoicismo, las consultas de los nobles, como aquel caballero de Le Mère que obligó a Pascal a pedirle ayuda a Fermat. Una obra fundamental en esta etapa fue el Ars Conjectandi de J.Bernoulli (1713), en el que aparece, probablemente por primera vez, la definición de probabilidad como frecuencia de los casos favorables en relación a los casos posibles. Los mismos términos aparecen en el Tratado analítico de las probabilidades y en el Ensayo filosófico sobre las probabilidades del barón P.de Laplace. La clave de este concepto es asumir la equiprobabilidad de todos los casos posibles, ya sea porque se admite como regla de juego o porque se carece de razones para considerar a unos casos más probables que a otros. Y es justamente esta aseveración a priori la que parece invalidar dicha noción. En efecto, como se ocupará de criticar v.Mises, si se pretende dar sentido a lo probable más allá de las mesas de salón, seguramente nos encontraremos en la naturaleza con fenómenos que acontecen bajo condiciones difícilmente asumibles como de igual probabilidad, como por ejemplo la emisión radioactiva o los índices de mortalidad. Además se recurre a lo equiprobable para definir la probabilidad cometiendo una flagrante falacia de circularidad (démosle a Bernoulli la oportunidad de defenderse diciendo que él no pretende definir la probabilidad sino tan sólo su medida matemática).
Si buscamos por el lado del empirismo, veremos que proponen, fieles a su estilo, el concepto a posteriori de probabilidad, esto es, no ya la frecuencia absoluta definida por las condiciones mismas del fenómeno, sino la frecuencia relativa, léase la razón entre los casos favorables y el total de los casos evaluados. De esta manera se subsana el inconveniente de la dudosa equiprobabilidad, de tal manera que si nos toca apostar en un juego con dados no perfectamente simétricos, o incluso deliberadamente “cargados”, diremos a priori que nuestras chances son de 1/6, pero ese valor puede modificarse si al cabo de 100 tiradas nuestro número salió 14 o 20 veces en lugar de las 16 y pico que el primer cálculo auguraba. Ahora bien, este criterio tampoco está libre de inconvenientes. En primer lugar, hay muchos fenómenos naturales donde el principio de continuidad de la materia provoca un rango virtualmente infinito de posibilidades, frente a las cuales cualquier repetición de casos favorables da un cociente 0. Por otra parte, ¿quién me asegura que la frecuencia relativa observada en un número n de casos se conservará para cualquier tamaño de la muestra? ¿Por qué si obtuve 14 ases en 100 tiradas de un dado debo suponer que obtendré 28 en 200? Esta no es más que una versión típica del conocido “problema de la inducción”: se arguye que si una propiedad se verifica en un número considerable de casos se verificará en los demás según el principio de regularidad de la naturaleza. Pero a su vez este principio es válido porque la naturaleza se ha mostrado regular en un número considerable de casos, con lo cual reincidimos en el vicio de circularidad lógica.
Como es bien sabido, el cricitismo kantiano aparece en escena para tratar de desatar el nudo invocando la noción de causalidad como categoría. De este modo ya no tiene caso averiguar si los vínculos causales en sí mismos existen y si se dan con necesidad o probabilidad. Lo que cuenta es la síntesis a priori en la cual la secuencia de fenómenos asume carácter universal y necesario por cuenta del sujeto. La exacerbación de este enfoque deriva en el idealismo absoluto ante el cual se plantea, ya en pleno siglo XIX, la reacción positivista. Al cabo de tantas idas y vueltas, lo mejor que podemos hacer con la causalidad es tirarla a la basura, y junto con ella todo el pesado e inservible bagaje de conceptos acuñados durante la etapa teológica y metafísica de la humanidad. Está probado, según parece, que no hay otro saber digno de mínima confianza que no sea la ciencia, y la clave de su método y de su eficiencia consiste esencialmente en sustituir en todo la inaccesible determinación de las causas propiamente dichas por la simple averiguación de las leyes, o sea de las relaciones constantes que existen entre los fenómenos observados, según leemos en el Discurso sobre el espíritu positivo. El esquema que, más o menos explícitamente, va tomando forma a partir de ahora es el del método hipotético inductivo (MHD). En pocas palabras, se trata de justificar una hipótesis H a partir de la comprobación empírica de un cierto hecho E que se deriva lógicamente de ella. Entonces se aplica el siguiente argumento
Si H, entonces E
E
Luego, H
Obviamente, se trata de un razonamiento lógicamente incorrecto, al que se denomina falacia de afirmación del consecuente. Si por definición la hipótesis H no es la única capaz de explicar E, no se sigue necesariamente de su ocurrencia. La cuestión que se plantea es si, admitiendo ello, es aceptable atribuir a H una cierta verosimilitud, o también una cierta probabilidad. Podemos plantear un caso más general, en el cual el hecho E se registre para un cierto número n de casos, de modo que tendremos
Si H entonces (E1, E2, ... En)
(E1, E2, ... En)
Luego, H
De modo que la cuestión será si es posible afirmar que, bajo el supuesto de ser confirmada en n casos, la hipótesis H es más probable que con un solo caso, e incluso si se puede estimar esa probabilidad como proporcional a n. La respuesta negativa de Popper generó el primer gran alboroto de la epistemología contemporánea. En efecto, la probabilidad que, en este caso, se intenta definir a posteriori, debe ser conjugada con la probabilidad a priori que para Popper es inversamente proporcional al contenido empírico de la hipótesis, o si se prefiere, al número de falsadores potenciales que ella implica. No se puede equiparar una hipótesis de la que sólo depende el fenómeno E con otra que exige simultáneamente el cumplimiento de E, F y G. Supongamos que Fulano consulta al médico por una angina de pecho, síntoma ante el cual el facultativo debe evaluar dos hipótesis: la primera, si es un dolor orgánico o meramente emocional; la segunda, si la causa orgánica es de orden cardíaco. Se supone que son menos los indicios que permiten corroborar la primera hipótesis que los que dependen de la segunda. Por lo tanto, dirá Popper, la primera hipótesis es, a priori, más probable que la segunda.
El asunto también es complicado cuando se trata de refutar una hipótesis. Ya sabemos que el propio Popper instaló el concepto de “falsación” para tomar distancia de las posturas neopositivistas. Pero sucede que hay dos versiones de este asunto. Se puede asumir que si el fenómeno E que la hipótesis predice no se cumple, la hipótesis queda refutada. A saber
Si H entonces E
No E
Luego, no H
A este esquema se lo denomina, no sin razón, “falsacionismo ingenuo”, porque puede haber alguna hipótesis complementaria, o “hipótesis ad hoc”, que sirva para “proteger”, por decirlo así, a la hipótesis principal. En general, tal como lo han destacado Quine y Duhem, en cualquier experimento se ponen en tela de juicio varias hipótesis concurrentes H1, H2, ... Hn (e incluso varios supuestos acerca de las condiciones iniciales, como el buen funcionamiento de los instrumentos y la correcta lectura de sus registros). En consecuencia, si el experimento no confirma la presencia de E sabemos que hay al menos una hipótesis que no se verifica, pero no sabemos exactamente cuál es
Si (H1, H2, ... Hn) entonces E
No E
Luego no (H1, H2, ... Hn)
Y este último enunciado es lógicamente equivalente a
O bien no H1, o bien no H2, ... o bien no Hn
La controversia que se plantea a partir del esquema MHD irá dejando lugar a otra todavía más intrincada. En efecto, el MHD supone una concepción relativamente simplificada del mundo de los fenómenos físicos, donde es posible identificar un número finito de variables macroscópicas de comportamiento determinista y someterlas a observación controlada. Pero a lo largo del siglo XIX el avance de la física conduce a un escenario mucho más lábil y escurridizo. Los nuevos capítulos sobre dinámica del calor y de los fluidos exigen reemplazar el modelo corpuscular de la mecánica de Newton por un modelo estadístico, donde la imposibilidad de monitorear el estado de un sistema a partir de la suma de los estados de sus unidades componentes (porque son incontables y en extremo pequeñas) exige adoptar el supuesto de una tendencia estadística sobre la base de probabilidades a priori. De aquí surgen ideas muy características, como la de entropía. Su estricta justificación es bastante complicada, pero intuitivamente nos quiere decir que todo sistema cerrado (sin pérdida ni ganancia de energía o de información) tiende a evolucionar hacia el estado más probable, que es el de máximo desorden. Para poner un ejemplo muy simplificado, imaginemos un recipiente completamente hermético, aislado y vacío, al que dividiremos convencionalmente en cinco sectores iguales. Supongamos que el sector del medio está separado de los demás por dos tabiques móviles, y en su interior hay un cierto número de partículas de gas, pongamos por comodidad 84. Luego quitamos los tabiques para que esas particulas vaguen libremente por el interior del recinto. Si se asume que cualquier trayectoria de una partícula dada es igualmente probable a cualquier otra entonces al cabo de un cierto tiempo t1 un tercio de esas partículas habrán pasado al sector de la izquierda, un tercio al de la derecha y un tercio habrá permanecido en el mismo sector. Si repetimos el razonamiento para sucesivos intervalos de tiempo, llegaremos a una tabla como la siguiente
T0 - - -----84
T1 ---- 27 27 27
T2 --9 18 27 18 -9
T3 12 18 24 18 12
T4 14 18 20 18 14
T5 15 18 18 18 15
T6 16 17 18 17 16
Si continuamos la tabulación, comprobaremos que a partir de un cierto momento el número de partículas tiende a distribuirse en modo uniforme por todo el recipiente, y ello bajo consideraciones meramente estadísticas. Este tipo de análisis encontrará una forma más sofisticada a partir del desarrollo de la mecánica cuántica. Uno de los formalismos matemáticos que se proponen para la descripción de la dinámica de partículas es el de la ecuación de onda Ψ de E.Schrödinger, en la cual los parámetros del sistema se definen en términos probabilísticos.
Varios de los científicos que trabajaban en los campos revolucionarios de la física cuántica y relativista influyeron de manera decisiva e incluso formaron parte del Círculo de Viena, fundado oficialmente en 1929 y al que también se conoce como neopositivismo o empirismo lógico. Esta última denominación obedece al propósito manifiesto de superar las limitaciones ingenuas del positivismo original introduciendo pautas estrictas de control en el lenguaje de la ciencia, a partir de estructuras discursivas rigurosas inspiradas en la lógica matemática. Ya hemos señalado las reservas de Popper con respecto al inductivismo y al fundamento de la probabilidad de las hipótesis. En el fondo, su planteo es el de la mayoría de los epistemólogos que en la década del 30 se zambulleron en la problemática de la fundamentación lógica de la ciencia, dando origen al tercer concepto de probabilidad (además del gnoseológico y el ontológico anteriormente definidos) que es el de probabilidad lógica.
Ya en 1878 Ch.Pierce definía el asunto como el problema de hallar el valor, numérico en lo posible, de la probabilidad de una conclusión dada la probabilidad de sus premisas.Tal como aparece enunciado por Carnap, se trata de establecer un método que permita asignar valor numérico a una “función de confirmación”
C (H, e)
teniendo en cuenta una cierta hipótesis H y el conjunto e de evidencias disponibles. Una de las herramientas más utilizadas en este sentido, ya desde el siglo XVIII, es el famoso teorema de Bayes, que se aplica para calcular la probabilidad de un determinado suceso bajo el supuesto de que se haya producido otro. El esquema bayesiano se puede trasladar al terreno epistemológico del siguiente modo: la probabilidad de que una cualquiera de las diferentes hipótesis H1, H2, ... Hn sea la verdadera explicación de un hecho E, suponiendo que sean mutuamente excluyentes y que E haya efectivamente sucedido, será
Igualmente podría calcularse la probabilidad de que el fenómeno En se siga de H sabiendo que En-1 se sigue de H. Un ejemplo frecuente de aplicación del teorema es cuando se busca determinar la probabilidad de un condicional en función de la probabilidad de su converso. Así, digamos, la probabilidad de que si alguien contrae SIDA haya sido infiel a su pareja es igual a la probabilidad de que si es infiel se contagie de SIDA, multiplicada por la probabilidad de que sea infiel, y dividida por la probabilidad de que se infecte (por cualquier causa). Es un lío: mejor quedémonos en casa.
El teorema de Bayes ha estado y sigue estando en la picota porque tiene algunos aspectos vulnerables o restrictivos, que no viene al caso detallar. Uno de los primeros en desarrollar el concepto lógico de probabilidad, entendida no como expectativa de sucesos sino como una relación entre enunciados, fue ni más ni menos que J.Keynes, un célebre economista cuyas acciones parecen haber vuelto a cotizar fuerte en estos tiempos de fatiga neoliberal. H.Reichenbach, por su parte, critica el tratamiento racionalista del problema, porque introduce el “principio de indiferencia” (o sea la equiprobabilidad de todos los casos posibles) como un juicio sintético a priori e injustificado. A cambio propone definir la probabilidad como límite de la frecuencia cuando el número de casos posibles tiende a infinito, con lo cual un determinado valor p de probabilidad es “tanto más probable” (perdón por el juego de palabras, pero aquí lo probable no es el hecho o la hipótesis sino el enunciado acerca de esa probabilidad en función de sus antecedentes) cuanto más aumenta el número de observaciones. Incluso para los llamados “casos aislados” se aplica el mismo criterio, tomándolos como “el próximo caso” dentro de la clase de los que ya se produjeron en condiciones similares. Aquí vemos una versión algo más refinada del planteo tradicional del empirismo, al que se le reprocha la petición de principio en el recurso a la inducción para justificar la inducción (paso al límite). Pero Reichenbach se defiende diciendo que la necesidad de justificación analítica es un prejuicio. Justamente la inducción se caracteriza por ser un modo de razonamiento que no necesita tal justificación, sino que vale como supuesto. Con otras palabras, como la Naturaleza nos ha condenado a vivir en estado de conjetura permanente, aplicar la inducción es sencillamente lo mejor que podemos hacer (sic).
Carnap no se resigna y propugna un enfoque estrictamente analítico de la probabilidad lógica, lo cual lo conduce a un esfuerzo denodado por encontrar el formalismo adecuado para cuantificar la relación entre premisas y conclusión, partiendo de que en un esquema deductivo la probabilidad de la conclusión será siempre igual a 1 (conclusión válida) o a 0 (conclusión inválida). Si bien el desarrollo de su investigación lo pone muy lejos de nuestro modesto alcance, podemos aprovechar las accesibles consideraciones que aparecen en su Fundamentación lógica de la física. Supongamos primero el caso de un silogismo en BARBARA, donde una proposición singular se infiere como caso de otra universal, a saber
1. (x) (Px Qx)
2. Pa
3. luego, Qa
Aquí se da una deducción estricta, y dado que la probabilidad de Q con respecto a P es p = 1 (porque se afirma que para todo x si es P entonces es Q) la conclusión será igualmente cierta (o sea que p(Qa)=1).
Veamos ahora el caso en que el valor de la probabilidad del predicado con respecto al sujeto es menor que 1
1. p (Q, P) = 0,8
2. Pa
3. luego, Qa
Lo que puede decirse en este caso es que, en términos metalingüísticos, la probabilidad del enunciado (3) de acuerdo a (1) y (2) es de 0,8. En otros términos, la probabilidad de Q con respecto a P es una probabilidad estadística, mientras que la de (3) es puramente lógica.
Ahora bien, si el enunciado (1) expresa el valor de p para toda la población, y (2) se refiere a un caso a o a una muestra, la inferencia es inductiva pero directa (o, por así decir, cuasi deductiva). Pero si (1) se refiere a una muestra, de la cual se pretende pasar a toda la población, o a otra muestra, o a otro caso futuro, la estimación final de la probabilidad de (3) dependerá del tamaño de la muestra.
Otro importante autor que ha trabajado el tema de la probabilidad lógica es C.Hempel. En su obra La explicación científica ilustra las dificultades que apareja el intento de formalizar conclusiones estadísticas por vía del silogismo. Así, por ejemplo, si se toma la siguiente forma de razonamiento:
1) a es F
2) la proporción de F que son G es igual a q
3) luego, la probabilidad de que a sea G es igual a q
es posible llegar a conclusiones mutuamente contradictorias, por lo cual se trata de una forma inconsistente. Si suponemos que a es un filósofo de Texas, y hacemos que G signifique “ser millonario”, entonces resultará que a casi seguro es millonario, porque casi todos los texanos lo son, y a casi seguro no es millonario porque casi ningún filósofo lo es. La aparente paradoja que aquí tenemos se debe justamente a la confusión entre la probabilidad estadística de que un texano o un filósofo sea millonario y la probabilidad lógica del enunciado de la conclusión con respecto a las premisas.
Al cabo de este ágil recorrido por las voces que se han ocupado del asunto sumaremos la nuestra con temor y temblor. Apenas si queremos destacar, como nos parece ser obligación de buen filósofo, el trasfondo realista que se esconde bajo el rumoreo de la discusión. La naturaleza, decían los antiguos, es una determinatio ad unum, tiene un inequívoco carácter tendencial. Hay un modo definido de obrar que es propio de cada cosa. Sin embargo, a la luz de sus efectos esa determinación aparece en muchos casos relativizada, y sólo se verifica ut in pluribus, en la mayoría de los casos. Y la razón profunda de ello está en la composición acto potencia a nivel substancial, en la cual la materia prima actualizada por una forma permanece abierta a las demás haciendo al compuesto intrínsecamente contingente en su ser y en su dinamismo. No parece fuera de lugar atribuir a la probabilidad, en su expresión matemática, la manifestación mensurable de un estado metafísico que la trasciende pero a la vez la incluye. No queremos contarnos entre los profetas del cartesianismo pero tampoco entre quienes los demonizan. La cantidad es un accidente real de los cuerpos, intrínseco a ellos y razón de numerosas propiedades. Resulta entonces natural que la contingencia y variabilidad de las cosas tenga un rostro cuantitativo. Más aún, aunque parezca paradójico, la probabilidad misma se expresa conforme a leyes que no son en sí probables, sino ciertas. Es de absoluta necesidad que, a medida que el número de tiradas aumenta, el número de caras obtenido se aproxime más y más a la mitad de aquél. La tendencia será tanto más firme cuanto más lo sea su principio, que no es otro que la forma simétrica y equilibrada de la moneda. Hablando en general, existe un teorema matemático, popularmente identificado como ley de los grandes números, según el cual la probabilidad a priori, o frecuencia absoluta, y la probabilidad a posteriori, o frecuencia relativa, tienden a igualarse a medida que aumenta el número de casos, de suerte que el margen de discrepancia se hace proporcional al inverso de la raíz cuadrada de dicho número: en 100 casos será de 1/10, pero en 10.000 casos de 1/100, etc.
El desarrollo analítico de esta función de probabilidad se conoce como función de distribución normal, que se representa mediante la célebre campana de Gauss. Justamente la mayor concentración de casos en torno al valor más probable (la “cúspide” de la campana) expresa analógicamente esa determinatio de la naturaleza, radicada en la forma. Por otra parte, la creciente afirmación de la tendencia en proporción al número de casos insinúa aquella intuición aristotélica de que la necesidad radica en la especie y no en los individuos. Es posible verificar en este sentido una progresiva distorsión de esa curva normal a medida que la aplicamos a las especies superiores de la naturaleza, donde la perfección de la forma significa a la vez mayor espontaneidad e “individualidad”. De cualquier manera, merece observarse cómo la confiabilidad de esta tendencia permite curiosamente obtener en algunos casos resultados más exactos aplicando el cálculo de probabilidades que recurriendo al determinismo del esquema mecanicista.
Seguramente nuestra propia condición de seres materiales y viandantes tampoco es ajena al entrevero de la probabilidad. En el fondo, no son muchas las cosas de las que podemos estar completamente seguros, en comparación con las demás. Es de presumir que los antiguos no considerarían hasta tal extremo las limitaciones que imponen a la vez el objeto y el sujeto, pero es parte del espíritu de aquellas tradiciones la aceptación de un orden de cosas donde el presente sorprende a cada paso en dirección a un futuro ya escrito.
Oscar H.Beltrán
fuente: http://www.cifiba.com.ar/escrito/reflexiones-filosoficas-sobre-la-nocion-de-probabilidad
No hay comentarios:
Publicar un comentario