Ir al contenido principal

Enfoques filosóficos para evaluar teorías científicas




Leidy Pico Martínez

En algunas ocasiones las personas que están inmersas en el campo científico, así como las que solo son espectadores o receptores del conocimiento, caen en la perspectiva errónea de visualizar a la ciencia como un saber irrefutable. El ideal de obtener resultados y alcanzar un objetivo determinado, puede llevar a crear afirmaciones que carecen de pruebas verificables o que no son contrastadas. Dado lo anterior, creo necesario llevar nuestro razonamiento hacia un pensamiento más crítico y escéptico con respecto al ámbito científico. Sober en el 2008, nos dice que la ciencia puede verse como una empresa falsable, argumentado que las evidencia que los científicos tienen para sus teorías no son suficientes, es decir, las evidencias no implican que nuestras teorías sean ciertas. Lo anterior, se puede ejemplificar si pensamos en teorías grandes o generales, en las que a veces la evidencia que aplica sobre ellas es muy pequeña, es decir, nuestras observaciones están limitadas por una pequeña porción de espacio, y lo que concluimos a partir de lo que se observa en un lugar fijo, no necesariamente será aplicable a otros lugares o destinos. En este caso, la evidencia no proporciona certeza sobre que teorías sean totalmente verdaderas, dando así lugar a aceptar el hecho que la ciencia es falible.

Pero bueno, si solo las evidencias u observaciones no son suficientes para evaluar afirmaciones o teorías científicas, ¿cómo sabe la ciencia, cuales teorías son probablemente ciertas y cuáles no? Los científicos se han apoyado en modelos probabilísticos que los estadísticos han desarrollado, para poder ajustar sus teorías a un modelo de razonamiento. Entre estos resaltan dos corrientes estadísticas: Bayesianos y Frecuentistas. La probabilidad bayesiana es un concepto dicotómico que busca explicar que teorías son más y menos probables, basándose en el conocimiento previo (priori). Es decir, la interpretación bayesiana, define la confirmación como un aumento de la probabilidad y la “desconfirmación” como un descenso de la probabilidad. Por otro lado, los frecuentistas, estudian probabilidades reales, basándose en ensayos de prueba – error, es decir, predicen en qué medida es probable o “creíble” que ciertos eventos ocurran, tomando como referencia patrones anteriormente observados, que en términos matemáticos serían, las frecuencias relativas.

Cuando se trata de teorías biológicas, se podría decir que ambas aproximaciones son considerables, según el pensamiento de quien las evalué. Es por esta razón, que no pude evitar pensar en el hecho de que, si en algún momento podrían ser complementarias o converger en cierto punto, miremos el siguiente ejemplo: al realizar un experimento repetidas veces, hasta llegar a un resultado común, y asignar la probabilidad según el patrón encontrado (Frecuentista), ¿Este resultado podría considerarse como un prior o evidencia previa para asignar una probabilidad según el método bayesiano? Para este punto, creería que podrían ser complementarias, ya que el método bayesiano también hace uso de la información contenida en la muestra,  que en nuestro caso podría ser, la tendencia que históricamente sigue el conjunto de datos dado los experimentos; la diferencia subyace en que las probabilidades asignadas al momento de tomar una decisión, no dependerán netamente de esta información “existente”, sino que también, incorporará información externa a nuestro experimento (probabilidad subjetiva) (Sober, 2015).

A partir de las estimaciones anteriores, ¿es factible pensar que las teorías, que rigen la ciencia en el mundo, tienen una probabilidad de 0.25, 0.75, 0.95… etc, de que se cumplan? ¿con estos enfoques podríamos saber que teoría es netamente cierta o falsa? Estas preguntas podríamos abordarlas refiriéndonos al filósofo Popper (1902 – 1994), quien fue precisamente un crítico del Bayesianismo, al estar vehemente en desacuerdo con el enfoque que tenían estos sobre los objetivos de la ciencia. Para Popper, la ciencia no debería estar en el negocio de encontrar teorías que sean probablemente ciertas, por el contrario, él sostuvo que la ciencia debería aspirar a formular conjeturas audaces y luego someter esas conjeturas a una prueba empírica rigurosa; después de pasar esta prueba rigurosa, una teoría podría probarse como falsa (Sober 2015). A partir de este pensamiento surge el llamado “Falsacionismo de Popper”, en el que una teoría puede ser constatada al intentar refutarla, si no se logra refutar, dicha teoría será corroborada, pudiendo ser aceptada por un tiempo, pero no será verificada, es decir, nunca podrá probarse como verdadera. Con lo anterior, queda abierta la pregunta ¿será posible hacer afirmaciones universales con respecto a un tema o teoría específica, a partir de las experiencias o de las probabilidades?

Para terminar, es importante reflexionar en el hecho que, generalmente cuando tenemos un problema biológico por resolver, utilizamos este tipo de herramientas o modelos probabilísticos para encontrar una respuesta y llegar a una conclusión determinada, pero rara vez nos detenemos a pensar en la base o trasfondo filosófico, que en últimas enriquece nuestras discusiones y nos conduce hacia pensamiento más críticos y racionales.  

Sober, E. (2008) Evidence and evolution: The logic behind the science. Cambridge University Press.

Sober, E. (2015) Ockham’s Razors. Cambridge University Press

Comentarios

Entradas más populares de este blog

ENFOQUE GENERAL SOBRE PARSIMONIA Y SUS DIFERENTES MÉTODOS

Paulin Polanco Fontalvo La parsimonia es una estrategia de investigación ampliamente utilizada para analizar y explicar hipótesis desde un punto de vista más “sencillo”. Esta argumentación tiene bases históricas que van desde Copérnico, cuando sostuvo que la teoría heliocéntrica era superior a la geocéntrica dada su simplicidad, pasando por las de Darwin y Lamarck, hasta las investigaciones que se desarrollan hoy. Las ciencias biológicas no son ajenas en la aplicación de la parsimonia para explicar relaciones filogenéticas entre especies. Por esto, mediante la observación de parámetros tanto morfológicos como moleculares, diferentes autores han sugerido varios tipos de parsimonia de acuerdo a los tipos de caracteres evaluados. La argumentación Hennigiana aplicada por Hennig (1966), es un método manual que considera la información suministrada por los caracteres para la construcción de un cladograma (en cada uno de los casos) que permita seleccionar el cladograma que presente e...

Reconstrucción Filogenética a Partir de Máxima Verosimilitud

Leidy Pico Martínez Para los análisis de reconstrucción filogenética, encontrados dos métodos principales, los primeros utilizan distancias genéticas, como Neighbor-Joining (NJ) y Mínima Evolución, y los basados en caracteres, como es el caso de Máxima Parsimonia (MP), Máxima Verosimilitud (ML por sus siglas en inglés “Máximum Likelihood) e inferencia Bayesiana (IB). En los métodos basados en caracteres, ML y IB, se caracterizan por ser métodos probabilísticos y a diferencia de MP, tratan la inferencia filogenética como un problema estadístico, en el cual, se utilizan modelos de evolución molecular para llevar a cabo el cálculo de probabilidades ( Swofford et al 1996). El principio de Máxima Verosimilitud ha sido utilizando con mayor frecuencia por los biólogos sistemáticos para inferir filogenias. Este método fue desarrollado por Ronald Fisher y es definido como La probabilidad de la observación de datos cuando un parámetro es dado (Queiroz & Poe 2001). ¿en qué consisten ...

Máxima Parsimonia

Leidy Rocío Pico M. A la hora de hablar de análisis filogenético existen diversos métodos y algoritmos computacionales, con los cuales podemos resolver una hipótesis evolutiva de un grupo específico, mediante la reconstrucción de un árbol filogenético; La Máxima Parsimonia fue uno de los primeros métodos y uno de los más utilizados para inferir filogenias (Falsenstein 2004). ¿En que consiste este método? En máxima parsimonia se busca la identificación de un árbol filogenético que implique el menor número de cambios evolutivos (transformación de un estado de carácter a otro) que se requieren para explicar determinada matriz de caracteres (Farris, 1970). La definición de este método esta basado en un trasfondo filosófico tomado de la argumentación filosófica de la navaja de Ockham, en la que se defiende que: cuando dos hipótesis proveen explicaciones igualmente válidas para un fenómeno determinado, debería elegirse siempre la más simple, posición referida a menudo como (Salemi et al...