“We cannot distinguish what is real about the universe without a theory...”
Stephen Hawking (1993), Black Holes and Baby Universes and Other Essays, Londres: Bantam Books
Stephen Hawking (1993), Black Holes and Baby Universes and Other Essays, Londres: Bantam Books
La base del método científico es el desarrollo de modelos intelectuales o teorías cuyas predicciones son luego sujetas a evaluación científica. En rigor de verdad, el valor real de estos modelos radica en las predicciones que permiten hacer. Si estos modelos son o no son ‘verdaderos’ no es crucial, ya que solo poniendo a prueba sus predicciones es que puede exponerse su fraudulencia. Aún así, una teoría puede resultar errónea y al mismo tiempo haber sido muy útil al estimular nuevas investigaciones. De hecho, muchas de las mejores teorías son autodestructivas, al provocar nuevos interrogantes y al conducir a nuevos hechos que ellas mismas no pueden explicar. Las únicas teorías inútiles serían aquellas que no pueden ser puestas a prueba. Puesto así, el quid de tales modelos sería el intento por refutar sus predicciones. La refutación exitosa forzaría a la revisión de cada modelo. Luego, el modelo revisado permanecería como la ‘verdad’ hasta que sus predicciones sean, a su tiempo, refutadas. Así, todo modelo debería persistir solo mientras pueda resistir su refutación.
Un modelo o teoría sería, por ejemplo, la ley de gravitación universal, la cual establece que dos objetos se atraen con una fuerza (la gravedad) que es directamente proporcional al producto de sus respectivas masas e inversamente proporcional al cuadrado de la distancia que los separa. Este modelo es uno de los que nos permite entender la dinámica del universo. Lo comprobamos a diario: la gravedad se verifica experimentalmente. No obstante, estos modelos o teorías encierran una paradoja: no podemos distinguir lo que es real sin una teoría, pero no tiene sentido preguntarse si una teoría se corresponde con la ‘realidad’, porque no conocemos lo que es la realidad independientemente de una teoría. Lo único relevante (y útil) de un modelo es que sus predicciones pueden ponerse a prueba y comprobarse, o bien refutarse.
En el campo de la fisiología del ejercicio, por ejemplo, existe un modelo para explicar algunos de los factores que determinan el desempeño atlético: el modelo cardiovascular-anaeróbico. Según este modelo, el sistema cardiovascular tiene una capacidad limitada de proporcionar oxígeno a los músculos activos, especialmente durante un ejercicio de intensidad máxima. Como resultado de esta limitación funcional, durante el ejercicio vigoroso se alcanza un punto en el cual la demanda de oxígeno de los músculos supera la capacidad de provisión, causando el desarrollo de ‘hipoxia’ (concentración de oxígeno reducida) o incluso ‘anaerobiosis’ (ausencia de oxígeno) en los músculos esqueléticos. Esta hipoxia estimula un aumento de la producción de ácido láctico (lactato), a medida que los músculos activos comienzan a producir una creciente proporción de su energía a través de la ‘glicólisis anaeróbica’ (degradación de glucógeno en ausencia de oxígeno). La acidificación del medio intracelular resultante inhibe la acción de las encimas que producen el mecanismo de contracción del músculo y el atleta se ve obligado a bajar el ritmo o detenerse.
Consecuentemente, el modelo cardiovascular-anaeróbico predice que el factor más importante que determina el desempeño atlético es la capacidad del cuerpo humano para transportar y utilizar oxígeno. Según este modelo, el entrenamiento incrementa la ‘aptitud cardiovascular’, especialmente aumentando la capacidad máxima del organismo para consumir oxígeno (VO2max). Este efecto resulta de una capacidad acrecentada del corazón para bombear sangre oxigenada (gasto cardíaco) y de una capacidad mejorada de los músculos para consumir oxígeno. Estas adaptaciones retrasan la aparición de la anaerobiosis muscular durante el ejercicio intenso, reduciendo por ende la concentración de lactato en la sangre y en los músculos a intensidades por encima del denominado ‘umbral anaeróbico’ y permitiendo así que los músculos activos continúen contrayéndose por más tiempo, a mayores intensidades, antes de que se manifieste la fatiga. Asimismo, estos cambios incrementan la capacidad de los músculos para utilizar grasas como combustible durante el ejercicio, mejorando así la resistencia general.
La mayoría de los planes de entrenamiento para mejorar el desempeño atlético se diseñan en base a este modelo. Pero tal como se había mencionado, todo modelo útil es susceptible de ser puesto a prueba. Ahora bien, ¿qué sucedería si se pudiese refutar este modelo, si se pudiese demostrar que no se cumple en todos los casos? Es más, ¿qué sucedería si se pudiese demostrar que la acidosis láctica no solo no es culpable de la fatiga, sino que es benigna y juega un papel fundamental en el mecanismo de contracción muscular? ¿Qué sucedería si los cambios fisiológicos descriptos más arriba no estuviesen causalmente relacionados con una mejora en el desempeño, o un retraso en la aparición de la fatiga, sino que ocurren en paralelo con otras adaptaciones que son las ‘verdaderas’ causas de la mejora del desempeño atlético?...
1 comentario:
Ese es precisamente el quid de la cuestión. Sabemos muy poco de nosostros mismos y de nuestro mundo. Caso contrario, ya habríamos encontrado una cura para el cancer y el HIV.
No importa si una teoría es "real", solo importa que nos permita explicar el funcionamiento de un sistema y predecir su comportamiento ante distintas situaciones.
La teoría de que la Tierra era plana era indiscutible y, sin embargo, vino Colón viajó hacia el poniente y, al no caerse del mundo, rompió con esa teoría.
Publicar un comentario