Por Jesús Mosterín (Revista Filosofía Hoy)
La noción del saber es más estricta y estrecha que la del mero pensar u opinar.
La palabra ‘ciencia’ es un calco del latín scientia, derivado del verbo
scire, saber. Casi todos (excepto algunos primitivos y postmodernos)
preferimos el saber. Tan grande es su prestigio que los que predican
algo suelen disfrazarlo de ciencia. Los predicadores por antonomasia, es
decir, los dominicos, expresan sus ideas teológicas en una revista
titulada La ciencia tomista. En las facultades de Filosofía de la Unión
Soviética había siempre un departamento de Comunismo Científico. Incluso
los charlatanes y nigromantes pretenden practicar las ciencias ocultas:
ocultas, sí, pero ciencias.
La filosofía surgió en Grecia con el intento de separar el grano de la
paja en el orden cognitivo, es decir, con la distinción entre
conocimiento sólido (episteme) y opinión infundada (doxa). Esta
preocupación atraviesa la historia de la filosofía y en cierto modo
culmina con las discusiones de los años 30 del siglo XX en torno al
llamado problema de la demarcación. Demarcar un terreno es señalar sus
lindes o confines, trazar la frontera que lo separa de otros. Cuando los
filósofos de la ciencia hablan de ello, se refieren a la búsqueda de un
criterio que sirva para separar la ciencia fiable de la mera
especulación. Los positivistas lógicos del Círculo de Viena enfatizaron
el contraste entre la ciencia rigurosa, fiable y empíricamente
contrastada y los mitos, especulaciones metafísicas, ideologías y meras
opiniones arbitrarias. Como moraleja, trataban de acercar la filosofía a
la ciencia sólida y alejarla de la especulación quimérica.
Wittgenstein, Carnap, Ayer y otros propusieron el criterio verificacionista de demarcación: solo
los enunciados o teorías que son potencialmente verificables serían
enunciados científicos (o con sentido). Pero, como señaló Popper, este
criterio no funciona, pues las leyes y teorías de la ciencia son
enunciados generales y, por tanto, no son verificables; sí son
refutables, pues basta con descubrir un caso en que no se cumplen para
quedar falsadas. Por eso Popper propuso el criterio falsacionista de
demarcación: solo los enunciados o teorías refutables serían
científicos. Tampoco funciona, pues la ciencia contiene muchos
enunciados existenciales (“hay una partícula con tales propiedades…”)
verificables pero no refutables. Alguien propuso que los enunciados
fueran verificables o refutables, pero ni eso lo cumplen los enunciados
científicos complejos, en cuya forma lógica se alternan cuantificadores
existenciales y universales. Al final queda la exigencia de algún tipo
de contrastación con la realidad empírica, a la que siempre se concede
la última palabra.
Los neopositivistas pensaban en no-ciencias como la religión, la
astrología, el psicoanálisis, el marxismo o la metafísica. Pero hoy la
frontera de la fiabilidad epistemológica no pasa solo por el borde entre
ciencia y metafísica, sino también dentro del dominio de la ciencia (en
sentido sociológico). Algunas cosas que dicen los científicos las
sabemos, pues se basan en datos y teorías científicas bien contrastadas.
Pero a menudo se arriesgan a proponer teorías especulativas con poco o
nulo apoyo empírico que, aunque fascinantes y necesarias como semilleros
del progreso científico a largo plazo, son poco fiables y no forman
parte aún de la ciencia en sentido fuerte.
En cada área de la física, la situación teórica actual se caracteriza por la interacción
entre el modelo estándar y la nube de hipótesis especulativas que lo
rodea. El modelo estándar (por ejemplo, el de la física de partículas o
el de la cosmología del big bang) está constituido por una serie de
teorías bien establecidas y consistentes entre sí que, en conjunto,
permiten explicar gran parte de los datos observados, así como predecir
resultados empíricos antes no detectados. Y ningún dato conocido
contradice las consecuencias del modelo estándar. Este subyace a la
enseñanza universitaria, a la investigación científica y a las
aplicaciones tecnológicas.
Un modelo de algo es una máquina para generar respuestas a las preguntas
que nos hacemos acerca de ese algo. El modelo estándar determina las
respuestas que da la ciencia a esas preguntas en un momento dado. Fuera
del modelo estándar, los científicos imaginativos proponen nuevas
teorías especulativas e hipótesis audaces (como la teoría de
supercuerdas, la inflación eterna o el multiverso) pero ayunas de
contrastación y con frecuencia incompatibles entre sí. Sus promotores
las desarrollan y tratan de arrancarles predicciones contrastables. Si
tienen éxito, la teoría pasa a incorporarse al modelo estándar, que
sufre los reajustes necesarios y genera los correspondientes cambios en
los libros de texto.
Las especulaciones juegan un papel necesario en la dinámica científica,
como posibles locomotoras del progreso. No hay que despreciarlas, pero
tampoco hay que confundirlas con los resultados bien establecidos que
conforman el modelo estándar y que son los únicos que merecen ser
incorporados a nuestra cosmovisión racional.
No hay comentarios:
Publicar un comentario