Índice
Portadilla
Legales
Palabras preliminares
I. Introducción
II. Las aproximaciones al mundo externo y el método científico
III. Ciencia pura, ciencia aplicada, tecnología y el problema de la demarcación
IV. La naturaleza de las teorías y de las leyes físicas
V. El marco espacial y temporal
VI. Acción a distancia y localidad espacio-temporal
VII. Campos, energía y momento
VIII. Termodinámica y la “flecha del tiempo”
IX. Computadoras, conciencia e inteligencia artificial
X. Observaciones y mecánica cuántica
Bibliografía
Introducción a la filosofía de la ciencia y la
tecnología
Luis A. de Vedia
Vedia, Luis A. de
Introducción a la filosofía de la ciencia y la tecnología / Luis A. de Vedia. - 1a ed. . - Ciudad Autónoma de Buenos
Aires : Eudeba, 2015.
Libro digital, EP UB
Archivo Digital: descarga
ISBN 978-950-23-4636-6
1. Filosofía de la Ciencia. I. Título.
CDD 501
COMITÉ EDITORIAL
Ing. Luis A. De Vedia / Dra. Silvia E. Jacobo (coordinadora) / Dr. Miguel Ángel Laborde / Ing. Eduardo Núñez / Ing.
Jorge P erri / Lic. Gerardo Quintana /Ing. Horacio Rojo / Dra. Marta Rosen / Ing. Valentino Trainotti.
Eudeba
Universidad de Buenos Aires
1º edición: diciembre de 2015
© 2015
Editorial Universitaria de Buenos Aires
Sociedad de Economía Mixta
Av. Rivadavia 1571/73 (1033) Ciudad de Buenos Aires
Tel: 4383-8025 / Fax: 4383-2202
www.eudeba.com.ar
Diseño de tapa: Daniela Noceti
Composición general: Eudeba
Digitalización: P royecto451
PALABRAS PRELIMINARES
Durante los años 1995 y 1996 tuve el privilegio y la satisfacción de ser invitado a desarrollar
un curso de Introducción a la Filosofía de la Ciencia y la Tecnología, destinado a alumnos de
grado y posgrado en la Facultad de Ingeniería de la Universidad Nacional de M ar del Plata. Este
libro está basado en las notas originales que recogían los temas tratados en dicho curso, pero han
sido corregidas y ampliadas con el agregado de varios temas provenientes de la física y la
tecnología que plantean aún problemas filosóficos y de interpretación, con la esperanza de que
puedan ser de utilidad a docentes y estudiantes interesados en los mismos.
En la redacción del texto no se ha intentado reducir excesivamente el formalismo matemático
en aquellos casos en los que se ha considerado que el mismo era necesario para una comprensión
adecuada del tema analizado. Por este motivo, el libro está esencialmente orientado a lectores con
cierta formación en física y matemática, como pueden serlo los ingenieros o los físicos. De todos
modos, el texto puede ser de utilidad también para aquellos que, sin tener esta formación, estén
dispuestos a hacer un esfuerzo por seguir los argumentos principales sin necesidad de entrar en
el detalle matemático formal. Por este motivo, se han identificado en el índice con un asterisco
(*) aquellos parágrafos que pueden ser omitidos sin comprometer excesivamente la comprensión
de los argumentos filosóficos por quienes no se sientan cómodos con el formalismo matemático,
o bien por aquellos que, estando familiarizados con este formalismo, no tengan necesidad de
transitarlo nuevamente. Se incluye una extensa y actualizada bibliografía sobre los distintos
temas tratados, que no sólo ha sido utilizada para nutrir el texto de este libro sino que pueden
constituir una guía útil para quienes deseen ampliar o complementar esos temas.
Quiero destacar la confianza depositada en mí por las autoridades de la Facultad de
Ingeniería de la Universidad Nacional de M ar del Plata, que aceptaron que alguien formado en la
“ciencias duras”, específicamente en la ingeniería de materiales, y sin títulos académicos en
filosofía, pudiese brindarles a los ingenieros y físicos que asistieron al curso, una visión un poco
diferente de la que hubiesen obtenido de un filósofo de tiempo completo. M i reconocimiento
entonces a las autoridades y docentes de esa facultad por la confianza y el apoyo brindado, en
especial al entonces Licenciado en Física y hoy Dr. en Ingeniería Hugo López M ontenegro, que
coordinó el curso y por su inestimable colaboración en el desarrollo del mismo. En oportunidad
de esta primera edición, debo extender mi agradecimiento a la Secretaría de Investigación y
Doctorado de la Facultad de Ingeniería de la Universidad de Buenos Aires y a su Consejo
Directivo por haber aprobado el dictado de este nuevo curso destinado a los alumnos de
doctorado de esta facultad. La revisión del original de un libro es siempre una tarea pesada. Por
esta razón quiero expresar mi agradecimiento al Dr. en Física Alberto de la Torre, estudioso de la
Filosofía de la Física en particular de la M ecánica Cuántica, por haber realizado tal tarea y por
haberme señalado errores y efectuado sugerencias que he procurado incorporar. Vaya también mi
reconocimiento a la Editorial Universitaria de Buenos Aires (EUDEBA) por la edición del libro,
tarea ciertamente dificultosa habida cuenta de su contenido gráfico y matemático. Como siempre,
mi agradecimiento a los asistentes de los cursos, alumnos y graduados de la Universidad de M ar
del Plata y de la Universidad de Buenos Aires, cuyo aliento y entusiasmo han constituido
siempre para mí el mejor de los estímulos.
Luis A. de Vedia
Mar del Plata, abril de 1997
Buenos Aires, abril de 2012
I.
INTRODUCCIÓN
I.1. Consideraciones preliminares
Si uno analiza en estos comienzos del siglo XXI el mundo que nos rodea, es indudable que
no resulta fácil encontrar motivos para un optimismo a ultranza. Sin embargo, más allá de los
problemas que nos abruman en la vida cotidiana hay un mundo de reflexión, de creación
espiritual y material que pasa hoy por uno de sus momentos más notables: nos referimos al
mundo de la ciencia y sus múltiples conexiones con la tecnología, que es el ámbito donde se
desarrolla actualmente una de las aventuras más apasionantes que haya emprendido el intelecto
humano.
Hoy, aún más que en el pasado, la ciencia y la tecnología constituyen una trama compleja en
la que se pone claramente de manifiesto la unidad esencial del conocimiento universal. Llegar a
percibir esta unidad puede producir en nosotros un placer estético comparable al que produce la
apreciación de una obra de arte. De hecho, uno de los aspectos más notables del discurrir
histórico y filosófico es la apreciación de la continuidad y consistencia en la naturaleza de los
problemas que han angustiado al hombre a través de los tiempos. Es por esto que nuestro
análisis nos llevará muchas veces de un punto a otro de la historia y la filosofía, precisamente
con la intención de poner de manifiesto aquella unidad conceptual.
Podríamos preguntarnos cuál es la motivación para encarar un esfuerzo de análisis y
reflexión como el que aquí se propone. La respuesta a esta pregunta no puede ser dada en general
sino que dependerá de cada uno de nosotros. Cualquiera que sea la respuesta, ésta tiene que ver
con el concepto mismo de cultura. Durante mucho tiempo y aún en la actualidad para muchas
personas, particularmente en América Latina, la cultura de un individuo suele medirse por el
conocimiento que esa persona tenga de las llamadas “humanidades”, es decir historia, literatura,
lenguas, etc. Por el contrario, el conocimiento de las ciencias físicas, hoy también llamadas
ciencias “duras”, no es generalmente considerado parte del bagaje cultural necesario de una
persona educada (las matemáticas parecen haber gozado siempre de un status especial en este
sentido). He mencionado que esto es particularmente cierto en nuestra región del mundo, sin
embargo también corresponde en alguna medida a la situación imperante en países
tecnológicamente más desarrollados como los Estados Unidos, Gran Bretaña o Francia. En este
sentido, recordemos la conferencia Rede presentada en Inglaterra en 1959 por C. P. Snow “Las
Dos Culturas” (1). La tesis básica de Snow es que la ruptura de la comunicación entre las
ciencias y las humanidades constituye una dificultad de la mayor importancia para la resolución
de los problemas del mundo Si bien las ideas de Snow son claramente de su época, y su punto de
vista puede ser considerado hoy algo simplista, en particular la suposición un tanto ingenua
acerca de la aptitud de la ciencia para resolver los problemas del mundo, podemos rescatar la idea
básica de la ruptura de la comunicación entre las ciencias y las humanidades si su postura es
asimilada en el contexto de una fragmentación mucho más general del conocimiento humano.
Ahora bien, más allá de que esta fragmentación resulta hoy a todas luces indeseable, quienes se
mantienen al margen de los problemas conceptuales que plantean las ciencias físicas no se
encuentran en condiciones de percibir algunos de los aspectos más atractivos del mundo del que
somos parte y de gozar con el placer que se deriva de su conocimiento. Además resulta difícil
concebir actualmente la práctica de una especulación filosófica seria sin tener una formación
científica razonablemente buena, especialmente en el campo de las ciencias físicas, ya que en tal
caso tendríamos una filosofía científicamente ingenua. Por otra parte, la ciencia es en última
instancia un juego abierto, y todos tienen derecho a participar en él en la medida que se respeten
sus reglas. Incluso para los científicos profesionales, cada vez se torna más difícil encontrar el
tiempo necesario para dedicarlo a reflexiones que no apunten directamente a la obtención de
resultados concretos o publicables, y espero que nuestro análisis resulte útil y atractivo también
para ellos.
De modo que nuestro camino de reflexión es de doble vía. Por un lado pretendemos que
permita a los que no desarrollan una actividad científica pero tienen inquietudes filosóficas,
percibir no sólo la evolución histórica sino también la armonía y unidad esencial del
conocimiento científico y tecnológico actual, y por el otro, que sirva como elemento de reflexión
a los científicos profesionales que puedan también compartir inquietudes filosóficas.
Es evidente que en un texto de extensión limitada como el que aquí se presenta no es posible
siquiera intentar rozar la multiplicidad de antecedentes históricos y de problemas filosóficos que
plantean la ciencia y la tecnología de nuestros días. Tenemos entonces necesariamente que hacer
una selección de los temas que nos detendremos a considerar. Podemos en tal sentido adelantar
que nuestro análisis se limitará a la evolución histórica del conocimiento referido a problemas
relacionados esencialmente con la física y sus connotaciones en la tecnología y a los problemas
filosóficos que han acompañado a dicha evolución. Aun limitando nuestro objetivo de este modo,
la problemática a analizar se presenta tan extensa que debemos a priori ser modestos en dicho
objetivo y conformarnos con una visión no demasiado detallada.
I.2. El quehacer filosófico. Filosofía analítica
Deseamos detenernos ahora a considerar con más profundidad una pregunta a la cual hemos
dado hasta aquí escasa consideración. Esta pregunta es: ¿En que consiste esa actividad intelectual
que denominamos en forma genérica filosofía? Por supuesto que el significado del “gran nombre”
filosofía no ha sido el mismo a través de las épocas, ni siquiera coincide actualmente para todos
los que la practican. (En el Comus de M ilton: “How charming is philosophy”; en el poema
Lamia de John Keats: “Do not all charms fly at the mere touch of cold philosophy?”). La
contradicción es sin embargo, sólo aparente, ya que se referían a distintas cosas. Es así que el
concepto de “filosofía natural” involucraba en el pasado el estudio de los fenómenos naturales
que hoy son sin duda dominio exclusivo de la ciencia. Sin embargo, hay un tipo de filosofía que
continúa floreciendo y que continuará haciéndolo sin duda en la medida en que el hombre siga
reflexionando sobre su condición moral y su naturaleza. Nos referimos a ese tipo de reflexión
más o menos sistemática que uno encuentra por ejemplo en los trabajos de Heidegger, Sartre, o
Nietzsche, y que conduce muchas veces a una nueva perspectiva de la vida del hombre y de su
experiencia, y al que podríamos denominar en forma no muy precisa “filosofía de la existencia”.
En contraste con este tipo de filosofía, debemos distinguir el concepto de “filosofía analítica”
que tiene objetivos bastante diferentes a los de brindar nuevas y reveladoras visiones de la
existencia. Para procurar aclarar el alcance de lo que entendemos por filosofía analítica
comencemos diciendo que una definición sucinta usual de aquella es la de “análisis conceptual”.
Considerada más en detalle, esta definición puede no resultar muy satisfactoria ya que el término
“análisis” sugiere un proceso de reducción, de ruptura o descomposición de algo que es lo
analizado. De modo que estaríamos entonces frente a una actividad consistente en descubrir los
elementos que componen una idea o concepto y de qué forma dichos elementos se encuentran
relacionados. Sin embargo, lo que consideremos un elemento dependerá en general del tipo de
análisis que estemos realizando. Es así que la química finaliza con los elementos químicos,
mientras que la física lo hace con las partículas elementales (actualmente los electrones y los
quarks), y el análisis sintáctico con los mínimos grupos de palabras con significado. El análisis
conceptual, por su parte, procuraría establecer ideas completamente simples, es decir libres de
complejidad conceptual, para analizar luego de qué modo las ideas o conceptos más complejos
pueden surgir por combinación de las ideas simples a partir de alguna forma de construcción
lógica. El Prof. Ryle propone el símil para filosofía analítica de mapeo conceptual o geografía
conceptual, pero la figura es de todos modos incómodamente metafórica (2). También se ha
comparado la imagen del filósofo analítico con la del terapeuta (Wittgenstein: “The
philosopher’s treatment of questions is like the treatment of an illness”). La idea del filósofo
como terapeuta del pensamiento fue sin embargo repudiada por Russell, Popper y otros. Quizás
una analogía más promisoria es la de filosofía analítica con gramática. Dominamos un idioma sin
conocer su gramática (cuando la primera gramática de la lengua española le fue presentada a
Isabel de Castilla, preguntó cuál era su utilidad). Del mismo modo, operamos con un equipo
conceptual inmensamente rico, complicado y refinado, pero no hemos sido instruidos
formalmente en su empleo (Por ejemplo, sabemos muy bien lo que es “saber”, sin conocer por
ello la teoría del conocimiento y lo mismo podemos decir de conceptos como identidad, realidad,
existencia, etc., o de nociones éticas como el bien o el mal). Sin embargo, el dominio del uso de
tales conceptos no nos habilita para explicitar los principios y las reglas subyacentes que rigen
su utilización. De modo que el filósofo busca producir una versión sistemática de la estructura
conceptual de aquello sobre lo cual la práctica diaria nos enseña tenemos un dominio tácito e
inconsciente.
Confrontados con la tarea de dilucidar filosóficamente una idea o concepto particular,
digamos por ejemplo el de conocer algo o el de percibir algún objeto, lo que tratamos en términos
generales de establecer son las reglas que rigen su utilización. En otras palabras, lo que tratamos
de establecer son las condiciones necesarias y suficientes para la correcta aplicación del
concepto.
Ahora bien, puestos a la tarea de encontrar las condiciones necesarias y suficientes para la
correcta aplicación de un dado concepto, no tratamos necesariamente de expresar dichas
condiciones en términos absolutamente simples. Por ejemplo, si analizamos el concepto de
“conocimiento” puede ser necesario recurrir al concepto de “creencia”, aun sabiendo que este
último pose una complejidad análoga a aquel que queremos analizar. De modo que no tenemos
razones para afirmar que el filósofo se ajusta en su actividad al modelo reduccionista visto más
arriba, que no obstante juega un rol importante como límite ideal de análisis. Puede proponerse
entonces una alternativa al modelo reduccionista y a la idea que el análisis debe siempre
progresar en la dirección de mayor simplicidad. Esta alternativa consiste en concebir nuestra
estructura conceptual como una red o sistema de elementos interconectados de manera que el
significado de un concepto desde el punto de vista filosófico sólo puede entenderse en términos
de sus relaciones con otros conceptos del sistema. De este modo, la dilucidación del concepto de
conocimiento, requerirá referencia al de percepción sensorial, y éste a su vez requiere una
referencia al de verdad y éste al de creencia para volver al conocimiento, con lo que las objeciones
de “circularidad” quedan fuertemente atenuadas, aunque por supuesto no son completamente
eliminadas en todos los casos.
De modo que nos interesa encontrar el sentido general que podemos atribuir a la noción de
“básico” en el marco del modelo alternativo (no reduccionista) recién propuesto. En tal sentido,
un concepto será básico si es un miembro de un conjunto de conceptos generales e irreducibles
que constituyen una estructura que forma el marco de nuestro pensamiento y lenguaje ordinario,
y es presupuesta por las disciplinas especializadas que contribuyen a nuestra imagen global del
mundo. Tengamos en cuenta en lo que se refiere al último aspecto de la definición (un tanto vaga)
anterior, que los conceptos técnicos especializados nos son introducidos a través de una
instrucción explícita en los elementos de la disciplina en cuestión. Sin embargo, esta instrucción
no se produce en un vacío intelectual sino que requiere de todo el equipo conceptual que quien es
sujeto del aprendizaje posee previamente. En otras palabras, el aprendizaje de disciplinas
técnicas especializadas presupone la posesión de conceptos preteóricos de la vida ordinaria. Uno
puede hacer cosas con los conceptos especializados (refinados) que no puede hacer con los no
refinados, pero la adquisición de los primeros requiere la posesión de los segundos. Lo anterior
sugiere una forma de jerarquización de los conceptos, de manera tal que los que pertenecen a un
cierto conjunto presuponen la habilidad para manejar los de otro conjunto pero no a la inversa.
De modo que si existe un conjunto de conceptos filosóficamente básicos, deberemos buscarlos
en el discurso ordinario y no en el especializado o técnico.
El problema que se nos presenta ahora es que el número y la variedad de conceptos del
lenguaje ordinario es tan grande que parece absurdo que podamos seleccionar algunos de ellos
como filosóficamente fundamentales. De hecho, la mayoría de ellos son tan específicos y tan
poco esenciales que podríamos sin dificultad concebir un mundo en el que no estuvieran
presentes. En otras palabras, son conceptos “contingentes” en el sentido que su existencia nos
parece en buena medida accidental o aleatoria, como podrían serlo los conceptos de casa, color,
sonido, silla, etc. Una forma de identificar a una proposición contingente consiste en negarla y
analizar si dicha negación entraña una contradicción lógica. Si la negación de la proposición no
entraña tal contradicción, aun en el caso que aquélla sea evidentemente falsa, decimos que la
proposición es contingente. Sin embargo, si bien podemos eliminar estos conceptos contingentes
de nuestro equipo básico conceptual sin que se lesione de manera esencial nuestra concepción del
mundo o de la experiencia (pensemos en los ciegos o en los sordos por ejemplo), no parece
posible que este desmantelamiento conceptual pueda llevarse a cabo indefinidamente sin que
llegue un momento en que colapse aquella concepción. En otras palabras, existen aspectos de la
estructura de nuestra experiencia que son esenciales para la concepción (es decir comprensible
para nosotros) de dicha experiencia como seres conscientes. Tenemos aquí una posible solución a
nuestro problema. Podemos procurar identificar los conceptos básicos como aquellos que no son
contingentes, es decir que resulten necesarios para la concepción de cualquier modelo de mundo,
y que por otra parte sean lo suficientemente generales como para resistir ulterior reducción sin
caer en circularidad. Algunos conceptos que calificarían como básicos podrían ser: tiempo,
cambio, verdad, identidad, conocimiento.
I.3. ¿Por qué historia y filosofía de la ciencia y la tecnología?
Metafísica, epistemología y metodología
Intentaremos responder a la pregunta de por qué estudiar la filosofía de la ciencia y la
tecnología con una perspectiva histórica. Uno de los argumentos más inmediatos que podemos
esgrimir para justificar esta integración entre historia y filosofía de la ciencia y de la tecnología es
que, como veremos a medida que vayamos desarrollando el tema, los conceptos y especulaciones
filosóficas a través de las épocas frecuentemente estuvieron estrechamente vinculados al
pensamiento y visión del mundo de los hombres que fueron protagonistas del desarrollo
científico y técnico.
Tomás Kuhn, en la introducción a su obra La Estructura de las Revoluciones Científicas (3),
reflexiona sobre el hecho de que si se considera a la historia como algo más que un depósito de
anécdotas o cronología, puede producir una transformación decisiva de la imagen que tenemos
actualmente de la ciencia. M ás explícitamente, concluye la introducción preguntándose cómo
podría dejar de ser la historia de la ciencia una fuente de fenómenos a los que puede pedirse
legítimamente que se apliquen las teorías sobre el conocimiento.
Sin embargo, coincidiendo con J.G. Lennox (4), la función de la historia de la ciencia no es
justificar conclusiones filosóficas con hechos históricos, sino más bien la actividad de
comprender los problemas fundacionales a través de los orígenes y el desarrollo histórico de
dichos problemas. Es decir, los fundamentos de un campo particular del conocimiento están
configurados por su historia en mayor medida de lo que muchos practicantes de la ciencia
reconocen. Hay más libertad conceptual en la manera en que las teorías científicas, aun aquellas
fuertemente confirmadas, pueden ser formuladas y revisadas, de lo que normalmente se acepta y
el estudio de la manera en que una teoría científica llegó efectivamente a ser formulada y revisada
históricamente, puede resultar de valor filosófico considerable.
En buena parte de lo que sigue centraremos nuestra discusión en el papel de la ciencia
entendida esencialmente como conocimiento de “hechos”. Dado que el término “hecho” puede
adoptar varios significados, diremos que para nosotros un hecho es la manera en que las cosas o
entidades se configuran en la realidad en instantes y lugares determinados. Será un hecho por lo
tanto, que un objeto tenga un color determinado o una forma dada, que ciertos objetos posean un
determinado vínculo entre sí o que exista una regularidad en acontecimientos de cierta naturaleza.
No utilizaremos por lo tanto la palabra “hecho” para referirnos a los objetos de la matemática y
de la lógica o de las ciencias formales en general. Estas últimas no persiguen el conocimiento
objetivo: son racionales, sistemáticas y verificables, pero no nos dan información acerca de la
realidad. Simplemente, no se ocupan de los hechos. En contraposición, las ciencias fácticas como
la física, la química la biología, la psicología, etc., tratan esencialmente con hechos. Esto no
impide por supuesto que se puedan establecer diferencias metodológicas entre las ciencias
fácticas. Es posible sostener el punto de vista que los hechos representados por fenómenos de
tipo social por ejemplo, son de naturaleza diferente a la de los hechos físicos o biológicos, pero
ello no impide que debamos incluir a la sociología o a la economía dentro de la categoría de
ciencias fácticas.
A medida que las ciencias particulares se fueron desarrollando, fueron también generando
metodologías particulares que han probado en muchos casos su aptitud para describir y explicar
aspectos fundamentales del mundo en que vivimos. Debido al éxito de aquellas ciencias, cabe
preguntarse qué rol, si queda alguno, tiene reservado la filosofía. Un punto de vista un tanto en
declinación a través del tiempo, pero que no ha desaparecido por completo, es el que sostiene
que existe una manera de conocer el mundo que no descansa en la observación empírica. Esta
posición encuentra sostén en la existencia de la lógica pura y las matemáticas, cuyas verdades no
requieren de argumentos observacionales o experimentales, y ha perdurado desde Platón y
Aristóteles, a través de Leibnitz, Kant y los idealistas, hasta la actualidad. La idea central es que
si fuésemos lo suficientemente lúcidos, podríamos establecer un cuerpo de proposiciones
descriptivas del mundo, de las que podríamos estar tan seguros como lo estamos de las
proposiciones de la lógica y la matemática. Estas proposiciones serían entonces creíbles
independientemente de cualquier proceso inductivo que nos pudiese conducir de lo particular a
lo general. Ahora bien, ¿no es razonable pensar que si tal cuerpo de conocimiento estuviese
disponible, podríamos considerarlo como el objetivo secular de la disciplina que llamamos
filosofía?
De un modo un tanto formal, podemos definir la filosofía como la interpretación sintética de
toda la experiencia (5), siendo la ciencia en cambio, la descripción analítica de la forma y proceso
de la experiencia misma. Tenemos que admitir que estas definiciones son muy poco
satisfactorias. Seguramente resulta imposible abarcar en una definición la multiplicidad de
aspectos y formas que pueden adoptar una y otra actividad. En realidad, la percepción acabada
de lo que son en realidad la ciencia y la filosofía sólo puede derivar de su ejercicio, de la misma
manera que es posible intentar definir la pintura o la música como actividades, pero sólo la
vivencia de apreciar pinturas o escuchar música nos permitirá comprender su verdadero
significado. De todos modos, lo que deseamos rescatar aquí es la idea de unidad subyacente, en
otras palabras, la posibilidad de establecer algún vínculo unificador de todos los elementos que
componen el mundo que percibimos.
Una visión contemporánea de la filosofía en general y de la filosofía de la ciencia en
particular, es que su rol no es el de servir como sustento de las ciencias o como una extensión de
las mismas, sino más bien como su observadora crítica. La idea detrás de este punto de vista es
que las disciplinas científicas particulares hacen uso de métodos y conceptos, y de relaciones
entre éstos que si bien suelen darse por sentadas, en general no se hacen explícitas. El objeto de
la filosofía sería entonces clarificar y explicitar tales relaciones entre los conceptos, o dicho en
otros términos, encontrar los métodos apropiados para hallar la verdad en las disciplinas
científicas particulares.
Podemos definir en cambio la metafísica como el estudio de la realidad última, o como
también se la define también a veces, el estudio de lo que es. Podemos hablar de “realidad”
cuando hay una apariencia engañosa a través de la cual debemos “ver” aquella realidad. Pero
detrás de la apariencia puede existir otra y otra, hasta que eventualmente llegamos a la realidad
última. Incidentalmente, la negación de la existencia de una realidad última nos conduce
rápidamente a una contradicción (tal negación se convierte también en una apariencia) por lo que
al menos podemos estar tranquilos en el sentido de que la metafísica es una materia con un tema,
lo que no se puede decir de todas las disciplinas (pensemos por ejemplo en la astrología que
estudia influencias astrales inexistentes). Podemos sugerir que la metafísica intenta contestar las
siguientes preguntas cuyas respuestas constituirían candidatos aceptables como la verdad última
de las cosas:
A. ¿Cuáles son las características más generales del mundo, y qué tipo de cosas contiene? En
otras palabras, ¿cómo es el mundo?
B. ¿Por qué existe el mundo? O más específicamente, ¿por qué hay un mundo con las
características y el contenido que describe la respuesta a la pregunta anterior?
C. ¿Cuál es nuestro lugar en el mundo? ¿De qué modo los seres humanos encajamos en él?
Conviene aclarar que cuando hablamos de “mundo” lo hacemos refiriéndonos en forma
colectiva a “todas las cosas” (incluyendo eventualmente a Dios entre ellas, si es que esto no nos
lleva a contradicciones tales como: “Dios creó el mundo”).
Podemos preguntarnos aquí por qué no existen hechos establecidos en el campo de la
metafísica, o en forma más general, en el campo de la filosofía? ¿Por qué no hay nada que
podamos llamar “información metafísica” (o “información filosófica”)? Ello puede deberse a dos
razones fundamentales: la primera podría ser que la metafísica propone preguntas viciosas en el
sentido de que las mismas carecen de respuesta en un modo esencial. La segunda razón tendría
que ver con la eventual imposibilidad de la mente humana para resolver satisfactoriamente
problemas de naturaleza metafísica (6).
En buena medida, la motivación para “hacer” filosofía de la ciencia (y de la tecnología)
proviene de los cambios producidos en la imagen del mundo físico resultante fundamentalmente
de la física y la biología contemporáneas, que nos han obligado a una nueva conceptualización de
aquel mundo. Es precisamente esta nueva conceptualización lo que nos impone una indagación
filosófica acerca del significado de los conceptos que veníamos empleando para acomodar la
nueva comprensión del mundo. Los filósofos de la ciencia se interesan en cuestiones tales como
la naturaleza de las teorías científicas, de qué manera ellas explican los fenómenos del mundo, y
cómo la evidencia existente puede considerarse como soporte racional de la creencia en tales
teorías. En este sentido, la generalidad de las grandes teorías científicas y su carácter altamente
explícito proveen un contexto natural en el cual muchos conceptos de filosofía general de la
ciencia se tornan más “asibles” y seguros que cuando se los considera aislados de tal contexto.
Si bien el objetivo de la filosofía de la ciencia es cercano al de la epistemología, hasta el punto
que algunos autores la identifican con aquella, no debemos caer en el error de hacer lo mismo. El
epistemólogo se formula una pregunta de crucial importancia para comprender y analizar la
significación de la ciencia en la actualidad: ¿por qué debemos creer en aquello que afirman los
científicos? No acepta sin crítica el conocimiento científico sino que lo examina del modo más
objetivo posible. Al igual que un filósofo, frente a cualquier teoría se preguntará por su aparición
como fenómeno social, histórico o psicológico, por qué hay que considerarla como “buena” o
“mala”, o cuáles son los criterios para decidir si una teoría es mejor o peor que otra. La
epistemología es en resumen, una actividad crítica que se dirige a todo el campo de la ciencia (7).
Sin embargo, la filosofía de la ciencia, aunque estrechamente vinculada a la epistemología,
abarca al igual que la filosofía en general muchos problemas que no son estrictamente
epistemológicos. Un problema filosófico sería por ejemplo tratar de decidir si la realidad objetiva
existe o es una ilusión de los sentidos. En este ámbito, el filósofo de la ciencia puede interesarse
por la cuestión de si la física, por ejemplo, presupone una metafísica peculiar que afirme una
realidad externa a la subjetiva. De manera que la expresión “filosofía de la ciencia” es más amplia
que la de “epistemología”, y ésta sería quizás una disciplina independiente de aquélla de no ser
porque las conexiones entre ambas y las presuposiciones epistemológicas constituyen de por sí
asunto del mayor interés filosófico.
Finalmente, debemos diferenciar entre “epistemología” y “metodología”. A diferencia de lo
que sucede con el epistemólogo, el metodólogo no pone en tela de juicio el conocimiento ya
obtenido y aceptado por la comunidad científica. Su problema es la búsqueda de estrategias para
incrementar el conocimiento. La metodología es en cierto modo posterior a la epistemología. Sin
embargo, y tal como sucede con la relación entre ciencia y tecnología, a veces un procedimiento
metodológico se descubre casualmente, se emplea por razones de heurística, y entonces el
epistemólogo es quien se ve en la necesidad de justificarlo en términos de su propio ámbito de
estudio.
1 . C.P. Snow, The Two Cultures, Cambridge University P ress, 1993.
2 . P.F. Strawson, Analysis and Metaphysics: an introduction to philosophy, Oxford University P ress, 1992.
3 . T.S. Kuhn, La Estructura de las Revoluciones Científicas, Breviarios del Fondo de Cultura Económica, México, 1982.
4 . J.G. Lennox, “ History and P hilosophy of Science: A philogenetic approach”, en Historia, Ciencias, Saúde,
Manguinhos, vol. VIII (3), septiembre-diciembre de 2001, pp. 655-669.
5 . W. Durant, Historia de la Filosofía, Editorial Diana, México, 1978.
6 . P eter Van Inwagen, “ Metaphysics”, en Dimensions of Philosophy Series, Oxford University P ress, 1993.
7 . G. Klimovsky Las Desventuras del Conocimiento Científico: una introducción a la epistemología, A-Z Editora,
Buenos Aires, 1994.
II.
LAS APROXIMACIONES AL MUNDO EXTERNO
II.1. La “realidad” como concepto filosófico
Antes de comenzar a analizar la naturaleza de las teorías y de las leyes físicas, nos
detendremos a considerar el problema de cómo la mente humana puede tener conocimiento de un
mundo físico que creemos existe independientemente de nosotros, es decir de la existencia de las
mentes. Si bien en nuestra vida diaria no solemos poner en duda la existencia de los objetos
físicos, es necesario analizar este tipo de problema. En otras palabras, ¿cómo sabemos que
nuestros sentidos nos dan información acerca de un mundo que existe independientemente de
nosotros? ¿Cómo podemos estar seguros de que existe tal mundo? ¿Acaso lo que percibimos no
depende, al menos en parte, de la naturaleza de nuestros órganos de percepción? Si nuestros ojos
fuesen diferentes, lo que veríamos sería también diferente. Del mismo modo, si nuestros órganos
gustativos fueran diferentes a lo que son, también lo serían nuestros gustos. De modo que, ¿con
qué derecho podemos decir que percibimos las cosas tal como son? M ás aún, ¿de qué manera es
posible llegar a saber “cómo son realmente las cosas” o “cómo son realmente en sí mismas”?
Incluso, a menudo hay una apariencia donde ni siquiera hay una realidad; es decir que a veces
“percibimos cosas que no existen”. Quizás todo el mundo no es después de todo más que una
gigantesca alucinación.
Consideremos por un momento las dos palabras: “realidad” y “apariencia” (8). Cada una de
estas palabras tiene escaso significado tomadas aisladamente una de otra. Cuando decimos que
algo es realmente verdadero, implícitamente estamos aceptando que existe alguna otra cosa que
es aparentemente verdadera. Es así que nunca decimos que “dos más dos es realmente cuatro”, o
que “Abraham Lincoln era un hombre realmente”, ya que en ninguno de los dos casos existe un
“aparentemente” opuesto. En efecto, dos más dos no es aparentemente tres ni cinco, ni ningún
otro valor distinto de cuatro, y Abraham Lincoln no era aparentemente una mujer, ni un gato, ni
un marciano.
Los términos “apariencia” y “realidad” se derivan de “aparentemente” y “realmente”
respectivamente, y se relacionan entre sí de la misma manera. Hablamos de realidad sólo cuando
existe alguna apariencia engañosa detrás de la cual o a través de la cual, debemos ver. Por
ejemplo: la realidad es que a pesar de las apariencias, la tierra gira sobre su eje; en realidad, a
pesar de las apariencias, los cielos no giran alrededor de la tierra. Esto podría sugerir que una vez
que logramos ir detrás de alguna apariencia engañosa, lo que nos encontramos es con algo que
podríamos denominar “realidad” sin que resulte necesario ulterior calificación. Sin embargo, lo
que encontramos detrás de alguna apariencia es algo que podemos llamar “realidad” sólo en
relación a dicha apariencia. Lo que hallamos detrás de una apariencia es en general otra apariencia
que esconde una realidad más profunda, y en este sentido la ciencia moderna es rica en ejemplos.
Por supuesto que esta reflexión nos lleva inmediatamente a preguntarnos si es posible que la
realidad que se oculta detrás de cada apariencia sea a su vez, otra apariencia. Si la respuesta a
esta pregunta es No, entonces hay una realidad que no es una apariencia y esta realidad
constituiría el tema central de la M etafísica. Por el contrario, si la respuesta a la pregunta anterior
fuese Si, entonces la M etafísica sería una disciplina sin un objeto de estudio. Pero ya hemos
dicho que la aceptación de la inexistencia de una realidad que no sea una apariencia, nos conduce
sin embargo a una inconsistencia lógica, ya que dicha aceptación paradójicamente implica que la
realidad consiste en última instancia en la inexistencia de una realidad. Esta inconsistencia nos
sugiere que no es posible eludir la conclusión que hay al menos una realidad última, y que la
M etafísica tiene, efectivamente, un objeto de estudio.
II.2. Diferentes escuelas de pensamiento referidas a la
“realidad”
Como lo señala de la Torre (9), las diferentes posturas que se pueden asumir con respecto al
problema de la existencia del mundo externo, considerando que todo sistema físico y sus
propiedades son extraídos de la supuesta realidad del mismo, son de fundamental importancia
para intentar desarrollar una interpretación de las teorías y las leyes físicas. Veremos más
adelante que ciertas interpretaciones implican una toma de posición definida respecto del
problema filosófico planteado, y no es posible desconocerlo sin dejar de percibir las diferencias
existentes entre las distintas interpretaciones de la teoría física.
Como resulta útil para enriquecer nuestra discusión, podemos resumir estas posiciones de la
siguiente manera:
Realismo: es la posición que adoptan quienes aceptan que el mundo externo efectivamente
existe y que las observaciones que hacemos del mismo así como las leyes de la naturaleza
responden a una realidad objetiva independiente del observador. Desde este punto de vista
podría decirse que todos los científicos practicantes (al menos los que estudian las ciencias
naturales) son (pragmáticamente) realistas, ya que de lo contrario, el esfuerzo por hallar patrones
de comportamiento en la naturaleza carecería en buena medida de sentido. En franca oposición al
Realismo tenemos el:
Idealismo: esta posición distingue entre la percepción que nuestra mente tiene del mundo y
lo que el mundo realmente es. En otras palabras, lo que nuestra conciencia percibe como realidad
externa no es otra cosa que una imagen distorsionada de dicha realidad. En una versión extrema
llamada Solipsismo, el Idealismo llega al extremo de aseverar que el mundo es solamente una
creación de nuestra mente.
Entre el Realismo y el Idealismo extremo hay por supuesto un sinnúmero de posiciones
intermedias o variaciones de aquellas que han sido bautizadas con distintos nombres tales como
Operacionalismo, Instrumentalismo, etc. La variedad de designaciones enturbia bastante el
panorama, por lo que nos manejaremos mientras sea posible con los conceptos extremos, entre
los cuales la separación se encuentra claramente establecida. Es conveniente no obstante
introducir aquí dos términos estrechamente relacionados con el Realismo que son de uso
frecuente en Filosofía de la Ciencia. Nos referimos al Positivismo y al Racionalismo.
Entendemos por Positivismo la actitud mediante la cual aceptamos que lo más que podemos
hacer en lo que al conocimiento del mundo se refiere, es describirlo objetivamente, pero no
entenderlo. Para el científico positivista, la ciencia se reduce a una mera función de tenedor de
libros que asienta detalladamente los acontecimientos naturales. Las leyes de la naturaleza no son
así más que meras descripciones de hechos sin poder explicativo. De acuerdo al pensamiento
positivista, el mundo es “así porque sí” y todo intento de encontrarle una explicación racional a
los fenómenos que observamos está inevitablemente condenada al fracaso por carecer de sentido.
Simplemente, las cosas que ocurren en la naturaleza no tienen explicación.
El Racionalismo, en cambio, sostiene la idea que disponiendo de los recursos materiales, el
tiempo y el talento necesarios, el intelecto humano es capaz de entender el mundo, no solamente
de describirlo. Dicho de otro modo, todo fenómeno natural obedece a una ley natural que a su
vez es derivable de causas más elementales y así sucesivamente hasta llegar a la causa primera,
que según algún racionalista extremo, debería explicarse a si misma. De todos modos, el hecho
que pueda existir una causa primera sin explicación es algo que hasta los racionalistas más
empedernidos están en general dispuestos a aceptar.
De acuerdo a lo expuesto se podría pensar que el Racionalismo debería ser la actitud
preferida de los científicos. Sin embargo, esto no es necesariamente así y la historia de la ciencia
nos muestra ejemplos ilustres de una y otra postura.
La simple y acrítica aceptación de que los objetos son tal como se presentan a nuestros
sentidos es la posición que en filosofía suele denominarse Realismo Ingenuo. Sin embargo, en la
medida que consideremos ciertos enunciados científicos acerca de la percepción, tales como los
que nos brinda la psicología y la fisiología, caeremos en la cuenta de que aquello de lo que
tenemos conocimiento es de la percepción, no del objeto directo. En otras palabras, sólo tenemos
conocimiento directo de nuestras sensaciones. Aún más: no solamente conocemos los
acontecimientos a través de nuestras sensaciones, sino que todo lo que realmente conocemos son
las sensaciones mismas. Esta posición, que llamaremos Realismo Representativo, acepta la
existencia de las cosas externas como causa de nuestras sensaciones, pero afirma que nunca
podemos tener conocimiento directo de aquéllas, salvo a través de las sensaciones que ellas
producen en nosotros. En este sentido, nuestra situación como observadores frente al mundo
sería análoga a la de un operador de una central telefónica que imposibilitado de abandonar su
puesto sólo puede tener conocimiento de sus abonados a través de comunicaciones por las líneas
(Karl Pearson) (10). Para tal operador, los sonidos que recibe a través de la línea constituiría el
mundo real, y sin embargo, es fácil ver lo condicionado y limitado que sería ese mundo no sólo
por el número necesariamente finito de comunicaciones con los abonados sino también por el
contenido de los mensajes. Nuestra conciencia, situada en los extremos cerebrales de los nervios
sensoriales, se halla en la misma situación que el operador telefónico. Nuestro “yo” consciente
no puede acercarse al “mundo exterior” más allá de estas terminales y no tiene ningún medio de
saber lo que son, en sí mismos, los “abonados” de nuestra central nerviosa. Los mensajes pueden
llegar en abundancia del “mundo exterior” en la forma de impresiones de los sentidos; nosotros
las analizamos, las clasificamos, las archivamos y razonamos acerca de ellas. Pero no sabemos
nada en absoluto de la naturaleza de la “cosa en sí”. Esta concepción suele llamarse “dualismo
epistemológico”, porque se relaciona con la teoría del conocimiento (epistemología) y porque
afirma la existencia de dos tipos de entidades: “sensaciones” y “cosas físicas”. Como ya dijimos,
también es llamada Realismo Representativo: Realismo porque afirma que existen cosas físicas,
y Representativo porque las sensaciones las representan.
En el Realismo Representativo, las cosas físicas existen al menos como causas de las
sensaciones. En algunas versiones de esta postura, se ha llegado a sugerir que la relación, además
de ser causal, es de semejanza: las sensaciones son como las cosas. El Realismo Representativo
es una especie de “sentido común ilustrado”, es decir el paso siguiente al Realismo Ingenuo. Sin
embargo, es posible levantar objeciones contra esta postura que son difíciles de rebatir. En
particular, la teoría se derrumba cuando consideramos los eslabones de conexión entre las
sensaciones y el mundo físico exterior, ya que nuestro conocimiento de los órganos de los
sentidos es también indirecto a través de sensaciones. Volviendo a la analogía de nuestra central
telefónica, vemos que no hay manera de establecer fehacientemente la existencia de los cables de
las líneas de conexión con los abonados. En otras palabras, los órganos de los sentidos se
encuentran en la misma condición que el resto de los objetos, de modo que si estos últimos son
incognocibles, también los son los primeros. La teoría se derrota a si misma: el mundo termina
disolviéndose enteramente en la mente del observador.
La concepción que es casi un “paso siguiente” inevitable a partir del Realismo
Representativo es la llamada Idealismo Subjetivo. El Idealismo se halla íntimamente asociado con
el nombre de George Berkeley, obispo de Cloyne (1685-1753) y es la concepción de que sólo
existen mentes y sus ideas. El Idealismo modifica al Realismo Representativo en un aspecto
importante: niega que haya objetos físicos externos que causen nuestras sensaciones,
considerándolos un lastre innecesario. (Además, decía Berkeley, ¿cómo una idea puede ser
semejante a algo que no lo es?). En todo caso, según el Idealismo, los objetos existen únicamente
como sensaciones (Esse est percipi). El Idealismo reconoce sin embargo que hay experiencias
mentales que no son sensaciones. Hay por ejemplo una diferencia entre una “sensación silla” y la
imagen (mental) de una silla. No hay unanimidad respecto de la forma de establecer la diferencia
entre ambos tipos de experiencias. Obviamente no podemos decir: “las sensaciones pasan por
los órganos de los sentidos mientras que las imágenes no”, ya que los mismos órganos de los
sentidos son complejos de sensaciones, y por consiguiente nuestra definición sería circular. Hay
sin embargo cierta diferencia cualitativa entre las experiencias que llamamos sensaciones y las
que llamamos imágenes, mientras otros argumentan que la diferencia reside en su dependencia o
independencia de la voluntad (una imagen puede ser convocada por un acto de voluntad pero no
así una sensación). De cualquier forma, la tesis fundamental del Idealismo es que no sólo hay
sensaciones, sino que sólo hay en general experiencias, es decir sensaciones e imágenes.
Podríamos preguntarnos ahora cuál es el destino de la ciencia en el contexto del Idealismo.
¿Acaso la ciencia no trata precisamente del mundo físico que Berkeley niega? El mismo Berkeley
nos responde diciendo que la ciencia trata de las cosas de la misma manera que lo hace el sentido
común, aunque de forma más refinada y con más precisión, de modo que las cosas son reducibles
a sensaciones tanto para la ciencia como para el sentido común. Hay muchas uniformidades
discernibles en nuestras experiencias, en las que una sensación sigue regularmente a otra. Tal es la
base de la formulación de las leyes de la naturaleza que no son otra cosa que leyes relativas a
sucesiones de sensaciones. De manera que todo lo que tendríamos que hacer es traducir el
lenguaje de las cosas al lenguaje de las sensaciones.
Podríamos aquí preguntarnos qué ocurre cuando tratamos con entidades que son
construcciones mentales (es decir, no susceptibles de observación directa) como por ejemplo el
caso de los electrones. No podemos percibir electrones, pero los imaginamos a partir de lo que
percibimos. De manera que para hablar en forma significativa de los electrones (u otras entidades
inobservables), deberíamos hacerlo en el contexto de las experiencias y no exclusivamente de las
sensaciones.
Ahora bien, vemos entonces que de acuerdo con el Idealismo, los objetos físicos no existen
cuando no se los percibe. Esta conclusión surge de las dos premisas básicas del Idealismo:
i) Las sensaciones no existen cuando no se las experimenta (esto es casi una tautología).
ii) Los objetos físicos son (complejos) de sensaciones.
El fenomenalismo, al que podríamos considerar un refinamiento ulterior del Idealismo, acepta
la primera premisa pero modifica la segunda diciendo que los objetos físicos son complejos de
sensaciones actuales o posibles. En otras palabras, un objeto físico puede existir aun cuando
nadie los perciba realmente; basta que sea capaz de ser percibido, es decir que sea perceptible.
Para decirlo con las palabras de John Stuart M ill (1806-1870): “la materia es la posibilidad
permanente de sensaciones”. No obstante que esta posición puede parecer atractiva en un primer
análisis, ya que según ella los objetos continúan su existencia aun cuando no sean percibidos, hay
un número considerable de filósofos que se oponen de una u otra manera al análisis
fenomenalista. Una de las objeciones planteadas es que en el caso de objetos físicos no
percibidos, la referencia al observador es un elemento necesario del enunciado de existencia. Por
ejemplo: “a la vuelta de la esquina hay un escritorio”, lo que significa: “si yo (o cualquier otro)
estuviera a la vuelta de la esquina, percibiría datos sensoriales del tipo escritorio”. Hay aquí una
referencia a un lugar remoto del espacio físico que sólo se puede situar por medio de coordenadas
y no en término de datos sensoriales, es decir: los objetos físicos fenomenalistas deben existir en
un marco físico no fenomenalista. El mismo problema se plantea con relación al tiempo: “si un
observador hubiese estado en ese lugar en el instante t, habría experimentado tales y cuales
datos”, lo que implica un marco físico temporal difícilmente reducible a datos sensoriales
únicamente. En resumen, las objeciones de los realistas a los fenomenalistas pueden expresarse
diciendo que toda vez que los fenomenalistas tratan de traducir enunciados acerca de objetos
físicos a enunciados acerca de datos sensoriales, presuponen un orden físico y usan un concepto
de éste en el mismo intento de hacer la traducción. El orden físico (espacial y temporal),
argumentan los realistas, no es algo a lo que se llega sobre la base de datos sensoriales sino que
implícitamente está presente desde el comienzo en nuestro bagaje conceptual mental básico.
II.3. Racionalismo y Empirismo conceptuales
Consideremos ahora la cuestión de establecer qué enunciados son aquellos de los que
podemos afirmar que conocemos su valor de verdad (verdadero o falso). Este problema se
encuentra a su vez estrechamente vinculado con el de la determinación de las pruebas para este
conocimiento y con el establecimiento de la existencia o no de diferentes tipos de enunciados
cuya verdad pueda captarse de diferentes maneras. La consideración de estos problemas nos
conduce a referirnos a una controversia entre dos puntos de vista opuestos: el Racionalismo y el
Empirismo.
Los términos Racionalismo y Empirismo denotan posiciones diferentes a las preguntas
básicas: i) ¿de dónde provienen nuestras ideas o conceptos? y ii) ¿Qué criterio aplicaremos a
nuestros juicios para saber si son verdaderos? El Empirismo conceptual o simplemente
Empirismo, sostiene que todas las ideas o conceptos que poseen los seres humanos provienen de
la experiencia. En cambio el Racionalismo niega esta afirmación y aunque admite que muchas o
quizás la mayoría de las ideas pueden provenir de la experiencia, asume que el ser humano posee
conceptos innatos que forman parte de una estructura fundamental de la mente, de modo que la
existencia de tal estructura conceptual básica no depende del tipo de experiencia particular que
podamos haber tenido. En otras palabras, algunos conceptos estarían en nosotros aun cuando el
mundo que experimentamos fuera muy diferente de lo que es.
Los empiristas, y en primer término John Locke (1632-1704), han sostenido que todas
nuestras ideas provienen de la experiencia, diferenciando entre ideas simples, que son aquellas
que sólo podemos tener si las hemos experimentado (por ejemplo la sensación de un color, o de
un dolor, o una experiencia táctil, etc.), e ideas complejas que son generadas a partir de ideas
simples y por lo tanto, en forma indirecta, provienen también de la experiencia (sería por
ejemplo el caso de un polígono de un millón de lados, al que no es necesario haber visto para
poseer el concepto). El punto fundamental es que todo concepto puede siempre reducirse a ideas
simples y que éstas deben provenir únicamente de la experiencia. Notemos de paso que la
posición empirista no impone necesariamente la idea que las experiencias deben provenir del
mundo externo, ya que por ejemplo las ideas de dolor o de placer, temor, etc. son ideas simples
que experimentamos con nuestro “sentido interno”
Si bien hasta el racionalista conceptual estará dispuesto a aceptar que muchas de las ideas o
conceptos simples mencionados provienen de la experiencia, existen otros conceptos más
complejos, tales como el de causalidad, que los racionalistas insisten en que constituyen ideas
innatas independientes de la experiencia. Otro ejemplo sería la idea de Dios, o conceptos tales
como el de rectilineidad, circularidad, y otras ideas geométricas que jamás hemos experimentado
en su forma pura o perfecta. Algo similar ocurre con las relaciones lógicas o matemáticas.
A fin de analizar con un poco más de rigor el problema anterior, es conveniente recordar aquí
qué es lo que se entiende por juicios analíticos y por juicios sintéticos. Denominamos juicios
sintéticos a aquellos en los que el predicado no está implícito en el sujeto y que por lo tanto no
es posible (al menos en la mayoría de los casos) conocer a priori su valor de verdad. Por
ejemplo: “los hombres son egoístas”. El atributo “egoísta” no es inherente a la condición de
“hombre” y por lo tanto la verdad o falsedad de tal afirmación no está contenida en el sujeto. Por
el contrario, si decimos: “toda materia ocupa espacio”, el hecho de “ocupar espacio” es un
atributo básico del concepto de “materia”. Del mismo modo, si expresamos: “mi hermano es
varón”, el atributo “varón” está necesariamente incluido en el concepto de “hermano” y todo lo
que estamos haciendo es simplemente explicitar uno de tales atributos. De hecho, esta última
proposición constituye en realidad una tautología. Un juicio en que el predicado esté incluido en
el sujeto, se denomina “analítico”. M encionemos incidentalmente que en la práctica existe muy
poca diferencia entre juicio analítico y tautología por lo que ignoraremos en lo sucesivo tal
diferencia. Sólo para ciertas consideraciones relacionadas con el estudio de la lógica la diferencia
anterior puede ser relevante. Para nuestra finalidad es mucho más importante lo que ambos
(tautologías y juicios analíticos propiamente dichos) tienen en común; esto es no poder ser
negados sin caer en una contradicción. En cambio, los juicios sintéticos pueden negarse sin que se
presente una contradicción, independientemente del valor de verdad del juicio en particular. Es
importante destacar que cuando hablamos de una contradicción, lo hacemos en el sentido lógico
y no en el sentido empírico o técnico; es decir la sentencia: “yo salté diez mil metros en el aire”
constituye un juicio sintético ya que su negación no implica contradicción lógica alguna, aunque
sabemos que resulta técnicamente imposible.
Observemos que los juicios analíticos implican conocimiento a priori ya que no es necesario
recurrir a la experiencia para establecer su verdad o falsedad. Por este motivo suele decirse que
los juicios analíticos implican conocimiento necesario, en contraposición con los juicios
sintéticos que implican conocimiento contingente. La pregunta que nos debemos hacer aquí es si
existen juicios sintéticos necesarios o a priori. Ésta ha sido posiblemente una de las cuestiones
más debatidas de la filosofía. En tal sentido, se ha discutido si por ejemplo los enunciados de la
aritmética constituyen juicios sintéticos a priori. En la actualidad, pocos son los que sostienen
tal interpretación de los enunciados de la aritmética, aceptándose en general que los mismos son
tautológicos y por ende necesarios.
Podemos retomar aquí con más precisión la consideración de las posiciones racionalista y
empirista. M ientras que la opinión racionalista sostiene que hay enunciados sintéticos a priori o
necesarios, la postura empirista niega tal posibilidad afirmando que todo enunciado sintético es
contingente. De hecho para los empiristas, todos los juicios de interés filosófico, incluidos los de
la aritmética y la lógica, son sintéticos y contingentes constituyendo en última instancia
generalizaciones de la experiencia.
Analicemos ahora un poco más cuidadosamente cuál es el significado del término
“conocimiento”. En este sentido, tengamos en cuenta que cuando sabemos que algo es verdadero,
también creemos que es verdadero. De modo que es posible que el estado mental que supone el
conocer, probablemente sea el mismo que el que supone un creencia muy fuerte. Podemos decir
que históricamente, la consideración de las relaciones que vinculan el concepto de “verdad” con
los de “conocimiento” y “creencia” ha sido una de las más prominentes en la especulación
filosófica. Tal como lo señala G.Klimovsky (11), Platón expone en su diálogo Teetetos que los
requisitos que se deben exigir a un enunciado para que el mismo exprese conocimiento son tres:
creencia, verdad, y prueba. (12) En primer lugar, quien formula la afirmación debe creer en ella.
En segundo lugar, el conocimiento expresado debe ser verdadero. Tercero, deberá haber pruebas
de este conocimiento. Si no hay creencia, aunque por casualidad haya verdad y exista la prueba,
pero ésta no se halle en poder de quien formula la afirmación, no podremos hablar de
conocimiento.
Tampoco podremos hacerlo si no hay verdad, porque no asociamos el conocimiento a
sostener lo que no corresponde a la realidad o a los estados de cosas en estudio. Finalmente,
aunque hubiese creencia y verdad, mientras no exista la prueba se estará en lo que podemos
llamar estado de opinión, pero no de conocimiento. De cualquier modo, está claro que en esta
concepción platónica, el establecimiento de la prueba ya implica la verdad del presunto
conocimiento, de modo que las tres condiciones antes mencionadas no son del todo
independientes. La concepción moderna de conocimiento es en realidad menos estricta que la
platónica, ya que en rigor ninguno de los tres atributos mencionados son considerados
actualmente apropiados o esenciales para caracterizar al conocimiento científico. Ya no exigimos
del conocimiento una dependencia estricta entre prueba y verdad, ya que es posible aceptar una
teoría científica sin haberla probado de manera concluyente, considerándosela de algún modo
como “provisional”, lo que implica también un divorcio entre el concepto de conocimiento y el
de creencia. (13)
Concepción “moderna del conocimiento”
En este sentido, tengamos en cuenta que si bien la metafísica occidental prevaleciente acepta
la existencia de lo que llamamos “verdad objetiva”, ésta no constituye de ninguna manera una
posición universal. La aceptación de la existencia de la verdad objetiva tiene dos vertientes o
componentes. Por un lado, el hecho que nuestras creencias son o bien verdaderas o bien falsas:
verdaderas en el caso en que el mundo se corresponda con la creencia en particular y falsas en
caso contrario. De modo que nuestras creencias mantienen con el mundo una relación análoga a la
que existe entre un mapa y el territorio que dicho mapa intenta describir: el mapa es correcto en
la medida que éste se ajuste adecuadamente a los accidentes geográficos del territorio. Si esta
correspondencia no se da, el problema es del mapa y no del territorio.
La segunda componente del concepto de que existe algo como la verdad objetiva, es la
siguiente: el mundo existe y posee características independientes de nuestras creencias y
nuestras aseveraciones (al menos esencialmente independiente ya que nuestros juicios y
aseveraciones son también parte del mundo). De modo que en este contexto, la verdad o falsedad
de nuestras creencias es “objetiva” en el sentido que el valor de verdad es conferido a tales
creencias o aseveraciones por los objetos o cosas sobre las cuales tratan. De modo que la
posición consistente en la aceptación de la verdad objetiva se encuentra en buena medida
relacionada (aunque no inevitablemente) con la aceptación de un mundo independiente de
nuestras creencias y construcciones mentales. Teniendo en cuenta que hemos llamado
“Realismo” a esta última posición, designaremos “Antirrealismo” a la posición opuesta, es decir
a la que sostiene que no existe ni la verdad ni la falsedad objetiva para diferenciarlo así del
Idealismo que no necesariamente niega la existencia de la verdad objetiva.
II.4. Evolución de la idea de verdad y su relación con la
concepción de la realidad
Con relación al tema de la verdad y partiendo de una posición realista, parecería que nos
encontramos aquí con dos interpretaciones o teorías alternativas: la teoría de correspondencia,
de acuerdo con la cual una creencia es verdadera sólo si corresponde a los hechos, y la teoría de
coherencia, según al cual una creencia es verdadera sólo si es miembro de un sistema coherente,
consistente y comprehensivo de creencias. En realidad, como lo destaca P.F. Strawson (14), es
posible conciliar aspectos referentes a ambas interpretaciones. El concepto de verdad ha
evolucionado a través de los tiempos. Demócrito de Abdera (c. 460-357 A.C.) declaró que la
verdad yace en lo profundo (15). Si bien este aforismo nos parece hoy obvio: cómo son las cosas
realmente y cómo se nos aparecen a nosotros o a cualquiera no es necesariamente, o en modo
alguno, lo mismo. Sin embargo, esto que hoy nos parece evidente no lo era en la Antigüedad. La
palabra griega que se traduce como “verdad” es Aletheia, que los griegos podían interpretar como
“lo que no está oculto”, mientras que la verdad de Demócrito yace oculta en las profundidades.
La palabra griega que traducimos como “verdad” tiene quizás una etimología muy diferente. En
este sentido, la verdad que yace en las profundidades de Demócrito es paradójica porque “la
verdad” sería más bien lo que no se oculta, lo obvio. Sin embargo nos dice Demócrito, en realidad
no sabemos nada. Todo lo que percibimos es sólo “convencionalmente verdadero”, o “verdadero
por costumbre”. Diferentes costumbres generan diferentes mundos sensoriales, diferentes
historias, pero la verdad suprema está constituida sólo por “átomos y vacío”. Es esta brecha
entre apariencia y una realidad hipotética lo que constituiría el hilo central de la especulación
filosófica en el mundo antiguo y que se continuaría en los tiempos modernos con pensadores
como Descartes (1596-1650) quien decía que quizás haya un genio maligno que disponga las
cosas de manera de hacernos creer que hay un mundo de objetos físicos, cuando de hecho no hay
tales objetos en absoluto. Todo sería como si los hubiera, de manera que fuese imposible percibir
la diferencia.
Parménides (530-515 A.C.) en cambio, nos presenta una visión diferente del concepto de
“verdad”. Según Parmenides hay Algo que debe Ser, que es la única Verdad que expresamos en
nuestras manifestaciones. Cualquier otra “verdad”, lo es sólo por convención, porque acordamos
considerarla como tal. La Verdad no es contingente (como lo sería si fuese posible que nada fuese
verdad), ni incompleta (como si hubiera alguna verdad ulterior), ni diferenciable entre esta verdad
o aquella otra. No hay verdades diferentes, porque sólo puede haber una Verdad: nada que
designa una verdad diferente constituye una designación verdadera de nada. Pero el Ser de
Parménides tiene una historia más larga y compleja como idea que la mera identificación con el
verbo copulativo es. Si estaba en lo cierto, entonces la Verdad, que suele ocultarse, está más
alejada de las apariencias de lo que Demócrito suponía. Si no sabemos nada acerca de la realidad
(nos dice Demócrito), ¿cómo podemos afirmar que está compuesta de simplicidades individuales
dispersas en el espacio y moviéndose en el tiempo? Cuando cerramos los ojos a las apariencias,
no existe más razón para pensar que hay multiplicidad de cosas, o que el espacio o el tiempo son
otra cosa que formas que creemos ver. Si podemos conocer una Verdad, como lo afirma
Parménides, ello no podría ser en base a la experiencia sensorial. Sólo la razón nos muestra lo que
Es. La Verdad abierta sólo al intelecto es lo que el intelecto nos dice que Es. No puede haber
división entre Ser y Pensamiento. Esto, para Parménides es el Uno. Es relevante observar que en
el pensamiento de Parménides se insinúa una idea cuyo eco, como veremos más abajo, parece
resonar modernamente en la concepción Heideggeriana del concepto de verdad.
Protágoras (c. 481-c. 411 A.C.) por su parte, negaba que hubiera verdad alguna más allá de lo
que la gente dice o manifiesta. “El hombre es la medida de todas las cosas”: esto equivale a un
rechazo de la revelación Democriteana y un anticipo de la posición adoptada por algunos
pensadores contemporáneos como Kierkergaard (16), para quien toda verdad es subjetividad.
Una vez más, la verdad es obvia, pero lo que es obvio para alguien, no lo es necesariamente para
otro. La elección entre “verdades” conflictivas debe entonces hacerse en términos distintos al
hecho que una de las verdades lo sea más que la otra.
Decir que la verdad no es, o que no tiene necesariamente que ser lo que asumimos como
cierto, implica aceptar dos suposiciones que han sido cuestionadas. La primera se refiere a la
aceptación de que hay una verdad sobre el tema en cuestión, y la segunda implica que podemos
hallar esa verdad, aunque sea para determinar que ésta no lo es. Estas suposiciones ya fueron
cuestionadas de manera rigurosa en el mundo antiguo por los filósofos Escépticos, cuyos
argumentos fueron resumidos por Sextus Empiricus (200 D.C.). Reconocían que no podemos
declarar cualquiera de las suposiciones anteriores como falsa sin caer inevitablemente en una
contradicción. En efecto, si decimos que no hay verdad, al menos en esto estamos mintiendo. Si
por otra parte decimos que no podemos encontrar la verdad, ¿cómo podemos entonces afirmar
verdaderamente que no lo podemos hacer?
San Agustín (354-430), sin duda uno de los filósofos más influyentes que hayan existido, se
sintió atraído durante algún tiempo por el pensamiento escéptico, especialmente de la Academia
Platónica tardía. San Agustín considera que muchos de los argumentos de los escépticos son los
de la ilusión sensorial. En este sentido, se muestra de acuerdo en aceptar estos argumentos, y el
hecho de que si bien en la práctica debemos confiar en nuestros sentidos, éstos son en última
instancia falibles. Sin embargo, no profesa por esto un escepticismo a ultranza. En tal sentido, en
Confesiones, X, San Agustín distingue entre las cosas que se presentan de modo directo a la
mente y las que lo hacen indirectamente por medio de representaciones, a través de los sentidos
(17). Pero las representaciones nunca constituyen la realidad en sí, mientras que en cambio la
mente puede alcanzar un conocimiento cierto y absoluto acerca de los que se le presenta en
forma inmediata o directa (Teoría de la Iluminación de San Agustín). No obstante, San Agustín
también nos dice que se puede errar aun acerca de aquellas entidades que se presentan
directamente a la mente en la medida que no se les preste adecuada atención. Sin embargo, este
tipo de error puede ser detectado y corregido mediante la reflexión, lo que no ocurre con las
representaciones en las que aparece una barrera insuperable hacia la certidumbre.
Vemos en San Agustín el germen de las ideas acerca del concepto de verdad que más tarde
enunciarían Descartes, Leibniz, y hasta cierto punto el propio Kant: “todas la verdades
necesarias son analíticas” (Leibniz), cuando una verdad es necesaria, la razón para ello puede
hallarse mediante análisis, es decir reduciéndola a ideas simples hasta que las verdades primarias
sean alcanzadas (18).
Según Heidegger, la manera tradicional de concebir la esencia de la verdad reposa en tres tesis,
que son las siguientes: (i) el “lugar” de la verdad es la proposición (el juicio), (ii) la esencia de la
verdad reside en la “concordancia” del juicio con su objeto, (iii) Aristóteles, el padre de la lógica,
es quien refirió la verdad al juicio como a su lugar de origen, así como quien puso en marcha la
definición de la verdad como “concordancia”. Sin embargo, siempre según Heidegger, no obstante
que la teoría neokantiana del conocimiento del siglo XIX ha estigmatizado repetidamente esta
definición de la verdad como la expresión de un Realismo Ingenuo metódicamente retrasado,
incompatible con todo planteamiento que haya pasado por la “Revolución Copernicana” de
Kant, pasa por alto el hecho que el mismo Kant se atiene a tal concepto de verdad. La verdad,
nos dice Heidegger, no tiene en absoluto la estructura de una concordancia entre el conocer y el
objeto, en el sentido de una adecuación de un ente (sujeto) a otro (objeto). El “Ser verdadero”
como “Ser descubridor”, sólo es ontológicamente posible sobre la base de “Ser en el mundo”.
Este fenómeno, en el que Heidegger reconoce una estructura fundamental del “Ser ahí”, es el
fundamento del fenómeno original de la verdad. De modo que la crítica de Heidegger a la noción
tradicional de verdad pasa por considerar el concepto como derivado, por un rechazo de la
verdad como evidencia o como identificación. Heidegger ve al verdadero carácter de la verdad
capturado en la palabra griega Aletheia, que según sabemos significa “lo que no está oculto”. Es
así que cuando las cosas quedan expuestas a la luz de la conciencia humana, o bien del “Ser ahí”,
constituyen en sí la verdad, porque son “Ser en sí” desocultadas e iluminadas, y esta verdad que
el Ser en sí es, es más básica y fundamental que cualquier juicio acerca de aquél (19). En este
sentido, la verdad para Heidegger es lo mismo que la libertad humana, porque la libertad yace en
nuestra capacidad de revelar al Ser de modo apropiado. La pregunta por el sentido del Ser es la
pregunta sobre la verdad del Ser.
Volviendo ahora a la conexión entre la noción de verdad y la Teoría del Conocimiento y la
Teoría del Significado, Strawson (20) nos dice que históricamente, es la primera de estas
relaciones, es decir la que existe entre los conceptos de verdad, conocimiento y creencia, la que
ha sido más prominente. Ya hemos mencionado que nos encontramos aquí frente a lo que parece
ser un debate irreconciliable entre dos teorías conflictivas de la verdad: la Teoría de
Correspondencia, según la cual una creencia es verdadera si y sólo si se corresponde con un
hecho, o sea con un estado de cosas objetivamente existente; y la Teoría de Coherencia, de
acuerdo con la cual una creencia es verdadera si y sólo si es un elemento de un sistema coherente,
consistente y comprensivo de creencias. Strawson nos dice que más que un debate entre dos
posturas irreconciliables, nos hallamos en realidad en presencia de dos visiones que sólo difieren
en el énfasis dado a diferentes aspectos o partes del sistema de ideas interconectadas que
constituye nuestro bagaje conceptual básico.
Algunos de los argumentos que Strawson utiliza para demostrar la consistencia entre las dos
posiciones mencionadas son los siguientes: (i) la mayoría de nuestras creencias no se vinculan u
obedecen a una experiencia directa sino a una información comunicada de modo indirecto, (ii)
nuestras creencias incluyen necesariamente creencias generales como conceptos sobre entidades
objetivas que preservan su identidad a través de los cambios, es decir que exhiben regularidades
en su comportamiento, (iii) las creencias o candidatos a creencias pueden entrar en conflicto unas
con otras, o bien dos o más creencias que no están en conflicto pueden estarlo a la luz de otra
creencia general, lo que puede obligar a abandonar una de las creencias a fin de restaurar la
consistencia en el sistema de creencias, (iv) la admisión de una nueva creencia se efectúa contra
este cuerpo o sistema de creencias que en conjunto no ponemos en duda, quizás a costa de la
expulsión de algún miembro preexistente. Ahora bien, difícilmente puede encontrarse un
conflicto entre estos argumentos y cualquiera de las dos posiciones antes mencionadas. Con
relación a éstas, Strawson nos hace notar que la realidad obviamente contiene a la experiencia y a
la formación y mantenimiento de creencias, pero la Teoría de Correspondencia enfatiza el hecho
que en el mundo en el cual una experiencia es una experiencia de, y en el cual un juicio es un
juicio sobre, una realidad posee una existencia independiente de la ocurrencia de una experiencia
acerca de aquella. En la Teoría de Coherencia en cambio, el énfasis se pone principalmente,
aunque no exclusivamente, en la dependencia e interrelación lógica mutua entre cada una de las
creencias que constituyen el sistema de creencias. La objeción no se dirige tanto al concepto de
Correspondencia en la forma en que se lo ha expuesto, como a la idea de que es posible que cada
creencia sea separable de las demás y contrastable contra la porción de la realidad a la cual la
creencia se refiere, y luego concebir a toda la estructura como un mero agregado de lo que
podríamos denominar átomos de creencias. M ás aún, la idea de Correspondencia nos induciría a
pensar que podemos tener un acceso a los hechos libre de presupuestos, mientras que la Teoría
de Coherencia mantiene que no es posible establecer contacto cognitivo con la realidad sin que
ello implique la formación de una creencia o la elaboración de un juicio. En resumen, el teórico de
la Correspondencia nos dice que los sistemas o estructuras de creencias son sistemas o
estructuras sobre una realidad concebida como existiendo independientemente de las creencias
particulares acerca de la misma. En cambio, el teórico de la Coherencia sostiene la
interdependencia de la estructura y el hecho que no es posible modificar una creencia sin generar
otra; insistiendo que nuestras creencias son en efecto, estructuras de creencias.
Las consideraciones anteriores nos permiten apreciar de qué modo el concepto de verdad ha
evolucionado a través del tiempo, así como arrojar alguna luz sobre la vinculación entre una
Teoría de la Verdad, y las de Conocimiento y Significado. En efecto, por un lado sólo lo que es
verdad (en el sentido que le asigna Strawson al término) puede ser conocido. En otras palabras,
las condiciones bajo las cuales una creencia puede tomarse como conocimiento incluyen, aunque
no de manera excluyente, la condición de que el conocimiento sea verdadero. Por otra parte, la
condición bajo la cual una sentencia expresa una verdad parece central a la noción de significado
de la sentencia.
Sin embargo, puede objetarse a Strawson que la concepción moderna de conocimiento es en
realidad menos estricta que la platónica (y que la del propio Strawson, que no difiere mucho de
ésta), ya que en rigor ninguno de los tres atributos arriba mencionados: creencia, verdad y
prueba, son considerados actualmente apropiados o esenciales para caracterizar al conocimiento,
y en particular al conocimiento científico. Ya no exigimos del conocimiento una dependencia
estricta entre prueba y verdad, ya que es posible aceptar una teoría científica sin haberla probado
de manera concluyente, considerándosela de algún modo como “provisional”, lo que implica
también un divorcio entre el concepto de conocimiento y el de creencia.
No es posible completar nuestro análisis de la evolución del concepto de verdad sin hacer
una referencia al rol que este concepto juega en el campo de las ciencias formales, especialmente
de la matemática. En efecto, el problema de la verdad matemática se remonta a los tiempos de los
primeros filósofos y matemáticos griegos. Sin embargo, los últimos cien años nos han traído
alguna clarificación y una nueva visión con relación a aquel concepto. Uno de los principales
problemas relacionados con la verdad matemática es el siguiente: ¿son los teoremas matemáticos
invención o descubrimiento? Cuando un matemático alcanza un resultado, ¿está produciendo
sólo una construcción mental más o menos elaborada desprovista de realidad objetiva, o por el
contrario, posee una existencia propia independiente del matemático que la formula? Esta última
posición es lo que de un modo un tanto simplificado podemos llamar platonismo. Sin embargo,
bajo esta calificación podemos preguntarnos si lo que tiene existencia objetiva son los propios
objetos del pensamiento matemático, o si en cambio es sólo el concepto de “verdad matemática”
lo que tiene valor o significado absoluto. Para algunos autores, como Roger Penrose (21), ambos
atributos: la existencia platónica y el valor de verdad absoluto, se confunden en uno solo. No
podemos aquí dejar de hacer una referencia a la manifestación del músico ruso Stravinsky, en el
sentido que su música era un “objeto”, una “cosa” con vida propia y sin otro significado que su
propia existencia musical (22). En oposición al platonismo, encontramos al intuicionismo,
iniciado hacia 1924 por el matemático holandés E.J. Brouwer, como una respuesta a las
paradojas que se presentan (tal como la de Russel) cuando se consideran colecciones o conjuntos
demasiado amplios o infinitos. Una característica de la posición intuicionista es el rechazo del
Principio del Tercero Excluido, según el cual la negación de la negación de una proposición es
equivalente a la afirmación de tal proposición. En otras palabras: si la negación de una
proposición es falsa, la proposición debe ser verdadera, lo que constituye el sustento lógico del
reductio ad absurdum. Por el contrario, para un intuicionista, existencia significa “existencia
constructiva”. Sin construcción, no hay existencia verdadera, por lo que no es posible deducir la
existencia de un objeto a partir de la falsedad de su no-existencia. En la actualidad, muy pocos
matemáticos adherirían al intuicionismo, aunque sólo sea por el hecho que tal posición es muy
limitante con relación al tipo de razonamientos que es posible utilizar.
Para finalizar, y a modo de resumen, tengamos en cuenta que si bien la metafísica occidental
prevaleciente acepta la existencia de lo que llamamos “verdad objetiva”, ésta no constituye de
ninguna manera una posición universal. La aceptación de la existencia de la verdad objetiva tiene
dos vertientes o componentes. Por un lado, el hecho que nuestras creencias son o bien
verdaderas o bien falsas: verdaderas en el caso en que el mundo se corresponda con la creencia en
particular y falsas en caso contrario. De modo que nuestras creencias mantienen con el mundo
una relación análoga a la que existe entre un mapa y el territorio que dicho mapa intenta describir:
el mapa es correcto en la medida que éste se ajuste adecuadamente a los accidentes geográficos
del territorio. Si esta correspondencia no se da, el problema será del mapa y no del territorio. El
segundo componente del concepto de que existe algo como la verdad objetiva, es la siguiente: el
mundo existe y posee características independientes de nuestras creencias y nuestras
aseveraciones (al menos esencialmente independiente ya que nuestros juicios y aseveraciones
son, como lo destaca Strawson, también parte del mundo y de la realidad). De modo que en este
contexto, la verdad o falsedad de nuestras creencias es “objetiva” en el sentido que el valor de
verdad es conferido a tales creencias o aseveraciones por los objetos o cosas sobre las cuales
tratan. De modo que la posición consistente en la aceptación de la verdad objetiva se encuentra
en buena medida relacionada (aunque no inevitablemente) con la aceptación de un mundo
independiente de nuestras creencias y construcciones mentales.
La noción de verdad sirve como vínculo entre la Teoría del Conocimiento y la Teoría del
Significado. No debe por lo tanto sorprendernos que cuando los filósofos plantean problemas
acerca de la naturaleza de la verdad, lo hacen frecuentemente refiriéndose a las teorías del
conocimiento y del significado. A fin de aclarar estos conceptos tengamos en cuenta que así
como las palabras son simples rótulos para las cosas, las oraciones son rótulos para los estados
de cosas. El significado cognitivo de una oración consiste en los estados de cosas que representa.
Habitualmente se formula el criterio de “significado” en términos de verificabilidad. Este
Principio de Verificabilidad puede adoptar distintas variantes, tales como:
A. El “significado” de un enunciado es el método de su verificación.
B. Un enunciado tiene “significado” sólo si es verificado.
C. Un enunciado tiene “significado” sólo si es verificable.
Es frecuente identificar el significado de un enunciado (o su significación) con la posibilidad
lógica de su verificación. En otras palabras, no es necesario que el enunciado en cuestión sea
efectivamente verificado, ni que sea verificable en cualquier sentido que no sea el lógico. Por
ejemplo, sabemos que la finitud de la velocidad de la luz hace empíricamente imposible verificar
si una estrella lejana está explotando en este momento. Sin embargo, no existe imposibilidad
lógica en concebir a la velocidad de la luz como infinita, en cuyo caso la verificación sería posible.
Debemos sin embargo distinguir esta versión del Principio de Verificabilidad de una variante un
poco más fuerte, denominada Operacionalismo, que es la siguiente:
iv. A fin de conocer el “significado” de un enunciado, debemos saber cómo verificarlo, saber
qué operaciones tenemos que realizar a fin de determinar su verdad o falsedad.
De manera que el Operacionalismo exige respecto de cada enunciado que seamos también
capaces de formular las operaciones mediante las cuales es posible verificarlo. Si bien no es
necesario realizar efectivamente tales operaciones, debe poder decirse en qué consisten.
Debemos destacar aquí que la concepción operacionalista del significado juega un rol esencial en
la ciencia, particularmente en la física contemporánea. Para decirlo de otra manera, en el lenguaje
empleado en ese ámbito muchos de los términos están basados en la definición operacional de los
mismos, que implica aceptar que “por definición” una entidad dada posee una cierta propiedad x,
cuando actuando de determinada manera y, se observa el resultado z.
Volviendo a la interpretación más corriente del concepto de “significado”, o sea que un
enunciado posee significación sólo si es lógicamente posible verificarlo, haya o no quien conozca
qué operaciones específicas se requieren para tal verificación, digamos que también esta versión
se encuentra sometida a críticas. En tal sentido, se afirma que existen muchos enunciados que no
son verificables, ni siquiera en el sentido lógico, y que no obstante ello son significativos. Por tal
motivo se sugiere que debemos reemplazar la palabra “verificable” por “confirmable”,
entendiendo por confirmación a una suerte de verificación incompleta. En este sentido,
supongamos que hay diez enunciados que en conjunto verifican un cierto enunciado p. La
verificación de digamos uno de los diez enunciados constituye una confirmación de p, pero no
una verificación. Cada nuevo enunciado de los diez que verifiquemos agrega peso a la
confirmación. Pero sólo cuando hayamos verificado los diez enunciados habremos logrado la
verificación de p.
De acuerdo con lo expuesto diríamos que:
v. Un enunciado tiene “significado” sólo si es (lógicamente) confirmable.
El Operacionalismo parte del supuesto que hay enunciados que son imposibles de verificar.
Tales enunciados son: los enunciados acerca del pasado o del futuro, y las leyes de la naturaleza.
Preguntémonos por ejemplo si es lógicamente posible verificar algún acontecimiento que
suponemos ocurrido en Egipto 5000 años A.C. Podríamos argumentar que desde un punto de
vista estrictamente lógico no sería imposible alcanzar las ondas de luz que se encuentran ahora a
5000 años-luz de nosotros y ser testigos del acontecimiento en cuestión. Sin embargo, lo que es
dudoso y cuestionable es la posibilidad (lógica)de estar ahí y estar aquí y ahora, al mismo
tiempo, ya que es aquí y ahora donde y cuando tenemos que efectuar la verificación. En lo
concerniente a las leyes de la naturaleza, puesto que las mismas se refieren tanto al pasado como
al futuro, las mismas no pueden ser verificadas sino solamente confirmadas. Una ley de la
naturaleza es infinita en su extensión, de modo que su verificación implicaría efectuar un número
infinito de confirmaciones. De modo que las leyes de la naturaleza, no sólo no son
empíricamente verificables sino que es lógicamente imposible su verificación.
Es interesante analizar las consecuencias que surgen de la aplicación del Principio de
Verificabilidad al caso de entidades no observables, como por ejemplo los electrones. Para el
verificacionista (llamaremos de este modo a quien acepta aquel Principio), el significado de la
aseveración de la existencia de los electrones tiene el mismo significado que los enunciados
aducidos como prueba de la hipótesis de su existencia. En otras palabras, es a través de la
verificación de los enunciados que podemos observar, que verificamos la existencia de los
electrones. De modo que para el verificacionista, el significado cognitivo de los enunciados acerca
de entidades no observables es igual a los significados combinados de los enunciados
probatorios. Observemos de paso que el punto de vista verificacionista se confunde aquí con el
fenomenalista. En efecto, de acuerdo con el fenomenalismo los enunciados sobre entidades no
observables son construcciones lógicas cuyo significado cognitivo reside en el significado
cognitivo de los enunciados acerca de los fenómenos observables que sustentan aquellas
construcciones lógicas. En este sentido, toda discusión acerca de la naturaleza de los “no
observables”, si no es puramente verbal, es necesariamente una discusión acerca de fenómenos
que son observables en principio, es decir fenómenos que han sucedido, suceden actualmente,
sucederán o sucederían en circunstancias especificables. Aceptar que tales fenómenos suceden y
negar al mismo tiempo la existencia de inobservables sería contradictorio, ya que los enunciados
acerca de dichos inobservables significan (cognitivamente) lo mismo que los enunciados acerca de
aquellos fenómenos observables.
Ya hemos mencionado que la posición anterior se contrapone con el punto de vista
“realista”, dado que según éste los inobservables están “realmente ahí”, lo que niega el
fenomenalismo. De modo que el Realismo afirma que hay “algo más” en una aseveración sobre
un inobservable que el significado cognitivo que reconoce el fenomenalismo y que se agota con el
significado cognitivo total de los enunciados que constituyen la prueba del inobservable. En
otros términos, para el realista los inobservables son algo más que construcciones lógicas, aunque
no siempre resulte claro qué es este “algo más”.
II.5. El vocabulario de la ciencia, la base empírica y los
enunciados científicos
La actividad científica se comunica por medio del lenguaje. Denominaremos términos a las
palabras o expresiones cuyo objeto es aludir a entidades o permitirnos construir afirmaciones o
enunciados científicos. Una primera distinción respecto de los términos que se usan en una
disciplina o teoría es que sean presupuestos o específicos. Un término es presupuesto si proviene
del lenguaje ordinario, o bien de una disciplina o teoría ya admitida y empleada por el científico.
La mayoría de los términos pertenecen a esta categoría. En cambio, los términos específicos o
técnicos, son introducidos por la teoría o se trata de términos ya existentes a los que se les ha
privado de su sentido primigenio y se les ha dado, convencionalmente, un nuevo significado,
como por ejemplo la palabra “spin”.
Es conveniente dividir a los términos presupuestos en tres tipos diferentes. El primero es el
de los términos lógicos, constituidos por palabras o conjuntos de palabras cuya misión principal
es ayudar sintácticamente a formar la frase y, en cierto modo, a definir con que alcance e
intención informativa se emplea el enunciado. Ejemplos de los términos presupuestos lógicos
son: los términos conectivos tales como “y”, “o”, “si... entonces”, etc., que sirven para enlazar
enunciados y formar otros nuevos. También son términos lógicos los cuantificadores universales
y existenciales (es decir “todos” y “algunos” respectivamente). Las palabras “es” y “no”
también son términos presupuestos lógicos. Las palabras lógicas provienen en general del
lenguaje ordinario y la lógica se ocupa de definir los criterios formales de su empleo. En general,
el vocabulario lógico es común a todas las disciplinas.
Todo término que no tenga la función de ayudar a formar enunciados sirve para aludir a algún
tipo de entidad: un objeto, una cualidad, una relación, una operación matemática, etc. Se trata
entonces de un término designativo o referencial. Los términos presupuestos designativos
podemos clasificarlos además en presupuestos ordinarios, que provienen del lenguaje corriente, y
presupuestos científicos, que surgen del seno de una teoría científica.
Finalmente, tenemos términos que hacen referencia a ideas o conceptos que no tienen
antecedente histórico, y que tendrán por lo tanto que adquirir su significado mediante
definiciones o procedimientos particulares que nos permitan entender de qué estamos hablando
cuando los utilizamos. Se trata en este caso de términos específicos.
A partir de todo lo visto hasta aquí podemos distinguir a manera de resumen entre objetos o
entidades empíricas por un lado, y objetos o entidades teóricas por el otro. Esta distinción, que
no es considerada ni legítima ni conveniente por algunos filósofos y epistemólogos
contemporáneos, resulta sin embargo útil, lo que justifica su empleo en lo sucesivo. En efecto,
cuando las disciplinas o teorías científicas se ocupan de objetos, hay que formular una primera
distinción: nuestro conocimiento de algunos de estos objetos es directo, en el sentido que no
requiere de ninguna mediatización de instrumentos o teorías para que podamos tener
conocimiento de ellos. Se ofrecen directamente a la experiencia sensible y podemos por ello
denominarlos (al menos provisoriamente) objetos directos. Pero hemos visto que no todo objeto
del cual se ocupa la ciencia se encuentra en aquellas condiciones. En tal caso podemos decir, que
estamos tratando con objetos (o entidades) no observables u objetos indirectos. Ahora bien, el
conjunto de objetos directos es lo que podemos llamar base empírica, mientras que el conjunto
de los demás objetos constituye lo que denominaremos zona teórica de las disciplinas o de las
teorías científicas. Cuando un objeto, entidad o situación de la base empírica es conocido,
decimos que contamos con un dato o alternativamente, con una observación.
Es fácil ver que las argumentaciones para justificar un conocimiento relativo a la zona téorica
serán en general más complejas que las que corresponden a la base empírica. A fin de considerar
este aspecto con un poco más de precisión, resulta conveniente que distingamos entre tres tipos
distintos de base empírica: filosófica, epistemológica, y metodológica. Entendemos por base
empírica filosófica al conjunto de todos los datos indubitables aún para los filósofos. Resulta
claro que el conjunto de estos objetos o entidades debe ser mucho más restringido que el de la
base empírica de la ciencia, ya que como hemos visto más arriba, los filósofos suelen dudar de
muchas más cosas de las que dudan los científicos y los epistemólogos. De hecho, no todos los
filósofos aceptan la existencia de una base empírica filosófica, ya que según quienes adoptan esta
postura, no hay datos seguros en parte alguna del conocimiento.
El punto de partida de la ciencia son datos obtenidos de la experiencia cotidiana, a los que se
trata de reinterpretar y extender en términos que van más allá del conocimiento vulgar. A partir
de aquellos datos, el científico trata de formular suposiciones que involucran entidades de la zona
teórica y que permitan justificar nuestras creencias y explicar las regularidades que hallamos en la
vida cotidiana. Tal base empírica, a la que denominaremos base empírica epistemológica, ya no
posee un carácter filosófico como la anterior e incluye los datos obtenidos en la vida ordinaria de
la manera antes indicada. Es obvio que esta base empírica antecede necesariamente al uso de
cualquier teoría científica.
Finalmente, tenemos que incluir un tercer tipo de base empírica, a la que llamaremos base
empírica metodológica. A medida que se desarrolla la ciencia, se incorporan al conocimiento
científico numerosas teorías e instrumentos de observación. Unos y otros se encuentran
estrechamente vinculados, ya que aceptar los datos que nos proporciona un instrumento implica
a la vez aceptar una teoría acerca del mismo. En tal caso podemos hablar de observación en un
sentido más amplio que el que hemos descrito con relación a la base empírica epistemológica. Si
no disponemos de una teoría que legitime el funcionamiento y uso del instrumento de medición,
aquello de lo que estamos hablando no es observable. Es fácil ver que estamos aquí en una
situación más cercana a la metodología que a la epistemología, ya que el científico acepta
normalmente en forma presupuesta una serie de teorías que emplea en su investigación. De este
modo, los datos obtenidos con el recurso de ciertas teorías que no se cuestionan, forman lo que
llamamos base empírica metodológica.
Analicemos brevemente la estructura lógica de la estrategia empleada por el científico en
situaciones como las que estamos considerando. Cuando un biólogo afirma observar una célula a
través del microscopio, está tácitamente aceptando un cuerpo importante de teorías sobre la luz,
y en particular sobre sistemas ópticos centrados. Estas teorías son las que le permiten establecer
un isomorfismo entre la imagen luminosa que percibe en el microscopio y la célula real. En otras
palabras, el biólogo razona implícitamente de la siguiente manera: “percibo una mancha luminosa
a través del ocular del microscopio si y sólo si hay un objeto mucho más pequeño pero
isomórfico en el objetivo”. Es decir la forma lógica es la siguiente: A si y sólo si B. Aquí A resume
una descripción hecha en términos que aluden a la base empírica epistemológica, mientras que B
se refiere a la zona teórica, e involucra entidades a las que sólo podemos acceder a través de
instrumentos y construcciones teóricas, como podrían serlo la célula antes mencionada, o la
presión o densidad de un fluido. De manera que desde el punto de vista lógico, el enunciado “A si
y sólo si B” es una equivalencia que garantiza la verdad de A si B es verdadero y la verdad de B si
A es verdadero (Regla de correspondencia o hipótesis puente). En forma más explícita, lo que el
científico aplica en su observación es una regla de razonamiento correcta conocida desde la
antigüedad con el nombre de modus ponens, una de cuyas variantes tiene la siguiente forma:
A si y sólo si B
A
por consiguiente B
Es evidente que en la inmensa mayoría de los casos, la aplicación de esta regla es automática,
de modo que aunque resulte en rigor epistemológicamente incorrecto, conviene desde el punto de
vista práctico extender el sentido del término observación y admitir que observamos lo que se
describe en B. Por tal motivo, cuando nos refiramos a la base empírica metodológica diremos que
se ha hecho una observación en sentido amplio o extenso, para distinguirla de las observaciones
referentes a la base empírica epistemológica, a las que llamaremos observaciones en sentido
estrecho.
El concepto de observación en sentido amplio ha conducido a algunos autores,
particularmente Gregorio Klimovsky a proponer un modelo de “capas de cebolla” para la
construcción del conocimiento científico. En efecto, según dicho autor los datos que no hacen
uso de instrumentos ni de teorías se ubican en la base empírica epistemológica. Debido a los
problemas que se plantean en esta primera base empírica, surgen en algún momento las teorías
científicas básicas originando las primeras reglas de correspondencia del tipo “A si y sólo si B”.
A partir de éstas fue posible ampliar las observaciones y se construye la primera base empírica
metodológica. La observación en sentido amplio permitió contar con más objetos de los que se
disponía anteriormente a condición de no cuestionar las leyes en las que nos hemos basado para
inferirlos desde la base empírica epistemológica. Pero entonces surgen nuevos problemas en la
base empírica metodológica y aparecen nuevas teorías para solucionarlos y nuevas reglas de
correspondencia del tipo “A si y sólo si B”, pero donde ahora A se refiere a una observación en
sentido amplio y B a una nueva observación ampliada, dando lugar a una nueva base empírica
metodológica, y así sucesivamente.
Los términos con que se construye el lenguaje (vulgar y científico), constituyen los
elementos fundamentales del pensamiento, pero no bastan para transmitir información o
expresar conocimientos. Las informaciones y conocimientos deben expresarse mediante
oraciones declarativas, así llamadas para distinguirlas de las interrogativas y exclamativas,
destinadas respectivamente a requerir información o a poner de manifiesto ciertos estados de
ánimo.
El tipo o categoría más sencilla de enunciados científicos es el que llamaremos enunciados de
primer nivel o enunciados empíricos básicos. Su función principal se refiere al control del
conocimiento y se caracterizan por dos condiciones básicas: la primera es que, además del
vocabulario lógico, todos los términos que se empleen sean empíricos, es decir provenientes de la
base empírica epistemológica. La segunda condición es que sean enunciados singulares o
muestrales, es decir que se refieran a una entidad en particular o a un conjunto finito y accesible
de ellas. El valor de verdad de los enunciados empíricos básicos puede establecerse por
observaciones adecuadas. Sin embargo, las leyes científicas deben expresarse mediante
enunciados generales que abarcan casos que van mucho más allá de las muestras, lo que como
hemo visto, impide una decidibilidad efectiva en el mismo sentido que para los enunciados
empíricos básicos. El registro de observaciones o experimentos en una investigación científica
constituye una lista de enunciados empíricos básicos, a condición que no incluyan aspectos
interpretativos. De hecho hay disciplinas a las que se atribuye el no haber podido ir más allá de
los enunciados de primer nivel: tal es el caso de la historia o de la geografía, aunque en la
actualidad se piensa que existe un nivel teórico en el desarrollo de las mismas que les permitiría
avanzar hacia enunciados de otro nivel.
Los enunciados de segundo nivel están constituidos por las denominadas generalizaciones
empíricas. También se caracterizan por dos condiciones: al igual que en el caso de los enunciados
empíricos básicos, los términos empleados son lógicos y empíricos, y por lo tanto el discurso
atañe únicamente a la base empírica. No hay en ellos entidades inobservables de carácter teórico.
La segunda condición establece la diferencia con los enunciados de primer nivel y es que
consisten en afirmaciones generales que establecen regularidades o uniformidades en conjuntos
tan amplios que no son directamente accesibles. Es decir, se refieren a conjuntos que por su
extensión, no se pueden agotar mediante observaciones singulares. Se trata entonces de
enunciados empíricos generales del tipo: “todos los cuerpos se dilatan con el calor”. Constituyen
lo que puede denominarse “leyes empíricas”. Corresponde aquí hacer una aclaración en cuanto al
uso de la palabra “ley”. La acepción ontológica se refiere a su aplicación a las cosas o entidades,
mientras que la acepción lingüística se refiere a los enunciados o expresiones que emplea el
científico. Con relación a esto, podemos decir que una ley en sentido lingüístico es la expresión
de una ley en sentido ontológico. Las generalizaciones que constituyen los enunciados de
segundo nivel pueden a su vez clasificarse en universales, existenciales, mixtos y estadísticos o
probabilísticos.
Los enunciados de tercer nivel o enunciados teóricos, se caracterizan por contener al menos
un término de la zona teórica. Pueden ser singulares o generales. Para reconocerlos es necesario
haber efectuado previamente una distinción entre términos teóricos y términos empíricos. Ya
hemos mencionado que puede haber disciplinas que carecen de enunciados teóricos. De hecho,
existe una corriente epistemológica que sostiene que los enunciados de tercer nivel, en la medida
que se refieren a entidades no observables, pertenecen al ámbito de la metafísica y no de la
ciencia. Sin embargo, el éxito de las teorías científicas ha sido demasiado evidente como para
sugerir la conveniencia de que la ciencia no debería ir más allá de los dos primeros niveles.
Finalmente, digamos que debemos distinguir entre enunciados teóricos puros, que sólo contienen
términos lógicos y teóricos, y los enunciados teóricos mixtos, que también contienen términos de
la base empírica. Estos últimos suelen cumplir la función de enunciados puente o de reglas de
correspondencia, y son por lo tanto esenciales para vincular el ámbito puramente teórico con la
base empírica.
II.6. Observación y teoría
Todo el análisis anterior nos permite entender por que existe una marcada tendencia en la
moderna filosofía de la ciencia a aceptar la tesis que no puede establecerse una diferencia clara
entre observación y teoría. En otras palabras, no hay un nivel observacional puro en la ciencia
totalmente libre de algún bagaje teórico. Uno de los antecedentes para esta actitud radica en el
fracaso de los positivistas lógicos de los años 30 en desarrollar un lenguaje observacional puro
que pudiese describir a los objetos y eventos del mundo de una manera que no implicase
suposiciones inverificables acerca de lo observado. La ilusión consistía en que si se hubiese
podido aislar o construir tal lenguaje, la ciencia descansaría sobre cimientos firmes.
Desafortunadamente para este proyecto, resultó que el lenguaje que utilizamos corrientemente
para describir nuestras observaciones está cargado de concepciones teóricas. En efecto, cuando
hablamos de gatos, perros, sillas, árboles, gente, etc., estamos introduciendo toda clase de
suposiciones acerca de la naturaleza y del futuro del comportamiento de las cosas observadas.
M uchas de estas suposiciones resultaban inverificables desde el punto de vista positivista
lógico, dado que implicaban expectaciones respecto de los estados futuros de los objetos, así
como suposiciones acerca de su origen, y (quizás lo más problemático) hipótesis acerca de cómo
se hubiesen comportado en circunstancias que nunca ocurrieron en la realidad (enunciados
contrafácticos). De hecho, la simple (¿simple?) observación de un cuerpo celeste a través de un
telescopio implica la aceptación tácita de un extenso cuerpo de óptica teórica, y si vamos a
considerar entonces a los telescopios como “contaminados teóricamente”, (23) ¿qué nos queda
para nuestras propias facultades sensoriales?
De cualquier modo, el hecho indudable de que toda observación implica presuposiciones no
debería impedirnos aceptar que puedan existir diferentes niveles teóricos de observación.
Nuestro lugar como seres humanos en un cierto nicho de la naturaleza confiere algún sentido a la
distinción entre diferentes niveles de concepción teórica en nuestras observaciones y sugiere que
la decisión de aceptar algún nivel observacional como “básico” no es enteramente dogmática. En
efecto, solemos aceptar como nivel básico de observación aquel que se relaciona con nuestra
experiencia de vida y a nuestra relación con el mundo, lo que nos lleva a esperar que las teorías
de la ciencia, en la medida que sean aceptables, tendrán frecuentemente implicancias prácticas en
el mundo de la experiencia.
II.7. Positivismo, Realismo Científico e inferencia a la mejor
explicación
Analizaremos a continuación la actitud adoptada por la posición conocida como Positivismo.
El Positivismo se inició en la segunda mitad del siglo XIX, seguramente influenciado por el éxito
de las ciencias exactas, las cuales poseen criterios para establecer la verdad de sus proposiciones,
por ejemplo mediante la experimentación. Fue Augusto Comte (1798-1857), quien propuso
entonces depurar la filosofía de toda metafísica limitando sus sentencias a frases positivas, es
decir de demostrada validez. Esta metodología tuvo sus continuadores en el siglo XX,
destacándose entre ellos los integrantes del llamado “Circulo de Viena”, que formalizaron y
complementaron la idea original de Comte con el análisis lógico. La corriente filosófica así
generada, denominada también Neopositivismo, ha tenido gran influencia en el pensamiento
científico y filosófico contemporáneo, al proponer que el sentido o significado de toda frase lo
determine exclusivamente su carácter de ser verificable, ya sea empíricamente, por los datos
sensoriales, o como deducción lógica a partir de éstos. La filosofía neopositivista puede entonces
resumirse por la regla básica que debe regular todo pensamiento o afirmación, según la cual sólo
deben emplearse frases con sentido o positivas, además de los nexos lógicos, matemáticos y
lingüísticos. Se define que una frase tiene sentido cuando existe un procedimiento experimental
que la verifica o la refuta, o cuando es lógicamente demostrable a partir de otras frases con
sentido. De lo contrario, se trataría de una pseudofrase. En general, pueden identificarse seis
ideas características asociadas con una aproximación positivista a las ciencias naturales. Aunque
no todas ellas son necesariamente aceptadas simultáneamente, tomadas en conjunto definen una
posición coherente que determina una actitud particular hacia la ciencia y sus problemas.
Estas ideas son:
A. Énfasis en la verificación y en la falsación. El punto central aquí es que cualquier teoría
sobre el mundo físico debe implicar alguna diferencia en la experiencia. En otras palabras,
debe predecir efectos observables y ser capaz de estar (al menos en principio) en conflicto
con la evidencia observable. Tengamos en cuenta que por mínimo que nos parezca este
requerimiento, hay muchas teorías influyentes que no lo cumplen. Esto no es sólo cierto
en el campo ideológico, religioso o metafísico, como podría serlo la proposición: “todo
efecto tiene una causa”, sino también ideas que han sugerido algo sobre la forma o
estructura básica del mundo natural, como por ejemplo la idea de que no existe acción a
distancia o la concepción fundamental del atomismo, ninguna de las cuales puede ser
verificada o falsada en términos absolutos.
B. La segunda idea positivista está constituida por la tesis de que todo conocimiento genuino
se funda en la experiencia u observación sensible.
C. La tercera idea positivista, cuyos orígenes pueden rastrearse hasta Hume, es la afirmación
de que el concepto de causación no es otra cosa que conjunciones constantes entre tipos
de eventos
D. La cuarta idea se vincula con la anterior y tiene que ver con la hostilidad generalizada de
los positivistas hacia las causas, con su desconfianza hacia el papel, e incluso hasta la
posibilidad de explicaciones profundas o fundamentales en la ciencia. Si no existen
necesidades que fuercen a los eventos a ocurrir, y todo lo que tenemos en el mundo son
meras regularidades entre tipos de eventos, entonces lo único que nos queda por hacer
como sustituto de explicación es la postulación de regularidades más generales todavía. De
cualquier forma, si la necesidad no existe al nivel más profundo, tampoco existirá a otros
niveles.
E. La quinta característica del Positivismo es su oposición a la metafísica. M ientras que el
antipositivista rescatará la significación del rol cognitivo de las ideas metafísicas en el
proceso de construcción de teorías empíricas, el positivista sólo aceptará el valor
heurístico de aquellas como formas de explicación útiles para guiar la investigación
empírica, a pesar de las dificultades en justificar por qué algunas concepciones teóricas
tales como el atomismo o el mecanicismo han sido tan fértiles en nuestras investigaciones
acerca del mundo real.
F. La sexta y última tesis positivista es quizás la más característica y al mismo tiempo la
más controversial. Se trata de su escepticismo hacia las entidades teóricas o inobservables,
no obstante que la ciencia está llena de ejemplos de progreso de lo inobservable hacia lo
observable (basta considerar los casos de los genes, virus o átomos). De cualquier modo,
la insistencia de los positivistas en el sentido de requerir algún argumento antes de aceptar
que existen inobservables, no parece carente de razonabilidad si tenemos en cuenta que es
la experiencia en su sentido más general lo que nos conecta con la realidad. El positivista
no necesita ser dogmático en este aspecto, ya que sólo requiere una extensión del
concepto de observación y una actitud abierta respecto del problema de delimitar el
campo de lo observable del de lo inobservable (Van Fraassen (24) por ejemplo, insiste en
que tales entidades como espacio-tiempo, campos y partículas elementales, son
definitivamente, no observables).
Con respecto al problema de la existencia del mundo externo, el Positivismo considera que la
sentencia que define al Realismo: “existe el mundo externo objetivo, independiente de la
observación”, es una frase sin sentido, ya que como hemos visto, es imposible demostrar o
refutar experimentalmente su validez. De esta manera, el Positivismo se diferencia del Realismo,
no demostrando su falsedad, sino declarando que el mismo no tiene sentido. Del mismo modo, el
Positivismo acepta la correlación entre los datos sensoriales de diferentes individuos como un
hecho primario, al cual se abstiene de pretender explicar. Entre las críticas que es posible levantar
frente al Positivismo, algunos autores mencionan en primer término una de carácter formal, que
consiste en puntualizar que la misma sentencia que lo define constituye una frase sin sentido. Sin
embargo, como lo señala de la Torre (25), más grave y más difícil de salvar que la anterior es la
dificultad emergente del hecho que la limitación de usar sólo frases con sentido deja afuera
proposiciones tales como “el sol saldrá mañana”, ya que desde el punto de vista del formalismo
positivista, toda predicción acerca del comportamiento futuro de algún sistema, físico o no,
carece de sentido, por no ser susceptible de verificación experimental en tanto el evento predicho
no se produzca. Del mismo modo, carecerían también de sentido las proposiciones referentes a
hechos del pasado. Es así que una frase puede tener sentido en un dado momento histórico
(cuando el evento es susceptible de verificación experimental), y dejar de tenerlo en otro
momento, lo cual constituye una situación altamente insatisfactoria para la ciencia, ya que ésta
se ocupa esencialmente de explicar el pasado y predecir el futuro. Es por esto que el Positivismo
le niega tal función a la ciencia, limitándola a registrar correlaciones entre hechos experimentales
y los posibles resultados numéricos, sin que esto autorice a pronunciar sentencias sobre posibles
explicaciones o sobre la realidad objetiva de los sistemas bajo estudio. De acuerdo con esto, una
ciencia como la historia se limitaría a comprobar correlaciones y diferencias entre datos
registrados en papeles, documentos u otros elementos, sin poder inferir de ellos ningún aspecto
de la realidad que pueda estar reflejando el contenido de tales registros.
Finalmente puede destacarse la fuerte componente subjetiva de toda posición positivista, ya
que el criterio empírico para establecer si una frase tiene sentido o no, implica una observación
efectuada por una mente consciente. Como consecuencia de ello todas las frases que participan
en la ciencia, en vez de hacer alusión a alguna propiedad objetiva del sistema en estudio, se
refieren a conceptos que alguna mente consciente tiene del sistema. Quien reflexiona de acuerdo
con estos conceptos llega necesariamente a la conclusión que es excesivamente ambicioso
pretender alcanzar el conocimiento científico de las estructuras mismas de la realidad. Al adoptar
una postura operacional, su visión del método será la de un procedimiento eficaz para construir
una ciencia que puede ser considerada sólo como una síntesis de la experiencia humana
comunicable. Esto implica a su vez aceptar que el conocimiento científico no posee significado
fuera de los límites de tal experiencia.
Los científicos practicantes de las ciencias “duras” en general, y muy particularmente los
físicos tienden a calificarse a sí mismos como “positivistas”. Sin embargo, un análisis un poco
cuidadoso de la posición adoptada por tal grupo nos sugiere que una buena parte de los
científicos “duros” suelen más bien practicar una suerte de variante del Positivismo ortodoxo que
algunos autores llaman “Positivismo de los Físicos” o “Instrumentalismo”. D’Espagnat (26)
denomina Instrumentalismo al Positivismo de los Físicos. Admite que el Instrumentalismo tiene
mucho en común con el Positivismo de los filósofos pero que difiere de este en importantes
aspectos. Se refiere a lo que D’Espagnat llama la critica de los conceptos, que según él, sólo esta
presente como trasfondo en el Positivismo de los filósofos siendo en cambio la esencia del
Positivismo de los físicos. Esta crítica de los conceptos encuentra un claro ejemplo en el cambio
experimentado en los conceptos de espacio y tiempo como entidades separadas e independientes
una de otra. La Teoría de la Relatividad obligo a reemplazar ambos conceptos por el concepto
unificado de espacio-tiempo. La denominación de Instrumentalismo es según él apropiada
porque en el marco de este Positivismo, las teorías son instrumentos para la explicación o para la
predicción de eventos.
El Instrumentalismo se diferencia del Positivismo clásico fundamentalmente por considerar a
las teorías físicas como algo así como un “instrumento” que nos permite, en base a hechos
experimentales, efectuar predicciones ciertas o probabilísticas de los resultados de la
observación. Por tal razón, al Instrumentalismo se lo denomina también alternativamente
“filosofía de la experiencia”. En cambio, otro sector de los científicos “duros” posiblemente
tanto o más importante como el anterior, que también suele identificarse a si mismo como
“positivista”, adhiere a una posición filosófica que podríamos denominar Realismo Físico,
Realismo Matemático, o de un modo más general Realismo Científico.
Denominaremos Realismo Científico (para identificarlo como una variante dentro de lo que
hemos llamado Realismo, con mayúscula) a la posición que consiste en aceptar que las teorías de
la ciencia nos brindan conocimiento acerca de la realidad y de lo inobservable y que las
proposiciones sobre estos inobservables son en muchos casos verdaderas, no obstante que la
evidencia es obviamente indirecta. Un pensamiento que guía tal actitud es la llamada inferencia a
la mejor explicación, que consiste en aceptar que si una dada teoría explica los datos empíricos
mejor que cualquier otra, existe una buena razón para pensar que aquella teoría es verdadera (en
sentido ontológico). Desafortunadamente, en la ciencia la situación no es siempre clara y definida
y una teoría que es satisfactoria en algunos aspectos puede no serlo tanto en otros. Esto es
particularmente cierto en el caso de inobservables. Aun cuando pudiésemos establecer sin
ambigüedades cual es la explicación que mejor se ajusta a los datos, nunca tendríamos
confirmación irrevocable acerca de cuán verdadera es tal explicación, ya que las entidades
inobservables son inferidas en virtud de la teoría de la cual son parte. De todos modos, los
realistas científicos sostienen que una teoría que se ajusta a los datos debe tener “alguna verdad”
en ella, entendiendo por tal la representación de algún aspecto fundamental de la naturaleza. Por
el contrario, los positivistas niegan la posibilidad de pasar del poder explicativo a la verdad. Esta
posición parece muy difícil de rebatir si tenemos en cuenta que teorías opuestas pueden ajustar
perfectamente con los datos experimentales y ser por lo tanto empíricamente equivalentes. Sin
embargo, cuando consideramos teorías específicas y de alta complejidad que han sido y
continúan siendo de gran fertilidad en el mundo empírico, es difícil establecer una frontera que
delimite la teoría de la observación, por lo que los aspectos teóricos y empíricos parecen más
bien constituir un continuo del que fluyen en forma permanente nuevos datos acerca del mundo.
Consideremos como ejemplo el caso de las imágenes de microscopía óptica a las que no dudamos
en interpretarlas como datos empíricos, en contraste con las imágenes de microscopía electrónica
o de un espectro de difracción obtenido con el mismo instrumento. El positivista acepta a su vez
que el mundo de lo observable se modifica con la instrumentación en la medida que lo observado
represente la realidad y no meras aberraciones del instrumento, para los cual recurre al concepto
de verificación cruzada al que conduce la utilización de múltiples métodos alternativos de
observación.
De cualquier modo, no debemos confundir la verificación cruzada con la inferencia a la mejor
explicación. De hecho, los positivistas pueden avanzar un buen trecho aceptando que podemos
percibir muchas cosas que no pueden ser percibidas sin instrumentación, sin tener que aceptar
aquella inferencia para establecer la existencia (verdad) de entidades inobservables. Lo que la
inferencia a la mejor explicación pretende es establecer la verdad de teorías explicativas cuando
ellas van más allá de la evidencia, sea como sea que concibamos esta evidencia. De todos modos,
la fluidez de la frontera entre lo observacional y lo teórico así como el hecho que esa frontera se
puede desplazar con la instrumentación, no demuestra que el positivista necesariamente se
equivoca cuando afirma que existen entidades que definitivamente se encuentran del lado teórico
de la línea.
Van Fraassen al considerar la inferencia a la mejor explicación, le asigna la forma: cuando
tenemos la evidencia E, y las hipótesis H y H’, debemos inferir H si y sólo si H es una mejor
explicación de E que H’. Lo que Van Fraassen argumenta en su ataque a esa inferencia aplicada a
entidades inobservables, es que todo lo que podemos decir en tal sentido es que las cosas son
como si hubiese tal o cual inobservable. En otras palabras, el mero hecho que la postulación de
entidades inobservables posea cierto poder explicativo acerca de ciertas regularidades no justifica
la creencia en la verdad de tales inobservables. La respuesta del realista en este punto puede
basarse por un lado en el argumento de la coincidencia improbable, y por el otro en que toda
regularidad natural debe poseer una explicación, de ser necesario a nivel no observacional. Por su
parte, en lo que hace a este último punto, Van Fraassen replica que el mismo conduce a un
absurdo, ya que si la explicación de las regularidades requiere la introducción de inobservables,
éstos a su vez también requieren explicación a un nivel más profundo y así sucesivamente, por lo
que sugiere detenerse en el nivel observacional. Por otra parte, Van Fraassen argumenta que la
demanda irrestricta por una explicación de regularidades observables contradice a la M ecánica
Cuántica ortodoxa. En tal sentido cita las experiencias de A. Aspect en 1982 en las que puso de
manifiesto el tipo de acción a distancia instantánea y correlacionada discutida por Einstein,
Podolski y Rosen en su célebre trabajo de 1935. (27) Aunque naturalmente desearíamos una
causa explicativa de tal regularidad, la M ecánica Cuántica ortodoxa prohibe la introducción de
variables ocultas para explicar el fenómeno, mientras que la Teoría de la Relatividad veda por su
parte la posibilidad de comunicación entre las partículas a velocidades superiores a las de la luz.
En lo que hace al argumento de los realistas en el sentido que una teoría con poder
explicativo y que conduce a la creación de nuevo conocimiento tiene necesariamente que tener al
menos “algo” de verdad, los positivistas responden que la adecuación de las teorías científicas a
los hechos es una consecuencia de un proceso de selección “darwiniana”. Este proceso de
selección a que se ven sometidas tales teorías, hace que sólo permanezcan las que mejor
describen el mundo observable. Por otra parte, los positivistas señalan la circunstancia histórica
reiterada que la mejor explicación en un dado momento es completamente desplazada por otra
con el tiempo.
II.8. Inductivismo baconiano
Habiendo analizado con algún detalle las distintas aproximaciones al mundo exterior, la
primera pregunta que deseamos hacernos ahora es la siguiente: ¿cómo llegan los científicos a sus
teorías?
Antes de intentar una respuesta, tengamos en cuenta que las teorías de la ciencia toman
típicamente la forma de expresiones matemáticas que cubren un rango o tipo más o menos
definido de eventos, y de las cuales es posible deducir predicciones acerca de uno de tales
eventos en particular. Desde el punto de vista de la ciencia moderna, existe una estrecha conexión
entre el concepto de predicción y el de explicación. De todos modos, una de las razones que nos
impide afirmar que la capacidad de predicción implica siempre un avance en la explicación, es que
existen casos analizados en la literatura filosófica en los cuales la capacidad de predicción no
implica necesariamente encontrarse en presencia de una explicación. Un ejemplo de esto lo
constituyen los teoremas de la geometría Euclidea, tal como el de Pitágoras, que nos permite
predecir por ejemplo la distancia que existe entre nuestros pies y el extremo de una columna
vertical si conocemos la distancia entre nuestra posición y la columna y la altura de la misma.
Resulta claro que en este caso la predicción no nos habilita para afirmar que el teorema produce
una “explicación” de la distancia que existe entre nuestros pies y el extremo de la columna. De
todos modos, uno podría oponer a esta objeción el hecho que en la aplicación del teorema de
Pitágoras, no se está haciendo una predicción genuina ya que no existe una inferencia desde el
pasado hacia el futuro, en contraste con el pasaje de una situación de ignorancia a una de
conocimiento. No queda entonces claro que todas las explicaciones científicas impliquen o
permitan efectuar necesariamente una predicción desde el pasado hacia el futuro, más bien que
proposiciones sobre hechos ignorados deducidas en base al conocimiento existente. Tengamos
presente que este último tipo de razonamiento es al que apelamos cuando hacemos afirmaciones,
por ejemplo sobre el estado de cosas en el universo primitivo en base a las teorías cosmológicas
y de nuestro conocimiento presente del universo. De todos modos, si aceptamos un concepto de
predicción lo suficientemente amplio como para incluir la inferencia y el descubrimiento de
hechos desconocidos, incluyendo hechos presentes y del pasado, estamos en tal caso aceptando
que las explicaciones científicas tienen poder predictivo.
Tengamos en cuenta que la noción de explicación científica no siempre ha estado vinculada
tan estrechamente con su capacidad predictiva. En tal sentido, en la ciencia asociada con
Aristóteles y sus seguidores, la búsqueda de la explicación de un fenómeno consistía en delinear
su esencia o propiedades esenciales y en mostrar por qué, para cumplir su función en la
naturaleza, debía poseer tales propiedades. Para Aristóteles, el fuego se elevaba porque de esta
manera procuraba alcanzar su estado de reposo natural, que se ubicaba en una región anterior a la
órbita de la luna. De este modo, la esencia del fuego es elevarse, lo que hace a fin de satisfacer su
naturaleza. Resulta evidente que, desde el punto de vista científico moderno hay al menos dos
elementos incorrectos en este tipo “esencialista” de explicación. En primer lugar, no tenemos
justificación para atribuir propósitos o naturaleza esencial a los fenómenos naturales, y en
segundo lugar no se hace referencia a ningún tipo de cuantificación o medida, siendo este último
un componente fundamental de la ciencia moderna.
La ciencia Aristotélica queda totalmente desacreditada hacia el siglo XVII a la luz de los
nuevos descubrimientos. Además, se pone de manifiesto un énfasis en el control de la naturaleza,
para la “liberación del estado del hombre” como lo expresa Francis Bacon, en contraposición del
ideal Aristotélico de contemplación filosófica desinteresada. De hecho, Bacon es frecuentemente
y no injustificadamente considerado como el portavoz del espíritu de la ciencia moderna (28).
Francis Bacon (1561-1626) nace en la Inglaterra Isabelina e inicia tempranamente su carrera
política. Arrestado por deudas en el año 1598, llega ser Procurador General del Reino en 1613 y
Lord Canciller en 1618. Pensaba que el estudio y la sabiduría no eran fines en sí mismos y que
sin aplicación son una vanidad académica. En este sentido, solía cuestionarse qué disminuye más
a la mente humana; si una combinación de vida contemplativa con vida activa o la total
dedicación a la contemplación. Esto marca en gran medida el fin del escolasticismo. Desde un
punto de vista filosófico, adhería al epicureísmo y se inclinaba políticamente por un poder
centralizado como la monarquía. Fue por otra parte un militarista declarado. Su producción
literaria más importante fueron los “ensayos”. Se propuso realizar un vasto proyecto de
reconstrucción de la filosofía. The advancement of learning es uno de sus libros y en él realiza un
examen crítico del estado de las ciencias de su época. Su tesis fundamental consiste en que todo
es susceptible a un análisis científico, incluyendo las actitudes y conductas de los seres
humanos, sentando de este modo la idea básica de la psicología moderna. Admite no obstante,
que la ciencia sola no basta y hace falta la filosofía, el análisis del método científico, y la
coordinación de los fines y resultados de la ciencia. Concibe a la ciencia como actividad
organizada y colectiva, anticipándose de este modo a la moderna concepción de la empresa
científica internacional. Llega incluso a apelar ante Jaime I para procurar el apoyo del gobierno a
la actividad científica.
Las ideas de Bacon sobre el método científico suelen conocerse como Inductivismo
Baconiano. Tales ideas son expuestas en su obra suprema: el Novum Organum, publicado en
1620, y constituyen desde entonces lo que mucha gente considera como “el” método de la
ciencia. Según Bacon, el pensamiento debe ser el complemento de la observación, pero nunca
debe sustituir a ésta. En relación con este principio, introduce el concepto de error o prejuicio en
la investigación, denominándolos metafóricamente “ídolos” de la tribu, de la cueva, del mercado,
y del teatro. Estos cuatro tipos de ídolos, según Bacon, han dominado y distorsionado la mente
de los hombres demorando la adquisición de conocimiento verdadero. Los “ídolos de la tribu”
son las tendencias que todos tenemos a ver las cosas más en relación con nosotros mismos que
como lo son en si mismas. Por ejemplo, pretendiendo imponer orden en fenómenos en el que
aquél no existe. Luego tenemos a los “ídolos de la cueva” que son las predisposiciones de
carácter y aprendizaje con las que distintos individuos se aproximan a los hechos. Los “ídolos
del mercado” surgen en cambio a través del uso del lenguaje que nos hace ver en la naturaleza
concepciones que tienen su origen en la adopción de palabras carentes de significado. Finalmente,
los “ídolos del teatro” se deben a la influencia perniciosa de sistemas filosóficos preconcebidos
en nuestra mente.
El efecto de esta doctrina negativa de Bacon es que cualquier ciencia apropiadamente
establecida debe comenzar y estar controlada por observaciones no teñidas por las
presuposiciones de los “ídolos” o de cualquier otra clase. De este modo, para Bacon, el
verdadero científico es el paradigma del observador objetivo que libera al hombre de los mitos y
las ilusiones del pasado. Sin embargo, la observación libre de presuposiciones requerida por
Bacon no es conducida en forma desorganizada. La misma exige el registro de las características
que acompañan a un dado fenómeno objeto de nuestra observación y la comparación de distintas
situaciones a fin de eliminar aquellas características no esenciales del fenómeno y que son meros
acompañantes incidentales del mismo en situaciones específicas. De este modo es posible
identificar a la naturaleza esencial constituida por las características que se encuentran presentes
en toda circunstancia en que el fenómeno se manifiesta.
Lamentablemente, por atractivas que nos resulten las ideas de Bacon respecto de cómo
acercarnos a los problemas con una actitud totalmente libre de presuposiciones, no resulta
fácilmente concebible el poder efectuar observaciones sin al menos alguna idea acerca de la
naturaleza de lo observado. En efecto, todas nuestras observaciones están condicionadas por
algún sentido de que tipo de cosa o propiedad en nuestro entorno es aquella sobre la cual
debemos focalizar nuestra atención. Este sentido, que bien puede ser considerado pre-teórico, es
esencial para aislar la porción del mundo que vamos a observar. De hecho, la sola observación
desprovista de todo presupuesto no parece suficiente en muchos casos para identificar la
naturaleza común de fenómenos que se presentan de forma aparentemente inconexa, como
podría ser el caso de las mareas y la caída de una manzana. Fue necesaria en tal caso la “intuición
iluminada” de un genio como Newton para vincular ambos fenómenos. Es evidente que no
podemos en general tomar nota de todos los factores del entorno correspondiente a un fenómeno
y que es absolutamente necesario efectuar una selección, para lo cual debemos tener alguna idea
previa a la observación de cuáles son (o pueden ser) los factores relevantes al fenómeno en su
entorno.
No obstante estas últimas objeciones, el mérito de Bacon es haber propuesto una
metodología por el cual los científicos pueden producir teorías que, según él, tienen una mayor
probabilidad de ser ciertas que teorías derivadas mediante otros métodos. Bacon argumenta que
el énfasis en el valor de las circunstancias negativas contribuye a evitar las dificultades que
implica basar una teoría sólo en evidencias positivas. En este sentido, Bacon señala la particular
relevancia de aquellos casos en los que alguna observación provee la prueba decisiva entre dos
teorías competitivas, especialmente teniendo en cuenta la natural predisposición de los seres
humanos a ver orden y regularidades donde en realidad éstos no existen. Bacon favorece así la
evidencia suministrada por la supervivencia de teorías a la prueba genuina antes que a la simple
acumulación de evidencias positivas, adelantándose en este aspecto a los trabajos de Sir Karl
Popper que veremos más adelante. Digamos que si la observación totalmente libre de
presupuestos es imposible, una buena parte de la metodología baconiana queda desvirtuada. Sin
embargo, sigue constituyendo una buena idea en la práctica científica ajustarse en la mejor forma
posible a la paciente y objetiva recolección y organización de datos que Bacon recomienda.
El método inductivo esbozado más arriba, asociado inicialmente con la figura de Francis
Bacon y más tarde con la de John Stuart M ill, consiste esencialmente en un progreso escalonado
de la ciencia desde la observación hacia la teoría. Comenzamos recolectando los datos relevantes
(tantos como podamos), los organizamos y procuramos aislar los elementos que están siempre
asociados con el fenómeno que nos interesa, tanto positivamente, en el sentido de que dichos
elementos están presentes cuando el fenómeno ocurre, como negativamente, es decir que están
ausentes cuando el fenómeno no se produce. Si aislamos tales elementos, podemos inferir que
son la causa del fenómeno. Es importante destacar que en esta última etapa estamos haciendo
una generalización al afirmar que la causa identificada producirá siempre el fenómeno. Es decir,
estamos produciendo aquí un salto inductivo. El problema que obviamente se presenta cuando
damos tal salto es que siempre nos encontraremos cortos de evidencia para que la afirmación
hecha sea concluyente. Utilizando terminología ya introducida, todo lo que el proceso inductivo
nos permitirá hacer es confirmar hipótesis o teorías pero nunca alcanzar su plena verificación.
Enfrentados con esta limitación esencial del método inductivo, una posible reacción es desplazar
la atención desde la noción de prueba y confirmación hacia un área más promisoria. Si cantidades
masivas de evidencia confirmatoria pueden ser demolidas por una simple observación negativa,
¿no es quizás más apropiado procurar la prueba de una teoría atacando sus flancos débiles? Esto
es lo que analizaremos a continuación.
II.9. Falsacionismo. Filosofía popperiana de la ciencia
La visión de Popper de la ciencia es la de una libre utilización de la imaginación creativa con
el objeto de producir teorías audaces y comprehensivas, las que luego son sometidas a las
pruebas más severas posibles a fin de descartar aquellas teorías que no se correspondan con la
forma en que el mundo es. De modo que en este contexto la falsabilidad de una teoría, es decir la
posibilidad de verificar su falsedad, constituye un atributo esencial de la misma. En tal sentido,
cuanto más falsable es una teoría, o sea cuanto más expuesta se encuentre, tanto más atractiva
resulta desde el punto de vista popperiano. Popper ha insistido en que su visión del método de
la ciencia como consistente en un proceso de falsación de teorías, ha resuelto el problema del
método inductivo. Sin embargo, lo que en realidad Popper hizo fue esquivar completamente
dicho método aduciendo que la prueba inductiva no tiene rol alguno por cumplir.
Si bien de acuerdo con Popper no podemos verificar positivamente una teoría, podemos a
veces hablar de una teoría bien confirmada o corroborada. En este sentido una teoría está bien
confirmada cuando ha sobrevivido pruebas severas. La confirmabilidad de una teoría está
vinculada a su aptitud para producir predicciones comprobables y a su contenido empírico. El
concepto de contenido empírico está relacionado con el hecho que una teoría que sea simple,
audaz, y altamente precisa, tiene mayores posibilidades de ser falsa y por lo tanto más
“ensayable” que otra plagada de reservas y excepciones.
Lo anterior constituye una corrección (¿o deberíamos decir adición?) útil a la lógica
inductivista. Sin embargo, tengamos en cuenta que una prueba severa de una teoría es una prueba
cuyo resultado resulta improbable a la luz de la experiencia pasada. De manera que sin emplear
alguna suerte de razonamiento inductivo no resulta posible hablar de resultados improbables y
por lo tanto de pruebas severas para una teoría. La forma de arribar a teorías de profundidad y
amplitud crecientes es proponer teorías que vayan más allá de lo que actualmente las teorías van,
con la esperanza de poner de manifiesto aspectos particulares y regularidades en áreas no
cubiertas por las teorías anteriores.
Una buen parte de lo dicho anteriormente respecto al método popperiano puede ser
expresado formalmente a través del llamado Teorema de Bayes. Este teorema nos brinda una
fórmula que, dados ciertos supuestos, predice la probabilidad de que una teoría sea verdadera
luego que la misma ha pasado exitosamente una prueba dada.
Este teorema se enuncia expresando que P(A/B) = P(B/A).P(A)/P(B), donde P(A/B) es la
probabilidad condicional de que ocurra A habiendo ocurrido B, P(B/A) es la probabilidad que
ocurra B habiendo ocurrido A y P(A) y P(B) las probabilidades de ocurrencia de A y B
respectivamente.
Como ejemplo supongamos que un entomólogo localiza lo que podría pertenecer, debido al
patrón de su caparazón, a una subespecie rara de cascarudo. En esta subespecie rara, el 98% de
los ejemplares tienen ese patrón. Sabe que el 5% de las especies comunes poseen un patrón
similar, pero no puede asegurar que el ejemplar hallado pertenezca a la subespecie rara. Esta
representa sólo el 0,1% de la población total de cascarudos. ¿Qué probabilidad existe que el
ejemplar encontrado pertenezca a la subespecie rara?
Del Teorema de Bayes, resulta
El corolario más importante del Teorema de Bayes es que dicha probabilidad aumenta con la
severidad de la nueva prueba (favorable) y con la probabilidad inicial de la teoría a la luz de la
evidencia previamente disponible.
A pesar del formalismo del Teorema de Bayes, la asignación de probabilidades iniciales para
las teorías y del valor de la evidencia aportada por la nueva prueba, hace al cálculo en buena
medida subjetivo. De cualquier forma, el Teorema nos muestra con claridad que una prueba
severa no es todo lo que requerimos para agregar peso confirmatorio a una teoría, ya que también
debemos partir de una teoría que sea altamente probable a la luz de la evidencia previa
disponible. Por supuesto que deseamos en general una prueba severa, pero el teorema anterior
nos dice que también deseamos teorías que tengan una buena probabilidad en términos de
nuestro conocimiento previo. En otras palabras, el peso confirmatorio provisto por evidencias
anteriores juega un rol en la probabilidad final que la nueva evidencia conferirá a la teoría que
estamos probando.
II.10. El falsacionismo como criterio de demarcación de las
teorías científicas
Se ha sugerido frecuentemente que lo que caracteriza a la ciencia propiamente dicha es la
atención prestada al análisis crítico y a las evidencias negativas, que generalmente está ausente en
otras actividades humanas. Estos dos elementos parecerían sugerir entonces que pudiese existir
un criterio preciso para definir qué es la ciencia, es decir para establecer un criterio de
demarcación entre lo que es ciencia y lo que no lo es.
En la formulación de una teoría científica, en lo que muchas veces indebidamente llamamos el
contexto de descubrimiento, todo o casi todo es válido: desde el misticismo de Kepler, a la
alquimia de Newton, pasando por las ensoñaciones de Kekulé. Esta es una etapa no controlada
en general por reglas metodológicas. Pero lo que solemos llamar contexto de descubrimiento no
es tal sino que se trata de lo que deberíamos denominar más precisamente contexto de formación
de hipótesis. Sólo alcanzamos la etapa del descubrimiento dentro de lo que podemos llamar el
contexto de justificación, es decir cuando la teoría propuesta es formulada de manera que pueda
ser sometida a la prueba confirmatoria.
Lo anterior sugiere que podría ser posible tomar la falsabilidad empírica como el criterio
distintivo de la teoría científica. La propuesta de teorías falsables y su prueba confirmatoria se
constituyen entonces en el elemento de control del contexto de descubrimiento y permite la
eliminación de los vuelos de la imaginación que no estén amparados por aquella prueba.
Incidentalmente, éste es el criterio que según Popper, estaría ausente en algunas teorías como el
marxismo o el psicoanálisis.
El criterio de demarcación propuesto por Popper, en el sentido que “los enunciados o
sistemas de enunciados, para ser considerados científicos deben ser capaces de ponerse en
conflicto con la experiencia (es decir deben ser falsables)”, no está sin embargo completamente
libre de problemas. En efecto, muchas aseveraciones de la ciencia tales como: “Existe al menos
un planeta que..”; “Existen electrones”; “Existen bacterias”; etc., no son de hecho falsables
empíricamente ya que sería imposible explorar el universo entero para lograr dicha falsación. El
problema con estas proposiciones radica en su generalidad. Constituyen lo que los lógicos
denominan generalizaciones existenciales y de hecho una buena parte del conocimiento científico
deriva de tales proposiciones. Obviamente, estas proposiciones pueden ser probadas pero no
falsadas. El segundo problema introducido por el criterio de demarcación está relacionado con el
concepto de probabilidad que tiene un rol creciente en la ciencia. Cuando decimos que un evento
tiene una probabilidad dada, no es posible falsar tal aseveración a menos que pongamos un límite
al número de intentos. Pero en general, las teorías probabilísticas en la ciencia se refieren a
secuencias ilimitadas de eventos, de modo que en principio no pueden ser falsadas.
El criterio de demarcación popperiano puede ser salvado, al menos desde un punto de vista
un tanto pragmático, si aceptamos que un enunciado es científico si puede ser falsado o probado
por la observación, y que los enunciados probabilísticos pueden ser tratados como falsables,
mediante la introducción de algún criterio adicional. De todos modos, como veremos a
continuación, el mayor problema es el que persiste con relación a aquellos enunciados que todos
aceptamos como científicos, pero que a la luz de los conceptos anteriores no pueden ser falsados
ni probados a menos que introduzcamos algunos criterios adicionales. Tomemos como ejemplo
de ello a la Tercera Ley de Newton: a toda fuerza aplicada se opone una fuerza igual y de sentido
opuesto. Tal como está enunciada, esta proposición es totalmente general y no nos dice nada
acerca de alguna situación en particular. Ahora bien, para que una teoría entre en conflicto con
una observación específica, real o posible, debemos referirnos a una situación específica concreta
que en el ejemplo que nos ocupa, sería el caso de una fuerza aplicada y su magnitud. El primer
punto a notar es que para poder efectuar una predicción a partir de una teoría general, ésta debe
ser combinada con algún enunciado referente a una observación particular relevante. El segundo
aspecto a tener en cuenta es que para que la teoría pueda ser falsada, el efecto previsto debe ser
observado y registrado en otro enunciado acerca de la observación efectuada. Es precisamente el
rol que los enunciados de la observación juegan en la falsación de teorías lo que los hace
susceptibles de cuestionamiento. En otras palabras, una teoría universal que describe todos los
ejemplos de un tipo particular de fenómeno será falsada desde el punto de vista lógico si una
predicción relevante entra en conflicto con la observación. Pero en la práctica, tal falsación no
será aceptada si existen dudas acerca de la observación realizada o de su repetibilidad. Por
ejemplo, la observación de que la órbita del planeta Urano no verificaba las predicciones de la
mecánica newtoniana no fue tomada como evidencia de la falsedad de ésta. En tal caso la actitud
fue en cambio proponer la existencia de algún elemento extraño que invalidaba la observación
(todos sabemos que esta perturbación condujo al descubrimiento de Neptuno). De hecho, es
siempre lógicamente posible salvar una teoría postulando factores de perturbación que
justifiquen comportamientos “anómalos”. Lo anterior, como lo señala el mismo Popper, nos
sugiere que el problema de falsación de una teoría como lo requiere el criterio de demarcación, no
es una cuestión de lógica solamente sino también de metodología. Es decir, la falsación se alcanza
en el marco de un método explícito, no sólo en el caso que ya hemos mencionado de teorías
probabilísticas, sino en general con todas las teorías científicas.
II.11. Relativismo kuhniano
Aceptamos que la salvación de teorías mediante la postulación de elementos no tenidos en
cuenta por la observación a fin de explicar efectos anómalos, no constituye en general lo que
llamaríamos una “actitud científica”. Sin embargo, podemos aquí preguntarnos hasta qué punto
podemos decir que es siempre anticientífico recurrir a tales argumentos para salvar una teoría
favorita de un conflicto con la observación. De hecho, Tomas Kuhn (29) ha sugerido que tal
actitud no tiene nada de anticientífico. El ejemplo que ya mencionamos sobre el planeta Urano es
sólo un caso. La situación se repite con el corrimiento del perihelio de M ercurio que llevó a
postular la existencia de un planeta intra-mercuriano, hasta entonces no detectado y al que hasta
se bautizó Vulcano. Según Kuhn, gran parte de la actividad científica es la de resolver enigmas del
tipo mencionado sin que el fracaso en ello implique en modo alguno el abandono de la teoría. En
el caso del fracaso de descubrir al planeta Vulcano, hubiera sido ciertamente irracional por parte
de los científicos echar por la borda una teoría que había prestado los servicios que prestó la
mecánica newtoniana. Desde el punto de vista de Kuhn, una teoría como la de Newton es
raramente tratada por los científicos en la forma en que lo sugiere el modelo popperiano. Una tal
teoría constituye más bien una estructura teórica dentro de la cual los científicos desarrollan su
trabajo cotidiano de refinamiento progresivo de observaciones y mediciones a fin de construir un
modelo más detallado del mundo físico. En otras palabras, tal teoría es lo que Kuhn denomina un
“paradigma científico”. Un paradigma constituye entonces un conjunto de técnicas científicas así
como “el” modelo de explicación científica en una dada época. De esta manera, no puede
sorprendernos la afirmación de Kuhn en el sentido que el paradigma no sólo determina la forma
de aproximación de los científicos a un problema, sino también en alguna medida los datos
mismos. Esto describe lo que de alguna manera podemos llamar el período de “ciencia normal”.
Cuando las dificultades se van acumulando, puede surgir una nueva teoría que absorbe a la
anterior y conduce a nuevas predicciones. Durante un período coexisten entonces dos teorías que
compiten entre sí.
Según Kuhn, cuando dos paradigmas entran en conflicto no hay experimentos ni
observaciones que puedan ser cruciales para una confrontación entre ambos. Cabe entonces
preguntarse de qué manera se produce el cambio de un paradigma a otro, a lo que Kuhn responde
con argumentos de tipo sociológico y psicológico. Puede ocurrir que el número y la gravedad de
las anomalías de una teoría vaya en aumento y que resulte cada vez más difícil salvarlas, lo que
predispone a la comunidad científica a considerar y eventualmente aceptar alternativas, las que
son entonces desarrolladas. Pero el punto central, según Kuhn, es que cuando la comunidad
científica acepta un nuevo paradigma, no lo hace por razones justificables desde un punto de
vista neutral. A las motivaciones individuales, Kuhn agrega los efectos sociales de autoridad en la
comunidad científica: las tendencias y preferencias en publicaciones y la orientación en la
distribución de los fondos para investigación.
Lo que hace a la posición de Kuhn relativista es su negación de la existencia de un campo de
pruebas neutral para una teoría científica, ya que según esto puede haber ocasiones en las que no
hay razones valederas para preferir uno u otro paradigma. En otras palabras, la falta de una
perspectiva compartida hace que la observación de los mismos datos desde el punto de vista de
diferentes paradigmas, no conduzca a la misma interpretación.
Como lo señala G. Zanotti (30), desde un punto de vista positivo, Kuhn ha proporcionado
un conjunto interesante de conceptualizaciones con las cuales es posible entender y clarificar los
problemas del desarrollo del conocimiento científico. Sin embargo, el modelo de Kuhn presenta
posiblemente más dificultades que ventajas, ya que epistemológicamente, la renuncia que hace
Kuhn a la búsqueda de un método correcto de testeo conduce a la metodología de la ciencia hacia
un escepticismo total. Si bien es cierto que en determinado momento Kuhn modera su posición,
lo esencial de su mensaje encierra un desaliento para la búsqueda de la racionalidad en la ciencia.
No obstante que pueden ser ciertas las objeciones de Khun al sistema Popperiano, y que
ciertamente no es posible construir una metodología de la ciencia totalmente alejada de la práctica
habitual de los científicos, existe una gran distancia entre ello y la renuncia a la búsqueda de la
racionalidad.
II.12. Otras epistemologías. Lakatos, Feyerabend, Hempel
En adición a las posturas epistemológicas de Popper y Kuhn, debemos mencionar otras que
han tenido una influencia significativa en la filosofía de la ciencia contemporánea. Podemos
referirnos en primer lugar a las contribuciones hechas por el epistemólogo húngaro Imre Lakatos
(cuyo verdadero nombre era Samuel Lipsitz, ya que Lakatos, que significa “candado”, fue el nom
de guerre que utilizó durante su participación en la resistencia anti-nazi). Inicialmente
funcionario del partido comunista, renegó más tarde de esta ideología y huyó de Hungría hacia
Inglaterra doctorándose en Cambridge en 1956. En un comienzo, Lakatos fue discípulo de
Popper a cuyas ideas efectuó agregados y modificaciones. Su trabajo más importante fue “El
falsacionismo y la metodología de los programas de investigación” publicado en 1970 con
posterioridad al libro de Kuhn sobre la estructura de las revoluciones científicas.
Para Lakatos la unidad de análisis epistemológico es lo que él llama un “programa de
investigación” y que parece reunir aspectos popperianos y kuhnianos. Un programa de
investigación representa una suerte de acuerdo consensuado por un sector de la comunidad
científica basado en una o más teorías que ese sector de la comunidad científica se compromete a
aceptar y a no abandonar. En este aspecto, hay una componente de la epistemología de Kuhn ya
que Lakatos acepta que cuando surgen dificultades con las teorías aceptadas se generan hipótesis
auxiliares para tratar con esas dificultades y dejar a salvo las teorías. Sólo cuando las dificultades
ponen en evidencia la esterilidad de seguir elaborando hipótesis auxiliares, se produce en la
comunidad una situación “de escándalo” que lleva al cambio del “núcleo duro” de las teorías. La
diferencia con las ideas de Kuhn en lo que respecta al cambio de paradigma, es que en la
epistemología de Lakatos el cambio obedece a razones de eficacia y conveniencia y los
problemas no se limitan a ser resueltos dentro de un dado paradigma. Por el contrario, en una
postura más cercana a Popper, la comunicación entre adherentes a distintos programas se efectúa
en lenguaje común lo que permite la elección del programa más conveniente. En este caso no
habría, en el lenguaje de Kuhn, inconmensurabilidad entre los programas. Lakatos utiliza la
expresión “programa progresivo” al que se muestra más eficaz y “programa regresivo” al que se
muestra menos eficaz.
Lakatos reconoce que el cambio de hipótesis auxiliares es común para la preservación del
núcleo duro de teorías, pero admite que este puede ser modificado por refutaciones originadas en
la experiencia. Coincide con Kuhn en que la experiencia está teñida por el marco teórico en el que
se desenvuelve. Por lo tanto la refutación no tendría el peso que la concepción popperiana le
asigna pero la refutación puede eventualmente provenir como consecuencia de una de las teorías
del núcleo duro sobre otras del mismo núcleo, lo que obligaría a modificar esa parte del núcleo.
De manera que en la concepción lakatiana, el núcleo duro de teorías no tendría el carácter de
paradigma, y los aspectos sociales de la comunidad científica no jugarían el mismo rol que en el
modelo kuhniano sino que más en sintonía con la posición de Popper, se privilegia el papel de la
lógica y la experiencia junto con la formulación de hipótesis auxiliares. Sin embargo, a diferencia
de Popper, Lakatos afirma que el cambio de programa no está relacionado de manera tan directa
con las refutaciones como con razones de eficacia, capacidad de producción de conocimiento y
otros aspectos de naturaleza un tanto vaga. Tampoco tendría el carácter totalizador y
revolucionario del cambio de paradigma kuhniano sino que se trataría de un proceso racional,
gradual y continuo.
Paul Karl Feyerabend nace en Viena en 1924 y fallece en Zurich en 1994. A diferencia de
Lakatos que combatió a los nazis en la segunda guerra mundial, Feyerabend alcanzó el grado de
teniente en el ejército alemán durante el mismo conflicto. Fue auxiliar de Popper en la London
School of Economics en los años 50 y luego de retornar a su país natal, regresó a Inglaterra y
finalizó nacionalizándose ciudadano estadounidense en 1959. Su ajetreada vida fue un reflejo de
sus variadas posiciones epistemológicas. Inicialmente adhería al Positivismo en la línea del
Círculo de Viena pero más tarde fue cambiando su posición y se lo puede ubicar como un crítico
tanto del rígido Empirismo positivista como de la tesis hipotético-deductiva. Su “anarquismo
metodológico” queda de manifiesto en su obra Contra el método de 1975 que inicialmente iba a
producir junto con Lakatos como una forma de debate, pero que no pudo concretarse de este
modo por la muerte de este último en 1974. En su obra posterior La ciencia en una sociedad
libre en 1978, Feyerabend la emprende ya no sólo contra la metodología científica tradicional
sino contra la ciencia y la comunidad científica.
Según Feyerabend, el mejor mecanismo para el progreso de la ciencia es introducir el mayor
número posible de hipótesis alternativas que en principio pudiesen explicar los mismos
fenómenos problemáticos y poner a estas teorías a prueba por competencia. Es decir, frente a
una nueva teoría o a una vieja teoría sometida a crítica, exponer todas las teorías alternativas para
determinar cuál de ellas ofrece la mejor explicación. Este método competitivo entre teorías rivales
ofrece, según Feyerabend, un criterio de justificación mucho más amplio y rico que el mero
análisis de una teoría aislada y su contrastación permanente con la realidad. De este modo se
evitaría que con una sola teoría, en virtud de su éxito explicativo y predictivo, quedar
circunscrito a una descripción unilateral de la realidad impidiendo analizar los hechos desde otros
puntos de vista.
El anarquismo metodológico de Feyerabend sugiere que nunca se debe asumir frente a una
teoría que se está en el camino de la verdad. De ahí la conveniencia de negar las teorías como
recurso dialéctico para que se nos ofrezcan vías diferentes y enriquecedoras de
conceptualización. Según Feyerabend, no hay una metodología que los científicos siempre
utilizan en sus investigaciones. Por el contrario, todo proceder es adecuado en asuntos científicos
y por ello afirma anything goes (todo vale). Con relación a esto, da una serie de contraejemplos
en los que según él, las reglas prescriptivas del método científico son violadas y que de haberse
respetado no se hubiese hecho progreso.
En su crítica a la ciencia y a la comunidad científica, Feyerabend menciona que esta última,
mediante tácticas oportunistas ha logrado ventajas de diverso tipo, por ejemplo en lo que
respecta a la distribución de presupuestos. No habría, según él, razón para negar la posibilidad
de defender sus creencias a otras comunidades diferentes de la científica como por ejemplo la de
los astrólogos. Hace además una fuerte crítica de las tecnologías contemporáneas y propone una
separación entre la ciencia y el Estado.
De todos modos, la negación como principio de conocimiento científico puede considerarse
como una extensión de la idea de falsacionismo de Popper y la historia de la ciencia nos enseña
que ésta es una sucesión de etapas en las que una teoría o visión del mundo aceptada, es luego
abandonada a favor de una teoría o visión del mundo diferente.
Carl Gustav Hempel nació en Alemania en 1905 y falleció en Estados Unidos en 1997, de
manera que fue contemporáneo de Lakatos y de Feyerabend. Es reconocido como el articulador
del modelo nomológico-deductivo que fue considerado el “modelo standard” de explicación
científica en las décadas de 50 y 60. La idea básica del modelo de Hempel de explicación
científica es que esta surge como respuesta a lo que él llamó “preguntas del tipo ¿por qué?”
demandando tal explicación. Hempel sugirió que la explicación científica tiene típicamente la
estructura lógica de un argumento, es decir está constituida por un conjunto de premisas seguidas
por una conclusión. Tomemos el ejemplo de la pregunta: ¿Por qué se disuelve el azúcar en agua?
Para contestarla, debemos construir un argumento que tenga como conclusión “el azúcar se
disuelve en agua” y cuyas premisas hagan necesaria esa conclusión. Según Hempel, al menos una
de las premisas debe ser una ley general y todas las premisas deben ser verdaderas. La ley
general puede ser del tipo “todos los metales conducen electricidad” o “la aceleración de un
cuerpo es inversamente proporcional a su masa”, etc. Estas leyes generales son a veces
conocidas como “leyes de la naturaleza” pero la explicación requiere además la asistencia de
premisas referentes a hechos o fenómenos particulares. En el caso de la disolución del azúcar en
agua, la ley general puede tener que ver con la estructura molecular de las sustancias orgánicas y
las premisas particulares con la interacción de la estructura molecular del azúcar con el agua (31).
Esquemáticamente, el modelo de Hempel de explicación científica es el siguiente:
El fenómeno a ser explicado es el explanandum y las leyes generales y las premisas
particulares el explanans. El explanandum puede ser un hecho particular o una ley general. En el
ejemplo anterior: la disolución del azúcar en agua, puede considerárselo un hecho particular.
Aunque este modelo captura la estructura de muchas explicaciones científicas, está también
sujeto a contraejemplos ya que hay casos de explicación científica genuina que no se ajusta al
modelo y casos en lo que la explicación se ajusta al modelo pero no cuentan como genuina
explicación científica. Hoy se considera que el modelo de Hempel es demasiado general,
permitiendo explicaciones que deberían ser excluidas.
Consideremos el siguiente ejemplo: la observación nos dice que la sombra de un poste sobre
el piso es de 20 m. Una posible explicación es la siguiente: los rayos luminosos provenientes del
sol constituyen líneas rectas, sabemos que la altura del poste es de 15 m y que la altura del sol
sobre el horizonte en el momento de hacer la observación es de 37º. Dado que la tangente de 37º
es 15/20, la longitud de la sombra debe ser 20 m. Esto satisface enteramente los requerimientos
de Hempel para una explicación científica. Hay leyes generales: los rayos luminosos constituyen
líneas rectas y las leyes de la trigonometría. Hay hechos particulares: el ángulo de elevación del
sol es de 37º y la altura del poste es de 15 m. Hay un fenómeno a ser explicado: la longitud de la
sombra del poste sobre el piso es de 20 m.
Sin embargo, no es convincente que en este caso estemos frente a una explicación científica
ya que si permutamos el explanandum (que la longitud de la sombra es de 20 m) con el hecho
particular de que la altura del poste es de 15 m. Es decir que las leyes generales seguirán siendo:
la luz se propaga en línea recta y las leyes de la trigonometría, pero los hechos particulares son
ahora que la sombra es de 20 m y la altura del sol de 37º. El fenómeno a ser explicado es ahora: la
altura del poste es de 15 m.
Esta última “explicación” también concuerda con el criterio de Hempel para explicación
científica, pero es poco satisfactoria como la verdadera explicación de por qué razón el poste
tiene 15 m de altura. M ás satisfactorio sería el argumento que así debió construirse para montar
algún dispositivo sobre el mismo u otra razón similar. Surge aquí que una explicación, para
merecer el calificativo de tal, no debe exhibir el tipo de simetría que hemos visto en este ejemplo
entre el fenómeno a explicar y las premisas utilizadas para la explicación. El ejemplo anterior nos
enseña también que no es siempre posible identificar, como Hempel sugiere, la explicación con la
predicción, ya que en este caso las leyes generales y los hechos particulares nos permiten hacer
predicciones (por ejemplo la altura del poste) pero no es razonable identificar dicha predicción
con una verdadera explicación del fenómeno.
Otro ejemplo de la excesiva generalidad del criterio de Hempel para identificar una
explicación científica sería el siguiente: Un niño se encuentra en una sala de hospital llena de
mujeres embarazadas y un hombre adulto. El niño pregunta a un médico de guardia por qué
razón el hombre no está también embarazado. El médico le dice que la razón es que el hombre ha
tomado regularmente desde hace algún tiempo pastillas anticonceptivas y por ello no está
embarazado. Si pensamos que puede quizás haber un hombre alterado mentalmente como para
pensar que ingerir pastillas anticonceptivas le puede resultar beneficioso, la explicación del
médico al niño cumple todos los requisitos de Hempel. En efecto, la ley general sería: quien toma
pastillas anticonceptivas no queda embarazado y el hecho particular: que el hombre tomó las
pastillas anticonceptivas. El fenómeno a explicar: ¿por qué el hombre no está embarazado? Dado
que en este caso la ley general y el hecho particular conducen al explanandum y por lo tanto
calificarían perfectamente, según el criterio de Hempel de explicación científica, es evidente que
no es la verdadera razón del hecho cuya explicación se busca, ya que realmente ésta consiste en
que la fisiología del varón impide la concepción. De este ejemplo surge que además de ser ciertas,
las premisas deben ser relevantes al problema, lo que no está restringido en el modelo de
Hempel.
Por razones del tipo analizado, actualmente la mayoría de los filósofos de la ciencia han
dejado de adherir a la idea hempeliana de explicación científica para volcarse a la idea que la
explicación científica está estrechamente vinculada a la relación causal. La idea central detrás de
esta posición es que explicar un fenómeno es equivalente a decir qué es lo que lo causa. La
relación causal introduce en la explicación la asimetría que puede estar ausente en la concepción
de Hempel. Volviendo al ejemplo de la longitud de la sombra del poste, está claro que la altura del
poste hace a la causa de la longitud de la sombra del poste y no al revés. En el caso del hombre
no embarazado, la explicación dada por el medico al niño satisface el criterio de explicación
hempeliano pero no identifica correctamente la causa del hecho a explicar que en este caso está
relacionada con la fisiología del adulto varón. En realidad, no se debe criticar excesivamente a
Hempel por no haber enfatizado más la relación entre explicación y relación causal. Hempel
adhería a la doctrina conocida como Empirismo y esta posición es cauta respecto del concepto
de causalidad. En efecto, para el Empirismo todo conocimiento proviene de la experiencia y
como la relación causal no es experimentable en forma directa, concluyen que la misma es sólo
una ficción. De tal manera, para un empirista la idea de analizar el concepto de explicación en
términos de causa no sería razonable.
8 . Van Inwagen, P. 1993. Metaphysics. Dimensions of P hilosophy Series, Oxford University P ress.
9 . De la Torre, A.C. 1992. Física Cuántica para Filo-sofos. Breviarios de Ciencia Contemporánea, Fondo de Cultura
Económica, Buenos Aires.
10 . Hospers, J. 1961. Introducción al Análisis Filosófico, Vols. 1 y 2. Editorial Macchi, Buenos Aires.
11 . Klimovsky, G. 1994. Las Desventuras del Conocimiento Científico: Una introducción a la epistemología. A-Z
Editora, Buenos Aires.
12 . En realidad, P latón propone estas exigencias como tentativa para caracterizar el “ conocimiento”, pero no se muestra
convencido de haberlo logrado.
13 . Recordemos el caso del físico alemán Max P lank, quien desarrolló la hipótesis cuántica pero dejó establecido que no
“ creía” en ella y la consideraba provisional.
14 . Strawson, P.F. 1992. Analysis and Metaphysics: An introduction to philosophy. Oxford University P ress.
15 . Clark, S.R.L. 1994. “ Ancient P hilosophy”. The Oxford Illustrated History of Western Philosophy, Anthony Kenny
Ed., Oxford University P ress.
16 . Scruton, R. 1994. “ Continental P hilosophy from Fichte to Sartre”. The Oxford Illustrated History of Western
Philosophy, Anthony Kenny Ed., Oxford University P ress.
17 . Spade, P.V. 1994. “ Medieval Philosophy”. The Oxford Illustrated History of Western Philosophy, Anthony Kenny
Ed., Oxford University P ress.
18 . Kenny, A. 1994. “ Descartes to Kant”. The Oxford Illustrated History of Western Philosophy, Anthony Kenny Ed.,
Oxford University P ress.
19 . Sprigge, T.L.S. 1985. “ Heidegger and Being There”. Theories of Existence. P enguin Books. London.
20 . Strawson, P.F. 1992. “ Truth and Knowledge”. Analysis and Metaphysics: An introduction to philosophy. Oxford
University P ress.
21 . P enrose, R. 1989. “ The Emperor’s New Mind: Concerning computers, minds and the laws of physics”. Oxford
University P ress.
22 . Copland A. 1939. “ Cómo Escuchar la Música”. Breviarios del Fondo de Cultura Económica.
23 . Lo que en la literatura anglosajona se denomina “ theory ladenness of observation”, es decir la “ carga teórica” de la
observación.
24 . Van Fraassen, B.C.1989. Laws and Symmetry. Clarendon P aperbacks, Oxford.
25 . De la Torre, A.C. 1992. Física Cuántica para Filo-sofos. Breviarios de Ciencia Contemporánea, Fondo de Cultura
Económica, Buenos Aires.
26 . D’ Espagnat, B. 1990. “ Reality and the Physicist: Knowlege, duration and the quantum world”. Cambridge
University P ress.
27 . En los experimentos de A.Aspect, dos fotones son emitidos en dirección opuesta desde un átomo de Calcio. Cada
fotón pasa a través de filtros polarizadores cuyos estados no están correlacionados con los de sus pares, por lo cual el que
un fotón alcance un dado filtro debería ser un evento totalmente aleatorio independiente del comportamiento del otro
fotón. El resultado experimental muestra sin embargo que la probabilidad de que un fotón alcance un dado filtro depende
de que el otro fotón haya alcanzado el correspondiente filtro de la dirección opuesta.
28 . A.O’ Hear, “ An Introduction to the Philosophy of Science” Clarendon P ress, Oxford, 1989.
29 . T.Khun, “ La estructura de las revoluciones científicas”.
30 . G.J.Zanotti, “ Epistemología Contemporánea y Filosofía Cristiana”. Sapientia, V.46, No.180, 1991, P ágs.119-149.
31 . S.Okasha, “ Philosophy of science: a very short introduction” Oxford University P ress, 2002.
III.
CIENCIA PURA, CIENCIA APLICADA, TECNOLOGÍA Y EL
PROBLEMA DE LA DEMARCACIÓN
III.1. Filosofía de la tecnología y modelos de innovación
tecnológica
La consideración de algunos de los problemas filosóficos y metodológicos relacionados con
la ciencia aplicada y la tecnología tiene un origen tan remoto como la filosofía misma. En efecto,
Aristóteles ya se ocupó de algunos de ellos, diferenciando claramente entre techne y episteme. Es
así que techne o conocimiento productivo, se refiere a la capacidad de hacer, a través de un
proceso de razonamiento. En este sentido, techne trata con objetos que no son ni necesarios ni
acordes con la naturaleza, es decir con cosas que no son necesariamente lo que son ni tienen una
tendencia innata para tornarse en lo que pueden ser, sino con cosas que pueden convertirse en
otras por la acción de un agente humano (32). Desde entonces y hasta nuestros días,
prácticamente todos los pensadores que se ocuparon de la filosofía de la ciencia lo han hecho
también en alguna medida de la tecnología, aunque por supuesto sin emplear éste término
moderno. Desde Francis Bacon con su visión de la ciencia como “relieving man’s state” a través
del control de la naturaleza, hasta los escritos de Karl Popper en los 50 con una visión
fuertemente antibaconiana (¡como no podía ser de otra manera!), pasando por Kant, Heidegger, y
M arx, y las variantes de pesimismo tecnológico y tecnocratismo, para mencionar sólo a los más
egregios antecesores de los argentinos M ario Bunge y Ricardo Gómez. Ahora bien, todo este
“tour de force” intelectual que abarca más de 20 siglos, ha producido una filosofía de la ciencia
que es hoy sin duda uno de los campos más ricos y activos de la especulación filosófica. En
cambio, la filosofía de la tecnología, no obstante su vieja data, no parece haber tenido un
desarrollo simétrico al de la filosofía de la ciencia, y a pesar de que hoy son cada vez más
numerosos los estudiosos del tema, éste se encuentra aún en un estadio que podemos calificar de
primitivo. Esto puede deberse en parte a la tradición escolástica que siempre otorgó mayor
jerarquía intelectual a la búsqueda del conocimiento per se, que a la solución de problemas
concretos. Otra razón puede estar dada por el hecho que la introducción de una nueva tecnología
no constituye meramente una intervención en la naturaleza. Es también una intervención en el
mundo humano, lo que inevitablemente le agrega una dimensión social y económica que hace al
proceso de innovación tecnológica más complejo que el de desarrollo científico. Tengamos en
cuenta que nuestra ignorancia de la naturaleza nos obliga a realizar experimentos de laboratorio
para establecer la validez de nuestras teorías científicas. Sin embargo, la experiencia de
laboratorio puede no ser relevante para establecer la validez de una innovación tecnológica, ya
que tal experiencia puede no ser representativa de las complejidades del mundo real en el cual
interviene la innovación. En otras palabras, debemos estar preparados para aceptar el hecho que
siempre puede haber consecuencias imprevisibles en la aplicación de una nueva tecnología.
La innovación tecnológica es un proceso que comenzando con la invención, continúa con una
etapa de desarrollo, y culmina con la explotación (generalmente comercial) de un bien o servicio.
El modelo aceptado durante mucho tiempo para analizar y comprender este proceso, fue el
llamado modelo lineal o de “technology push”, que afirma que las etapas de un proceso de
innovación son: ciencia, tecnología, mercado (explotación comercial), con cada una de ellas
alimentando a la siguiente. En los últimos años, este modelo fue cuestionado y reemplazado por
el denominado modelo no lineal o de “market pull”, según el cual opera un lazo fuerte de
realimentación entre las fuerzas del mercado y el sistema de ciencia y tecnología, dando así origen
a un proceso no lineal de innovación tecnológica en el cual el mercado se convierte en un
protagonista esencial.
Ahora bien, aunque estos modelos ya han sido empleados durante una tres décadas para
analizar y procurar entender el complejo proceso de creación tecnológica, no deja de resultar un
tanto sorprendente que los esfuerzos destinados a someter a los mismos a una análisis crítico
semejante al que ha sido objeto la ciencia, no han sido aún realizados sistemáticamente y con
análogo rigor indagatorio. Por ejemplo, ¿podemos decir que el modelo no lineal mantiene su
vigencia para un proceso de desarrollo tecnológico en el cual el rol de la teoría como sustento de
las innovaciones es cada vez más fuerte? En otras palabras, si bien hoy aceptamos que existe una
filosofía de la tecnología con carta de ciudadanía propia, ésta no parece haber seguido una
evolución comparable, en rigor y en profundidad, al de la filosofía de la ciencia. Es indudable que
la introducción de una nueva pieza de tecnología es una cuestión empírica, y que el éxito o el
fracaso de las aplicaciones de reglas (de acción) tecnológicas son relevantes para establecer su
veracidad o falsedad. No obstante quedan aún sin resolver, por ejemplo, problemas tan
importantes como el de establecer si la tecnología y en particular el cambio tecnológico, al igual
que la ciencia, es racional (al menos para quienes acepten esta última posición, que por cierto no
es universal), o si en el proceso del desarrollo tecnológico es pertinente hablar de contextos de
descubrimiento (provistos o no de una lógica interna) y de justificación, y en qué medida el
objetivo de la tecnología tiene que estar relacionado con la verdad o con la comprensión del
mundo.
Lo anterior implica indagar sobre la existencia o no de una metodología de la tecnología, y en
caso afirmativo, identificarla y expresarla en forma explícita. Ello exige un análisis riguroso de los
supuestos filosóficos utilizados y la búsqueda de un adecuado criterio demarcatorio entre ciencia
pura, ciencia aplicada y tecnología (si es que éste realmente existe), lo que resulta esencial para
establecer en forma precisa la diferencia entre ley científica, enunciado nomopragmático y regla
tecnológica. Siguiendo a algunos filósofos de la tecnología contemporáneos (33), podemos
identificar los objetivos de la línea de análisis propuesta, con la búsqueda de respuestas a las
siguientes preguntas referidas al quehacer tecnológico: ¿Cuál es su contenido y estructura?
¿Cuáles son sus métodos? ¿Cuál es el criterio de demarcación? ¿Cuáles son sus objetivos?
¿Cómo es su desarrollo? Dependiendo de las respuestas a estas preguntas, podrá elaborarse un
modelo más satisfactorio del proceso de innovación tecnológica, ya que los propuestos hasta
ahora, si bien útiles para poner de manifiesto algunas relaciones entre ciencia, tecnología y
sociedad, no son muy aptos para arrojar luz sobre los mecanismos internos que conducen a la
creación y al desarrollo tecnológico. De manera que a pesar de que la tecnología constituye el
motor esencial de la innovación, aquélla ha escapado en buena medida a un escrutinio crítico
intenso. Es posible sin embargo, puntualizar algunas excepciones notables, como la reflexión
filosófica sobre la tecnología que tuvo lugar durante más de un siglo entre los ingenieros alemanes
(34) y algunos filósofos importantes como Heidegger (35).
Modelo de “Technology Push”
Modelo de “Market Pull”
III.2. Rol de la investigación científica en el desarrollo
tecnológico
Una de las creencias más difundidas acerca de la tecnología, consiste en identificar a ésta con
ciencia aplicada. De más está decir que existen muchos ejemplos para sugerir tal identificación.
Por ejemplo, la práctica médica moderna está fuertemente influenciada por los avances en
biología, o los desarrollos en electrónica están asentados sobre una adecuada comprensión de la
mecánica cuántica, y los desarrollos en el campo de los materiales sintéticos dependen (entre
otras cosas) de la química de los polímeros. Sin embargo, si se considera todo el espectro del
avance tecnológico, se observa que la ciencia no siempre juega un rol decisivo en el desarrollo de
la tecnología. De hecho, han existido ocasiones en las que el avance tecnológico se ha producido
sin el concurso del conocimiento científico, y recíprocamente, ha habido avances en el
conocimiento científico impulsados por desarrollos tecnológicos.
La concepción habitual de la tecnología enfatiza que la misma se asienta sobre todo en la
aplicación del conocimiento. Sin embargo, no todo el conocimiento deriva de la investigación
científica. Es así que si analizamos toda la historia de la tecnología, surge de manera evidente que
la mayoría de los avances tecnológicos se desarrollaron y se aplicaron con poco o ningún
componente científico. Por ejemplo, los griegos antiguos hicieron numerosas contribuciones a
diversas ciencias: astronomía, óptica y acústica, así como importantes avances en matemáticas.
La tecnología griega también progresó a través de avances en la agricultura, construcciones,
minería, refinación de metales y equipo militar. Sin embargo, ninguna de estas innovaciones se
nutrió de manera significativa en la ciencia griega. Es más, los logros griegos en tecnología
resultaron mucho menos espectaculares que sus logros científicos, poniendo de manifiesto la
falta de conexión entre ambos. Este desarrollo asimétrico de la ciencia y la tecnología continuó
con los romanos, pero de manera inversa. M ientras que los avances producidos por los romanos
en ingeniería fueron notables (p. ej. los grandes acueductos), sus contribuciones a la ciencia
fueron relativamente modestas. Nuevamente, la tecnología en la antigua Roma tuvo poco que ver
con la ciencia de su época. La Europa medieval representó por su parte un tiempo de lento pero
significativo avance tecnológico. Se introdujeron mejoras en la agricultura, y nuevas fuentes de
energía tales como los molinos de viento. Se desarrolló la minería y el empleo de diversos
artefactos mecánicos. Las catedrales fueron construidas en distintas partes de Europa, y son
hasta hoy una fuente inagotable de asombro e inspiración para todo el mundo (36). Una vez más,
todo indica que estos logros se obtuvieron sin el recurso de los avances científicos de la época.
De hecho, parece ser que los constructores de las grandes catedrales no tenían conocimiento
siquiera de las tablas de multiplicar. Los siglos XVI y XVII fueron en cambio escenario de
notables avances en ciencia, mientras que el desarrollo tecnológico siguió en el mismo período
una evolución más modesta (37). Del mismo modo, la Francia de comienzos del siglo XIX fue el
asiento de la ciencia más avanzada de Europa, sin embargo su tecnología se encontraba a la zaga
de la de Inglaterra, que se encontraba en una condición científicamente inferior, no obstante ser la
cuna de la Revolución Industrial. Todos estos registros históricos han llevado a Thomas Kuhn a
conjeturar que a lo largo de la mayor parte de la historia humana, la tecnología ha florecido en
sociedades en las que la ciencia permaneció relativamente estancada y viceversa. En tal sentido,
es posible que una característica distintiva de nuestra época, sea el desarrollo simultáneo de la
ciencia y la tecnología.
La poca importancia relativa de la ciencia pura para muchos desarrollos tecnológicos, ha
quedado ilustrada por un estudio conducido por el Departamento de Defensa de los EE.UU. a
mediados de los 60, denominado “Proyecto Hindsight”. Este estudio analizó hasta qué punto la
investigación básica fue esencial para el desarrollo de veinte grandes sistemas de armas. De las
710 situaciones consideradas, el estudio concluyó que la investigación básica había originado sólo
el 0,3% del total. La investigación aplicada con fines militares específicos había contribuido en
cambio en un 6,7%, mientras que la investigación aplicada destinada a fines no militares había
sido el origen del 2% del total. De manera que el restante 92% no estaba vinculado con
investigación científica previa, sino con conceptos y principios establecidos (38). A similares
conclusiones arribó un estudio conducido en Inglaterra acerca de los ganadores del Queen´s
Award for Industry (39) que se otorga a firmas británicas que se distinguen en innovación
tecnológica. El estudio estableció que sólo unas pocas de tales innovaciones reconocían su origen
en la investigación científica. A idénticas conclusiones llegó el estudio conducido por James
Utterback acerca de la innovación en la industria norteamericana (40). De todos modos, a pesar
de la aparente contundencia de los resultados de los estudios mencionados, no es conveniente
saltar a conclusiones dado que, tal como lo puntualizan algunos críticos, tales estudios no
consideraron las influencias de largo plazo que la investigación científica pudo haber tenido en
los desarrollos tecnológicos analizados. Por ejemplo, el horizonte temporal del Proyecto
Hindsight estaba determinado por la investigación científica realizada esencialmente a partir del
año 1945. Esto implica que hubiesen podido existir influencias de investigaciones realizadas con
anterioridad a tal fecha. Esta posibilidad se vio abonada por los resultados de otro estudio acerca
de la relación entre investigación científica y aplicación tecnológica, denominado TRACES
(Technology in Retrospect and Critical Events in Science) que contradijo en buena medida a los
estudios anteriores al concluir que si se amplía el horizonte temporal, aumenta significativamente
el número de innovaciones que tuvieron su origen en la investigación científica (41). De cualquier
modo, las técnicas nacidas después de la Revolución Científica del siglo XVII se fundan cada vez
más sobre las ciencias, y esta tendencia se acentúa de manera notable a partir del siglo XIX (42).
III.3. Teorías tecnológicas, leyes científicas, enunciados
nomopragmáticos y reglas tecnológicas
La aplicación de la teoría a problemas prácticos da origen a varios problemas filosóficos
generalmente ignorados. Algunos que M . Bunge menciona (43) son: la validación de la acción por
la teoría y la relación entre regla y ley. Con relación al primero puede decirse que por un lado,
una teoría puede brindar conocimiento respecto a los objetos de la acción, por ejemplo máquinas
e instrumentos, y puede por el otro concernir a la acción propiamente dicha, por ejemplo a
decisiones referentes al diseño y la construcción de dichas máquinas o instrumentos. Ambos
tipos de teorías son teorías tecnológicas, sin embargo, mientras las del primer tipo son
sustantivas, las del segundo tipo son operativas. De acuerdo con Bunge, las teorías sustantivas
son esencialmente teorías científicas aplicadas a situaciones casi reales, como podría serlo por
ejemplo una teoría del vuelo, que es una aplicación de la fluidodinámica. En cambio, las teorías
operativas pueden tener poco o nada que ver con teorías científicas. No tienen un objetivo
cognitivo sino un objetivo de acción. Sin embargo, comparten muchas veces con las teorías
científicas el método de la ciencia, y desde este punto de vista, podrían considerarse como
teorías científicas para la acción. De hecho, siempre según Bunge, las buenas teorías operativas
comparten las siguientes características con las teorías científicas: (i) se refieren a modelos
idealizados de porciones de la realidad, (ii) emplean conceptos teóricos, tales como el de
“probabilidad”, (iii) pueden absorber información empírica y enriquecer a su vez a la experiencia
mediante la formulación de predicciones o retrodicciones, (iv) son empíricamente ensayables y
por lo tanto falsables.
Vistas desde un ángulo práctico, las teorías tecnológicas son más ricas que las teorías
científicas, ya que en lugar de establecer qué es lo que ocurre, pudo haber ocurrido, o puede
ocurrir, independientemente de decisiones externas, las teorías tecnológicas prescriben lo que
habría que hacer para que ocurran, o para evitar, o para modificar el curso de los eventos en una
forma prescrita. Desde un punto de vista conceptual, en cambio, las teorías tecnológicas son,
según Bunge, definitivamente más pobres que las de la ciencia pura, ya que son menos profundas
debido a que el hombre práctico está esencialmente interesado en los efectos que ocurren y que
son controlables en la escala humana, más que en la explicación de los mismos. De este modo los
requerimientos de exactitud en ciencia aplicada y en tecnología son mucho menores que los de la
ciencia pura, de manera que una teoría grosera y simple que brinde estimaciones correctas de
órdenes de magnitud, será suficiente en general en la práctica. Los coeficientes de seguridad
utilizados en las aplicaciones de tales teorías se encargarán de enmascarar los errores de las
mismas.
No hay como recurrir a un texto de ingeniería, para establecer de manera elocuente las
complejidades de un problema tecnológico y las limitaciones de un enfoque puramente científico:
“...un ala llena de combustible se puede calentar considerablemente mientras el avión es servido
en la pista. Durante el ascenso, cuando el avión soporta muchas de las cargas de maniobra, el
material se encuentra todavía tibio, hasta que al llegar a la estratósfera la estructura y el
combustible se enfrían hasta -55º C. Se producen cargas cíclicas, y si el vuelo es sobre el océano,
el aire contiene alguna cantidad de sal. Al descender, la estructura fría se encuentra con aire tibio
y húmedo, que también puede poseer algo de ácido sulfúrico. Es así que una eventual fisura en el
tanque, estará expuesta por un lado al cambiante medio externo y por el otro al combustible....
Claramente, una situación como la descripta desafía cualquier intento de modelado teórico. Ni
siquiera es concebible que un ensayo de laboratorio provea una solución al problema. Sólo queda
como recurso el pragmatismo ingenieril” (44).
M ientras la ciencia pura procura establecer regularidades o leyes objetivas, la investigación
orientada a la acción (investigación tecnológica) procura encontrar normas estables de
comportamiento humano exitoso, o reglas de acción. La consideración de estas reglas es central a
una filosofía de la tecnología. Una regla prescribe un curso de acción: nos dice qué debemos hacer
para alcanzar un cierto objetivo o resultado. M ás explícitamente: una regla es una instrucción
para efectuar una secuencia finita de acciones en un dado orden y con un fin determinado.
M ientras el rango de una ley es toda la realidad, el de una regla de acción es la humanidad (y su
entorno). Las leyes son descriptivas e interpretativas, mientras que las reglas son normativas.
Consecuentemente, mientras que los enunciados de las leyes pueden ser más o menos
verdaderos, las reglas pueden ser más o menos efectivas. Para demostrar que una regla es
efectiva, es necesario aunque no suficiente, mostrar que ha sido exitosa en un elevado porcentaje
de casos. Antes de decidir que una regla es empíricamente efectiva, deberíamos establecer por
qué lo es, es decir conocer su modus operandi. Este requerimiento marcaría entonces la
transición entre la práctica artesanal precientífica, la tecnología y la ciencia aplicada, y da origen a
lo que Bunge define como enunciados nomopragmáticos (45). La estructura de un enunciado
nomopragmático es AgB, donde el símbolo A se refiere a una acción humana (a diferencia de un
enunciado nomológico, en el que A se refiere a un hecho objetivo).
Existe con frecuencia una considerable confusión acerca de la distinción entre ciencia pura y
ciencia aplicada, y más aún entre ésta y tecnología. Según Feibleman (46), la diferencia entre las
dos últimas está determinada fundamentalmente por el tipo de enfoque utilizado. El científico
aplicado se ocupa de la tarea de descubrir aplicaciones para la teoría pura, mientras que el
tecnólogo trata con problemas más cercanos a la práctica. Ambos utilizan experimentos, pero
mientras el científico aplicado lo hace guiado por hipótesis deducidas de la teoría, el tecnólogo
recurre al método de prueba y error, o a medios empíricos derivados de experiencias concretas.
Sean cuales sean las características distintivas de la ciencia pura, de la ciencia aplicada y de la
tecnología, lo que resulta evidente es que existe entre las tres una estrecha relación dada por
múltiples interconexiones. Parece razonable entonces intentar analizar al conjunto de todas ellas
generalizando, con las debidas precauciones, la metodología que hasta ahora se ha empleado
esencialmente para la ciencia pura. En tal sentido, podemos comenzar nuestro análisis
aceptando, al menos provisoriamente, que podemos extender al conjunto la distinción estándar
entre contexto de descubrimiento y contexto de justificación, propuesto por Reichenbach (47).
Aunque esta distinción entre contextos ha sido objeto de diversos ataques (48), resulta útil para
limitar el análisis a aquellos aspectos del proceso de creación científica o tecnológica que tienen
más posibilidades de obedecer a una lógica susceptible de ser analizada, como lo son los
relacionados con el contexto de justificación. De cualquier modo, extendiendo un argumento de
Comesaña, podemos decir que no es necesario que la filosofía de la ciencia y de la tecnología
deba ocuparse sólo de la justificación; basta con que pueda hacerlo.
Consideremos en primer lugar el problema de la racionalidad del cambio tecnológico en
contraste con el de la racionalidad del cambio científico. Si partimos del supuesto filosófico (que
no discutiremos) de que la ciencia y en particular el cambio científico son racionales, surge
inmediatamente el interrogante de si existe racionalidad en el cambio tecnológico. Según M .
Bunge, un acto puede ser considerado racional cuando (i) está maximalmente adecuado a un
objetivo predeterminado, y (ii) tanto el objetivo como los medios para alcanzarlo han sido
escogidos o realizados empleando deliberadamente el mejor conocimiento relevante disponible.
Ahora bien, el conocimiento subyacente a la acción racional puede encontrarse en cualquier
punto del espectro entre conocimiento ordinario y conocimiento científico, con la sola limitación
de que se trate de conocimiento propiamente dicho y no de hábito o superstición (49). De modo
que si adherimos a este concepto de racionalidad y lo aplicamos al cambio tecnológico
considerado como acción, podríamos aceptar que aquél es, efectivamente, racional. Sin embargo,
cuando consideramos el cambio tecnológico, podría argumentarse que la racionalidad del mismo
no puede estar segregada de sus efectos de mediano y largo plazo, al menos en aquellos casos en
que tales efectos sean previsibles. No cabe duda que si incluyésemos esta última consideración
en nuestro análisis, la conclusión acerca de la racionalidad del cambio tecnológico se vería
seriamente cuestionada. No obstante, aceptaremos su racionalidad al limitarnos a considerar a la
tecnología únicamente como resultante de acciones guiadas por hipótesis fundamentadas y
ensayadas, o en datos fehacientemente establecidos. Si bien es cierto que esto es en alguna
medida una cuestión de terminología, no es menos cierto que resulta razonable restringir el
ámbito de la tecnología de manera de excluir del mismo acciones que tienen su origen en actitudes
meramente idiosincráticas, o basadas en mitos, modas o creencias infundadas.
Aun aceptando la racionalidad del cambio tecnológico, queda por analizar en qué medida
dicha racionalidad difiere de la del cambio científico. En el ámbito de la ciencia pura, una teoría es
reemplazada por otra cuando la nueva teoría constituye un progreso representado por un avance
cognitivo respecto de la anterior o porque permite resolver más problemas que la teoría
desplazada. En otras palabras, si la nueva teoría presenta un mejor acuerdo con la realidad que la
teoría anterior. Algo similar puede decirse respecto del cambio en la ciencia aplicada. Puede sin
embargo señalarse una diferencia de énfasis con respecto a la ciencia pura. Si bien tanto en ciencia
pura como en ciencia aplicada el criterio de validación de las teorías es su acuerdo empírico con la
realidad (estamos refiriéndonos por supuesto, a las ciencias fácticas), el investigador básico
persigue un objetivo fundamentalmente cognitivo, mientras que el investigador aplicado procura
primariamente identificar y generar conocimiento con valor potencial para la resolución de
problemas de interés social (50).
III.4. Naturaleza del cambio tecnológico. Criterios de
demarcación
La naturaleza del cambio tecnológico es en general mucho más compleja que la del cambio
científico. Hemos visto que suele sugerirse que el criterio de validación de una tecnología (en el
contexto que estamos considerando, podemos hablar de regla para la acción, sustentada en una o
más teorías operativas), es su eficacia. Sin embargo, a menos que se aclare debidamente el
significado que se asigna al término “eficacia”, la proposición anterior se encuentra muy cerca de
constituir una tautología. La definición de diccionario del término “eficacia”, es: virtud, actividad,
fuerza y poder para obrar. M ás sugerente es el significado dado al término “eficaz”: que logra
hacer efectivo su intento o propósito (51). Sin embargo, el reemplazo de una tecnología por otra
no tiene lugar sólo porque esta última logre, quizás al igual que la anterior, hacer efectivo el
propósito del tecnólogo. Dicho propósito debe alcanzarse con los recursos y dentro del plazo
disponible, y en este sentido la nueva tecnología debe demostrar que puede utilizar estos
recursos de mejor manera que la tecnología anterior. En otras palabras, cuando nos referimos a
tecnología, el criterio de eficacia debe ser reemplazado por el de eficiencia, si es que entendemos
por tal la capacidad de hacer efectivo un propósito utilizando la menor cantidad de recursos
posible. Observemos que la eficiencia como criterio selectivo constituye una característica
distintiva del cambio tecnológico, que se encuentra ausente en el ámbito de las ciencias puras. Si
bien es cierto que cuando se produce un cambio en ciencia pueden intervenir criterios que a veces
son denominados de eficiencia, ésta adquiere un sentido muy diferente que en el caso de la
tecnología. En efecto, una teoría en el campo de las ciencias puras puede ser reemplazada por
otra porque explica de manera más “eficiente” que la teoría anterior un determinado fenómeno, o
porque resuelve de forma más “eficiente” un dado grupo de problemas. Sin embargo, en éste
contexto el término eficiencia no se refiere a una mejor utilización de los recursos materiales
(incluido el tiempo, que en la vida práctica tiene un valor material) como ocurre siempre en
tecnología, sino que tiene que ver esencialmente con el sentido estético del investigador o de la
comunidad científica.
Debemos así coincidir con Bunge (52) cuando afirma que el tecnólogo está justificado al
preferir la teoría más simple (aunque no sea la más cercana a la verdad), ya que está más
interesado en la eficiencia que en la verdad. En situaciones reales, las variables relevantes son
desconocidas, o conocidas sólo de manera imprecisa. Tales situaciones son de una complejidad
tal que impiden un estudio detallado. En particular, el método reduccionista clásico consistente
en aislar las variables una a una, suele ser impracticable en tecnología. Dado que lo que se busca
es la máxima eficiencia, se intentarán una serie de acciones prácticas generalmente simultáneas. Si
el resultado es satisfactorio, no será posible en la mayoría de los casos establecer cuál de las
acciones fue realmente exitosa, o cuál de las hipótesis era verdadera. Sólo cuando hacemos
experimentos de laboratorio o cuando desarrollamos teorías científicas discriminamos entre las
variables, les asignamos un peso relativo y las controlamos a través de su manipulación o su
medición. En consecuencia, Bunge concluye que la práctica no tiene poder validatorio, sólo la
investigación (pura o aplicada) puede establecer el valor de verdad de las teorías. Existen en
efecto innumerables ejemplos que nos enseñan que una teoría puede ser exitosa en la práctica (o
mejor dicho sugerir acciones exitosas) y ser sin embargo falsa, al menos parcialmente.
Continuamente hacemos cosas sin entender cabalmente los procesos involucrados y,
recíprocamente, entendemos cosas que no podemos hacer (por ej., el proceso de fusión nuclear),
lo que es suficiente para establecer la distancia que existe entre el conocimiento y la práctica. Sin
embargo, esta distancia puede acortarse en la medida que los procedimientos artesanales sean
provistos de una base tecnológica, y que la tecnología se asiente a su vez en ciencia aplicada.
Es posible sugerir en virtud de lo expuesto, que el concepto de eficiencia podría constituir el
criterio de demarcación entre ciencia (pura y aplicada), y tecnología. En tal sentido, tengamos en
cuenta que ya Heidegger (53) nos dice que la esencia de la tecnología moderna es la búsqueda de
cada vez mayor flexibilidad y eficiencia “por sí mismas”. En otras palabras, su único objetivo
sería la optimización. De cualquier modo, aun aceptando que la eficiencia es un adecuado criterio
demarcatorio entre ciencia y tecnología, subsiste la dificultad de establecer los límites entre
ciencia pura y aplicada. En tal sentido, el criterio muchas veces propuesto de caracterizar a la
ciencia pura por un objetivo cognitivo, y a la ciencia aplicada por un objetivo de utilidad, no
resulta enteramente satisfactorio ni riguroso. Para ver que esto es así basta considerar que cuando
un fisiólogo que estudia determinados aspectos del metabolismo celular, dice hacer investigación
básica, un físico-químico experimental juzgará que se trata de físico-química aplicada de
membranas, siendo la investigación físico-química que él realiza la que merece denominarse
básica. Por el contrario, un termodinamicista teórico afirmará que el físico-químico experimental
no hace otra cosa que termodinámica aplicada, y así sucesivamente hasta llegar a la teología
pasando por la semántica (54). Es fácil ver que el objetivo cognitivo se encuentra siempre
presente, en todo caso conviviendo con el objetivo de utilidad. De cualquier modo, resulta claro
que la utilización del tipo de objetivo como criterio demarcatorio entre ciencia pura y ciencia
aplicada no resulta enteramente satisfactoria.
Las dificultades recurrentes que se presentan toda vez que se intenta establecer una
delimitación clara entre lo que es ciencia pura y ciencia aplicada nos lleva a sugerir la siguiente
propuesta: no existe criterio de demarcación que permita diferenciar en forma precisa a la ciencia
pura de la ciencia aplicada. El pasaje desde una hacia la otra es gradual, continuo, y relativo al
contexto o marco de referencia subjetivo desde el que se lo analice. En otras palabras, el
encuadramiento de una dada porción de conocimiento como ciencia pura o como ciencia aplicada
depende del punto de vista desde el cual se la considere: lo que es sin lugar a dudas ciencia pura
para un investigador, puede ser claramente ciencia aplicada para otro. Por la misma razón, todas
las consideraciones epistemológicas desarrolladas para la ciencia pura son en principio válidas
para la ciencia aplicada. De acuerdo con esta posición relativista o contextualista, no existiría un
criterio absoluto para calificar a un dada región del conocimiento científico como “pura” o como
“aplicada”, ya que aun en aquellos casos extremos en que el encuadramiento bajo una dada
calificación podría parecernos evidente, la calificación siempre podría cambiar como
consecuencia de alguna modificación en el contexto.
Surge de todas estas consideraciones que, al menos dentro del “contexto de justificación”, no
existirían diferencias metodológicas entre la ciencia pura y la ciencia aplicada. Nos preguntamos
ahora si podemos hablar también de un contexto de justificación en el caso de la tecnología, y de
qué modo éste puede diferenciarse del de la ciencia. Cuando analizamos los aspectos
metodológicos fundamentales del contexto de justificación de las ciencias fácticas, especialmente
las naturales, debemos aceptar que la esencia de aquél está estrechamente relacionado con el
concepto de verificabilidad, o siguiendo a Popper, de falsabilidad. Es decir, una teoría científica
mantiene su validez en tanto resista los intentos que hacemos para refutarla empíricamente.
Podemos ver que la validez de una teoría científica depende de que la misma exhiba un cierto
isomorfismo con el mundo físico, y cuanto más amplio sea el dominio de este isomorfismo más
contenido cognitivo podemos atribuirle a la teoría en cuestión. En cambio, según hemos visto, en
tecnología el objetivo cognitivo queda subordinado al objetivo de utilidad, y esto se refleja en el
hecho que la adopción o el cambio de una tecnología por otra, está determinado directamente por
su eficiencia antes que por su contribución cognitiva. Observemos aquí que si bien puede existir
una intención cognitiva por parte del tecnólogo, el conocimiento eventualmente obtenido es
empleado de manera de ponerlo al servicio del objetivo de utilidad, como ocurre en forma muy
cruda en el método de “prueba y error”.
Finalicemos recordando que Heidegger nos dice que la tecnología está “enraizada” en el
hombre. En otras palabras, el hombre no se encuentra en una relación externa con la tecnología, lo
que significa que no es algo aparte de su ser. Heidegger llama al hombre “ser en el mundo” para
poner de manifiesto la relación del hombre con su entorno. Según esta concepción, la experiencia
corriente es la parte prerreflexiva de la existencia del hombre. En sus reflexiones sobre la
tecnología, Heidegger observa que es posible definir a ésta última como “un medio y una
actividad humana”. Esto es lo que él llama la “definición instrumental y antropológica” de la
tecnología. En tal sentido, la tecnología es tan vieja como la civilización misma. Sin embargo,
cuando nos interrogamos sobre la esencia de la tecnología moderna, nos hallamos frente a algo
totalmente diferente y nuevo. Desde su óptica, ya no somos siquiera sujetos que convierten a la
naturaleza en un objeto de explotación. En su lugar, la relación objeto-sujeto alcanza por primera
vez una forma en la cual tanto el objeto como el sujeto son absorbidos como reservas en
disponibilidad. Todas las ideas acerca de servir a Dios, a la sociedad, a nuestros semejantes, o a
nuestros propios intereses, desaparecen. De acuerdo con esta visión, los seres humanos se
convierten en un recurso para ser utilizado, o más aún, para ser mejorado u optimizado como
cualquier otro: “el hombre, que ya no oculta su carácter de constituir la materia prima más
valiosa, es absorbido dentro de este proceso” (55). Heidegger distingue así los problemas
causados por las tecnologías específicas, tales como el daño nuclear, consumismo, etc., de los
riesgos de lo que él denomina la “concepción tecnológica del ser”, según la cual la tecnología se
convierte en el instrumento necesario de la felicidad humana. En otras palabras, la mayor
amenaza de la tecnología la constituye que el “modo utilitario” de pensamiento llegue a ser
considerado el único modo de pensamiento posible. De manera que de acuerdo con esto, el
peligro no reside tanto en la destrucción de la naturaleza o de la cultura, sino en una restricción
en nuestra forma de pensar, es decir en una suerte de homogeneización de la concepción o
comprensión del ser. Sin embargo, aunque esta concepción tecnológica del ser ha venido
construyéndose desde Platón, la misma no es, según Heidegger, inevitable.
32 . W.F. Hood, “ The Aristotelian Versus the Hideggerian Approach to the P roblem of Technology” en C. Mitcham & R.
Mackey (eds.), Philosophy and Technology Readings in the Philosophical Problems of Technology, The Free P ress, New
York-London, 1983.
33 . R. Gómez, Notas del Curso de Filosofía de la Tecnología, Centro de Estudios Avanzados de la UBA, Buenos Aires,
agosto de 1995.
34 . F. Rapp, Analityc Philosophy of Technology Trans., Carpenter & Langenbruch, vol. 63, 1981.
35 . S.R. Carpenter, W hat Technology Transfer: The Contingent Nature of Cultural Responses, en E.F. Birne & J.C. P itt
(eds.), Technological Trasnformation: Contextual and Conceptual Implications, Kluwer Academic P ublishers, The
Netherlands, 1989.
36 . J. Gimpel, La revolución Industrial en la Edad Media, Ediciones Taurus, Madrid, 1981.
37 . T. Kuhn, “ Comments on the P rinciple of Acceleration”, en Comparative Studies in History and Society, 11, 4, 1969.
38 . C.W. Sherwin & R.S. Isenson, “ P roject Hindsight”, en Science, 156, 3782, junio de 1967, pp. 1571-1577.
39 . J.E.S. P arker, The Economics of Innovation: The National and Multinational Enterprise of Technological Change,
2da. ed., Longman, London, 1978.
40 . J.M. Utterback, “ Innovation in Industry and the Diffusion of Technology”, en Science, 183, 4125, febrero de 1974, p.
622.
41 . J.E.S. P arker, The Economics of Innovation: The National and Multinational Enterprise of Technological Change,
2da. ed., Longman, London, 1978.
42 . M. Bunge “ Impacto Social de la Innovación Técnica”, en Sistemas Sociales y Filosofía, Editorial Sudamericana,
Buenos Aires, 1995.
43 . M. Bunge, “ Toward a P hilosophy of Technology”, en C. Mitcham & R. Mackey (eds.), Philosophy and Technology
Readings in the Philosophical Problems of Technology, The Free P ress, New York-London, 1983.
44 . D.Broek “ The Practical Use of Fracture Mechanics”. Kluwer Academic P ublishers, The Netherlands, 1989.
45 . M.Bunge Qué Significa “Ley Científica”?. La Ciencia, Su Método y Su Filosofía, Siglo Veinte, Buenos Aires, 1971.
46 . J.K.Feibleman “Pure Science, Applied Science, and Technology: An Attempt at Definition” Philosophy and
Technology Readings in the Philosophical Problems of Technology, C.Mitcham & R.Mackey Eds., The Free P ress, New
York-London, 1983.
47 . H.Reichenbach “ Experience and Prediction”. University P ress, Chicago, 1938.
48 . M.Comesa a “ Razón, Verdad y Experiencia: Un Análisis de sus Vínculos en la Epistemología Contemporánea con
Especial Referencia a Popper”. Universidad Nacional de Mar del P lata, a publicarse.
49 . M. Bunge, “ Toward a P hilosophy of Technology”, en C. Mitcham & R. Mackey (eds.), Philosophy and Technology
Readings in the Philosophical Problems of Technology, The Free P ress, New York-London, 1983.
50 . M. Bunge, “ Ciencia Básica, Ciencia Aplicada y Técnica”, en Ciencia y Desarrollo, Siglo Veinte, Buenos Aires, 1982.
51 . Diccionario Enciclopédico Abreviado, 2da. ed., Espasa-Calpe, Madrid, 1933.
52 . M. Bunge, “ Toward a P hilosophy of Technology”, en C. Mitcham & R. Mackey (eds.), Philosophy and Technology
Readings in the Philosophical Problems of Technology, The Free P ress, New York-London, 1983.
53 . H.L. Dreyfus, “ Heidegger on Gaining a Free Relation to Technology”, en A. Feenberg & A. Hannay (eds.), The
Politics of Knowledge, Indiana Univ. P ress, Indianapolis, 1995. / M. Heidegger, The Question Concerning Technology,
Harper Colophon, New York, 1977.
54 . J. Sábato, charlas informales en el Dpto. //*Departamento// de Metalurgia de la CNEA en la década del 60.
55 . M. Heidegger, “ Overcoming Metaphysics”, en The End of Philosophy, Harper and Brown, New York, 1973.
IV.
LA NATURALEZA DE LAS TEORÍAS Y DE LAS LEYES
FiSICAS
IV.1. El problema de la inteligibilidad del mundo y la
existencia de leyes de la naturaleza
Es difícil establecer en que momento el hombre comenzó a preocuparse por comprender el
mundo que habita. Sin embargo, es razonable asumir que la preocupación por “entender” nuestro
entorno pueda haber surgido simultáneamente con el pensamiento consciente, posiblemente
ligado al desarrollo de neocórtex en los mamíferos superiores hace varios millones de años, es
decir al darse cuenta el hombre primitivo que en tanto individuo, su suerte estaba ligada a la
forma en que el resto del mundo actuara sobre él. De hecho, los registros que existen en tantos
lugares de actividades rituales llevadas a cabo por comunidades primitivas, nos indican
claramente la preocupación permanente del hombre por ejercer cierto grado de control sobre la
naturaleza. Es evidente que si bien estas prácticas rituales no conducen al entendimiento, al
menos ponen de manifiesto una intención primitiva de comprensión del mundo, es decir de
identificación de los efectos producidos por ciertas causas cuyo control el hombre trataba de
ejercer (56).
En la raíz de nuestro análisis se encuentra por un lado el interrogante de si el mundo es
predecible (en principio), es decir, si está de alguna manera sujeto a regularidades que son las que
llamamos un tanto pomposamente “leyes de la naturaleza” (57). Por el otro lado, desearíamos
poder determinar si estas leyes de la naturaleza existen realmente o son meras creaciones del
observador. Vale la pena aquí acotar dos expresiones que corresponden a dos posiciones distintas
respecto de este problema. Alberto Einstein, quien mantuvo durante toda su vida una actitud
optimista en cuanto a la posibilidad de describir racionalmente el mundo, decía: “la naturaleza es
sutil pero no es maliciosa”, implicando con esto que la complejidad que normalmente presentan
los fenómenos naturales no es otra cosa que un disfraz para impedirnos ver la simplicidad
subyacente de la naturaleza. Un físico británico actual, John Barrow, se pregunta en cambio en
una actitud más escéptica si la naturaleza no puede ser después de todo sutilmente maliciosa
(58).
Puede suceder que una consecuencia observacional deducida dentro de una teoría resulte ya
conocida como verdadera porque una investigación empírica así lo estableció previamente. Si
esto ocurre, decimos que hemos explicado el hecho descrito por la consecuencia observacional
(59). La razón es que aunque ya teníamos información sobre el hecho y sabíamos que ocurrió de
tal o cual manera, ahora estamos en condiciones de deducirlo de las leyes o principios de la teoría
y, por lo tanto, comprender por qué ocurrió. Ésta es la noción básica de lo que llamamos
explicación científica. En el caso en que no sepamos si la consecuencia observacional es verdadera
o falsa, porque se refiere a un hecho que ocurrirá en el futuro, decimos que estamos haciendo una
predicción. Es evidente que existe una estrecha conexión entre las nociones de explicación y de
predicción. Una predicción cumplida, es decir una consecuencia observacional que se hace
verdadera, se transforma automáticamente en una explicación: la consecuencia observacional
queda explicada por la teoría de la cual se la dedujo. Destaquemos por ahora solamente que
cuando hablamos de predictibilidad de los acontecimientos naturales, ello implica que existen
aspectos de la naturaleza que se encuentran totalmente fuera de nuestro control, es decir
asumimos que existe un mundo exterior a nosotros e independiente de nosotros. Este punto de
vista, esencial para la existencia de la ciencia, suele denominarse dualismo (separación del
observador y la naturaleza). Sin embargo, la aceptación del dualismo no implica posiciones
idénticas en cuanto a la relación entre el observador y lo observado. Por el contrario, caben
distintas interpretaciones acerca de la manera en que nuestra conciencia establece contacto con el
mundo que percibe. Estas interpretaciones van desde el realismo ingenuo, realismo
representativo, idealismo, fenomenalismo, e innumerables variantes hasta el extremo del
solipsismo (60).
IV.2. ¿Qué son las leyes de la naturaleza?
La mayoría de los enunciados que formulamos en la vida cotidiana son empíricos. Aun en el
caso que no hayamos comprobado directamente la verdad de un enunciado empírico, por una
observación personal, la cadena de transmisión indirecta del enunciado debe necesariamente
concluir en una observación empírica directa. En este sentido, hay una clase de enunciados
empíricos que presentan especial interés, por razones prácticas por un lado debido a que nos
permiten predecir acontecimientos, y por razones teóricas por el otro debido a que plantean
problemas especiales. Esta clase de enunciados está formada por lo que llamamos leyes de las
ciencias naturales (física, química, astronomía, biología, psicología, etc.), o simplemente leyes de
la naturaleza. Las leyes de estas ciencias son empíricas, al igual que la mayoría de los enunciados
de la vida ordinaria, pero difieren de éstos en que son universales: es decir, se aplican en todos
los casos y sin excepciones. Sus formulaciones tienen formas distintas. Por ejemplo: Todo A es
B; Si A entonces B; etc., pero cualquiera que sea la forma en que se las enuncie, tienen en común
su universalidad. Sin esta propiedad, no son leyes. En otras palabras, la universalidad es una
característica definitoria de una ley (Veremos más adelante sin embargo, que últimamente este
criterio ha sido blanco de algunas críticas).
Pero el enunciado de una ley no solamente debe carecer de excepciones, también debe ser
verdadero: es decir debe formular una uniformidad o regularidad que realmente se dé en el
universo. Obviamente, no es fácil hallar tales regularidades, y las que hoy conocemos han
costado el esfuerzo acumulado de siglos de investigación científica.
Las leyes de la naturaleza son descriptivas, ya que describen alguna regularidad que existe en
el universo, y constituyen generalizaciones, es decir que a partir de la observación de ejemplos
particulares de regularidades de la naturaleza, generalizan tales uniformidades afirmando que son
válidas en todos los casos, incluyendo los casos pasados y los futuros.
Si una ley dice que “Todo A es B”, es lógicamente imposible examinar todos los A del
universo para verificar que son B. Lo mismo puede decirse con respecto a testimonios del
pasado o del futuro. De modo que es lógicamente imposible conocer la verdad de un enunciado
contenido en una ley. Lo más que podemos decir es que el mismo es probable; que la
uniformidad se ha producido en todos los casos observados y que por lo tanto inferimos que
aquel enunciado es válido. Por otra parte sabemos que sólo es necesario comprobar una
desviación para (al menos teóricamente) refutar el enunciado en cuestión. Aquí se plantea entre
otros, el problema de establecer hasta que punto el hecho que algo haya ocurrido en el pasado
constituye un indicio para aseverar que seguirá ocurriendo en el futuro. Con relación a esto,
tengamos en cuenta que la aparición de ciertas regularidades en el pasado son un indicio que
continuarán produciéndose en el futuro, pero puede no serlo para otras regularidades. Bertrand
Russell da el ejemplo del pollo que vuelve a su gallinero todas las noches en la creencia de que
por no haber sido molestado en el pasado, estará seguro en el futuro. Sin embargo, una noche su
propietario entra en el gallinero y le retuerce el pescuezo (61). En realidad, creencias de esta clase
se hacen menos probables y no más probables con la repetición de acontecimientos. Otra
creencia de este tipo es la de que por el hecho de habernos levantado todas las mañanas durante
ochenta años, tenemos mayores probabilidades de volver a hacerlo que si tuviéramos veinte, o
porque habiendo viajado tantas veces en avión, tenemos menos posibilidades de sufrir un
accidente en el próximo viaje que en los anteriores. Lo que ocurre es que la adición de ejemplos
repetidos hace que una generalización sea más o menos probable según las pruebas que se tengan
de otras generalizaciones que interesan a la cuestión. En el caso de los ejemplos del pollo o de los
días de vida, o los viajes en avión, la probabilidad de los enunciados está subordinada a
generalizaciones más amplias (y más vagas) acerca de por ejemplo la conducta de los granjeros y
del mercado de pollos, acerca de la biología humana, o sobre la confiabilidad de sistemas
mecánicos respectivamente, que hace que aquellos enunciados se hagan en realidad menos
probables con la repetición de ejemplos. Por el contrario, una afirmación como la de que el sol
aparecerá mañana por la mañana, se fortalece con la repetición de ejemplos, y esto se debe a que
tal afirmación es dependiente de otras generalizaciones concernientes a la estructura y
comportamiento del sistema planetario y del mundo que hacen más probable aquella afirmación.
El principio general que se invoca tácitamente como premisa en razonamientos del tipo
mencionado, es el Principio de Uniformidad de la Naturaleza que podemos formularlo
simplemente expresando “si la naturaleza ha sido siempre uniforme en el pasado, continuará
siéndolo en el futuro”. Obviamente, no podemos demostrar este principio. En todo caso,
podemos justificar pragmáticamente su adopción aduciendo que ha resultado fructífero y que sin
él no podríamos hacer inferencias del pasado hacia el futuro.
Cuando los filósofos discuten sobre las leyes de la naturaleza, lo hacen en términos de
“universalidad” y “necesidad”. En cambio, los científicos, en especial los físicos, lo hacen en
términos de “simetría”, “invariancia” y “transformación”. Efectivamente, las ideas centrales de la
física actual surgen esencialmente de consideraciones de simetría e invariancia frente a
determinadas transformaciones. Es así como en el marco de la formulación Lagrangiana de la
dinámica de partículas, el Principio de Homogeneidad o simetría del espacio bajo
desplazamientos conduce en mecánica clásica al primer teorema fundamental de la dinámica de
conservación de la cantidad de movimiento, la simetría frente a rotaciones al segundo teorema
fundamental de conservación del momento cinético y la homogeneidad del tiempo al teorema de
conservación de la energía (62) y más modernamente las invariancias de gauge del
electromagnetismo a la formulación de la electrodinámica cuántica (63).
Descartes, Newton y Leibnitz fundan en el siglo XVII tanto la física moderna como la nueva
filosofía. Ellos ya hablaban libremente de “leyes de la naturaleza”. De hecho, el gran escándalo de
la filosofía natural premoderna era la distancia que existía entre la física y la astronomía.
Recordemos que la física imperante hasta entonces era la física aristotélica que describía todos
los fenómenos en términos de interacción y de acción local. El primer principio de la física
aristotélica: nada se mueve a menos que sea movido por algo más, se aplicaba no sólo al
movimiento sino a todo cambio. Se requería entonces un movimiento que fuera desde el concepto
de acción o “causa local” al de “restricción global” (es decir que se aplica al sistema como un
todo y que no es derivable de principios que rigen localmente. Por ejemplo: el principio de
Conservación de la Energía, o de la cantidad de movimiento son de carácter global y no son
deducibles de principios que se aplican a partes de un sistema).
Santo Tomás de Aquino había tratado de conciliar la visión judeo-cristiana del mundo (que
está determinado por el mandato de Dios), con la física aristotélica. Encontró su camino a través
del concepto de “causa próxima” o de la naturaleza de las cosas (ya que Dios seguía siendo la
causa primera o remota). En el siglo XVIII se elimina la calificación aristotélica y el concepto de
ley de la naturaleza se identifica en buena medida con el de “ley de Dios”, con lo que se pasa de
causa local a un concepto teológico mucho más fuerte, pero de restricción global. Recordemos
que Descartes, en la Parte 2 de sus Principios de Filosofía, escribe:
“Que Dios es la Causa Primera de movimiento y que El siempre preserva la misma cantidad
de movimiento en el universo.”
M as tarde Leibnitz reemplazará este principio de la conservación de movimiento por un
principio de conservación de la fuerza, que en términos modernos equivaldría a la conservación
de la energía.
En el siglo XVIII se produce un quiebre importante en la filosofía, ya que si bien existía
unanimidad en la necesidad de separar la ciencia de la teología, comenzaba también un
movimiento (los empiristas) para separar a aquella de la metafísica. El empirismo es la posición
filosófica que sostiene que la experiencia es la única fuente de información acerca del mundo. Por
otra parte la metafísica, entonces bajo el ataque de la Crítica de Kant, se caracterizaba en cambio
por la convicción que la razón nos puede traer la certeza de verdades que trascienden la
experiencia. Kant sostenía que cuestiones metafísicas tales como “¿Tuvo el mundo un origen en
el tiempo?” o “¿Ha existido siempre el mundo?” si bien tienen significado, los seres humanos no
están estructurados para encontrar las respuestas. Justificaba esta afirmación argumentando que
esto se aplicaba a cualquier ser que representara la realidad exterior a través de sus estados
internos de conciencia (64). Sea como sea, a la luz de todo lo expuesto anteriormente, podemos
decir que la pretensión que la razón puede trascender la experiencia es sin duda una exageración.
Lo más que puede la razón por sí sola es deducir, a partir de condiciones que la experiencia indica
como posibles, verdades generales referentes a la estructura de la experiencia misma.
La otra gran pauta, que ya había comenzado a insinuarse en el siglo XVII, era la idea de
simetría. El nacimiento del concepto de simetría en el siglo XVII puede ser vinculado con el
Principio de Leibnitz de “Razón Suficiente”: Dios no actúa sin una razón suficiente. En otras
palabras: para cada verdad o para todo lo que “es”, hay una razón suficiente para que sea verdad
o para que sea de ese modo. El principio de Razón Suficiente tiene un cierto atractivo intuitivo,
hasta el punto que algunos lo consideran la base de toda ciencia. La ciencia moderna no se
contenta con la mera descripción de un fenómeno sino que presuponiendo la validez del
principio, busca el “por qué” de su ocurrencia. Es así que Leibnitz reconstruyó los argumentos
de Fermat para la trayectoria de un rayo luminoso en términos de simetría, aunque no utilizara
en realidad este término. Su argumento seguía aproximadamente el siguiente razonamiento:
consideremos que la luz viaja en un medio homogéneo desde un punto A hasta otro punto B.
Esto implica un par de puntos, el A y el B, y una dirección, la dirección AB. Ahora bien, definir
otra dirección en el espacio implica la referencia a otro punto, línea o elemento que no ha sido
introducido en la consideración anterior. De manera que cualquier regla que gobierne el
movimiento de la luz en un medio homogéneo debe aceptar alguna de las dos siguientes
alternativas: a) la luz sigue la línea AB, o b) hacer intervenir algún elemento X adicional que
pudiese señalar un camino alternativo a la trayectoria AB. Pero la suposición que el medio es
homogéneo impide la presencia de tal elemento que destruiría la simetría del sistema y por lo
tanto la alternativa a) es la verdadera. Para Leibnitz, la prosecución de la simetría en el teorizar
reflejaba el método de diseño de Dios para la creación.
Ya hemos mencionado que una ley de la naturaleza, para que sea tal, debe satisfacer algunos
requerimientos o criterios (hemos considerado el de universalidad). Si bien no es imprescindible
que lo haga simultáneamente con todos ellos, al menos tendrá que satisfacer a la mayoría de tales
criterios. Esta vaguedad no debería desalentarnos, ya que muchos de nuestros conceptos son,
utilizando una expresión de Wittgenstein: conceptos grupales, es decir tienen asociados un grupo
de criterios, de los cuales sólo es necesario que se cumpla la mayoría de ellos (2). Obviamente,
cuanto más criterios se satisfagan, más claro y definido es el caso en cuestión. En el caso de las
leyes de la naturaleza, los criterios serían:
Universalidad: las leyes de la naturaleza son leyes universales. Este ha sido siempre un
criterio favorito, en especial de los empiristas quienes en general se muestran cautelosos con los
otros criterios. Digamos que este criterio ha sufrido dificultades últimamente: ningún río en el
pasado, en el presente, ni (previsiblemente) en el futuro, es de “Coca-Cola”, pero ello no implica
ley de la naturaleza alguna y preferimos admitir este hecho como una verdad circunstancial o
accidental. Consideremos ahora los dos ejemplos paralelos siguientes, que emplean exactamente
la misma categoría de términos y comparten la misma forma lógica, pero que suscitan diferentes
reacciones cuando pensamos en cual puede representar una ley de la naturaleza (2):
i) “Todas las esferas sólidas de uranio enriquecido (U235) tienen menos de un kilómetro de
diámetro”
ii) “Todas las esferas sólidas de oro tienen menos de un kilómetro de diámetro”
Si bien aceptamos que ambas proposiciones son verdaderas (incluso en el sentido de verdad
universal), su naturaleza es completamente distinta. La primera califica como ley de la naturaleza
ya que la masa crítica de una esfera de uranio enriquecido es mucho menor que la que
correspondería a una esfera de un kilómetro de diámetro. En cambio, la segunda proposición es
meramente accidental, aun aceptando el hecho que todo el oro de la tierra y de los planetas no
fuese suficiente para construir tal esfera. El punto es que si i) califica como ley de la naturaleza,
mientras que ii) no lo hace, no es debido a una diferencia en su universalidad. Otra consecuencia
de nuestro análisis es que las leyes no pueden ser simplemente los enunciados verdaderos en una
cierta clase caracterizados en términos de sintaxis y semántica. Vimos que los ejemplos
anteriores son idénticos en tal sentido, sin embargo sólo el primero puede ser considerado ley de
la naturaleza.
Lo expuesto nos puede ilustrar sobre las razones por las cuales las opiniones sobre el
requerimiento de que una ley, para serlo, debe satisfacer la condición de universalidad, no son
coincidentes. En otras palabras, el criterio de universalidad, aunque todavía presente en las
discusiones sobre las leyes de la naturaleza, ha dejado de ser el de mayor relevancia.
Necesidad: en nuestra sociedad, debemos hacer los que las leyes (de nuestro sistema legal)
imponen, y sólo podemos hacer aquello que las leyes no prohiben. Ésta es una parte importante
de la analogía positiva entre el concepto ordinario de “ley” con la expresión “ley de la
naturaleza”. Los cuerpos no caen por azar, sino que deben hacerlo en virtud de la ley de
gravedad. Vemos aquí la estrecha relación entre el término “deber” y “ley”. El criterio de
“necesidad conferida” (“necessity bestowed”) nos dice que si la sentencia: “es una ley que A”,
es verdadera, entonces la sentencia: “es necesario que A”, también es verdadera. Esta necesidad
es llamada entonces necesidad física o necesidad nomológica, y actualmente es generalizada
como probabilidad física. Destaquemos que los empiristas no comparten este criterio de
necesidad física, ya que para ellos la necesidad sólo surge en conexión con las ideas o las
palabras. Con relación a esto, podemos señalar que hay una diferencia importante entre
necesidad nomológica y probabilidad física y en este sentido el ejemplo más claro es el referente
al concepto termodinámico de entropía. En efecto, el segundo principio de la termodinámica
prescribe que en cualquier transformación de un sistema cerrado, es decir que no intercambia
trabajo ni calor con el medio exterior, la función de estado entropía aumenta o se mantiene
constante, pero nunca disminuye. Este principio era considerado una de las leyes más
universales de la naturaleza hasta que en 1872, el físico austríaco Ludwig Boltzmann demostró
que se trataba no de una ley estricta o necesidad nomológica, sino que era un enunciado
probabilístico (65). Si bien es cierto que la probabilidad que un sistema cerrado viole el segundo
principio es en la práctica despreciable a menos que esperemos un tiempo tan largo que puede
exceder la vida del universo, hay un diferencia sustancial entre un enunciado que expresa una
probabilidad física y otro que expresa una necesidad nomológica, como por ejemplo las leyes de
la dinámica newtoniana.
Explicación: existen quienes sostienen que las leyes son necesarias para explicar los
fenómenos, y que del mismo modo, no hay explicaciones sin leyes. Esta posición corresponde al
modelo de explicación llamado nomológico-deductivo, que dice que explicar un tipo de evento es
mostrar que el enunciado de la ocurrencia del evento puede deducirse lógicamente del enunciado
de la ocurrencia de otro tipo de eventos, generalmente antecedentes, si además de la descripción
de los eventos explicativos, se utilizan enunciados (leyes de la naturaleza) que conectan la
descripción de ambos tipos de eventos. Algunos proponentes de este modelo de explicación
destacan la estrecha relación entre el concepto de explicación con el de predicción y en tal
sentido manifiestan que si el evento explicado y los eventos explicativos no guardan la necesaria
relación causal de antecedente y consecuente en el tiempo, entonces la conexión entre sus
descripciones no constituye explicación. En tal sentido, la deducción de la posición que ayer
tenía un planeta a partir del conocimiento de su posición actual, no explicaría por qué el planeta
tenía ayer la posición que tenía, dado que el pasado explica el futuro pero no a la inversa. Sin
embargo, a la luz de la reversibilidad temporal de las leyes de la dinámica, éste no resulta un
argumento muy convincente, ya que siempre podemos pensar que la predicción se hizo ayer
sobre la posición que el planeta atiene hoy.
Objetividad: este concepto implica que el hecho que algo sea una ley o no lo sea, es
totalmente independiente de nuestro conocimiento, creencias, opiniones, intereses, o cualquier
otro tipo de factor epistemológico o pragmático. Si bien es cierto que existen concepciones que
niegan este concepto, es obvio que tales concepciones tropiezan con la dificultad que representa
la idea intuitiva que existen leyes de la naturaleza que no se han descubierto aún (y quizás no lo
sean nunca) y a las cuales ni siquiera hemos concebido.
Relación con la ciencia: éste constituye un criterio de particular importancia, aunque al igual
que los demás, se encuentra sujeto a una serie de dificultades. En efecto, desde cualquier
concepción, las leyes de la naturaleza son lo que la ciencia intenta descubrir. En primer lugar, no
hay una versión filosóficamente neutra respecto de qué es lo que la ciencia descubre o procura
descubrir. En segundo lugar, el término “ley” es utilizado en la ciencia de manera idiosincrática.
En efecto, solemos hablar de leyes de Newton, leyes de Kepler, Ley de Ohm, etc. En cambio
decimos Ecuación de Schrödinger, o Principio de Exclusión de Pauli, a los que a pesar de ser
inmensamente más comprehensivos que por ejemplo, la ley de Ohm, no denominamos leyes.
Algunos autores proponen que el término ley debe utilizarse para designar a cualquier ecuación
numérica precisa que describa fenómenos de un cierto tipo. Sin embargo, un mínimo análisis nos
dice que esta sugerencia carece de atractivo ya que podríamos encontrar ejemplos triviales que
podrían satisfacer tal criterio. A fin de evitar estos problemas, existen sugerencias de que
deberíamos llamar “ley” a las regularidades de bajo nivel verificables empíricamente. Desde este
punto de vista, la “ley de Boyle” calificaría como ley de la naturaleza mientras que denominar
“ley” a la “ley de la conservación” de la energía respondería a una mera idiosincrasia
terminológica. De manera que distinguiríamos así a las leyes de bajo nivel o leyes
fenomenológicas de los principios básicos, generalmente de naturaleza más teórica y universales.
El físico y Premio Nobel Richard Feynman, sin duda una de las mentes más brillantes de su
generación, en un análisis desprovisto de formalismo epistemológico pero de profundo contenido
filosófico, hace hincapié en el atributo de fertilidad que debe caracterizar a una ley de la
naturaleza (66). Fertilidad en el sentido que una ley de la naturaleza, para que merezca su
calificación como tal debe permitir explicar fenómenos previamente considerados desconectados,
tomando como ejemplo paradigmático a la ley de gravitación universal que permite unificar en un
mismo análisis la caída de los cuerpos y el movimiento planetario.
IV.3. Correlación, causalidad y determinismo. Las leyes de la
naturaleza y la representación de la realidad
Según hemos visto, el argumento tradicional parte de la premisa que existen regularidades en
la naturaleza (Principio de Uniformidad), y dado que ninguna regularidad puede persistir sin una
razón, dicha razón es la existencia de una ley de la naturaleza. El argumento continúa diciendo
que si no existiese razón, no habría motivo para esperar que la regularidad persista, y por lo
tanto no habría base racional para predecir el futuro. En realidad, estos argumentos fueron
empleados por los realistas de la Edad M edia en su disputa contra los nominalistas mucho antes
de que surgiera la idea de ley de la naturaleza. En este punto debemos hacer una aclaración de que
es lo que entendemos cuando decimos que algo ocurre “por azar” o en “forma aleatoria”. En
efecto, estas expresiones pueden interpretarse como significando que lo que ocurre, lo hace sin
que exista una razón para ello, o queriendo en cambio decir que lo que ocurre, lo hace con una
probabilidad igual a sus contrarios. En este último caso, la razón existe pero aun así no tenemos
certeza de que el evento ocurrirá. De modo que los razonamientos anteriores implicarían que los
sucesos aislados pueden ocurrir sin una razón, pero no así las regularidades.
Sin embargo, ¿por qué el evento A, que no guarda relación alguna con el evento B, no puede
ser siempre o al menos la mayoría de las veces ser seguido por B?
Es por lo tanto importante distinguir entre “causación” y “correlación”. Dos eventos o
sucesos pueden estar correlacionados lo que no implica que exista una relación causal entre ellos.
Un ejemplo sería el que surge del siguiente razonamiento:
i) Cuanto más bomberos están combatiendo un incendio, mayor es la cantidad de fuego.
ii) Luego los bomberos son la causa del incendio
O bien:
i) Con el calor aumenta el número de delitos.
ii) Con el calor se consumen más helados.
iii) Luego los helados causan delitos.
Tengamos en cuenta aquí que una ley debe ser concebida como la razón subyacente en la
uniformidad (regularidades) de la naturaleza, y no meramente como la uniformidad o regularidad
en si misma. En su famoso análisis crítico de la noción de causalidad, David Hume argumenta que
sería un error ver a las relaciones causales como una “conexión necesaria” entre eventos del
mundo. En tal sentido, según Hume, lo que en realidad encontramos cuando observamos eventos
vinculados por causa y efecto, es ante todo una relación espacio-temporal entre los eventos, es
decir con los eventos en “contacto” espacio-temporal pero con el evento “efecto” precedido
siempre por el evento “causa”. Es decir que los eventos pertenecen a una clase de pares de
eventos de un cierto tipo que se presentan siempre acompañados uno del otro. Cuando creemos
explicar esta conjunción de eventos al decir que eventos del tipo 1 causan eventos del tipo 2, lo
que en realidad estamos haciendo es simplemente describir la conjunción constante de eventos.
La interpretación que Hume hace de esto es que el concepto de “necesidad” (en el sentido que el
evento 2 necesita del evento 1 para producirse), no es el reflejo de una relación real entre los
eventos en el mundo sino una proyección sobre el mundo de fenómenos de tipo psicológico.
Según Hume, todo lo que hay en el mundo son las relaciones espacio-temporales de contigüidad
y precedencia y la conjunción constante entre tipos de eventos.
A fin de poder efectuar un análisis más profundo de la posición de Hume, debemos antes
precisar el significado de algunos términos de uso frecuente en la literatura filosófica relacionados
con el concepto de causalidad. Siguiendo a M . Bunge (67) notemos que el término “causalidad”
es utilizado indistintamente para designar (i) una categoría (correspondiente al enlace causal), (ii)
un principio (el Principio General de Causación o de Causalidad), y (iii) una doctrina (la que
sostiene la validez universal del Principio de Causación con exclusión de todo otro modo de
determinación). En lo que sigue entenderemos por (i) Causación a la conexión causal en general o
cualquier nexo causal particular; por (ii) Principio General de Causación o Principio de
Causalidad entenderemos el enunciado: “la misma causa produce siempre el mismo efecto” o
equivalente, siendo conveniente reservar el nombre de ley causal a proposiciones particulares de
determinación causal (p. ej.: las llamas invariablemente producen quemaduras cuando entran en
contacto con la piel humana). Finalmente, entenderemos por (iii) determinismo causal o
causalismo, o simplemente causalidad, a la doctrina que asevera la validez universal del
Principio de Causalidad, a través de una proposición del tipo: “todo tiene una causa” o “nada
puede existir o dejar de existir sin una causa”, o “todo lo que se inicia debe tener una causa”. En
otras palabras, mientras que el Principio de Causalidad establece la forma del nexo causal, el
determinismo causal asevera que todo ocurre de acuerdo con el Principio (o Ley) Causal.
Podemos ahora preguntarnos cuál es el status de la categoría de la causación. ¿Es una forma
de interdependencia entre eventos y tiene por lo tanto status ontológico? ¿O es puramente una
categoría epistemológica perteneciente entonces, a lo sumo, a nuestra descripción de la
experiencia? De acuerdo con el empirismo moderno, el status de la categoría de la causación es
puramente epistemológica, es decir concierne sólo a nuestro conocimiento de las cosas, sin
constituir una característica de las cosas mismas. En este sentido Locke, como Kant después de
él, mantuvieron que el Principio Causal era un Principio de Razón, es decir una proposición con
contenido fáctico pero no establecida con la ayuda de los sentidos. Esta concepción de la
causación como una construcción mental, como un fenómeno puramente subjetivo, fue adoptada
y enfatizada por los seguidores de Locke: Berkeley y Hume, así como por Kant. Sin embargo,
mientras Locke consideraba a la causación como una conexión, reconociendo la producción como
característica distintiva, sus seguidores mantuvieron que la causación es sólo una relación entre
experiencias más que entre hechos en general. Hume enfatizó particularmente este punto sobre la
base que no sería empíricamente verificable que la causa produce o engendra el efecto, sino que
el evento (experimentado) llamado “causa” está invariablemente asociado o seguido del evento
(también experimentado), llamado efecto. Es obvio que en esta posición subyace la idea que sólo
las entidades empíricas pueden incorporarse lícitamente al discurso concerniente a la naturaleza o
la sociedad. Por el contrario, la posición de muchos filósofos, entre ellos M .Bunge, es que la
causación no es meramente una categoría de relación entre ideas, sino una categoría de relación
de conexión y determinación entre hechos que constituye una característica real del mundo
factual, es decir que posee status ontológico.
En el marco del análisis que estamos efectuando, es importante diferenciar entre los
conceptos de “causación” y de “determinación”, aunque los mismos sean a veces utilizados en la
literatura filosófica como equivalentes. En la práctica, el término “determinación” puede designar
varios conceptos que son: (i) propiedad o característica, en el sentido que lo que está
determinado está caracterizado sin ambigüedades; (ii) conexión necesaria, en el sentido de
conexión constante y única entre cosas o eventos, o entre objetos ideales; (iii) proceso mediante
el cual un objeto ha llegado a ser lo que es, o bien la forma en que un objeto adquiere su
determinación en el sentido (i). La acepción (ii) es la más frecuentemente empleada en la ciencia.
Debe no obstante tenerse en cuenta que una conexión constante y única no es necesariamente
causal. Para verlo, basta considerar por ejemplo la famosa relación de Einstein entre masa y
energía: E = mc2. Es fácil ver que el valor numérico de una de las propiedades que figuran en esta
ecuación, digamos la energía E, está determinada por los valores numéricos de otras propiedades
relacionadas (en este caso la masa m y la velocidad de la luz en el vacío c), y en este sentido la
conexión entre las variables es necesaria (única y constante). Sin embargo, queda claro que
cuando se lo emplea en este sentido, el término “determinación” no conlleva la actividad y
productividad inherente en la causación. En otras palabras, dado que las cualidades no tienen per
se capacidad productiva, relaciones como la del ejemplo anterior no representan leyes causales
aunque expresen conexiones necesarias. De manera que el término “determinación” tiene, al
menos en ciencia, un sentido más restringido que el de “causación”, y no coincide con la acepción
(iii) vista más arriba que involucra la forma en la cual un objeto adquiere una propiedad. La
distinción es importante, ya que de según el indeterminismo, puede haber determinación en el
sentido (i) o en el sentido (ii), pero no en el sentido (iii), es decir las cosas tienen características
definidas, pero las adquieren en forma caótica o accidental.
Entre las formas más simples de determinación en el sentido (iii) se encuentra la adquisición
por parte de entidades de nuevas características cuantitativas sin que emerjan nuevas
características cualitativas. Un ejemplo de esto es el determinismo mecanicista que considera que
los sistemas evolucionan conservando sus cualidades pero cambiando cuantitativamente en
forma continua. En este sentido, la ecuación diferencial del movimiento de un sistema (clásico)
representa una ley causal. Pero no todo patrón de cambio se ajusta al modelo mecanicista y las
cosas pueden adquirir sus determinaciones de manera diferente, por ejemplo adquiriendo nuevas
cualidades. En otras palabras, sabemos que en el mundo hay cambios cuantitativos y
cualitativos, por lo que el determinismo mecanicista es sólo una subclase de lo que podemos
llamar determinismo general o determinismo lato sensu. Resumiendo, todo lo que es necesario
para sostener el determinismo en sentido general es retener (i) la hipótesis de que los eventos
asumen una o más formas definidas (determinadas), (ii) que las formas en que los eventos
adquieren esas formas no es accidental o arbitraria, sino regular o legal (siguiendo leyes), y (iii)
que los procesos mediante los cuales los eventos adquieren sus características se desarrollan a
partir de condiciones preexistentes.
Podemos ahora precisar un poco más nuestra definición de determinismo general diciendo
que es la teoría (en sentido ontológico) cuyos componentes necesarios y suficientes, son: (i) el
Principio Genético o de Productividad, de acuerdo con el cual nada puede surgir de la nada o
pasar a la nada; y (ii) el Principio de Legalidad, según el cual nada ocurre de manera
incondicional y del todo irregular, o sea en forma arbitraria. Estos dos principios fusionados
constituyen lo que podemos llamar el Principio de Determinación y cualquier teoría de
estructura o cambio que lo acepte, será determinista. En este contexto, el Principio Causal es un
caso particular del Principio de Determinación que se refiere a la instancia en que la
determinación es efectuada en una manera única o no ambigua por condiciones externas (causas
eficientes).
Digamos finalmente que el Principio aristotélico de causa local encuentra su formulación
moderna en el concepto de espacio-temporalidad local (68), que expresa esencialmente que causa
y efecto deben ser contiguos en el espacio y en el tiempo. Sin embargo, este principio, que regía
indiscutido para todos los eventos físicos, se ve hoy desafiado por evidencia experimental que
parece validar predicciones teóricas de la mecánica cuántica, dando lugar a uno de los debates
más apasionantes de la ciencia actual y que hoy es objeto de profundo análisis filosófico (69) al
que el tema que hasta aquí nos ha ocupado, no es ajeno.
Desde este punto de vista, hasta el azar, considerado generalmente como la negación de la
determinación, tiene un lugar en el determinismo general. Es así que la aparición de una “cara” en
el proceso de revolear una moneda, lejos de ser un suceso accidental que no obedece a ley alguna
y que surge de la nada, es uno de los posibles resultados determinados de una dada operación. En
otras palabras, podemos decir a lo sumo que se trata de un resultado no bien definido pero no
(completamente) indeterminado. En efecto, para que ocurra una “cara” se requiere que se
satisfagan ciertas condiciones (que haya una persona o máquina que revolee la moneda, que haya
tal moneda, un campo gravitacional, etc.), y el resultado, lejos de ser completamente
indeterminado, sólo puede adoptar uno de un conjunto determinado de valores tales que en un
número suficientemente grande de eventos, el números de “caras” debe ser aproximadamente
igual al de “cecas”. De modo que al menos en juegos de azar, podemos decir que los resultados
están estadísticamente determinados aunque no lo estén causalmente.
Frecuentemente, el caos conduce espontáneamente al orden. En efecto, sabemos que los
átomos se mueven de manera azarosa en nuestro entorno, y sin embargo existe un estado
comparativo de orden en gran escala. Del mismo modo, las “fuerzas del mercado” actúan de
forma incoordinada y cada una a su manera según las decisiones personales de millones de
individuos, pero producen una resultante general coherente en una dirección, y algo similar puede
decirse del proceso de selección darwiniano en la naturaleza. Quizás el orden y las regularidades
que observamos en la naturaleza y en la sociedad no son después de todo más que la
manifestación de la ilegalidad global (en el sentido de inexistencia de leyes) que conduce a la
predictibilidad. De hecho, durante mucho tiempo hemos venido reconociendo que el azar se
encuentra en la raíz de muchas de las regularidades que nos presenta la naturaleza.
Normalmente aceptamos que la uniformidad no es otra cosa que la manifestación del
promedio de un gran número de sucesos individuales que tienen lugar de acuerdo con leyes
perfectamente deterministas. El hecho de que en tales casos no observemos tales eventos
individuales (microscópicos) significa que los mismos no son de relevancia inmediata
observacional. Lo que realmente importa para nuestra observación de la naturaleza, es el
comportamiento promedio de grandes colecciones de fenómenos individuales. Sin embargo, este
desorden a nivel individual es sólo aparente y consecuencia de su complejidad, ya que estamos
tácitamente aceptando que tales sucesos individuales obedecen a leyes bien determinadas. Sólo
nuestra limitación en el uso de las herramientas analíticas y experimentales adecuadas para seguir
los sucesos individuales es lo que nos obliga a concentrarnos en su comportamiento promedio, y
no la existencia de una aleatoriedad esencial en los mismos.
Consideremos ahora la alternativa (mucho más radical), que dichos fenómenos individuales
sean esencialmente de naturaleza estadística. La implicancia es que las regularidades observadas
no pueden entonces ser exactas, pero pueden haber surgido como un estado asintótico luego de
un largo período de evolución como el transcurrido desde el origen del universo. Por mucho que
la consideración de esta idea violente nuestro sentido común, ya sabemos que el comportamiento
ordenado de una colección numerosa de objetos, sean estos moléculas o estrellas, es la
consecuencia de encuentros azarosos. Es precisamente el hecho que cada uno es “ignorante” de
todos los otros, lo que establece el orden estadístico subyacente que conduce a algún tipo de
uniformidad o regularidad, de la misma manera que el arrojar continuamente una moneda produce
una convergencia creciente entre el número de “caras” y “cecas”. Paradójicamente, el azar yace
en la raíz misma de las regularidades que nos presenta el mundo con el que estamos
familiarizados. En otras palabras, el caos completo posee uniformidades estadísticas.
Surge de las consideraciones anteriores que el concepto de probabilidad juega un papel
dominante en la concepción moderna de lo que constituye una teoría física. Sin embargo, el uso
de teorías probabilísticas tiene dos significados bien diferenciados. En efecto, la utilización de las
probabilidades puede obedecer a nuestra ignorancia de los detalles particulares relevantes de un
fenómeno o bien al hecho que su completa especificación, si bien posible en principio, se
encuentra más allá de nuestras posibilidades técnicas o de nuestro mero interés o conveniencia.
Sin embargo, si bien el uso de las teorías probabilísticas no implica en tales casos la
imposibilidad de una descripción completa, precisa y determinista de los sucesos en cuestión, la
física moderna nos provee situaciones en las cuales nos debemos contentar con trabajar con
probabilidades por existir una imposibilidad esencial de una descripción más detallada del
fenómeno bajo análisis. Vemos que aquí se produce una restricción en la causación, pero no
necesariamente en el determinismo en sentido general (como veremos más adelante, aún la
concepción ortodoxa de la M ecánica Cuántica exige que los fenómenos se produzcan de manera
no incondicional). Nos podemos aquí cuestionar el significado del poder explicativo de las teorías
probabilísticas en tales situaciones. Es obvio en estos casos los fenómenos analizados por dichas
teorías quedan en cierto sentido inexplicados, y al contrario de lo que ocurre con el uso de las
probabilidades para analizar el problema del comportamiento de un dado, hay algo aquí que
debemos considerar como esencialmente inexplicable. De todos modos, podemos modificar
nuestra interpretación acerca del poder explicativo de una teoría para aceptar que las teorías
probabilísticas tienen poder explicativo en la medida que señalan tendencias en poblaciones de
eventos.
IV.4. Probabilidad. Interpretaciones
Las consideraciones anteriores nos sugieren la conveniencia de analizar con mayor detalle el
concepto de probabilidad. Ya hemos dicho que tal concepto juega un rol dominante en la física
teórica actual. También hemos mencionado que la deducción de predicciones acerca de eventos
específicos constituye una característica de lo que entendemos por explicación científica, o sea
que lo que esperamos de una explicación científica es que posea poder predictivo. Exploraremos
ahora de qué modo podemos considerar que las teorías probabilísticas satisfacen los
requerimientos básicos de explicación científica.
Sabemos que hay una diferencia crucial entre el poder predictivo de las teorías
probabilísticas y la de los enunciados universales, dado que mientras podemos considerar a los
efectos predichos como deducibles de las teorías universales, no hay predicciones deducibles de
manera estricta de una teoría probabilística. Hemos visto que esto complica en principio la
posibilidad de falsar una teoría probabilística. Para ver esto más claramente, tomemos el ejemplo
concreto del acto de arrojar un dado para el cual la teoría nos dice que hay una probabilidad de
5/6 de obtener un número distinto de un “seis”. Si llamamos a este resultado “a” y “b” al acto de
arrojar el dado, nuestra teoría (T) nos dice que P(a,b) = 5/6.
Ahora bien, sabemos que aun la obtención de una secuencia larga (digamos 300 sucesivos) de
“seis”, no nos permite invalidar la teoría en términos absolutos, dado que tal secuencia, si bien
altamente improbable en el marco de nuestra teoría, puede ser compensada por otros resultados
obtenidos en una secuencia de eventos suficientemente grande (quizás de miles de millones). De
cualquier forma, en la práctica una secuencia de 300 “seis” sucesivos nos induciría fuertemente a
abandonar T. De hecho, una secuencia de sólo diez “seis” sucesivos llevaría a la mayoría de
nosotros a concluir que el dado se encuentra “cargado”. De modo que si bien las teorías
probabilísticas no pueden ser lógicamente refutadas, la obtención de resultados estadísticamente
improbables puede ser suficiente para provocar su rechazo. La expresión formal de esta forma de
prueba de teorías estadísticas es el Teorema de Bernouilli, también llamado Ley de los Grandes
Números. Lo que este teorema nos dice es que cualquier muestra suficientemente grande de
eventos extraída de una población más grande tenderá a mostrar la misma distribución de
características varias, que la que presenta la población madre. A medida que el tamaño de la
muestra aumenta, la probabilidad que la muestra exhiba la misma distribución de características
que la población madre se acerca a la certeza, es decir a la unidad. Obviamente, lo anterior parece
correcto en la medida que la muestra seleccionada pueda considerarse típica. En otras palabras,
que la misma tenga la misma probabilidad de ser seleccionada que cualquier otra muestra del
mismo tamaño. Sin embargo, nuestras muestras son siempre extraídas de una porción pequeña
del universo, de modo que a menos que aceptemos como hipótesis suplementaria algún principio
de uniformidad de la naturaleza, no podemos efectuar generalizaciones basadas en aquellas
muestras.
Consideremos ahora algunas de las distintas formas en que los filósofos y los científicos han
interpretado los enunciados probabilísticos. Dar una versión filosófica de la probabilidad que sea
relevante a la manera en la cual el concepto es empleado en la ciencia es dar una interpretación al
formalismo matemático del cálculo de probabilidades, sobre el cual sin duda hay coincidencia
generalizada. Sin embargo, unanimidad para aplicar las reglas y axiomas para asignar valores
numéricos a los cálculos de probabilidad no implica en modo alguno unanimidad en la
interpretación de tales resultados. M ás específicamente, lo que nos proponemos es dar una
interpretación a enunciados de la forma P(a,b) = r, donde como sabemos, P(a,b) es la
probabilidad de obtener el resultado a cuando se produce la acción b, siendo r un valor entre 0 y
1.
Las interpretaciones filosóficas de la probabilidad pueden dividirse esencialmente en dos
tipos: subjetiva y objetiva. En tal sentido, la teoría clásica de la probabilidad, tal como se
presenta en la obra de Laplace Philosophical Essay on Probability de 1814, puede considerarse
como una teoría subjetiva en el sentido que percibe a los juicios probabilísticos como aplicables
fundamentalmente a situaciones en las cuales no hay razón para esperar un resultado de un tipo
en lugar de otro. De esta manera, la teoría clásica estimará la probabilidad de un evento
(equiprobable) de algún tipo simplemente como la relación entre el número de casos favorables y
el de casos posibles. Obviamente, el supuesto central sobre el cual descansa la teoría clásica es la
equiprobabilidad de los eventos alternativos (Principio de Indiferencia), lo que limita seriamente
su aplicabilidad al mundo real. Sin embargo, aun en el caso de aceptar tal equiprobabilidad, un
mismo evento puede ser asignado con distintos valores de probabilidad dependiendo de como
sea presentado. Imaginemos por ejemplo el caso de un vaso o recipiente en el cual el volumen de
líquido contenido no sea proporcional a la superficie interna mojada por el líquido (basta para
ello considerar una superficie curva). Desconociendo la forma en que el vaso fue llenado,
podemos asumir la probabilidad de que estará medio lleno. Pero de la misma manera podemos
esperar que la mitad de la superficie interna estará mojada. Ambas suposiciones están igualmente
justificadas a priori en base a simples consideraciones de simetría, pero son sin embargo
incompatibles entre sí. De manera parecida, podemos argumentar que la probabilidad de obtener
un “uno” al arrojar un dado es de 1/2, ya que los resultados posibles en cada caso son obtener un
“uno” o no obtenerlo. Además de los problemas de interpretación asociados con la
determinación de la equiprobabilidad de los eventos, que se encuentran en la raíz de los ejemplos
anteriores, subsisten problemas con la concepción clásica de la teoría aun en el caso de que
consideremos eventos claramente equiprobables como el que se ilustra a continuación: asumamos
tener un conjunto de cuatro cartas, dos coloradas y dos negras, y deseamos computar la
probabilidad de que extrayendo dos cartas al azar, las mismas sean del mismo color. Si
consideramos como alternativas equiprobables la extracción de cada una de las cartas, tendremos
12 combinaciones posibles de las cuales sólo 4 tendrán el mismo color, en cuyo caso la
probabilidad resulta 1/3. Efectivamente, llamando RA, RB, NA, NB (R: Rojo, N: Negro) a los
distintos tipos de cartas donde los subíndices A y B denotan las dos cartas de cada color, las
posibles combinaciones diferentes serían:
Hay 6 combinaciones diferentes posibles de las cuales hay 2 que corresponden al mismo
color, luego es P = 2/6 = 1/3.
Pero también podemos considerar como alternativas equiprobables la combinación de colores
de los pares ya constituidos, que en términos de combinaciones de colores, pueden ser
(R,R), (N,N), (R,N)
Hay aquí 3 pares constituidos de los cuales 2 corresponden al mismo color, de manera que
resulta P = 2/3. ¿Cuál de las dos probabilidades calculadas es la correcta? Dificultades de este
tipo parecen ser imposibles de erradicar en cualquier formulación clásica, sea esta subjetivista o
puramente lógica de las probabilidades.
A fin de definir de la manera más clara posible la interpretación subjetivista de la
probabilidad, digamos que esta interpretación representa, según algunos estudiosos (Bruno de
Finetti), la creencia que un enunciado probabilístico no constituye un afirmación racional acerca
del mundo, sino que es un artificio psicológico al que recurrimos cuando no conocemos todos los
hechos de una situación.
Un ejemplo estaría dado por la afirmación: La probabilidad de hallar vida en M arte es de 1 en
1000. Esta afirmación no tiene otro contenido que el conocimiento de quien la expresa y su
evaluación subjetiva de la probabilidad de encontrar vida en M arte. En la misma categoría pueden
ubicarse los pronósticos meteorológicos.
En otras palabras, según esta interpretación cuando decimos que la probabilidad que al
arrojar una moneda se obtenga “cara” es de 1/2, lo que expresamos es nuestra creencia subjetiva
basada en nuestra ignorancia de los hechos de la situación (los que de ser conocidos nos
permitirían efectuar una predicción precisa). La interpretación subjetiva es plausible cuando
tratamos con clases de eventos del tipo que aparecen en los juegos de azar, donde la aleatoriedad
puede considerarse la manifestación de nuestra ignorancia de los detalles del proceso. Sin
embargo, un problema que enfrenta la interpretación subjetiva de la probabilidad es el que se
presenta con aquellos eventos esencialmente aleatorios, tales como los que son objeto de estudio
de la M ecánica Cuántica, en los que no existe a priori conexión necesaria entre probabilidad y
nuestra ignorancia
En contraposición a la posición subjetivista, la postura objetivista mantiene que las
probabilidades representan tendencias reales que sucesos individuales o secuencias de sucesos
tienen de mostrar ciertos resultados. De este modo, cuando afirmamos que P(a,b) = 0.5, donde b
es por ejemplo el acto de arrojar una moneda, nos estamos refiriendo a una tendencia que la
moneda o la secuencia de actos de arrojar una moneda tiene, y no a la medida de nuestro
conocimiento o ignorancia del proceso. La idea que la probabilidad como referencia a tendencias
reales en el mundo debe ser más relevante (al menos en el contexto de la ciencia) que la
probabilidad como grado de creencia subjetiva, es soportada elocuentemente por el argumento de
Popper denominado “paradoja de la evidencia”.
Supongamos que, de acuerdo con la interpretación subjetivista, pensamos que al revolear una
moneda, la probabilidad de 1 en 2 de resultar “cara” se presenta fundamentalmente como una
manifestación de nuestra ignorancia (somos 50% ignorantes del resultado del evento).
Posteriormente observamos un gran número de “revoleos”, al final de los cuales continuamos
afirmando que el próximo evento tiene una probabilidad de 1 en 2 de resultar “cara”. Si de
acuerdo con la posición subjetivista, los enunciados probabilísticos no son otra cosa que la
medida de nuestra ignorancia de las condiciones y del resultado de eventos individuales, nos
encontramos al final de la serie de “revoleos” tan ignorantes como al principio, y la larga serie de
eventos no parece habernos enseñado nada. Tengamos en cuenta que nuestras creencias son (o al
menos deberían ser) también una función de la evidencia, y esta evidencia frecuentemente tenderá
a modificar las estimaciones iniciales de probabilidad. En tal sentido ya hemos mencionado cómo
el Teorema de Bayes modifica la probabilidad de un enunciado en función de la evidencia. De
manera que de acuerdo con esto, uno puede comenzar con una estimación de probabilidad a
priori e ir modificando dicha probabilidad en función de la evidencia.
Según hemos dicho, las interpretaciones objetivistas de la probabilidad ven a los enunciados
probabilísticos como refiriéndose a tendencias reales que eventos o secuencias tienen de producir
ciertos patrones de resultados. Por lo tanto, en el ejemplo de la secuencia de “revoleos” de una
moneda, podemos considerar que nuestras observaciones otorgan un respaldo racional a la
hipótesis de que la moneda tiene una tendencia de 1 en 2 de resultar “cara”. De modo que en lo
que se refiere a nuestro conocimiento acerca de la tendencia de la moneda en cuestión, sabemos
más al finalizar la secuencia de eventos que lo que sabíamos al comenzar la misma. Esto es
posible en la medida que consideremos que la expresión P(a,b) = 0.5 se refiere a una “tendencia”
o “propensión” que la moneda o la secuencia tienen, en lugar de la extensión de nuestra
ignorancia concerniente al revoleo de monedas. De modo que desde este punto de vista, la
probabilidad es una disposición que tiene un evento de cierta clase de mostrar un dado resultado,
se produzca éste o no, de una forma similar a la disposición de “fragilidad” que tiene una ventana
de vidrio independientemente de que sea golpeada o no por una piedra.
Esta interpretación objetivista requiere una nueva definición de probabilidad. De acuerdo con
lo que suele llamarse posición frecuentista, al decir que la probabilidad de obtener “cara” en el
próximo revoleo de una moneda, no nos estamos refiriendo específicamente a tal revoleo sino a
una clase completa de eventos, de los cuales el próximo revoleo es sólo un elemento. De modo
que el enunciado probabilístico se refiere en realidad a la frecuencia relativa de caras en la
secuencia de revoleos. Esta interpretación tiene la ventaja que coincide con la manera en que
solemos verificar empíricamente los enunciados probabilísticos.
El inconveniente que se presenta con la interpretación frecuentista de las probabilidades
tiene que ver con la consideración clases de eventos cuyo número los hace inaccesibles por ser
muy grande o incluso infinito. Si bien la Ley de los Grandes Números parecería de utilidad en
este caso, una desviación en la frecuencia de la secuencia de una muestra (definida como un
subconjunto accesible de eventos de la misma clase) con relación a la probabilidad de la clase
infinita o inaccesible, puede deberse simplemente a que la muestra seleccionada no es azarosa, lo
que nos obliga a elaborar un criterio o postulado adecuado de selección de tal muestra lo que no
es siempre posible o evidente.
Es importante tener en cuenta que la interpretación frecuentista de las probabilidades no
permite efectuar proposiciones acerca de un evento aislado a menos que aquéllas se refieran a
una dada clase a la cual el evento pertenece. Para ilustrar este punto consideremos el caso del
sueco Petersen. Deseamos saber cuál es la probabilidad de que Petersen sea protestante.
Sabiendo que la población sueca tiene un 95% de protestantes, decimos que la probabilidad de
que Petersen lo sea es de 19 en 1. Sin embargo, sabemos también que Petersen hace regularmente
viajes a Lourdes y la estadística nos dice que de los suecos que viajan regularmente a Lourdes, el
95% es católico. De modo que desde este punto de vista, Petersen tiene una probabilidad de 19
en 1 de ser católico. La paradoja se resuelve teniendo en cuenta que estamos considerando un
evento que pertenece a dos clases diferentes: el de los ciudadanos suecos por un lado y el de los
suecos que viajan regularmente a Lourdes por el otro. El mismo evento (Petersen siendo católico
o protestante) merece distintas asignaciones de probabilidad según la clase al que se lo asocie.
Por supuesto que muchas veces una cierta clase de referencia provee información de mayor
utilidad que la otras acerca de la probabilidad de un evento individual.
El concepto objetivista de tendencia o propensión equivale a proponer que mientras que
ciertos sistemas físicos son aleatorios o impredecibles en lo que se refiere a resultados de eventos
individuales, la experimentación repetida de observaciones del sistema en cuestión mostrará
estabilidad estadísitica. Esta estabilidad es la manifestación de la propensión inherente del
sistema y, según Popper, estas propensiones son propiedades disposicionales reales pero
inobservables del mundo físico. Popper visualiza estas propensiones como análogas a “fuerzas
newtonianas indeterminísticas” que si bien no pueden determinar el resultado de eventos
individuales, determinan el comportamiento estadístico de secuencias de eventos. Popper insiste
en considerar la realidad física de las propensiones argumentando que la mera adición de un
nuevo pilar en un juego de “Arcade” cambia las probabilidades o propensiones de las bolas que
ruedan sobre el tablero, aun en el caso de aquellas que no toquen para nada el nuevo pilar.
IV.5. Orden y caos: de la termodinámica clásica a la mecánica
estadística
Un campo de la ciencia en que los conceptos y las interpretaciones de la probabilidad juegan
un rol protagónico, es en el del estudio de los fenómenos térmicos. El fenómeno del calor se nos
presenta cotidianamente y es entonces natural que la física haya procurado encontrarle una
interpretación. De hecho, la formalización de una teoría del calor fue lograda antes que se
impusiera el concepto de calor como movimiento interno. En primer lugar se observó que no
obstante poderse transformar el calor en trabajo mecánico y viceversa, su cantidad total
permanece invariante, lo que constituye la llamada 1a. Ley de la Termodinámica. La segunda
observación consistió en que para la obtención de trabajo útil a partir del calor, se requiere que el
calor sea entregado a una máquina a una temperatura superior a la que se lo extrae, lo que
condujo a la 2a. Ley de la Termodinámica, e inmediatamente a la idea de cero absoluto como la
temperatura del calor extraído en una máquina capaz de transformar todo el calor entregado en
trabajo útil. Una noción crucial asociada con los principios anteriores, es la de estado de
equilibrio termodinámico: consideremos un sistema aislado energéticamente del resto del mundo;
tarde o temprano alcanzará un estado macroscópico invariante, llamado de equilibrio (70).
La teoría de los fenómenos térmicos así desarrollada era perfectamente satisfactoria como
una teoría autónoma fundamental de la física. Quedaba sin embargo sin responder las preguntas:
¿Qué es en sí el calor? ¿Qué hace que los sistemas en equilibrio posean una dada temperatura?
¿Por qué existe la condición de equilibrio? La idea del calor como la manifestación del
movimiento interno de las partículas que componen el sistema queda definitivamente establecida
a partir de los trabajos de los físicos alemanes A. Krönig y V. Clausius, aunque reconocía
antecedentes anteriores. Es así que a partir de este concepto y haciendo simples suposiciones
acerca del comportamiento de las moléculas de un gas contenido en un recipiente, surgen de
manera natural las leyes de los gases ideales. El siguiente avance importante fue la derivación por
J.C. M axwell de la distribución de velocidades moleculares en un gas en equilibrio. Boltzmann
complementó el análisis de M axwell al encontrar la forma en que un gas que no se encuentra
inicialmente en equilibrio, evolucionaría con el tiempo. En tal sentido pudo demostrar que la
distribución maxwelliana de velocidades constituía la única solución estacionaria de la ecuación
que describe la evolución del gas, lo que parecía explicar por qué un gas fuera de equilibrio
evolucionaría hacia el equilibrio, el que una vez alcanzado no se modificaría.
En este punto comenzaron sin embargo las dificultades, ya que por el hecho de que las
moléculas de un gas obedecen a las leyes de la dinámica, todo sistema aislado (es decir en el que
la energía se conserva) que inicia su evolución en un dado estado dinámico, retorna infinitas veces
a estados muy próximos al inicial dado un tiempo suficientemente largo (Teorema de Recurrencia
de Poincaré). Por otra parte, la mecánica clásica nos enseña que los fenómenos dinámicos son
reversibles en el tiempo, de modo que un sistema que evoluciona desde un estado S1 a un estado
S2, podrá evolucionar desde un estado similar a S2, excepto que con las direcciones de
movimiento invertidas, hacia un estado S1’, que es el estado “inverso en el tiempo” de S1.
¿Cómo podía entonces Boltzmann afirmar que todo sistema librado a sí mismo evolucionaría
hacia el equilibrio y que una vez allí, permanecería indefinidamente?
Aquí es donde los conceptos probabilísticos comienzan a jugar su rol protagónico. En primer
lugar debemos tener en cuenta la nueva manera hallada por Boltzmann de derivar la distribución
de velocidades del gas, recurriendo al concepto de espacio abstracto de configuración de
velocidades y cantidad de movimiento. En tal sentido, debemos cosiderar todas las maneras
posibles de distribuir las moléculas del gas en pequeños “compartimentos” del espacio de
configuración, donde cada compartimento corresponde a un rango de velocidades y de cantidad
de movimiento. Cada estado del gas corresponde entonces a un número determinado de
moléculas en cada compartimento, independientemente de qué molécula en particular se
encuentre en un dado compartimento. El estado de equilibrio macroscópico se encuentra así
identificado con el estado microscópico más probable, es decir con la distribución
correspondiente al mayor número de permutaciones de las moléculas en los compartimentos. De
tal manera que las combinaciones correspondientes a estados macroscópicos alejados del
equilibrio sólo se obtienen mediante una cantidad mucho más pequeña de permutaciones. Ahora
bien, y esto constituye un punto crucial de la interpretación probabilística: asumiendo que todas
las permutaciones son equiprobables, entonces el Principio de Indiferencia nos conduce a
interpretar el estado de equilibro macroscópico como la distribución microscópica más probable.
Consistentemente con esta interpretación probabilística, un gas que se mantiene aislado por
tiempo indefinido, pasará la mayor parte del tiempo en o cerca de la condición de equilibrio.
Ocurrirán desviaciones con respecto al mismo, pero cuanto mayor sea la desviación menos
frecuente será. La situación será además simétrica respecto del tiempo: tantas transiciones
ocurriendo desde el equilibrio al no equilibrio como a la inversa, pero cada estado lejano del
equilibrio, será seguido por muchos más estados cercanos al mismo. Es fácil ver que esta nueva
interpretación probabilística rescata el Teorema de Recurrencia y la simetría temporal impuesta
por las leyes de la dinámica clásica.
Ahora bien, lo anterior nos da un interpretación satisfactoria del comportamiento de los
sistemas a nivel microscópico. En efecto, si pudiésemos observar una película filmada de los
movimientos de las moléculas de un gas, no habría forma de decidir si la película está siendo
proyectada “hacia adelante” o “hacia atrás”, ya que ambas mostrarían procesos totalmente
compatibles con nuestro conocimiento de la mecánica clásica. Por el contrario, si pasamos a
considerar sistemas macroscópicos, por ejemplo la caída y posterior rotura contra el piso de una
copa de vidrio, nadie dudaría cuál sería la forma correcta de proyectar una película que hubiese
registrado tal evento. Debemos entonces considerar cuáles son las razones para esta falta de
simetría temporal de los fenómenos macroscópicos que parece introducir una inconsistencia con
el desarrollo de los fenómenos a nivel microscópico.
A fin de resolver dicha aparente inconsistencia, debemos tener en cuenta que la evolución
dinámica de un sistema no depende únicamente de las ecuaciones que rigen el movimiento sino
también de las condiciones iniciales de las cuales parte el sistema bajo análisis. Ahora bien, al
considerar el caso de la copa que se rompe la condición inicial dada por la copa reposando en una
mesa y recibiendo un impulso que la saca de tal condición, es muchísimo más probable que la
condición inicial que haría que todos los fragmentos de la copa rota en el piso, convergieran para
restaurar la copa sobre la mesa y recuperar el líquido derramado. De manera que la razón por la
cual vemos copas que caen de una mesa y se destrozan y no vemos en cambio copas rotas que se
restauran por sí solas, es la consecuencia de que las condiciones iniciales para producir el
segundo tipo de fenómeno son mucho más improbables que las requeridas para producir el
primero de los fenómenos, y no porque exista alguna asimetría temporal esencial “oculta” en el
desarrollo de los fenómenos macroscópicos.
Queda ahora por responder el siguiente interrogante: si tal como la nueva interpretación
sugiere, el estado de equilibrio representa la condición más probable de un sistema, ¿cómo es
posible que nuestro mundo se encuentre tan alejado del equilibrio? Una respuesta podría ser que
la situación de nuestro mundo no es otra cosa que una “fluctuación local” del universo. En otras
palabras, el universo es tan grande en el espacio y en el tiempo que el mundo accesible a nuestra
observación constituye sólo una pequeña porción de aquél, y la condición alejada del equilibrio
sólo rige en esta vecindad a la que tenemos acceso.
Otra respuesta (no incompatible con la anterior) se basa en lo que se ha dado en llamar el
Principio Antrópico que analizaremos más adelante cuando retornemos al problema de la “flecha
del tiempo” termodinámica.
56 . C. Sagan, Los Dragones del Edén: especulaciones sobre la evolución de la inteligencia humana, Colección
Biología y P sicología de Hoy, Ediciones Grijalbo, Buenos Aires, 1982.
57 . B.C Van Fraassen, Laws and Symmetry, Clarendon P aperbacks, Oxford University P ress, Oxford, 1989.
58 . J.D.Barrow, The World Within the World. Oxford University P ress, Oxford, 1988.
59 . L.Sklar “ Philosophy of Physics” Dimensions of P hilosophy Series, Oxford University P ress, Oxford, 1992.
60 . J.Hospers “ An Introduction to Philosophical Analysis”, 3ª Ed., Routledge, London, 1990.
61 . J.Hospers “ Introducción al Análisis Filosófico” Colección P roblemas Filosóficos, Editorial Macchi, Buenos Aires,
1961.
62 . H.Goldstein “ Classical Mechanics” 2nd. Edition, Addison-Wesley Series in P hysics, Addison Wesley, New York,
1981.
63 . I.J.R.Aitchison, A.J.G.Hey “ Gauge Theories in Particle Physics” 2nd. Edition, Graduate Student Series in P hysics,
Adam Hilgher, England, 1989.
64 . P.Van Inwagen “ Metaphysics” Dimensions of P hilosophy Series, Oxford University P ress, Oxford, 1993.
65 . H.Reichenbach “ The Direction of Time” Dover P ublications Inc., N.Y., 1999.
66 . R.P.Feynman “ The Character of Physical Law” P enguin Books, London, 1992.
67 . M.Bunge, Causality and Modern Science, 3a. Ed. Dover P ublications Inc., New York, 1979.
68 . M.Lange “ An Introduction to The Philosophy of Physics: Locality, Fields, Energy, and Mass” Blackwell
P ublishing, USA, 2002.
69 . M.Redhead “ Incompleteness, Nonlocality and Realism” Clarendon P aperbacks, Clarendon P ress, Oxford, 1990.
70 . L.Sklar “ Philosophy of Physics” Oxford University P ress, 1992.
V.
EL MARCO ESPACIAL Y TEMPORAL
V.1. El espacio y el tiempo de la física aristotélica
Comenzamos nuestra indagación de la filosofía de la física en particular analizando los
conceptos de “espacio” y “tiempo” en virtud de que ambos se refieren al marco en el cual
entendemos tienen lugar todos los fenómenos que ocurren en el universo físico. Posiblemente, la
primera pregunta que podemos hacernos cuando consideramos la naturaleza del tiempo y del
espacio es si los debemos considerar como nociones separadas o si es pertinente unificarlos en
un único concepto.
Si bien esta última manera de considerar al espacio y al tiempo en términos de una idea
unificada de espacio-tiempo es la forma dominante en la actualidad, no lo fue hasta un pasado
relativamente reciente, hasta el punto que el mismo Einstein, quien hizo del concepto de espacio-
tiempo un empleo tan fructífero, no parece haber estado totalmente cómodo con esta idea
cuando escuchó por primera vez referirse a ella. Esto puede deberse al hecho que en la
integración del marco espacial y temporal, que nos permite identificar un evento, es decir un
suceso que ocurre en un lugar e instante determinado, por medio de tres coordenadas espaciales
y una temporal, esta última coordenada tiene características claramente distintas de las
espaciales. En efecto, nuestra experiencia cotidiana nos dice que el espacio físico puede ser
recorrido en cualquier dirección un número ilimitado de veces, mientras que el tiempo transcurre
irremisiblemente en un solo sentido y no nos es dado recorrerlo en sentido inverso. Esta singular
propiedad de la coordenada temporal, que ha dado origen a la expresión “flecha del tiempo” tiene
profundas implicancias científicas y filosóficas que en su momento analizaremos con más
detalle.
Si bien el tiempo ha sido objeto de especulación por filósofos griegos, principalmente
Heráclito y Parménides desde épocas tan remotas como el siglo V A.C., detengámonos a revisar
la interpretación que Aristóteles hacía del tiempo. Simplificando las posiciones que han existido
al respecto, podemos decir que el concepto del tiempo ha estado enmarcado en una de las dos
siguientes ideas: el tiempo como concepto absoluto y primitivo (es decir no reducible a términos
más simples), considerado como una entidad de existencia real (aunque no necesariamente
concreta) que fluye de manera uniforme del pasado al futuro independientemente de los sucesos
que ocurren en el universo y de la existencia o no de observadores que efectúen su medición.
Como veremos, ésta era en esencia la idea que Newton tenía del tiempo.
La otra posición respecto del tiempo es que no se trata de un concepto primitivo sino
derivado del cambio o mutación que nuestro mundo físico nos muestra permanentemente. Según
esta posición, el tiempo es el cambio. Esta idea, que hoy goza de consenso mayoritario entre
físicos y filósofos, interpreta en lo esencial el pensamiento de Aristóteles al respecto, retomado
más tarde por Leibnitz (en contraposición al pensamiento de Newton) y posteriormente
perfeccionado por M ach (71). La idea central detrás de esta visión es que en un universo
totalmente estático, o sea en el que no se produce el más mínimo cambio, la idea de que el tiempo
transcurre, carece de sentido. El tiempo surge entonces sólo asociado al devenir, al flujo del
cambio perceptible de alguna manera. En otras palabras, el tiempo existe sólo en relación a dicho
cambio y se identifica con él. Esto ha motivado que esta postura respecto del tiempo, se la
conozca como teoría relacional del tiempo.
Un concepto asociado al de tiempo como cambio, es el de simultaneidad. En la concepción
relacional del tiempo, la idea de simultaneidad surge a partir de una definición necesariamente
operacional, es decir a partir de un procedimiento físico que permita establecerla. Para ello es
necesario previamente definir la forma de medir el tiempo, y cómo éste está representado por el
cambio, la forma de hacerlo es referir la medida del tiempo a cambios que percibimos como
regulares, tales como la rotación periódica de la tierra, las oscilaciones de un péndulo, las
pulsaciones de nuestro corazón o cualquier otro cambio que percibamos como periódico y
regular. A partir de esto podemos construir distintos tipos de relojes para medir el tiempo, pero
no debemos confundir la medición que de él hacemos con el objeto medido, es decir con el
cambio en sí. En este contexto, sucesos simultáneos son los que ocurren en el mismo instante
medido por algún tipo de reloj, lo que a su vez nos permite definir el intervalo temporal entre
eventos o sucesos. Por ahora, es suficiente expresar que en la concepción aristotélica, la
simultaneidad tenía un carácter absoluto, o sea que dos sucesos simultáneos para un observador,
lo eran para cualquier otro observador independientemente del movimiento de éste respecto de
aquél y lo mismo cabe decir para el intervalo temporal entre sucesos.
Tengamos en cuenta que en la física aristotélica el espacio físico constituía un espacio
euclidiano tridimensional, que simbolizaremos E3, en el que los puntos del espacio retenían su
identidad en el tiempo. (72) En este sentido, podemos recurrir a una analogía bidimensional de
este espacio al considerar la situación de un punto de una pantalla de cine sobre la cual se
proyecta una imagen en movimiento. El punto sobre la pantalla retiene su identidad
independientemente de los cambios en las imágenes proyectadas. Por otro lado, desde nuestra
moderna perspectiva, el tiempo en la física aristotélica también era concebido como un espacio
euclidiano unidimensional E1. Utilizamos la idea de un espacio euclidiano E1 y no tanto el
concepto de recta real P porque ésta tiene un elemento 0 privilegiado, que representaría el origen
del tiempo, mientras que en nuestra visión de la dinámica aristotélica, no hay un origen preferido.
En efecto, de haber existido un instante preferido o privilegiado, las leyes de la dinámica podrían
modificarse con el correr del tiempo, en cambio sin un instante preferido, tales leyes deben
mantenerse invariables dada esta simetría temporal. Del mismo modo, tampoco hay un origen
espacial preferido y el espacio aristotélico se continúa indefinidamente en todas direcciones con
total simetría en las leyes de la dinámica. La noción de distancia en este espacio es la euclidiana y
la de intervalo temporal es también la ordinaria.
En la física aristotélica, y ciertamente en la posterior física de Galileo y Newton, había, como
hemos mencionado más arriba, una noción absoluta de simultaneidad temporal, lo que implica
que en un dado momento en un lugar del universo, digamos mientras escribo este texto en la
Ciudad de Buenos Aires en una dada ubicación, al mismo tiempo, es decir en el mismo instante,
algo está ocurriendo en otra región del universo, por alejada que se encuentre esta región de
donde yo estoy. Para volver a la analogía de la pantalla de cine, podemos preguntarnos cuándo
dos eventos que ocurren en la pantalla en distintos lugares de la misma, son simultáneos. La
respuesta parece simple: dos eventos separados espacialmente son simultáneos si ocurren en el
mismo instante y estos eventos son simultáneos para cualquier observador, independientemente
de su posición como espectador. La diferencia entre la posición de ambos eventos, sean o no
simultáneos nos define la distancia espacial entre los mismos y la diferencia de instantes en que
ambos se producen, ocurran o no en el mismo punto de la pantalla, nos da el intervalo temporal
entre ambos.
En lenguaje moderno, podemos decir que el espacio-tiempo aristotélico es simplemente el
producto cartesiano
A = E1 x E3
que nos es otra cosa que el conjunto de pares (t, x), donde el instante t es un elemento de E1
y la posición x un elemento de E3. De manera que para dos puntos diferentes en A, eventos (t, x)
y (t’, x’), tenemos bien definida la noción de separación espacial entre ambos eventos como la
distancia entre los puntos x y x’ medida en E3, y de intervalo temporal entre t y t’ medido en E1.
V.2. El espacio-tiempo en la relatividad de Galileo
Analicemos ahora qué noción de espacio-tiempo es apropiada para la dinámica introducida
por Galileo en 1638. Para ello, debemos incorporar en el análisis el Principio de Relatividad de
Galileo, esto es la idea que las leyes de la dinámica son las mismas cuando se expresan con
respecto a cualquier sistema de referencia en movimiento rectilíneo uniforme. En otras palabras,
lo que Galileo nos dice es que no es posible determinar mediante experiencias mecánicas internas
a un sistema, su estado de reposo o de movimiento rectilíneo uniforme. Esto significa que carece
de sentido identificar un punto cualquiera del espacio en un dado instante como el mismo punto
del espacio escogido en un momento posterior. En efecto, como no es posible determinar a través
del comportamiento mecánico de un sistema si nos encontramos en reposo o movimiento
rectilíneo uniforme, el punto que seleccionamos en un dado instante puede encontrarse a
cualquier distancia del mismo punto considerado en un momento posterior. Sabemos que si
identificamos un punto cualquiera de nuestro entorno en un dado instante, al volver a fijar
nuestra atención sobre el mismo un instante posterior, está claro que se tratará de una ubicación
que según el tiempo transcurrido, puede hallarse a centenares o miles de kilómetros del lugar
donde hicimos la identificación inicial, ya que la tierra nos habrá arrastrado en su movimiento de
rotación y traslación alrededor del sol entre ambas observaciones. Es decir, para lo que nosotros
sigue siendo el mismo punto, para un observador externo, por ejemplo fijo con respecto al sol, se
trata de dos posiciones totalmente distintas. (73)
A lo que estas consideraciones inevitablemente nos llevan es al abandono de la idea de un
espacio absoluto. Sin embargo para Galileo, al igual que para Aristóteles, el tiempo sigue siendo
absoluto, y dos sucesos simultáneos para un observador, lo serán también para cualquier otro.
Desde nuestra perspectiva moderna, resulta ilustrativo considerar al espacio-tiempo galileano
como un haz de fibras (fibre bundle). El concepto de haz de fibras corresponde a una estructura
matemática lo suficientemente interesante como para que la analicemos brevemente. El ejemplo
más simple de haz de fibras es el constituido por una curva continua plana que admite una
tangente en cada uno de sus puntos como se sugiere en la fig. 5.1a, donde se han dibujado tres
tangentes correspondientes a tres puntos cualesquiera P, Q y R, lo que implica que la curva es
además de continua, diferenciable.
Fig. 5.1. Haz de fibras constituido por una curva continua y las tangentes en cada uno de sus puntos.
Cada tangente está vinculada en una relación uno-a-uno con un único punto sobre la curva,
mientras que las tangentes son totalmente independientes entre sí. Por este motivo resulta más
conveniente visualizar este haz de fibras como se muestra en la fig. 5.1b en la que las rectas
tangentes se dibujan como paralelas cortando a la curva base en cada punto. Esto evita la
complicación introducida por las intersecciones entre tangentes que no tienen significado físico o
geométrico alguno. El conjunto representado por la curva y las tangentes en cada uno de sus
puntos conforman un espacio o variedad donde la curva es el espacio base y las tangentes
constituyen las fibras asociadas al espacio base. Otro ejemplo fácilmente visualizable de un haz
de fibras es el espacio constituido por la superficie de una esfera y los planos tangentes en cada
uno de sus puntos. En tal caso, cada plano tangente representa una fibra y contiene infinitas
rectas tangentes que pasan por el punto. Aquí también cada plano tangente está vinculado uno-a-
uno con un único punto de la superficie esférica, pero los planos tangentes o fibras son
totalmente independientes entre sí. Observemos que la dimensión del espacio o variedad
representada por el haz de fibras tiene dimensión tal que es la suma de las dimensiones del
espacio base y de las fibras. En el primer ejemplo tenemos un espacio de dos dimensiones,
mientras que en el caso de la superficie esférica, la dimensión del espacio es cuatro (dos para la
superficie de la esfera y dos para el plano tangente o fibra).
Utilizando este concepto geométrico, es fácil ver que el espacio-tiempo de Galileo se
corresponde con el haz de fibras que muestra la fig. 5.2. En efecto, como ya mencionamos el
tiempo galileano es absoluto, pero hay un espacio vinculado en una relación uno-a-uno con cada
instante de tiempo. El tiempo constituye entonces el espacio base del haz de fibras y las fibras
son los espacios euclidianos E3 que en la figura representamos como planos perpendiculares al
espacio base pero teniendo en cuenta que se trata de espacios tridimensionales dada la
imposibilitar de representar mediante un dibujo estos espacios ortogonales al espacio base
unidimensional.
Fig. 5.2. El espacio tiempo galileano concebido como un haz de fibras donde el espacio base es E 1 y las fibras son los
espacios E 3 sin conexión entre sí.
Observemos que efectivamente, el haz de fibras representado en la fig. 5.2 posee todos los
atributos de la concepción galileana del espacio-tiempo. Existe una dimensión tiempo único
representado en este caso por la recta base, y a cada punto sobre ella, es decir a cada instante le
corresponde un único espacio E3 siendo los distintos espacios asociados con diferentes instantes
totalmente independientes entre sí (74).
V.3. El debate entre Newton y Leibnitz
La filosofía del espacio y el tiempo se constituyó en el siglo XVII en un tema central de la
metafísica. El debate culminante correspondió al que se estableció entre G.W. Von Leibnitz, el
gran filósofo y matemático alemán y el gran físico y matemático inglés Isaac Newton. En este
debate, se delinearon dos visiones diferentes y opuestas sobre la naturaleza del espacio y del
tiempo y su ubicación en el mundo (75).
Por un lado, Leibnitz ofrecía una visión del espacio y del tiempo que presentaba una
interpretación que permitía negarles una entidad independiente por encima de las cosas y
eventos materiales pero que no obstante retenía para el espacio y el tiempo un lugar especial en
la estructura del mundo.
Para Leibnitz, la consideración de todas las cosas del mundo en un dado momento conduce al
establecimiento de relaciones espaciales entre los objetos y estas relaciones espaciales en un
dado instante es lo que constituiría según él, el espacio. De una forma un tanto similar, la
sucesión de sucesos o eventos materiales o mentales es lo que constituiría para Leibnitz, el
tiempo. En otras palabras: no hay una “sustancia” contenedora de las cosas, no hay espacio en si
mismo esperando ser ocupado por los objetos. Sólo están los objetos y las innumerables
relaciones espaciales entre ellos.
Una analogía con las relaciones familiares puede ayudar a aclarar el concepto anterior.
Cualquier familia numerosa consiste en un número relativamente elevado de personas. Estas
están relacionadas entre sí por los lazos de familia; A puede ser el padre de B, C el primo
hermano de D, etc. Ahora bien, ¿cuál es la entidad de existencia real en una familia de este tipo’
La respuesta obvia es: la personas y las relaciones de familia que las vinculan. Sería absurdo
considerar que las relaciones tienen existencia propia esperando ser ocupadas por las personas.
Según Leibnitz, lo mismo ocurre con las relaciones espaciales en ausencia de objetos. El espacio
relacional carece entonces de existencia per se y sólo se manifiesta en la presencia de las cosas
que dan origen a las relaciones espaciales.
Asimismo, dado que todo evento que ocurre en el mundo material o mental guarda una
relación temporal con todo otro evento y dado que todo objeto material o mental está
relacionado espacialmente con todo otro objeto material o mental, estas dos familias de
relaciones constituirían toda la realidad.
Sin embargo, ante la pregunta de cómo podemos interpretar el espacio cuando no hay
objetos materiales presentes, Leibnitz argumenta diciendo que en dicha ausencia, siempre
podemos concebir la posibilidad de la existencia de objetos que determinarían relaciones
espaciales entre sí, de modo que serían estas relaciones espaciales potenciales lo que
caracterizaría el espacio en ausencia de objetos materiales. De modo que la familia de relaciones
espaciales contiene tanto a las actuales como las posibles o potenciales. De esta manera, el
espacio totalmente vacío, que los antirrelacionistas consideran una noción inteligible, no tendría
para Leibnitz otro significado que el conjunto de relaciones espaciales posibles entre objetos que
no existen pero que podrían existir. Hasta qué punto esta admisión de las relaciones espaciales
posibles como interpretación del espacio vacío, es otorgarle entidad al espacio en el sentido de
los antirrelacionistas, es todavía motivo de debate filosófico.
Es interesante mencionar aquí un argumento de Leibnitz para justificar la inexistencia del
espacio como entidad real. El argumento tiene aristas tanto teológicas como de simetría. En
efecto, según Leibnitz nada ocurre sin una “razón suficiente”, de modo que cuando Dios creó el
universo, debió elegir un lugar en el espacio para ubicarlo. De ser el espacio una suerte de
contenedor de todas las cosas, no existiría una razón suficiente para la elección de un lugar
específico para el universo material ya que todo punto del espacio es equivalente a cualquier
otro. Esto según Leibnitz demuestra la inexistencia del espacio como tal contenedor.
Por el contrario, Isaac Newton, el gran oponente de Leibnitz, era un antirrelacionista. Para
Newton el espacio y el tiempo son algo más que las meras relaciones espaciales y temporales
entre objetos materiales y eventos y constituiría algo así como una sustancia, aunque a veces lo
consideraba como un atributo o propiedad de Dios. Aunque Newton ofreció algunos argumentos
de naturaleza filosófica para rebatir las ideas de Leibnitz, su argumento más conocido a favor de
la existencia del espacio fue su interpretación de los resultados observacionales y experimentales
que según él, refutaban concluyentemente la teoría relacionista.
En efecto, sabemos que en la mecánica construida por Newton a partir de los trabajos
previos de Galileo, hay un claro contraste entre los movimientos inerciales y los no inerciales.
Los primeros son los que exhibe un cuerpo que se desplaza libremente, es decir sin que actúe
sobre él fuerza alguna. El Principio de Inercia, ya formulado con anterioridad a Newton por
Galileo, nos dice que el movimiento del cuerpo en estas condiciones será uniforme, es decir con
velocidad constante y en línea recta. De hecho, Newton entroniza este principio como la primera
de sus tres leyes de la mecánica.
Ahora bien, para el relacionista la descripción de un movimiento debe hacerse con referencia
a otros objetos materiales y en este caso la respuesta de Newton es que el movimiento inercial lo
es con referencia a cualquier sistema de referencia inercial, es decir que se desplace con
movimiento uniforme respecto del “espacio absoluto”. De hecho, uno puede interpretar la
Primera Ley de Newton como un criterio empírico para identificar un sistema inercial de
referencia. Para ello, bastaría dejar un cuerpo en total libertad de movimiento (es decir sin que
actúe ninguna fuerza sobre el mismo) y observar su comportamiento. Si el cuerpo adopta un
estado de reposo o de movimiento uniforme, estamos haciendo nuestras mediciones desde un
sistema inercial.
En el caso de movimientos no inerciales, es decir movimientos acelerados, Newton
argumenta que los cambios de velocidad experimentados por un cuerpo tiene un carácter
absoluto que no puede interpretarse en términos relacionistas. Efectivamente, dos trenes, uno de
ellos detenido y el otro circulando pero aplicando los frenos, se encuentran en movimiento
acelerado uno respecto del otro. Sin embargo, sólo los pasajeros del tren que está frenando
experimentarán efectos de inercia que los pasajeros del tren detenido no sentirán. De modo que la
aceleración tiene un carácter que no puede ser simplemente interpretado en términos
relacionistas. Para Newton, el movimiento acelerado se produce cuando el movimiento de un
cuerpo cambia con respecto a un sistema de referencia inercial, es decir las aceleraciones se
manifiestan siempre sólo con respecto al espacio absoluto que tiene por lo tanto que poseer
existencia real ya que de alguna manera, ese espacio absoluto interactúa con los cuerpos que son
acelerados respecto de éste dando origen a los efectos observables.
De manera que según Newton, el espacio no es un simple contenedor de los objetos
materiales sino que es una suerte de sustancia que entra en relación causal con los mismos. Es así
que de la misma forma en que el movimiento relativo de una piedra y una ventana hacen que la
piedra rompa la ventana, el movimiento relativo de un objeto material y el espacio absoluto da
origen a fuerzas inerciales que ponen de manifiesto ese movimiento relativo.
Aunque el tiempo puede ser menos plausiblemente concebido como una sustancia, el mismo
debe ser, según Newton, absoluto en un sentido importante. Para el relacionista, la medida de un
intervalo de tiempo está representada por un proceso de cambio o movimiento en algún ente
material. Por ejemplo, para un reloj un proceso recurrente puede ser regular, es decir que se
desarrolla sobre lapsos de tiempo iguales medidos en ese reloj. Sin embargo, medido desde otro
reloj, el proceso puede no ser regular a menos que el segundo reloj sea regular con respecto al
primero. De modo que para el relacionista no hay una medida absoluta del pasaje del tiempo,
sino simplemente la elección de algún proceso de cambio que decidamos emplear como reloj para
medir los intervalos de tiempo.
Sin embargo, los movimientos acelerados dan origen a efectos observables que los
movimientos uniformes no producen. Estos efectos son la consecuencia de aceleraciones
absolutas experimentadas por los cuerpos. Ahora bien, uno podría concebir un reloj que hiciera
que un movimiento acelerado apareciese como uniforme. Para esto bastaría diseñar un reloj que
marchara más rápidamente al aumentar la velocidad del cuerpo de modo que distancias iguales
siempre fuesen recorridas en tiempos iguales si fuesen medidos por dicho reloj. Pero la
aceleración es absoluta y la uniformidad del movimiento medida de este modo es indudablemente
falsa. Por lo que según Newton, debe haber un tiempo que fluye uniformemente y es el que
medirían los buenos relojes.
V.4. Las ideas de Mach
En el siglo XIX, el físico y filósofo austriaco Ernst M ach intentó conciliar las ideas
relacionistas con las Newtonianas. Para ello, sugirió que los efectos de inercia son el resultado de
algún tipo de interacción entre las masas de los cuerpos. De acuerdo con esto, las fuerzas de
inercia que se observan cuando un cuerpo es acelerado, no serían el resultado del cambio de
velocidad del cuerpo con respecto al espacio absoluto sino de la aceleración con respecto al resto
de las masas de Universo. De este modo, un recipiente con agua que es rotado sobre su propio
eje modifica la forma de la superficie del líquido que asciende sobre las paredes laterales del
recipiente, no por sentir el efecto de la rotación con respecto al espacio absoluto, sino con
respecto a las otras masas del Universo. En otras palabras, si el líquido del recipiente fuera la
única masa del Universo, no se observarían, según M ach, cambios en el recipiente en rotación
con respecto al mismo recipiente en condición estacionaria.
De este modo, el espacio absoluto de Newton es reemplazado por el efecto del promedio de
la distribución de masas en el Universo. De manera que en la concepción de M ach, la
identificación de una terna inercial sería relativa a la distribución de masa del universo y no algo
“absoluto”. La fig. 5.3 ilustra esquemáticamente esta idea.
Fig. 5.3. Aproximaciones progresivas a una terna inercial según la concepción de Mach
En efecto, una terna en reposo con respecto a la tierra constituye una buena aproximación a
una terna inercial para muchos propósitos prácticos, hasta el punto que podemos verificar las
leyes de Newton en un laboratorio terrestre (fig. 5.3a). Pero sabemos que la tierra rota sobre su
eje y que podemos elegir una terna más aproximada a una terna inercial si empleamos una que
esté fija con respecto al centro del sol y a las estrellas cercanas (fig. 5.3b). Esta terna nos
permitiría utilizar la mecánica newtoniana para describir los movimientos en el sistema solar con
gran precisión. Pero el sol se desplaza alrededor del centro de nuestra galaxia y podemos
encontrar una terna más inercial aún si utilizamos la que se encuentra fija con respecto al centro
galáctico y al promedio de la otras galaxias, con la que podríamos analizar el movimiento de los
componentes de nuestra galaxia empleando las leyes de Newton (fig. 5.3c). La terna a rota con
relación a la b con un velocidad angular wab = 2p radianes/día, mientras que la terna b con
respecto a la c lo hace con una velocidad angular wbc = 2p x 10-8 radianes/año @ 3 x 10-11 wab.
De manera que parece que tenemos una secuencia rápidamente convergente a una terna
inercia Newtoniana ideal. Esta terna estaría en reposo con respecto a la distribución promedio de
la masa del universo. Dado que el universo se encuentra en expansión, una especificación de esta
“terna última inercial” sería entonces la de aquella desde la cual la expansión se viese isotrópica
(terna d).
De manera que la evidencia experimental nos sugiere que no hay una terna inercial fija con
respecto a un espacio absoluto sino más bien con relación a la distribución de masas del universo
en gran escala.
Es interesante destacar que esta idea de M ach, que hoy es conocida como Principio de Mach,
si bien un tanto esotérica, calificaría como proposición científica ya que la misma sería, al menos
en principio, falsable. Efectivamente, pueden concebirse experiencias que dieran como resultado
observaciones distintas según la hipótesis sea o no correcta. Sin embargo, hasta hoy no existe
acuerdo respecto de su validez. Es de todos modos indudable que estas ideas de M ach tuvieron
una influencia importante en el desarrollo de la teoría de la relatividad de Einstein, como él
mismo lo ha manifestado, hasta el punto que algunos autores califican a esta teoría como
“M achiana” (76). Volveremos sobre este punto más adelante (77).
V.5. Del espacio y el tiempo al espacio-tiempo
Ya hemos visto que mientras las aceleraciones absolutas tienen un efecto observable que
permite inferir el cambio de movimiento de un cuerpo con respecto al espacio absoluto, el
movimiento uniforme no presenta efecto alguno que permita detectar el desplazamiento de un
cuerpo con respecto a aquél. Esta observación constituye la base del Principio de Relatividad de
Galileo, que nos dice que no es posible mediante la realización de experiencias mecánicas internas
a un sistema, detectar el estado de reposo o movimiento del mismo. Sin embargo, la teoría
electromagnética elaborada por James Clerk M axwell en el siglo XIX que redujo la propagación
de la luz a la propagación de una onda electromagnética, abrió la posibilidad de que mediante
experiencias de naturaleza diferente a las mecánicas, tales como experiencias ópticas, pudiese
poner de manifiesto el movimiento uniforme mediante experiencias internas al sistema.
Recordemos que la identificación de la luz con una onda electromagnética trajo la cuestión de
la naturaleza del medio en el cual dicha onda se propaga. Tengamos en cuenta que todos los
fenómenos ondulatorios conocidos hasta ese momento tenían lugar en un medio material, como
por ejemplo las ondas sonoras que requieren para su propagación la presencia de un medio fluido
o elástico. Sin embargo, la luz proveniente de las estrellas viaja a través del vacío interestelar y
no parecía por lo tanto requerir de un medio material para hacerlo. De aquí surgió entonces la
idea de un medio inmaterial pero de existencia real que constituiría el medio de propagación de
las ondas luminosas o electromagnéticas en general. A este medio, un tanto fantasmagórico, se lo
denominó “éter luminífero”.
Ahora bien, postulada la existencia del éter luminífero, la idea de identificarlo con el espacio
absoluto de Newton surgió en forma natural. Quizá ahora se abría la posibilidad de poner en
evidencia experimental la existencia del espacio absoluto si fuese posible hacerlo con el éter. El
electromagnetismo de M axwell nos dice que la velocidad de la luz en el vacío tiene un valor
definido e independiente de la dirección según la cual se la mida por un observador estacionario
con respecto a la fuente de emisión (asumiendo que ambos, la fuente y el observador se
encuentran en reposo respecto del éter).
En cambio, si el observador se encuentra en movimiento respecto de la fuente debería poder
detectar su movimiento en relación al éter que debería manifestarse a través de cambios en la
velocidad medida en distintas direcciones aun cuando el movimiento del observador respecto de
la fuente fuese uniforme.
Se concibieron entonces una serie de experimentos ingeniosos para detectar el movimiento
uniforme del observador respecto del éter y en particular para tratar de establecer cuál era el
sistema de referencia en reposo respecto del mismo, con el objetivo de identificar dicho sistema
de referencia como el que se halla en reposo con respecto al espacio absoluto.
La experiencia crítica fue la realizada por los físicos americanos Albert Abraham M ichelson
y Edgard M orley en 1887. El experimento consiste, como se muestra en la fig. 5.4, en una mesa
giratoria en la cual una fuente luminosa A emite un haz de luz en la dirección del espejo semi-
plateado B en el cual el haz proveniente de A se divide en dos haces, uno de los cuales se dirige al
espejo C y el otro lo hace ortogonalmente al primero hacia el espejo D. Ambos espejos se
encuentran a la misma distancia L de B. Una vez que los dos haces alcanzan los respectivos
espejos son reflejados hacia el punto B. Si denominamos c a la velocidad de la luz en el éter y
asumimos que el dispositivo se está moviendo respecto del éter con una velocidad V, el tiempo
que le llevaría a la luz recorrer el camino de ida y vuelta BCB sería, de acuerdo con el principio
de adición de velocidades de Galileo: L/(c-V) +L/(c+V) = 2Lc/(c2-V2) = (2L/c){1/[1-(V2/c2)]}.
Fig. 5.4. Esquema del experimento de Michelson-Morley
Ahora bien, asumiendo razonablemente que V< c, vemos que el tiempo empleado por el haz
de luz en el recorrido BCB es mayor al que debe emplear el haz de luz en el recorrido BDB que
es simplemente 2L/c por ser ortogonal a la dirección del movimiento del sistema respecto del
éter. Si el aparato es rotado 90º, la diferencia de tiempo a lo largo de los caminos debería
invertirse.
El resultado entonces sorprendente fue que no pudo detectarse tal efecto, es decir los
tiempos empleados por ambos haces de luz resultaron siempre los mismos, no obstante que la
técnica interferométrica utilizada era lo suficientemente sensible como para detectar las pequeñas
variaciones en los tiempos que podrían esperarse.
Para justificar el resultado nulo del experimento, se elaboró una serie de teorías. Una de ellas
sugería que la tierra en su movimiento, arrastraba consigo al éter, de manera que la tierra se
encontraría en todo momento en reposo respecto del éter. Por esta razón a esta teoría se la
conoció como del “arrastre del éter”. Otras teorías sugerían que el aparato y las reglas utilizadas
para medir longitudes se contraen en la dirección del movimiento respecto del éter y que los
relojes empleados para determinar los tiempos funcionan más lentamente cuando los mismos se
mueven respecto de aquél, todo ello en la medida necesaria para compensar exactamente las
discrepancias que se encontrarían de no producirse estas modificaciones en los instrumentos de
medición. De modo que aunque la velocidad de la luz se moviese con distintas velocidades
respecto del aparato en direcciones diferentes, el resultado neto es que el movimiento uniforme
respecto del éter sería también indetectable mediante experiencias ópticas.
Fue Einstein quien en un alarde de ingenio y audacia intelectual postuló que lo que el
experimento demuestra es que la velocidad de la luz en el vacío es realmente la misma para
cualquier observador que se mueva con movimiento uniforme, produciendo así una ruptura con
el principio de adición de velocidades de Galileo. En otras palabras, lo que Einstein postuló es
que el hecho que la velocidad de la luz medida en distintas direcciones para un observador en
movimiento uniforme respecto de la fuente resulte la misma, no es la consecuencia de un
mecanismo compensatorio que nos hace parecer que dicha velocidad es la misma en todas
direcciones, sino que la velocidad de la luz es efectivamente una constante independientemente
del movimiento del observador.
Este postulado de la constancia de la luz en el vacío, tiene consecuencias importantes y
antiintuitivas. La más significativa es que nos obliga a abandonar el concepto de simultaneidad en
términos absolutos. Efectivamente, nuestra idea de simultaneidad entre dos eventos nos dice que
si los mismos son simultáneos, es decir ocurren en dos lugares distintos al mismo tiempo tal
como lo juzga un observador, serán también simultáneos para cualquier otro observador en
movimiento con respecto al primero.
Fig. 5.5. La simultaneidad según Einstein
Sin embargo, esta concepción de simultaneidad exige un poco más de análisis. Dos eventos
serán simultáneos para un observador si ambos ocurren en el momento en que el reloj de este
observador marque, digamos, el tiempo n. La concepción usual de simultaneidad nos dice que
cuando estos eventos tienen lugar, el reloj de otro observador en movimiento respecto del
primero también marcará el tiempo n si ambos relojes han sido previamente sincronizados. ¿Pero
cómo puede lograrse esta sincronización? No podemos recurrir a sincronizar los relojes en el
punto A y luego trasladar uno de ellos al punto B debido a que los efectos compensatorios que
hacen que las longitudes se contraigan y los relojes marchen más lentamente cuando nos
movemos respecto del éter perturbarían la sincronización. Si estuviésemos en un sistema en
reposo respecto del éter, una forma de sincronización sencilla sería enviar desde A una señal
luminosa hacia B donde esta se refleje y vuelva hasta A. Dado que asumimos estar en una terna
fija con respecto al éter, la velocidad de la señal luminosa en ambos recorridos es la misma por lo
que tendríamos entonces que el instante en que el reloj en B recibe la señal, sería el mismo
instante en que el reloj en A marcaba la mitad del tiempo que la señal tomó para hacer el camino
de ida y vuelta ABA con lo que lograríamos la sincronización. Pero hemos visto que no hay
manera de saber si nuestros sistema de referencia está en movimiento respecto del éter, por lo
que en este contexto de ideas, ¡el procedimiento es inaplicable!
Por el contrario, aceptando el postulado de Einstein de la constancia de la velocidad de la luz
en sistemas en movimiento relativo uniforme, podemos aplicar este método para la
sincronización de relojes para cualquier observador. En efecto, cada observador puede utilizar
independientemente el método de la reflexión del haz luminoso para sincronizar sus relojes y de
este modo establecer la simultaneidad de dos eventos.
Veremos ahora cómo la adopción del postulado de Einstein nos obliga a abandonar la idea de
simultaneidad absoluta entre eventos. Consideremos la fig. 5.5 donde OS representa lo que suele
llamarse la línea de universo del observador fijo en la posición O del eje x. (78) Lo que la línea de
universo representa son los eventos en la vida del observador fijo en esa posición a medida que
transcurre el tiempo que se representa en el eje vertical. La línea OS’ representa la línea de
universo de un segundo observador que se mueve hacia la izquierda con velocidad uniforme
respecto del primero en la dirección del eje x y que coinciden en la posición O en el instante t =
0. Supongamos que en el momento de encuentro de ambos observadores se emite una señal
luminosa hacia un punto e en donde la misma se refleja y regresa hacia el punto O. Según el
primer observador cuya línea de universo es OS, el evento representado por la llegada de la señal
luminosa al punto e es simultáneo con el instante representado por la mitad del intervalo de
tiempo que según el reloj de este observador, le tomó a la señal luminosa hacer el recorrido de ida
y vuelta, es decir con el punto representado por e’ en la figura ya que corresponde la mitad del
intervalo Or. En cambio para el segundo observador cuya línea de universo es la OS’, el mismo
evento de llegada de la señal luminosa a e es simultáneo con el instante correspondiente a la
mitad del tiempo que le llevó a la señal luminosa completar el recorrido de ida y vuelta medido
por su reloj, es decir con el punto e’’ de la figura ya que corresponde a la mitad de intervalo Or ’.
Es además fácil ver que los eventos e’ y e’’ pueden estar conectados por una señal causal (por
ejemplo una señal luminosa) por lo que no pueden ser simultáneos. De modo que dos eventos
que son simultáneos para un observador, no lo serán en general para otro observador en
movimiento respecto del primero.
Para disminuir la antiintuitividad que este resultado posee, podemos pensar en el caso de un
pasajero de un tren que recibe dos golpes sucesivos en su cabeza. Según este pasajero, los dos
golpes han ocurrido en el mismo lugar, es decir en su cabeza. Sin embargo, es obvio que para un
observador fijo en un andén mientras pasa el tren en cuestión, los dos golpes habrán ocurrido en
distintos lugares del espacio, dado el desplazamiento que experimentó el tren entre los dos
golpes. De modo que así como aceptamos que el concepto de “en el mismo lugar” es un
concepto relativo, también deberíamos poder aceptar que el concepto “al mismo tiempo”
también lo es.
V.6. Las transformaciones de Lorentz y el espacio-tiempo de
Minkowski
La teoría de la relatividad especial se desarrolla en base a dos postulados básicos. Estos son:
i) Las leyes de la física son las mismas en todos los sistemas de referencia inerciales.
ii) La velocidad de la luz en el vacío es una constante universal en todos los sistemas de
referencia inerciales.
A partir de estos dos postulados pueden obtenerse las fórmulas de transformación entre
sistemas de referencia inerciales como veremos a continuación.
Consideremos dos sistemas inerciales arbitrarios S y S’ en movimiento uniforme relativo en
los que hemos establecido coordenadas cartesianas ortogonales en la configuración indicada en la
fig. 5.6, es decir en la que los ejes y, z son perpendiculares a la dirección del movimiento relativo,
que se realiza según el eje x.
Fig. 5.6. Sistemas inerciales en movimiento uniforme relativo
Deseamos encontrar la relación entre las coordenadas S(x, y, z, t) y S’(x’, y’, z’, t’)
correspondientes a un evento o suceso arbitrario P. Por lo pronto, dicha relación debe ser lineal,
ya que ésta es la única manera para que las ecuaciones (lineales) del movimiento de una partícula
conserven su forma al pasar de un sistema al otro. Además, por razones de simetría la velocidad
relativa medida por observadores fijos a cada una de las ternas, deberá ser igual y opuesta
(digamos ± v). Por razones de simetría, resulta también bastante evidente que debe ser y = y’, z =
z’.
Para encontrar la relación entre las coordenadas x y x’ tengamos entonces en cuenta que la
misma debe ser lineal y que para x = vt, debe ser x’ = 0, por lo que debe cumplirse que
donde g es una constante a lo sumo función de v.
Análogamente, como para x’ = -vt’ debe ser x = 0, resulta que
donde g’ es otra constante posiblemente función de v.
Supongamos que ahora invertimos la dirección de los ejes x, z en nuestros sistemas de
coordenadas. La primera de las relaciones anteriores resulta
o bien
Ahora bien, si tenemos en cuenta que invertir la dirección de los ejes x, z equivale a
intercambiar los roles de los sistemas S y S’, la (5.2) se convierte en
por lo que resulta
como era intuitivamente evidente por razones de simetría.
Recurriendo ahora al segundo postulado (de constancia de la velocidad de la luz), sabemos
que x = ct implica x’ = ct’ y viceversa, de modo que reemplazando estas expresiones en (5.1) y
(5.2) y teniendo en cuenta (5.4), resulta
M ultiplicando m.a.m. las (5.5) y simplificando el producto tt’, resulta
Es evidente que debemos tomar el signo positivo para la raíz en (5.6), ya que para t = 0, x y
x’ deben aumentar con el mismo signo. La función g(v) obtenida es el factor de Lorentz que juega
un papel tan importante en la teoría de la relatividad.
Finalmente, eliminando x’ entre las (5.1) y (5.2), obtenemos
De modo que para dos sistemas de referencia que se desplazan con una velocidad relativa v
en la dirección del eje x, las fórmulas de transformación entre ambos sistemas, son:
donde c es la velocidad de la luz en el vacío y
Las expresiones anteriores habían sido propuestas con anterioridad a su deducción en 1905
por Einstein, por el físico Hendrik Lorentz en un intento por explicar el resultado nulo de la
experiencia de M ichelson-M orley. Por tal motivo se las conoce como transformaciones de
Lorentz.
De la primera de las (5.8) surge que si dos eventos ocurren para un observador en posiciones
separadas por un intervalo espacial Dx y por un intervalo temporal Dt, para un segundo
observador que se desplaza respecto del primero con una velocidad v, el correspondiente
intervalo temporal entre los eventos medido por el reloj de este observador será
de manera que si los dos eventos fuesen simultáneos para el primer observador (Dt = 0),
para el segundo ambos eventos estarían separados por un intervalo temporal
por lo que no resultan simultáneos para el segundo observador (a menos que fuese también
Dx = 0, es decir que hubiesen ocurrido en el mismo lugar para el primer observador).
Notemos que si el primer observador mide un intervalo de tiempo entre dos eventos que
ocurren para este observador en el mismo punto (es decir Dx = 0), la (5.10) nos dice que para el
segundo observador que se desplaza respecto del primero con velocidad v, el intervalo de tiempo
entre los eventos según su propio reloj, será
por lo que el intervalo medido por este segundo observador será mayor que el medido por el
primero que se encuentra estacionario respecto del lugar en que ocurren los eventos. Este efecto,
que hace que un reloj en movimiento atrase con respecto a un reloj inmóvil, se lo conoce como
dilatación del tiempo.
Para analizar cómo se transforman las longitudes debemos previamente considerar la forma
adecuada de medirlas por ambos observadores. Consideremos que tenemos una vara que para un
observador fijo a ella tiene una longitud L0. Para este observador, la medición consiste
simplemente en comparar la vara con una regla también inmóvil en su sistema de referencia. En
cambio, para un observador que se desplaza con velocidad v respecto del primero, la
determinación de la longitud no es tan simple ya que tendría que determinar la distancia entre la
posición de los extremos de la vara en movimiento simultáneamente, es decir en un instante
dado. Para ello, puede recurrir a disponer relojes previamente sincronizados por el método ya
visto de reflexión, a lo largo de la trayectoria de la barra de modo que cada reloj registre los
instantes en que el extremo izquierdo y el extremo derecho de la vara pasa frente a cada uno.
Posteriormente el observador sólo tiene que determinar el par de relojes que para el mismo
instante, uno registra el paso del extremo izquierdo y el otro el del otro extremo. La distancia
entre ambos relojes es la longitud de la vara. Observemos que en este procedimiento es crucial la
determinación simultánea (para el observador en movimiento, es decir Dt’ = 0) de la posición de
los extremos de la vara. De modo que por inversión de las (5.8), obtenemos
Teniendo en cuenta la segunda de las (5.13), si el observador estacionario con respecto a la
vara mide para la misma una longitud Dx = L0, el segundo observador, en movimiento respecto
de la barra medirá una longitud Dx’ = L0’ (para Dt’ = 0), siendo
por lo que la longitud de la barra respecto de lo medido por el primer observador habrá
sufrido una disminución. Este efecto de reducción en las longitudes cuando son medidas sobre un
objeto en movimiento se denomina contracción de longitud.
Todas las consecuencias de la nueva conceptualización de Einstein del espacio y el tiempo,
pueden resumirse en la idea del espacio-tiempo de Minkowski que constituye el marco en el que
se desarrollan todos los procesos físicos en la teoría especial de la relatividad. El elemento del
espacio-tiempo de M inkowski es el evento, concepto que ya venimos empleando pero que
precisaremos agregando que es un suceso puntual es decir sin extensión física, que ocurre en un
punto dado del espacio en un instante también dado. Los eventos toman en el espacio-tiempo el
lugar que las posiciones y los tiempos tienen en la concepción habitual del espacio y el tiempo
como entidades independientes. Esta idea de espacio-tiempo constituido por eventos nos
permite construir el diagrama de la fig. 5.7, denominado habitualmente “cono de luz”.
Fig. 5.7. Espacio-tiempo de Minkowski
El punto O representa es el evento actual (es decir aquí y ahora) de la historia de vida de un
observador inercial. Las rectas A y B constituyen las líneas de universo de rayos de luz que
provienen del asado de O y se proyectan a su futuro. Es decir, A corresponde a un rayo de luz
que alcanza a O desde el pasado y B en cambio, es un rayo de luz que se emite desde O hacia el
futuro. De manera que la región III corresponde a los eventos que pueden actuar causalmente
sobre el observador en el evento O ya que cada punto de esa región puede emitir una señal que se
propague a una velocidad no superior a la de la luz que alcance a O. Del mismo modo, la región
IV corresponde a los eventos que pueden ser influidos causalmente desde O, ya que dichos
eventos pueden ser alcanzados por una señal emitida desde O que no se propague con velocidad
superior a la de la luz.
En cambio, las regiones I y II corresponden a eventos que no pueden estar causalmente
conectados con O debido a que están temporalmente tan próximos a O que sólo podrían
conectarse mediante señales que viajen a mayor velocidad que la luz. En otras palabras,
constituyen eventos de los que desde O no es posible obtener información alguna. Por ejemplo,
un observador en la tierra no tiene forma de conocer una explosión solar hasta unos ocho
minutos después de ocurrida, habida cuenta del tiempo que le toma a la señal luminosa llevar esta
información desde el sol hasta la tierra. Del mismo modo, los eventos que ocurren en las regiones
I y II del diagrama de M inkowski, sólo pueden ser conocidos por el observador con
posterioridad al evento O.
En el espacio-tiempo de M inkowski se define la separación o intervalo ∆S entre dos eventos
de forma que ∆S2 = c2 ∆t 2 = c2 ∆t2 - ∆x2 - ∆y2 -∆z2 . Esta expresión, que mide (el cuadrado) de la
separación entre eventos se denomina métrica de M inkoswki y tiene la propiedad de ser un
invariante para todos los observadores inerciales. (79) Esta invariancia es una consecuencia
algebraica directa de las ecuaciones de transformación (5.8). Así definido, ∆t es también un
parámetro invariante llamado tiempo propio ya que es el tiempo medido por un reloj fijo a un
observador en movimiento ya que para él, cada evento de su línea de universo es vértice de un
cono de luz con x = y = z = 0. Teniendo en cuenta que el término ct representa la distancia
recorrida por un haz de luz en el tiempo t, de esta métrica surge que dos eventos distintos
pueden tener separación nula (∆S2 = 0) si un rayo luminoso partiendo del primer evento alcanza
al segundo evento. Como la métrica es invariante, dos eventos que tiene separación nula para un
observador, la tiene también para todos los observadores. Dos eventos para los que ∆S2 > 0
representan dos eventos que pueden estar conectados por una señal que viaje a velocidad igual o
menor que la de la luz. Finalmente, dos eventos para los cuales ∆S2 < 0 no pueden estar
conectados causalmente ya que ninguna señal que se emita en el primer evento puede alcanzar al
segundo aun viajando a la velocidad de la luz.
Si seleccionamos como evento origen para un observador inercial el representado por O en la
Fig. 5.7, vemos que la regiones III y IV corresponden a eventos cuya separación con O es tal que
∆S2 > 0. Este tipo de separación se suele designar timelike. Los eventos de las regiones I y II en
cambio, tienen una separación con O tal que ∆S2 < 0 y este tipo de separación suele designarse
spacelike. Finalmente los eventos sobre las rectas A y B tienen separación nula con O y este tipo
de separación se denomina lightlike. (80)
Dos eventos con separación spacelike, al no poder tener conexión causal entre ellos, su orden
de ocurrencia puede cambiar según el observador. En cambio, dos eventos con separación
timelike, al poder estar vinculados causalmente, siempre tendrán el mismo orden de ocurrencia
para todos los observadores, aunque el intervalo entre ellos varíe con el observador.
Tengamos en cuenta que en el diagrama de la figura hemos representado la línea de universo
de un observador fijo en un sistema de referencia inercial como una línea recta vertical. Cualquier
observador que se moviera con velocidad uniforme respecto del mismo pero que coincidiera con
el primero en el evento O, estaría representado por otra recta formando un cierto ángulo con la
vertical. Sin embargo, es importante reconocer que ambos observadores son totalmente
equivalentes ya que en la concepción espacio-temporal no hay terna privilegiada que se
encuentre fija respecto del éter. Para el observador representado por la vertical, el espacio en el
momento correspondiente al evento O, está dado por la recta x que constituye el “espacio en ese
instante” ya que sus puntos representan los eventos simultáneos con O. Obviamente para un
observador que se desplaza uniformemente respecto del primero pero que coincidiera en el
evento O cuya línea de universo sea una recta que tenga cierta inclinación respecto de la vertical,
su espacio en el instante correspondiente al evento O no podrá coincidir con el eje x dado que
para dos observadores en movimiento uniforme relativo no puede coincidir los eventos
simultáneos con O. De modo que para este segundo observador los eventos simultáneos con O
estarán sobre una recta también inclinada con respecto a x.
Es importante tener en cuenta que debido a la equivalencia entre observadores con
movimiento uniforme relativo, los efectos de dilatación del tiempo y de contracción de la
longitud son perfectamente simétricos. Esto surge inmediatamente de la simetría de las
ecuaciones (5.8) y (5.13). Esta simetría da origen a algunas aparentes paradojas. Una de las más
conocidas es la siguiente: supongamos que un corredor se desplaza con una vara de cierta
longitud en dirección a un galpón procurando entrar por un extremo y salir por el otro. M edidas
en condiciones de reposo mutuo, la vara y el galpón tiene exactamente la misma longitud. Esto
significa que un observador fijo al galpón, verá la vara en movimiento con una longitud menor a la
del galpón. Por lo tanto podría, una vez que el corredor con su vara se encuentre dentro del
galpón, cerrar y abrir ambas puertas delantera y trasera dejando por un instante encerrado al
corredor con su vara. Pero como el efecto es totalmente simétrico, el corredor verá al galpón más
corto que su vara por lo que resultaría imposible cerrar las puertas del galpón con la vara
adentro. La aparente paradoja se resuelve teniendo en cuenta el orden en que los sucesos ocurren
según la perspectiva de cada observador. Efectivamente, para el observador fijo al galpón, ambas
puertas se cierran y se abren simultáneamente cuando el corredor con su vara están dentro del
galpón. En cambio, el corredor ve que la puerta delantera se cierra cuando ya el extremo trasero
de su vara ha pasado y el cierre de la puerta trasera se produce luego de haber pasado con toda la
vara por el galpón.
El espacio-tiempo de la relatividad especial obliga efectuar otra distinción sobre el tiempo
que no es requerida en la física prerrelativista. Ya hemos visto que un observador atribuirá un
intervalo entre dos eventos y que este intervalo variará en general para distintos observadores. Si
consideramos ahora un reloj que se mueve de un evento al otro a lo largo de un cierto camino en
el espacio-tiempo, es decir sobre una sucesión de eventos, asumiendo que el reloj indicaba 0 en el
primer evento, indicará un cierto valor en el último evento. Pero en este caso todas las lecturas de
tiempo se efectúan en el mismo lugar en el espacio que el correspondiente evento (∆x = 0). De
modo que en este caso no habrá relatividad de simultaneidad y todos los observadores
coincidirán en sus lecturas del reloj. Este tiempo es por lo tanto llamado el tiempo propio entre
los dos eventos. El tiempo propio entre dos eventos obviamente variará al cambiar la trayectoria
en espacio-tiempo empleada para ir desde un evento hasta el otro y puede demostrase que este
tiempo propio será máximo si la trayectoria entre eventos corresponde a un movimiento
uniforme.
La consideración anterior perite explicar otra aparente paradoja de la relatividad especial,
como la constituida por el caso de los dos mellizos, uno de los cuales queda fijo en la tierra y el
otro realiza un vuelo interestelar que al regresar a la tierra encuentra a su hermano mellizo
envejecido mientras él ha permanecido más joven. La aparente paradoja surge de la rotura de la
simetría entre los observadores, en este caso los dos mellizos. Sin embargo, la simetría no es en
realidad tal ya que uno de ellos, el que realizó el viaje interestelar, sufrió aceleraciones que el que
se mantuvo fijo a la tierra no experimentó y por lo tanto su tiempo local resultó mayor que el de
su hermano durante el viaje.
V.7. Gravedad y relatividad
En el marco de la mecánica clásica newtoniana, debemos establecer una diferencia conceptual
entre masa inercial y masa gravitatoria. En efecto, la primera aparece en la segunda ley de la
dinámica de Newton F = mI a, donde mI es la masa inercial que queda definida como la relación
entre la fuerza actuante sobre un objeto y la aceleración que esta fuerza le impone, es decir a
mayor masa inercial, mayor será la fuerza que es necesario emplear para producir una dada
aceleración. Ahora bien, en forma totalmente independiente, Newton formula también su ley de
gravitación universal F = mG mG ’er/r2 , donde ahora mG y m’G son las masas gravitacionales que
determina la fuerza de atracción F entre dos cuerpos con esas masas gravitacionales y separados
por una distancia r. (81)
No hay, en el marco de la mecánica newtoniana, una razón a priori para identificar la masa
inercial de un cuerpo con su masa gravitacional. La identificación surge a partir de la evidencia
experimental suministrada por primera vez por Galileo, en el sentido que todos los cuerpos caen
con la misma aceleración en el vacío. En efecto, siendo esto así tenemos que
donde a es la aceleración de caída libre de un cuerpo de masa inercial mI y masa gravitacional
mG hacia la tierra que tiene masa gravitacional m . Dado que la experiencia nos enseña que la
aceleración de caída es independiente de la masa del cuerpo, surge inmediatamente de la (5.15)
que, al menos numéricamente debe cumplirse
De manera que en el marco de la mecánica newtoniana, la identidad entre masa inercial y
masa gravitacional constituye un hecho experimental contingente. Esto significa que la dificultad
de la mecánica newtoniana es la de explicar por qué la gravitación constituye una fuerza anómala
y por qué la igualdad de la aceleración de los cuerpos en un campo gravitatorio debe ser
introducida como una ley independiente de la naturaleza.
Einstein, en la formulación de su teoría general de la relatividad, asume esta igualdad como
una identidad esencial, reconociendo que la fuerza de la gravedad es la única que tiene la
peculiaridad de producir una aceleración que es independiente de la masa del cuerpo.
Supongamos que tenemos una región del espacio-tiempo en la que actúa un campo
gravitatorio g como lo podría ser una región alrededor de algún punto de la superficie terrestre. Si
la gravedad fuese la única fuerza actuante, todos los cuerpos en dicha región estarían sujetos a
una fuerza ma = mg , donde m es la masa de cada cuerpo y caerían, vistos desde una terna S fija a
la tierra, con la misma aceleración g. Por lo tanto, si cambiamos a una nueva terna S’ en caída
libre con aceleración g, podemos eliminar los efectos de la gravedad y cualquier cuerpo se vería
desde esa terna como no acelerado a menos que actuase sobre el mismo una fuerza no
gravitacional FNG. Formalmente, según la 2ª ley de Newton, tenemos en la terna S
En la terna S’, la aceleración es a’ = a – g, mientras que las fuerzas no se modifican. Por lo
tanto en S’ tenemos
es decir
En esta ecuación del movimiento, hemos eliminado las fuerzas gravitatorias. Consideremos
ahora un sistema o laboratorio inercial en el que un pequeño cuerpo de prueba está siendo
solicitado gravitacionalmente en una dirección por otro objeto lejano de modo que en el
laboratorio tengamos un campo gravitatorio esencialmente uniforme que imprime una aceleración
uniforme al cuerpo. El cuerpo de prueba experimentaría una aceleración similar si no existiese el
campo gravitatorio pero en cambio fuese el propio laboratorio el que fuese acelerado
uniformemente en la dirección opuesta. En este último caso, todo cuerpo en el laboratorio tendría
una aceleración idéntica respecto del mismo. De manera que debido a la particularidad
mencionada de la acción gravitatoria, podemos reemplazar la fuerza gravitacional por un sistema
de referencia acelerado.
En cambio, como hemos visto, si el propio laboratorio no fuese un sistema inercial en el
sentido newtoniano sino que también cayese en caída libre bajo la acción gravitatoria, la fuerza de
gravedad habría desaparecido para el laboratorio y los cuerpos se comportarían como si no
estuvieran sujetos a acción gravitacional alguna. Es decir, se comportarían como cuerpos libres en
un sistema inercial. Esta consideración llevó a Einstein a postular su Principio de Equivalencia
que puede formularse de la siguiente manera: un laboratorio o sistema de referencia local (82) en
caída libre es equivalente a un sistema inercial y por lo tanto no es posible detectar por
experiencias internas del sistema de cualquier naturaleza, el estado de reposo o movimiento del
sistema. Este principio tiene consecuencias de largo alcance. Entre ellas, la dilatación
gravitacional del tiempo y la curvatura de los rayos luminosos en un campo gravitatorio.
Para demostrar este último efecto consideremos el pequeño laboratorio en caída libre de la
fig. 5.8. Según el Ppio. de Equivalencia, para un observador en caída libre con el laboratorio con
una aceleración g, un fotón emitido desde una de las paredes laterales seguirá la trayectoria
rectilínea uniforme representada por la línea llena, tal como se observaría en un sistema inercial.
En cambio, para el observador fijo al campo gravitatorio, la trayectoria del fotón será la indicada
por la línea punteada, ya que en el tiempo durante el cual el fotón recorre el laboratorio, para el
observador fijo al campo gravitatorio, el laboratorio habrá descendido una cierta distancia.
Fig. 5.8. Curvatura de un rayo luminoso en un campo gravitatorio
Consideremos ahora la situación descripta en la fig. 5.9 en la cual tenemos un laboratorio en
caída libre con una aceleración g como se indica en la figura. El laboratorio posee un emisor y un
receptor de fotones colocados en el piso y en el techo del laboratorio respectivamente.
Al analizar esta situación, es importante destacar que aun en la física prerrelativista, si se
observa un reloj que recede, aparecerá marchando más lentamente y lo contrario ocurrirá para un
reloj que se acerca. Del mismo modo, un átomo vibrando emitirá una radiación que llegará corrida
hacia el rojo si el átomo recede y hacia el azul si se acerca. Éste es el efecto Doppler óptico
clásico. La relatividad agrega un factor de corrección a este efecto Doppler óptico (y por
supuesto también al acústico, pero éste es en general despreciable).
Fig. 5.9. Dilatación del tiempo en un campo gravitatorio
En efecto, considerando una fuente luminosa que se mueve con velocidad constante u en la
terna inercial S, como se muestra en la Fig. 5.10 con una componente radial ur de la velocidad
respecto del observador en O, en el intervalo ∆T0 correspondiente a la emisión de dos “crestas
de onda” sucesivas vistas por un observador co-móvil con C, la fuente habrá incrementado su
distancia a O en ∆T0 g(u)ur (dilatación temporal!), donde como hemos visto
es el factor de Lorentz. Consecuentemente, el intervalo entre crestas sucesivas observadas
por O será
donde el primer término de la derecha de (5.21) representa la dilatación temporal del
intervalo entre crestas debido a la velocidad del emisor respecto de O y el segundo término es la
contribución temporal debido al incremento de la distancia del emisor respecto de O en el
intervalo entre crestas.
Fig. 5.10. Efecto Doppler relativista
Como para el observador comóvil con C el intervalo entre crestas es ∆T0, el corrimiento
Doppler será
En el caso en que u = ur, resulta
Ahora bien, si como se ilustra en la fig. 5.9, un laboratorio local es dejado en caída libre en el
mismo instante en que una señal luminosa es emitida con frecuencia v0 desde el piso hacia el
techo del laboratorio de altura H, el Ppio. de Equivalencia nos dice que un observador localizado
en el techo y cayendo con el laboratorio recibirá una señal de la misma frecuencia v0 . Un
observador externo estará en cambio moviéndose hacia arriba respecto del laboratorio con una
velocidad u = gt = gH/c. Por lo tanto, para este observador externo habrá un corrimiento
Doppler dado por la (5.23), pero asumiendo que u/c << 1, podemos escribir
donde gH es el cambio en el potencial gravitatorio newtoniano experimentado por la fuente
emisora en el tiempo t = H/c. Este argumento es interesante porque ilustra como utilizando una
terna inercial local el efecto Doppler gravitacional aparece como corrimiento Doppler “clásico” y
de que manera el empleo de tal terna nos permite “eliminar” el campo gravitacional.
Podemos alternativamente considerar la situación descripta en la fig. 5.11 en la cual un
laboratorio en una región sin campo gravitatorio es acelerado con una aceleración -g como se
indica en la figura. Según el Ppio. de Equivalencia para un observador interno, también acelerado,
todo debe ocurrir en el laboratorio como si se encontrara en un campo gravitatorio de valor g. El
laboratorio posee un emisor y un receptor de fotones colocados en el techo y en el piso del
laboratorio respectivamente.
El emisor emite fotones con una frecuencia dada, pero dado que el movimiento del
laboratorio es acelerado, para el observador exterior inercial, cada fotón que emite llegará al
detector cuando éste haya adquirido una velocidad mayor que la que poseía en el momento de la
emisión, por lo que para el observador inercial los intervalos entre detecciones que medirá es
menor que la que mide para el emisor.
Fig. 5.11. Dilatación del tiempo en un sistema acelerado.
Si en lugar de considerar un laboratorio acelerado, consideramos al mismo laboratorio en un
campo gravitatorio g, todos los fenómenos que ocurran en el laboratorio deben coincidir en
ambas situaciones. En otras palabras, el receptor va “atrasando” con respecto al emisor y lo
mismo ocurriría si reemplazásemos el emisor y el detector por dos relojes previamente
sincronizados. Observemos que en tal caso el reloj que atrasaría sería el que se encontrase a
menor potencial gravitatorio en coincidencia con (5.16).
V.8. Implicancias filosóficas de la relatividad especial en las
ideas de tiempo, espacio y su existencia
Si consideramos las doctrinas tradicionales que conectan los conceptos de tiempo y
existencia, vemos que para muchos resulta intuitivamente obvio que sólo existe aquello que
existe “ahora”. En esta concepción, el futuro no tiene aún existencia y el pasado ya ha cesado de
existir. De manera que sólo de aquellas entidades que existen en el presente podría
apropiadamente decirse que existen.
Para otros, en cambio, serían el pasado y el presente los que tienen existencia real, mientras
que el futuro es todavía inexistente. La idea es que tanto el pasado como el presente, habiendo ya
alcanzado la existencia, tienen una realidad determinada, ya que la forma en que se presentaron
constituye un hecho concreto. De acuerdo con esta idea, el futuro pertenece a lo que no ha
alcanzado todavía la existencia y por lo tanto no posee realidad determinada. Según este
razonamiento, si el futuro tuviese una realidad determinada, ¿cómo quedaría abierta la posibilidad
de que un evento ocurra o no? Observemos que lo que está aquí en consideración no es el
determinismo ni el hecho que la leyes de la naturaleza puedan determinar el futuro, sino la
concepción que si los hechos futuros tiene una realidad pasada y presente, no habría ningún
sentido según el cual el futuro estuviese abierto a posibilidad alguna.
En oposición a estas posiciones está la de los que afirman que dichas conexiones entre
tiempo y existencia son meras formas lingüísticas. Para quienes así sostienen, el pasado, el
presente y el futuro, son igualmente reales. El argumento es que no afirmamos la inexistencia de
las cosas que no están “aquí” donde nos encontramos. Sería absurdo negar la existencia de algo
por el solo hecho de no estar aquí. Por lo tanto, ¿no sería igualmente absurdo negar la existencia
de lo que no existe “ahora”?
Obviamente, la reestructuración radical del espacio y del tiempo en espacio-tiempo
introducida por la relatividad especial tiene que tener un fuerte impacto en estas cuestiones.
¿Qué ocurre con la afirmación: sólo lo que existe ahora verdaderamente existe? Dado que los
eventos que son simultáneos para un observador no lo son para otros observadores en
movimiento con respecto al primero aun si los observadores coinciden momentáneamente, el
significado del término “ahora” se vuelve problemático.
En efecto, supongamos que dos observadores son coincidentes en el evento E pero en
movimiento uno respecto del otro. Habrá eventos como el A que ocurre después E para el primer
observador (es decir el evento A no tendría aún existencia real para el primer observador en el
evento E), pero simultáneo con E para el segundo observador (es decir A tendría existencia real
para el segundo observador en el evento E). Entonces, ¿cómo podríamos afirmar que A no es real
para el primer observador si es real para el segundo observador y si este segundo observador
tiene ciertamente existencia real para el primero en el evento E (ambos observadores han
coincidido en el evento E)? Pero aún más, hemos visto que en relatividad un evento puede ocurrir
después del evento E, o “absolutamente después” del evento E. Decimos que el evento B ocurre
“absolutamente después” del evento E cuando los eventos B y E están conectados causalmente
(es decir son conectables por una señal que se desplace a velocidad igual o menor que la de la luz)
y por lo tanto siempre el evento B será observado después del evento E por todos los
observadores. Para eventos como el A, que no están conectados causalmente con E, A puede
ocurrir antes, simultáneamente o después que E para distintos observadores.
Todos estos argumentos nos muestran claramente que la aceptación de la relatividad del
espacio-tiempo complica la idea tradicional que “sólo lo que existe en el presente es real”.
Debido a esto se argumenta que la relatividad es sólo compatible con la posición que acepta que
tanto el pasado como el presente y el futuro tienen existencia real.
Sin embargo es posible adherir a la posición que sólo el presente posee realidad aun
aceptando la teoría de la relatividad. El argumento se basa en que sólo el presente se nos da a la
experiencia directa. En relatividad, el concepto de simultaneidad se relaciona con eventos
espacialmente remotos al observador. De modo que si uno argumenta la no existencia real de los
eventos pasados y futuros en base a que aun en la relatividad éstos son accesibles sólo a través
de una inferencia remota, a diferencia de lo que ocurre con el presente, tenemos una manera de
adherir a la intuición que el pasado y el futuro no poseen realidad aun en el contexto relativista.
Llevada al extremo, esta idea nos conduce a que sólo tendrían existencia real aquellos eventos que
ocurran en coincidencia con el evento de vida del observador, es decir “aquí y ahora”. Sin duda
que la reducción de la realidad a un punto del espacio-tiempo es más radical todavía que limitar la
realidad al instante presente, es decir al “ahora” pero no necesariamente al “aquí”. Sin embargo,
tales posiciones extremas no pueden ser ignoradas ni rechazadas de plano por lo que continúan
siendo objeto de debate filosófico.
Otro aspecto a considerar es en qué medida las ideas relativistas pueden haber tenido
impacto en el debate ya visto más arriba entre los “sustancialistas” y los “relacionistas”.
Llamamos sustancialistas a los que, acompañando a Newton, postulan la existencia de un
espacio absoluto asignándole por lo tanto una “sustancia” que constituye el marco referencial
para los sistemas inerciales. Por el contrario, los relacionistas son los que, adhiriendo a las ideas
de Leibnitz, niegan la existencia de un espacio absoluto y lo reducen a las relaciones espaciales
entre objetos.
Podría a primera vista parecer que la introducción de las ideas relativistas, que destruyen los
conceptos de simultaneidad absoluta y de relaciones espaciales absolutas sino que las refiere al
movimiento del observador, constituiría un argumento a favor de las ideas relacionistas. Sin
embargo, en la mecánica relativista, al igual que en la dinámica newtoniana, las ternas inerciales
siguen siendo sistemas de referencia privilegiados por el hecho de no sufrir efectos de inercia a lo
que se agrega, en el caso de la relatividad, el resultado negativo de experiencias ópticas del tipo
M ihelson-M orley. En ambas dinámicas, newtoniana y relativista, las ternas aceleradas se
identifican por ser las que producen sobre los objetos efectos detectables de inercia. De modo
que la relatividad no arroja mucha luz sobre el hecho que para interpretar los fenómenos
observables tengamos o no que introducir un espacio y un tiempo, ahora espacio-tiempo, como
una estructura con sustancia sobre las cosas materiales y eventos del mundo. Tengamos por otra
parte en cuenta que la relatividad especial también introduce sus absolutos. Ya hemos visto que
la separación entre eventos DS, así como el tiempo local a lo largo de un determinado camino
entre eventos en el espacio-tiempo son independientes del observador.
Lo anterior implica entonces que no necesariamente debamos aceptar las ideas sustancialistas
o antirelacionistas como marco de las ideas relativistas. Es posible considerar a los efectos de
inercia y ópticos observables en ternas aceleradas, la consecuencia de su movimiento no
uniforme respecto de las ternas inerciales, jugando entonces estas ternas el rol del espacio
absoluto. Por supuesto que postular que las ternas inerciales representan una entidad básica del
mundo deja la explicación de su naturaleza a medio camino, pero lo mismo ocurre con la
aceptación de un espacio absoluto ya que en tal caso también queda sin explicación por qué una
terna acelerada respecto de dicho espacio produce efectos de inercia. De modo que ninguna de las
dos posiciones parece ofrecer argumentos que permitan, mediante evidencia experimental, zanjar
la cuestión y el debate continúa después de cuatro siglos, hasta nuestros días.
V.9. Geometría del espacio-tiempo y gravedad
Hemos visto que el Ppio. de Equivalencia de Einstein nos conduce a una modificación
importante en el concepto de terna inercial. Efectivamente, en la concepción newtoniana y
también en la de la relatividad especial, una terna inercial queda identificada por ser aquella en la
que no se detectan efectos mecánicos ni fenómenos ópticos que pongan de manifiesto un
movimiento acelerado. En cambio, en el marco de la relatividad general, una terna inercial es una
terna local en caída libre, es decir con una forma particular de aceleración que hace que los efectos
gravitatorios desaparezcan y no sea posible mediante experiencias de cualquier naturaleza
internas a la terna, detectar el estado de reposo o movimiento de la misma.
Nos detendremos ahora en el significado que tiene el requerimiento de localidad de la terna de
referencia en caída libre. Para ello supongamos que tenemos en el campo gravitatorio de la tierra a
una cierta altura sobre la superficie de la misma, una distribución de partículas materiales
formando inicialmente una superficie esférica como lo muestra la fig. 5.12.
Fig. 5.12. Efectos “de marea” gravitacionales
Si asumimos que en un instante dado dejamos caer libremente al conjunto de partículas, la
distribución inicialmente esférica de las partículas se irá transformando en un elipsoide como lo
sugiere la figura. Esto ocurre porque las partículas que se encuentran más cercanas a la tierra, tal
como la D adquirirán un aceleración mayor que las partículas mas alejadas de la tierra tales como
la C, mientras que partículas como las A y B serán aceleradas hacia el centro de la elipsoide
debido a que la fuerza de gravedad terrestre converge hacia el centro de la tierra y por lo tanto
esas partículas adquirirán una aceleración que posee una componente hacia el centro de la
elipsoide. De modo que si nuestro laboratorio en caída libre fuese la terna con origen en el centro
del elipsoide, veríamos a las partículas A y B aproximarse mutuamente, lo que sería evidencia
mediante una observación interna al sistema, de la presencia de un campo gravitacional no
uniforme. Por el contrario, si el laboratorio en caída libre tuviese dimensiones despreciables, este
efecto no sería percibido. Observemos que este efecto es totalmente análogo al que la luna tiene
sobre los mares en la tierra produciendo las mareas ya que en última instancia la tierra y la luna
en su órbita mutua están “cayendo” libremente una sobre otra. De aquí la expresión “efectos de
marea”.
Si además de la distribución de partículas sobre la superficie esférica inicial, existiese una
masa M en el interior de la esfera, tendríamos durante la caída libre un efecto adicional de
contracción o reducción del volumen inicial. Esto ocurre debido a que la masa M produciría un
efecto de atracción de las partículas hacia el interior de la esfera.
Fig. 5.13. Curvatura del espacio-tiempo. Efecto de marea.
Si representamos esquemáticamente la evolución espacio-temporal de las partículas en caída
libre, tendremos el gráfico de la fig. 5.13 donde observamos que la trayectoria espacio-temporal o
línea de universo de partículas como las A y la B poseen una curvatura que las acerca al centro
del elipsoide mientras que partículas como las C y D se alejan de dicho centro.
Observemos que a diferencia de las líneas de universo de una partícula con movimiento
uniforme, que como ya hemos visto están representadas por rectas en un diagrama de
M inksowski, las líneas de universo de las partículas representadas en la fig. 5.13 posen
curvatura.
Fig. 5.14. Geodésicas sobre superficies de distinta curvatura.
Visto de otra manera, las trayectorias inicialmente paralelas se hacen convergentes para las
partículas A y B que evolucionan como si se movieran sobre una superficie de curvatura positiva
(esfera) como se muestra en la fig. 5.14a, mientras que para las partículas como las C y D las
trayectorias se hacen divergentes como si se movieran sobre una superficie de curvatura negativa
(silla de montar) como en la fig. 5.14b.
Las trayectorias espacio-temporales que corresponden a las líneas de universo que describen
las partículas en caída libre constituyen geodésicas en el espacio-tiempo. Para el caso del
espacio-tiempo de M inkowski con la métrica DS2 = –c2 Dt2 + Dx2 +Dy2 +Dz2 la ecuación
diferencial de una geodésica surge de la condición de maximizar localmente la longitud de la
misma. (83) Si imaginamos entonces que las líneas de universo de partículas en caída libre
constituyen geodésicas sobre una superficie, vemos que podemos establecer un analogía cercana
entre el efecto de marea gravitacional y los efectos de curvatura de la superficie. Pero aquí los
efectos de curvatura positivos y negativos están ambos presentes debido a que el espacio-
tiempo que la fig.5.13 intenta esquemáticamente representar, no es una superficie bidimensional
como las a y b de la fig. 5.14 sino un espacio de tres dimensiones espaciales y una dimensión
temporal.
Las consideraciones anteriores nos permiten acercarnos a entender cómo el concepto de
“curvatura” del espacio-tiempo puede utilizarse para la descripción de los campos
gravitacionales. En realidad, hasta aquí no estamos saliendo del marco de la teoría de gravitación
newtoniana sino más bien haciendo una reformulación o reinterpretación de esta teoría. Sin
embargo, cuando hacemos intervenir en esta concepción de la gravitación la geometría del
espacio-tiempo de M inkowski de la teoría especial de la relatividad que se aplica en ausencia de
gravedad, resulta una nueva física que constituye la relatividad general. En efecto, sabemos que
en ausencia de gravedad la métrica de M inkowski nos dice que la separación DS entre eventos
sobre la línea de universo de una partícula es la “distancia” entre eventos medida sobre esa línea
de universo que es igual al tiempo local Dt medido por un reloj que se mueve con la partícula
entre esos mismos eventos. (84)
Si la gravedad está presente, la geometría de M inkowski es sólo una aproximación a la
geometría del espacio curvo, que se hará tanto más precisa en la medida que vayamos reduciendo
la región del espacio que se pretende describir. Esto es análogo a como la geometría de un plano
tangente a una superficie curva representa con mayor aproximación la geometría de la superficie
en la medida que la región se reduzca cada vez más alrededor del punto de tangencia. Por este
motivo, podemos decir que en presencia de gravedad, el espacio-tiempo está descripto
“localmente” por la geometría de M inkowski pero que posee curvatura analizado en mayor
escala.
El concepto de “cono de luz” nos permite una representación de la curvatura del espacio-
tiempo.
En efecto, hemos visto cómo la presencia de un campo gravitatorio produce la curvatura de
un haz luminoso que en ausencia de dicho campo describiría una trayectoria rectlínea uniforme.
Ahora bien, la línea de universo de un haz de luz, es en cada punto vértice de un cono de luz y
tangente a la superficie del cono, de modo que en presencia de masas que producen un efecto
gravitatorio, los conos de luz correspondientes a los distintos eventos de la trayectoria espacio-
temporal del haz luminoso que posee curvatura, deben disponerse como lo muestra la fig. 5.15a.
Por supuesto que si en lugar de un haz de luz hubiésemos considerado la trayectoria espacio-
temporal de una partícula material, esta trayectoria no sería tangente sino interior a los conos de
luz como lo representa la fig. 5.15b. Todo evento del espacio-tiempo es siempre el vértice de un
cono de luz, pero a diferencia de lo que ocurre en ausencia de gravedad, en presencia de un
campo gravitatorio los conos de luz no se orientan de modo uniforme.
5.15. Representación del espacio tiempo curvo.
V.10. Separación entre eventos y geodésicas en el espacio-
tiempo
El concepto de separación entre eventos en el espacio-tiempo es más complicado que el de
distancia en el espacio ordinario. Sin embargo, desde el punto de vista matemático los dos
conceptos son muy simlares y podemos concebir a la cantidad Dt, que según ya hemos visto
representa el tiempo propio y queda definida por la expresión
que podemos calificar como pseudopitagórica en el que los signos de tres de los cuatro
términos son negativos y donde
es el cuadrado de la separación espacial entre eventos.
A fin de encontrar una expresión general para la separación espacial Ds y para el tiempo
propio Dt supongamos que elegimos un punto tal como el P en un sistema de coordenadas
curvilíneas definido por una grilla arbitraria como se ilustra en la fig. 5.16b.
Las fórmulas de transformación entre el sistema de coordenadas curvilíneo y el sistema
cartesiano, serán de la forma
Fig. 5.16. Sistema de coordenadas cartesiano ( a) y curvilíneo o general ( b)
es decir, las coordenadas cartesianas x, y, z las asumimos función de las coordenadas
generales x1 , x2 , x3 . De modo que resulta
Introduciendo (5.28) en la (5.26) y operando, resulta
siendo
A fin de simplificar las expresiones anteriores, introduciremos la convención de Einstein que
dice que la presencia de un índice repetido en un término de una ecuación, representa una suma
sobre ese índice entre 1 y la dimensionalidad del espacio considerado (en nuestro caso 3).
Aplicando esta convención, la (5.29) se escribe
donde r ≡ (x1 , x2 , x3 ) es el vector posición de P en coordenadas curvilíneas.
La (5.31) es muy importante porque permite obtener una cantidad física como la distancia
entre dos puntos a partir de la información de las diferencias de coordenadas entre los puntos. La
distancia Ds es un invariante, es decir independiente del sistema de coordenadas empleado, pero
no así las diferencias de coordenadas entre los puntos que dependen del sistema elegido.
Observemos que la (5.31) implica las funciones gμν(r), que es un objeto matemático que queda
definido por nueve funciones, que en forma matricial, pueden escribirse
de las cuales sólo seis son independientes dado que gμν = gμν. El conjunto de las nueve
funciones gmn constituye el tensor métrico. En particular, es un tensor de segundo orden en el
espacio tridimensional ordinario. Los tensores son objetos matemáticos que se caracterizan por
obedecer ciertas reglas bajo una transformación de coordenadas. Sin embargo, en nuestro análisis
no recurriremos al uso explícito de tensores por lo que no resulta necesario detenernos en este
punto. (85)
Como lo sugiere la (5.31), definir un tensor métrico en un dado espacio es dar una regla para
medir distancias en dicho espacio. La forma más simple que puede adoptar un tensor métrico es
la que corresponde a un sistema de coordenadas cartesianas ortogonales como las de la fig. 5.16a.
En este caso la aplicación de la (5.30) nos conduce a que gmn = 0 para m ≠ n y gmn = 1 para m
= n. Esto surge por comparación directa de (5.26) con (5.31), o por aplicación de la (5.30). Por
ejemplo, para m = 1 (= x) y ν = 2 (= y), resulta
y análogamente para g23 y g31 , mientras que para m = n =1 (= x), es
y análogamente para g22 y g33 . De manera que el tensor métrico, que en este caso particular
identificaremos como go μν, resulta
El análisis que hemos hecho hasta aquí en un espacio ordinario tridimensional puede
aplicarse en forma totalmente similar al espacio-tiempo de cuatro dimensiones. En este caso, la
separación entre dos eventos medida en términos de intervalo propio Dt, esta dada por
donde seguimos aplicando la convención de Einstein para los índices i, j que ahora toman los
valores 0, 1, 2, 3 (por convención, identificamos x0 con la coordenada temporal) y x1 , x2 , x3 son
la coordenadas espaciales (no necesariamente cartesianas). En este caso, por comparación directa
de (5.25) y (5.34) surge que
que corresponde a una terna cartesiana inercial en el sentido relativista general, es decir en
caída libre ya que en otras circunstancias, por ejemplo en presencia de masas, las componentes
del tensor son en general funciones de las coordenadas xi del evento. El tensor dado por (5.35)
tiene 42 = 16 componentes (tensor de 2º orden en un espacio de dimensión 4) de las cuales sólo
10 son independientes por tratarse de un tensor simétrico.
Hay algunas diferencias importantes entre el espacio euclidiano tridimensional y el espacio-
tiempo de M inkowski de cuatro dimensiones. Aparte de la diferencia en el número de estas
dimensiones, ya hemos visto que en el espacio-tiempo podemos tener eventos no coincidentes
con separación nula, como ocurre con dos eventos que se encuentran sobre la línea de universo
de un fotón, lo que da lugar a diferenciar entre eventos con separación timelike y spacelike.
Podemos ver ahora que matemáticamente, estas distinciones surgen de la presencia de signos
negativos en go ij , lo que no ocurre en go μν.
Otra diferencia muy importante se refiere al hecho que en el espacio euclideo tridimensional
siempre es posible transformar el tensor métrico gmn que define la métrica en un sistema de
coordenadas curvilíneo general como el de la fig. 5.15b en el tensor métrico diagonal go μν siendo
esta transformación válida para todo punto del espacio. En cambio, en un espacio-tiempo que
exhibe curvatura la transformación entre un tensor métrico gi j puede reducirse a la forma goij,
sólo localmente de acuerdo con el Ppio. de Equivalencia. Efectivamente, ésta es una forma
matemática de expresar que, como ya hemos visto, en presencia de un campo gravitacional, no es
posible utilizar una única terna inercial global sino que es necesario cubrir el espacio con ternas
inerciales (es decir en caída libre) locales.
Podemos ahora preguntarnos cuál es el camino xi (t) que sigue en el espacio-tiempo un
cuerpo bajo la acción de fuerzas que no sean de otro origen que gravitacional. En otras palabras:
¿cuál es la ecuación de la línea de universo de un cuerpo bajo la acción exclusiva de fuerzas
gravitacionales?
Fig. 5.17. Camino máximo en el espacio-tiempo
Para justificar la respuesta, consideremos dos eventos en un espacio-tiempo de M inkowski
libre de campos de fuerza. Uno de ellos lo hacemos coincidir con el origen O de una terna inercial
y el otro es el evento P cuyas coordenadas son tP, 0, 0, 0, como lo muestra la fig. 5.17. Esto es
siempre posible dado que podemos elegir una terna cuyo origen espacial se mueva con un cuerpo
sobre cuya línea de universo ocurren los eventos O y P. De acuerdo con (5.25), es
de modo que
Consideremos ahora una línea de universo alternativa, como OQP, donde Q tiene
coordenadas tQ , xQ , 0, 0, de modo que teniendo en cuenta la aditividad de la lectura de relojes y el
hecho que tanto OQ como QP deben ser intervalos timelike para que OQP sea una línea de
universo, resulta
Utilizando nuevamente (5.25), obtenemos
De manera que escribiendo
Introduciendo las (5.38) en la (5.37) y teniendo en cuenta las (5.36) y (5.39), verificamos
que
La (5.40) nos dice que si dos relojes sincronizados previamente, parten de un evento y
alcanzan un mismo segundo evento por distinto camino, los relojes no medirán lo mismo al
coincidir nuevamente. Este efecto ya ha sido mencionado más arriba en la “paradoja de los
mellizos”. El otro punto importante que surge de la expresión anterior es que en el espacio-
tiempo las trayectorias rectas no corresponden necesariamente a intervalos temporales propios
mínimos sino más bien a intervalos temporales propios extremos, es decir máximos o mínimos.
Si bien el análisis hecho utilizando relatividad especial se refiere a un espacio-tiempo en
ausencia de fuerzas gravitatorias, el resultado es válido en relatividad general en presencia de
campos gravitatorios sólo que en tal caso, es necesario utilizar ternas locales en caída libre.
Efectivamente, las líneas de universo que describen los cuerpos materiales sujetos sólo a fuerzas
de origen gravitatorio corresponden al máximo tiempo propio entre eventos. Estas líneas de
universo, necesariamente timelike, son las geodésicas del movimiento de los cuerpos en campos
gravitatorios.
De acuerdo con la (5.34), la expresión general de la separación entre eventos A y B sobre una
línea de universo (no necesariamente una recta), toma la forma
donde las componentes gij del tensor métrico son función de la posición, es decir de xk(t)
sobre la línea de universo sobre la que se efectúa la integración. Las xk (t) constituyen la ecuación
de la línea de universo descripta por un cuerpo en función del parámetro t. Teniendo en cuanta
que es
la (5.41) queda
De manera que como hemos visto, una geodésica entre los eventos A y B corresponderá a un
extremo de (5.43), es decir a un mínimo, como en el espacio euclidiano, o a un máximo como en el
espacio tiempo de M inkowski. Recordemos que en este último caso, podemos tener geodésicas
con separación tAB nula como ocurre cuando A y B se encuentran sobre la línea de universo de
un haz de luz.
Recapitulando los conceptos más importantes vistos en este parágrafo, tenemos:
i. El espacio- tiempo es una variedad (86) cuadri-dimensional con métrica gij, en términos de
la cual la separación entre eventos está dada por la expresión Дt 2 = gij Дxi Дxj .
ii. Las líneas de universo de cuerpos materiales no sujetos a fuerzas no-gravitacionales son
geodésicas timelike.
iii. Las líneas de universo de rayos de luz son geodésicas nulas
Estas tres proposiciones, junto con la definición de separación entre eventos en términos de
reglas y relojes, constituyen sin duda una parte importante de los principios conceptuales de la
relatividad general. El movimiento inercial de los cuerpos no sujetos a fuerzas no gravitatorias, es
decir o bien no sujetos a fuerza alguna o sólo a fuerzas de origen gravitacional, se ejecuta
siguiendo geodésicas que extremalizan la separación entre dos eventos cualesquiera de sus líneas
de universo.
Es importante destacar que la idea de la extremalización de la trayectoria de un cuerpo para
hallar su geodésica es válida sólo si planteamos esa extremalización entre eventos del espacio-
tiempo. Pensemos en el tiro en el vacío donde un proyectil puede ir de la posición A a la B por
distintas trayectorias espaciales ninguna de las cuales es una geodésica en ese espacio. Esto se
debe a que no estamos en este caso considerando dos únicos eventos debido a que el tiempo que
el proyectil tarda en llegar de A a B depende de su trayectoria espacial.
Para analizar este punto con un poco más de detalle, consideremos la siguiente situación
(87): tenemos dos relojes idénticos R y P coincidentes en la superficie de la tierra. Ahora
llevamos al reloj P hasta una cierta altura y lo volvemos a de modo que vuelve a encontrarse con
R cuando este ha marcado un intervalo Дt desde el momento en que se produjo la partida de P.
Sabemos que el tiempo propio marcado por el reloj P será mayor que Дt ya que ha
experimentado el efecto gravitacional que hace que haya marchado más rápidamente que P. Nos
hacemos ahora la pregunta: ¿Cómo deberíamos haber movido el reloj P para que al reencontrarse
con R después de un intervalo Дt (medido por R), el tiempo propio de P fuese máximo?
Observemos que en este caso la pregunta está bien planteada porque estamos considerando la
evolución de ambos relojes entre los mismos eventos en el espacio-tiempo. Se podría pensar en
llevar a P a una gran altura para aumentar el efecto gravitacional, pero como el tiempo Дt está
acotado esto implicaría un viaje de ida y vuelta a muy alta velocidad para que el reencuentro de
los relojes se produzca cuando se cumpla este intervalo y este movimiento de R a tal velocidad
hará que marche más lentamente y podemos terminar con un tiempo propio inferior quizás a Дt.
De modo que debemos encontrar una solución de compromiso que maximice el tiempo propio
medido por R. Esta solución no es otra cosa que la geodésica que describirá R en el espacio
tiempo entre los eventos inicial y final (partida y reencuentro con P).
Para hallar la solución, recordemos que de acuerdo con la (5.24), el aumento de frecuencia de
origen gravitacional del reloj móvil R con respecto al reloj fijo P, es
donde no es la frecuencia de funcionamiento del reloj fijo P y H es la altura hasta la cual
llevamos al reloj R.
Además de esto, debemos tener en cuenta que habrá una corrección de signo opuesto debido
a la velocidad, dada por (5.12), es decir
siendo n la frecuencia de funcionamiento del reloj móvil R si sólo tuviésemos en cuenta el
efecto de la velocidad.
Considerando que razonablemente es n << c, la (5.45) resulta
por lo que la reducción en frecuencia de funcionamiento debido a este efecto, es
Por lo tanto, el efecto neto combinado sobre la frecuencia de funcionamiento del reloj móvil
R, será
La (5.48) nos dice que si medimos un tiempo dt con el reloj fijo, el reloj móvil medirá un
tiempo
de manera que lo que tenemos que maximizar es la integral ∫dt’ entre los eventos de partida y
reencuentro de los relojes. Teniendo en cuenta la (5.49), esto equivale a hacer máxima la integral
La (5.50) representa el tiempo en exceso sobre el medio por el reloj fijo donde el término gH
no es otra cosa que el potencial gravitacional φ. Supongamos que multiplicamos la (5.50) por el
factor constante –mc2 donde m es la masa del reloj móvil. El producto por una constante y
cambio de signo no modifican la condición de extremalización, que ahora podemos expresar como
La (5.51) es la forma habitual de expresar la extremalización de la integral implicando que
cualquier paso variado infinitesimalmente próximo debe arrojar el mismo valor (esta es
precisamente la condición de extremo). Obsérvese que el integrando de la (5.51) es la diferencia
entre la energía cinética del objeto y su energía potencial, es decir es el lagrangiano del sistema
reloj-campo gravitatorio por lo que hemos recuperado la formulación lagrangiana del problema
dinámico que nos hemos planteado en el espacio-tiempo.
Para encontrar la ecuación de la geodésica debemos entonces satisfacer la (5.51) para lo cual
utilizamos la correspondiente ecuación de Lagrange
donde el Lagrangiano L lo escribimos como
donde x es ahora la coordenada generalizada que corresponde a la altura instantánea del
objeto y mgx es su potencial gravitatorio. De modo que la (5.52) queda
Integrando esta expresión con respecto a t dos veces y teniendo en cuenta que para t = 0 es
resulta
La (5.53) es entonces la ecuación de una parábola en el espacio-tiempo que corresponde a la
geodésica de un objeto que es lanzado verticalmente hacia arriba con velocidad inicial vo .
V.11. Espacios “curvos”
Hemos visto que las geodésicas que describen los cuerpos en campos gravitatorios son
curvas. Podemos agregar que en tal caso no existe ninguna transformación de coordenadas que la
haga aparecer planas. Esta curvatura de las geodésicas no es otra cosa que la manifestación de la
“curvatura” del espacio. Si bien nuestra imaginación no nos permite visualizar un espacio
tridimensional curvo, y menos aún un espacio tiempo cuadri-dimensional, podemos entender el
concepto por analogía con una superficie bidimensional. Consideremos un plano, una esfera y un
cilindro. ¿Cuál de estas superficies es “curva”? Obviamente el plano no lo es. La esfera en
cambio, lo es de una manera esencial, ya que es imposible deformarla sobre un plano sin que se
estire o se rompa. El cilindro en cambio, puede ser simplemente desenrollado sobre un plano sin
que sufra distorsiones o roturas. Por lo tanto lo podemos considerar como una superficie
“plana”.
Estas conclusiones las podemos sacar fácilmente porque las superficies consideradas están
inmersas en el espacio tridimensional en el que nos hallamos como observadores. Fue sin
embargo uno de los grandes logros de Gauss en el siglo XIX demostrar que la curvatura de una
superficie puede ser determinada intrínsecamente, es decir por mediciones hechas localmente
sobre la superficie por seres imaginarios bidimensionales que la habiten. Efectivamente, estos
seres podrían verificar que en la superficie sobre la cual viven la suma de los ángulos interiores de
un triángulo construido por ejemplo mediante cuerdas tensadas entre tres puntos no alineados,
es siempre 180º y que se cumple digamos el teorema de Pitágoras. De este modo, sin abandonar
su mundo bidimensional, estos seres pueden verificar la geometría de ese mundo es euclidiana.
Con la perspectiva que nos da habitar un mundo tridimensional, sabemos que en este caso la
superficie bidimensional puede ser un plano o un cilindro, ya que en mediciones locales, la
diferencia es inexistente. En cambio, si los seres existiesen sobre la superficie de una esfera,
comprobarían que la suma de los ángulos interiores de un triángulo es siempre mayor que 180º y
que no se cumple el teorema de Pitágoras. La conclusión sería entonces que la geometría del
mundo bidimensional que habitan no es euclidiana.
Fig. 5.18. Círculo geodésico de radio a en una esfera de radio R.
Diremos en general, que un espacio en el que no se cumplen los teoremas de la geometría
euclidiana, es un espacio no euclidiano o curvo. Para definir con precisión la curvatura de una
superficie recurramos a otro resultado de la geometría plana: la longitud de una circunferencia de
radio a es 2pa. Ahora bien, para construir un círculo con centro en O y radio a en una superficie
arbitraria, podemos dibujar todas las geodésicas con origen en O y marcar los puntos que
corresponden a una distancia a de O. El lugar geométrico de estos puntos es la circunferencia
buscada. Hagamos esto sobre una esfera de radio R como se muestra en la fig. 5.18 y calculemos
la longitud de su circunferencia C. Ésta es
Desarrollando Sen(a/R) en serie de potencias, podemos escribir la (5.54) como
Definiendo ahora la curvatura K de la esfera como
Introduciendo la (5.56) en la (5.55) y resolviendo para K, nos queda
La (5.57) nos dice que podemos determinar la curvatura de una superficie sin “salir” de ella,
es decir simplemente midiendo la longitud de una circunferencia de radio a muy pequeño
(idealmente infinitesimal) y verificar en que medida este valor se aparta este valor de 2pa. Este
mismo procedimiento es válido para cualquier superficie en general para determinar su curvatura
en cada punto. Observemos que la curvatura puede ser negativa si C excede el valor 2pa, como
ocurriría en el caso de una superficie tipo “silla de montar” como la de la fig. 5.14b.
Las consideraciones anteriores nos permiten concluir que la curvatura en un punto de una
superficie bidimensional queda totalmente determinada por un único parámetro que es la
curvatura K. Cuando pasamos a espacios de dimensión superior a dos, nuestra imaginación nos
impide visualizar la curvatura pero es fácil de entender que esta ya no puede quedar definida por
un solo parámetro dado que por cada punto de un espacio tridimensional o en general de
dimensión n > 2 pasan infinitas superficies de dimensión n-1. Puede demostrarse que en tal caso
la curvatura del espacio queda caracterizada por un conjunto de n4 cantidades que son las
componentes de un tensor Rijkl de cuarto orden en el espacio de dimensión n. En un espacio
bidimensional, estas cantidades se reducen a un solo parámetro ya que de las 24 = 16
componentes del tensor curvatura, la simetría del mismo (Rijkl = Rklij ) establece 15 relaciones
entre las componentes del tensor, por lo que el número de componentes independientes se
reduce a 24 – 15 = 1 como se ha visto.
Las componentes del tensor Rijkl son una función del tensor métrico gij y de sus derivadas
primera y segunda respecto de las coordenadas xi . Sólo si el espacio en cuestión no exhibe
curvatura, es decir si es “chato”, el tensor métrico puede siempre reducirse a una forma diagonal
con componentes constantes, es decir independientes de la posición. Ahora bien, como se ha
visto, el espacio-tiempo se curva en presencia de campos gravitatorios. Según Einstein, es la
presencia de masas lo que produce la curvatura del espacio-tiempo y es esta curvatura lo que
interpretamos como campo gravitatorio ya que el movimiento por inercia de los cuerpos en
dicho campo gravitatorio se efectuará según geodésicas en ese espacio-tiempo.
Podemos recurrir a una analogía bidimensional para visualizar este efecto. La fig. 5.19
muestra cómo se deforma una membrana elástica sobre la que hemos colocado una masa y en la
que se han dibujado algunas posibles geodésicas.
La relación entre las masas y presentes y la curvatura del espacio-tiempo está dada por las
ecuaciones de campo de la relatividad general. Estas nos dicen que un cierto tensor que describe
la distribución de masas (que puede ser continua o discreta), es igual al tensor de curvatura en el
espacio-tiempo. La solución de estas ecuaciones permiten hallar el tensor métrico gij en
presencia de una cierta distribución de masas, dado que como hemos mencionado, el tensor
curvatura implica al tensor métrico y sus derivadas.
Fig. 5.19. Analogía de membrana elástica para la curvatura del espacio por masas.
Para ilustrar mejor la relación entre masas y curvatura consideremos el caso simple de un
espacio-tiempo en la vecindad de una masa M. El tiempo sufrirá una distorsión de origen
gravitacional como ya hemos visto y el espacio geométrico tridimensional se curvará. Ambos
efectos combinados darán origen al tensor métrico gij . Si sólo consideramos el efecto de
curvatura espacial empleando coordenadas esféricas r, q y f con origen O en la masa M, el área de
la esfera será 4pr2. El espacio será isotrópico alrededor de O dado que no hay direcciones
preferenciales de manera que todas las superficies geodésicas que pasan por O son equivalentes.
Esto significa que la curvatura del espacio está determinada por la curvatura intrínseca de
cualquiera de esas superficies. Esta simetría nos dice que la curvatura será sólo una función K(r)
de r dado que la curvatura variará con la distancia a M. Sabemos además que debe cumplirse que
en puntos infinitamente alejados de M, la curvatura debe reducirse a cero, es decir
Nos preguntamos ahora cuál es la forma más simple posible para K(r). Una posibilidad es
que sea proporcional a M y dado que tiene que anularse en el infinito, asumimos una ley
potencial, es decir K(r) proporcional a M y a r -n donde n es un parámetro a ser determinado.
Ahora bien, K tiene dimensiones [longitud]-2, lo que no ocurre para el producto M r –n . Sin
embargo, es una hipótesis razonable que la constante de gravitación universal G intervenga en la
expresión de K, así como probablemente también la velocidad de la luz en el vacío c. Esto nos
lleva a postular la expresión
donde q es una constante adimensional y l, m y n índices a ser determinados. Teniendo en
cuenta las dimensiones de K, la única posibilidad es que l, m y n valgan 1, -2 y 3
respectivamente, con lo que sólo queda establecer q. Si nos atenemos a la analogía de la
membrana elástica de la fig. 5.19, esta nos muestra una superficie con curvatura negativa lo que
sugeriría que el signo de q fuese negativo. Adoptando entonces q = -1, la (5.58) resulta
Por supuesto que podríamos haber postulado expresiones más complejas que la (5.59), pero
esta es la que surge rigurosamente de las ecuaciones de campo de Einstein. Obviamente la
elección de q ha sido un tanto arbitraria, pero podría haberse elegido más rigurosamente
imponiendo que las ecuaciones de la dinámica utilizando (5.59) sean correctas en el límite
newtoniano, es decir para c →g ∞.
Es ilustrativo e interesante ver a qué valores de curvatura del espacio nos conduce la (5.59)
cuando hacemos el cálculo para la superficie del sol y de la tierra. Esto es
respectivamente.
Nótese que los resultados anteriores se han dado en forma adimensional dividiendo K por
1/R2 . Es fácil verificar que estos valores de curvatura son muy inferiores a los valores de
curvatura de las esferas correspondientes al sol y a la tierra respectivamente. Debe enfatizarse
que la (5.59) corresponde al caso particular de curvatura en la vecindad de una masa estática
aislada. En otras situaciones, como ocurre en cosmología donde existen masas distribuidas y/o en
movimiento, la expresión (5.59) no es aplicable. La conexión entre el tensor métrico gij y la
distribución de masas completa la estructura conceptual de la relatividad general. Conociendo gij
las geodésicas pueden ser calculadas y el camino seguido por cuerpos o rayos de luz pueden ser
predichos y comparados con determinaciones experimentales que hasta ahora han confirmado
sistemáticamente a la relatividad de Einstein.
V.12. Causalidad y determinismo en la física relativista
Hemos visto que las líneas de universo de un fotón siempre se encuentran sobre el cono de
luz y ninguna partícula puede tener su línea de universo fuera del cono. De hecho, la relatividad
efectúa una afirmación más general aún, en el sentido que ninguna señal puede tener su línea de
universo fuera del cono de luz.
Fig. 5.20. Una señal superlumínica para el observador W aparece como viajando al pasado para el observador U.
Para analizar las consecuncias que tendría negar esa imposibilidad, consideremos que
existiese un dispositivo que permita enviar una señal a una velocidad algo superior a la de la luz
(88). Utilizando este dispositivo, el observador W de la Fig. 5.20 envía una señal desde un
evento A de su línea de vida hacia un evento distante B que yace un poco debajo de su cono de
luz (esto puede lograrlo porque hemos asumido que la señal viaja para este observador a mayor
velocidad que la de la luz). En la parte a de la figura hemos descripto este proceso desde el punto
de vista del observador W. En cambio, en la parte b de la misma figura lo hemos dibujado desde
la perspectiva de un observador U que se aleja rápidamente de W y para el cual el evento B
aparece habiendo ocurrido antes que el A, lo cual es posible porque los eventos A y B tienen una
separación spacelike para el observador U. (89) De modo que para este observador no puede
haber relación causal entre estos eventos por lo que pueden aparecerle en orden temporal
invertido respecto del observador W. Esto no carece en sí de significado ya que no introduce una
contradicción lógica, pero por simetría, desde el punto de vista de U, un tercer observador V que
se aleja de U en dirección opuesta a W como se muestra en la parte b de la fig. 5.20, equipado
con un dispositivo similar al de W, podría enviar una señal a mayor velocidad que la de la luz
desde su punto de vista, en la dirección de U. De hecho, V podría enviar esta señal hacia U en el
evento B donde recibe la señal emitida desde A por W. Esta señal sería recibida por W en el
evento C que, como en el caso de la señal emitida por W, es anterior, desde el punto de vista de
U, que el evento original de emisión B y por lo tanto anterior a A. M ás aún, el evento C es
anterior a A sobre la misma línea de universo de W. De este modo, el mensaje que el observador
V envía de regreso hacia W podría repetir el mensaje recibido de W y éste recibiría entonces el
mensaje ¡antes de haberlo enviado!
Lo anterior implica que de poderse enviar señales con información a mayor velocidad que la
de la luz, el Ppio. de Relatividad nos conduce a que sería posible conocer las consecuencias antes
que las causas y tomar acciones para evitar esas causas. Esto indudablemente entraña una
contradicción lógica que elimina la posibilidad de transmisión de información superlumínica.
El argumento anterior sólo emplea relatividad especial. En relatividad general es necesario
analizar siempre los sucesos en forma local donde las reglas de la relatividad especial continúan
siendo válidas. Ahora bien, recordemos que en el esquema newtoniano “determinismo” significa
que conocidas la condiciones iniciales (es decir en un instante particular) de un sistema de
partículas (específicamente la posición y la velocidad de cada una de ellas), el comportamiento
del sistema queda totalmente determinado para cualquier instante. En la concepción newtoniana,
aquello significaría conocer el estado del sistema en un corte temporal del espacio-tiempo, es
decir en el espacio en un dado instante. Sin embargo, en relatividad no hay un tiempo absoluto,
por lo que en este marco debemos considerar el espacio simultáneo en un instante para algún
observador. El problema es que en relatividad especial el espacio simultáneo sería el espacio
correspondiente a un instante de un dado evento en la línea de vida del observador y por lo
tanto, excepto el evento mismo, todos los otros eventos correspondientes al mismo instante son
inaccesibles para el observador en P como lo ilustra la fig. 5.21a.
Afortunadamente sin embargo, en relatividad, debido a la finitud de la velocidad de la luz,
todo lo que necesitamos para efectuar la predicción de la evolución futura de un sistema desde P
es la información sobre una región acotada S’ del pasado de P que contiene los eventos que
pueden influir causalmente sobre P como lo sugiere la fig. 5.21a.
Fig. 5.21. Espacio simultáneo en el evento P y superficie spacelike para un espacio-tiempo curvo.
En la mecánica newtoniana, las acciones se transmiten con velocidad infinita (acción a
distancia), por lo que en esta concepción sería necesario conocer el total de los eventos en el
espacio simultáneo en P ya que todo evento de dicho espacio simultáneo podría actuar
causalmente sobre el futuro de P.
La idea de “determinismo” es bastante más complicada en relatividad general que en
relatividad especial. En relatividad general, el espacio simultáneo no queda bien definido pero se
puede recurrir a la idea de superficie spacelike que como lo sugiere la fig. 5.21b, es la superficie
en el espacio-tiempo que yace totalmente fuera de los conos en cada uno de sus puntos, de modo
que localmente resulta un espacio simultáneo. De manera que las ecuaciones de campo de la
relatividad general resultan deterministas sólo “localmente” en campos gravitatorios. Aquí nos
estamos introduciendo en problemas técnicos y filosóficos aún no resueltos por lo que
interrumpiremos en este punto nuestro análisis.
V.13. ¿Es posible conocer la geometría del mundo?
La geometría euclidiana deriva todos sus teoremas a partir de un número muy limitado de
axiomas que se consideran verdaderos sin demostración ya que constituyen, según se alega,
verdades autoevidentes. En este sentido, un kantiano podría decir que son ejemplos de juicios
sintéticos a priori. Poco se gana con un sistema de axiomas a menos que éstos sean simples y
poco numerosos. Además, el sistema debe ser consistente, en el sentido que no puede haber dos
teoremas derivados del sistema de axiomas que sean mutuamente contradictorios, y completo, de
modo que todo teorema del sistema sea deducible de los postulados. Por siglos la geometría ha
sido el arquetipo de una disciplina axiomática. Sin embargo, no hace mucho se ha hecho evidente
que el sistema de postulados de Euclides no es completo y que es necesario modificarlo y
completarlo si toda la geometría elemental va a ser deducible del aquél. En este sentido, el gran
matemático alemán Hilbert publico en 1901 su obra Grundlagen der Geometrie en la cual dio un
sistema de axiomas satisfactorio para la geometría y efectuó un estudio exhaustivo de su
interdependencia, consistencia y completitud (90).
Por razones de economía, es deseable que los postulados sean independientes, es decir que
un postulado no sea derivable de los demás. Precisamente, durante mucho tiempo se consideró
que el 5º axioma, el llamado postulado de las paralelas, no era una proposición independiente
sino que podría derivarse de los demás axiomas. La forma en que esto se intentó demostrar fue
negando su validez y viendo si esta negación conducía a una proposición inconsistente con los
otros postulados, lo que constituiría una reductio ad absurdum que probaría que el 5º postulado
es consecuencia lógica de los otros.
El postulado en cuestión afirma que por un punto exterior a una recta, pasa una y sólo una
recta paralela a la primera. El jesuita Girolamo Saccheri (1667-1733) y más tarde Johann
Heinrich Lambert (1728-1777), trataron en el siglo XVIII de probar el postulado de las paralelas
por reducción al absurdo y llegaron, efectivamente, a resultados que violentaban la geometría
euclidiana y el sentido común por lo que concluyeron que el 5º postulado era independiente de
los demás. Tengamos en cuenta que en esa época Kant, el más influyente de los filósofos,
manifestaba que los postulados de Euclides constituían ideas inherentes a la mente humana y que
por lo tanto tenían validez objetiva para el espacio “real”. No obstante, siempre persistió la
sospecha que el postulado de las paralelas era de una naturaleza distinta a la de los otros
postulados. En parte, esto se justifica porque a diferencia de los demás postulados que tienen un
carácter finito y pueden ser empíricamente verificados mediante segmentos de recta y figura
planas de extensión finita, el 5º postulado se refiere a rectas que se extienden indefinidamente en
ambas direcciones y por lo tanto hacen su comprobación empírica imposible. De no haber estado
tan influidos por estas ideas de su época y de haber aceptado sus conclusiones como auténticos
teoremas de geometría no-euclidiana, Saccheri y Lambert serían hoy recordados como los
descubridores de esa nueva geometría.
Fue el matemático húngaro Bolyai (1802-1860) y el matemático ruso Lobachevski (1793-
1856) quienes zanjaron definitivamente la cuestión construyendo en todo detalle una geometría
consistente en la que el axioma de las paralelas no se cumple. Esto demostró que ese axioma es
independiente y fue más tarde Felix Klein quien elaboró un cuerpo totalmente consistente de
proposiciones geométricas en el cual el postulado de las paralelas no es válido sino que por un
punto exterior a una recta pasa una infinitud de rectas dando origen a lo que hoy se conoce como
“geometría hiperbólica”.
En este modelo de geometría hiperbólica el “plano” es el interior de un círculo. Los puntos
exteriores al círculo no forman parte del plano. El concepto de punto en el interior del círculo es
idéntico al euclidiano. Las “rectas” en el modelo hiperbólico quedan representadas por sectores
circulares euclidianos que interceptan ortogonalmente al círculo como se muestra en la fig. 5.22.
Fig. 5.22. Distancia hiperbólica en representación conforme y ángulos interiores de un triángulo.
El ángulo entre dos “rectas” hiperbólicas es el mismo que en la concepción euclidiana. Una
representación de este tipo se denomina conforme. (91) A diferencia de lo que ocurre en la
geometría euclidiana, la suma de los ángulos interiores de un triángulo hiperbólico es inferior a p.
Sin embargo, se cumple una notable relación entre la diferencia entre p y la suma de los ángulos
interiores con el área del triángulo. Esta relación, debida a Lambert, es
donde D es el área del triángulo y C una constante que depende de la unidades utilizadas
para medir distancias y áreas. La (5.60) es una relación notable ya que no existe en geometría
euclidiana una expresión que permita calcular el área de un triángulo en términos de sus ángulos.
En la representación conforme de la geometría hiperbólica la “distancia” entre dos puntos A
y B sobre una “recta”, fig. 5.22, se define
donde las longitudes de los segmentos circulares es la euclidiana ordinaria.
Con estas definiciones, la geometría hiperbólica posee todas las propiedades de la geometría
euclidiana excepto aquellas que requieren para su validez el postulado de las paralelas, que como
es obvio no se cumple dado que por un punto exterior a una “recta” hiperbólica podemos trazar
infinitas “rectas” que no cortan a la primera. Quizás la expresión artística más lograda de objetos
en geometría hiperbólica en representación conforme, sea la obra del artista holandés M .C.
Escher Circle Limit I, que se reproduce en la fig. 5.23.
En la fig. 5.23, Escher ha utilizado una representación en geometría hiperbólica en la cual el
universo entero del plano hiperbólico está comprimido en el interior de un círculo euclideo
ordinario. El límite del círculo representa efectivamente el “infinito” en esta representación
conforme ya que la “distancia” desde un punto cualquiera del interior del círculo a su borde se
hace infinita según la (5.61). Vemos que en el grabado de Escher los peces se van agrupando en
forma más compacta y se hacen más pequeños a medida que se acercan al borde del círculo, pero
esto es sólo una ilusión creada por el artista ya que desde el punto de vista de cada pez, su
entorno siempre sería el mismo. Esto ocurre porque la noción de distancia en la geometría
hiperbólica no es la misma que en el plano euclidiano en el cual estamos representando aquella
geometría.
Fig. 5.23. Grabado Circle Limit I de Escher
En otras palabras, aunque desde nuestra perspectiva, los peces parecen estar cada vez más
cerca uno de otro, desde su perspectiva en su plano hiperbólico, el borde del círculo siempre se
presenta infinitamente lejano. Ni el borde del círculo ni el espacio euclideo fuera del mismo
tienen existencia para los peces. Su universo entero yace estrictamente dentro del círculo. Es por
lo tanto importante entender que lo que hemos que hemos hecho hasta aquí es un modelo
euclidiano de la geometría hiperbólica bidimensional que no debe tomarse como lo que esta
geometría realmente es. Utilizando una expresión de Roger Penrose (92), la geometría hiperbólica
tiene su propia “existencia platónica” como la tiene la geometría euclidiana. El modelo utilizado
nos permite reproducir en un círculo euclidiano las propiedades geométricas de la verdadera
superficie hiperbólica, pero hasta ahí llega la analogía. Un ser del mundo bidimensional
hiperbólico, como los peces de Escher, habitaría una superficie para él ilimitada, en la que
mediciones hechas sobre la misma mostrarían que la suma de los ángulos interiores de un
triángulo es siempre inferior a p y que por un punto exterior a una recta pasa una infinitud de
rectas, además de ser falsas todas aquellas proposiciones que dependan de la validez del 5º
postulado.
Si bien hemos analizado la geometría hiperbólica en dos dimensiones, la misma se adapta
perfectamente a espacios de mayores dimensiones. Para el caso tridimensional, el círculo
hiperbólico se transforma en una esfera hiperbólica en la que cualquier punto interior a la esfera
está infinitamente alejado de los puntos de las superficie de la esfera. En este modelo
tridimensional, el espacio hiperbólico está representado por la esfera euclídea como en nuestro
modelo bidimensional, el espacio hiperbólico queda representado por el círculo euclídeo. El resto
de la geometría es como en el caso bidimensional. Las rectas hiperbólicas en el espacio
tridimensional están representadas en el modelo de esfera euclídea por sectores circulares que
interceptan a la superficie ortogonalmente y las distancias se estiman como en el modelo
bidimensional.
La pregunta pertinente ahora es: ¿Cuál es la geometría del universo? La relatividad general
nos dice que en un espacio homogéneo (todos sus puntos son equivalentes) e isotrópo (todas las
direcciones son equivalentes) en gran escala, (93) el espacio-tiempo posee una métrica
pseudoeuclidiana y una métrica euclidiana para el espacio ordinario tridimensional. Las
determinaciones experimentales efectuadas hasta ahora por los cosmólogos parecen validar esta
posición hasta un grado muy alto de exactitud. Sin embargo, hay básicamente tres tipos de
geometría que son perfectamente compatibles con un espacio homogéneo e isótropo. Esta son la
euclidiana, la hiperbólica y la elíptica. La euclidiana es la que nos resulta familiar, la hiperbólica
es la que hemos analizado más arriba, pero no hemos mencionado la elíptica. Esencialmente, la
geometría elíptica bidimensional es la satisfecha por figuras dibujadas en la superficie de una
esfera habiendo también versiones de geometría elíptica tridimensional. En la geometría elíptica
bidimensional las “rectas” son los círculos máximos sobre la esfera y la distancia entre dos
puntos está definida por el menor sector de círculo máximo que contiene esos puntos. Es fácil
ver que en esta geometría, por un punto exterior a una recta no pasa ninguna paralela a dicha
recta, ya que dos círculos máximos sobre la esfera siempre se interceptan.
Pero las observaciones en gran escala hechas hasta ahora por los cosmólogos parecen señalar
a las dos primeras geometrías como candidatos más firmes para nuestro universo. La diferencia
nos es, sin embargo, menor. Un espacio euclidiano es un espacio “chato” es decir sin curvatura
(en gran escala) que se extiende indefinidamente en todas direcciones y es por lo tanto infinito.
En cambio, un espacio hiperbólico es un espacio curvo y aunque ilimitado, finito.
En relación a la curvatura del espacio bidimensional hiperbólico, recordemos la fórmula
(5.60) de Lambert. Esta resulta muy similar a la fórmula deducida en 1603 por Thomas Hariot
(1560-1621) para el área D de un triángulo esférico construido sobre la superficie de una esfera
de radio R utilizando sólo círculos máximos. Esta fórmula es
Para recuperar la (5.60) a partir de la (5.62), debemos hacer
de modo que para imponer un valor positivo a C tendríamos que hacer que R2 fuese
negativo, lo que se logra sólo considerando un radio imaginario para la esfera, de modo que su
cuadrado sea negativo. De esta forma, el radio R está dado por la cantidad imaginaria (-C)-1/2 . Por
esta razón, a la cantidad real C-1/2 suele denominársela pseudo-radio de la superficie hiperbólica
(94). Ahora bien, como ya hemos visto, la curvatura de una esfera se define según (5.56) como K
= 1/R2, por lo que surge que la superficie hiperbólica tiene curvatura constante negativa, es decir
en cada punto la superficie posee localmente la forma de “silla de montar” que vimos en la fig.
5.14b.
La cuestión de la finitud o infinitud del universo es uno de los problemas más viejos en
filosofía. Es frecuente la creencia de que éste se ha resuelto a favor de la primera posición. Esta
creencia se basa en una interpretación incorrecta de las consecuencias de la teoría de la
relatividad. En efecto, de acuerdo con ésta, la curvatura del espacio puede ser cero, positiva o
negativa dependiendo de la distribución de masa y energía. Para determinar cuál de estas
curvaturas corresponde a nuestro universo los astrónomos han efectuado mediciones de la
densidad de materia y energía en el cosmos, y todo parece sugerir que esta densidad nos sería
suficiente para cerrar el universo sobre si mismo, es decir para sea una híperesfera con curvatura
positiva o un universo hiperbólico cerrado con curvatura negativa. De manera que el espacio
debería exhibir o bien una cuasi geometría euclídea o bien una geometría hiperbólica, pero no
cerradas sobre sí mismas de modo que el espacio se extendería infinitamente. Sin embargo, a
pesar de estas observaciones, podría ocurrir que el universo sea “esférico” pero con una
curvatura tan pequeña que parece “chato” en la escala observacional actual (95). Es de esperar
que futuras observaciones astronómicas puedan finalmente zanjar la cuestión.
M uchos cosmólogos suscriben a la idea de un universo finito. Esta idea puede estar
impulsada por un confort psicológico.La mente humana siempre ha lidiado más fácilmente con la
idea de finitud que con la de infinitud. Pero hay razones más técnicas. Una de ellas tiene que ver
con el origen de la inercia que según M ach tiene que ver con la distribución de masas en el
universo. De ser esto correcto, se podría concluir que en un universo infinito, con infinita
cantidad de materia, la inercia de los cuerpos sería también infinita y por lo tanto éstos quedarían
siempre inmóviles ya que haría falta una fuerza infinita para acelerarlos. Otro argumento es que
de ser el universo infinito, el contenido de masa-energía también lo sería, de modo que una
fluctuación cuántica sería incapaz de proveer esa energía y la probabilidad de creación del
universo sería entonces nula
Tratemos ahora de analizar las posibles respuestas a la pregunta ¿es posible conocer la
geometría real del universo en gran escala? Se trata de un interrogante con profundas
connotaciones físicas y filosóficas de modo que comenzaremos el análisis recordando el
concepto de “conocimiento”. Como ya hemos visto, la concepción platónica nos decía que para
que un enunciado exprese conocimiento, debe poseer tres atributos: creencia, verdad y prueba.
La concepción moderna de conocimiento no exige una relación tan rígida entre verdad y prueba,
ya que podemos creer provisoriamente en una teoría que no ha sido completamente verificada,
pero que guarda con los hechos observables una adecuada relación o correspondencia. Sin
embargo, la creencia es un atributo ineludible del conocimiento. No podemos decir conocer algo
en lo que no creemos. De manera que el conocimiento implica creer que algo que tiene una
razonable probabilidad de ser verdad. Se puede creer en los hombrecitos verdes de M arte, pero
esto no es conocimiento ya que la probabilidad de que verdaderamente existan, a la luz de la
evidencia actual, es extremadamente baja.
De modo que conocer la geometría del mundo implica por un lado creer que esa geometría es
la correcta, pero además que sea probable que efectivamente así sea. Esto implicaría que los
empiristas están en la postura correcta cuando afirman que son las observaciones empíricas lo
que determinará el valor de verdad de una hipótesis, en este caso sobre la geometría de nuestro
mundo. El primer problema que se nos plantea con este punto, es que hay argumentos que
afirman que la geometría real del universo es incognoscible y que decidirse por una u otra
alternativa es esencialmente un problema de opción entre distintos modelos. El argumento más
conocido que niega la posibilidad de conocer la geometría real del mundo es el de Henri Poincaré.
Imaginemos un mundo consistente en un disco plano en el que habitan seres inteligentes
bidimensionales que tratan de determinar la geometría de su universo reglas rígidas. Lo que ellos
ignoran es que esas reglas rígidas cambian su longitud linealmente con la temperatura siendo la
distribución de temperaturas en el disco tal que en su borde la barras tienen longitud nula. (96)
Con una adecuada distribución de temperaturas en el disco desde el centro hasta el borde, los
habitantes del disco concluyen que viven en un mundo de geometría hiperbólica de curvatura
negativa (comparar con el grabado de Escher ya visto). Si en lugar de utilizar reglas rígidas
decidieran emplear haces de luz para determinar la geometría, podrían ser engañados poniendo un
medio con un índice de refracción variable que curvara las trayectorias luminosas de modo que
llegasen al mismo resultado que con las reglas. Llegarían entonces a la conclusión que viven en un
mundo de curvatura negativa cuando en realidad lo hacen en un mundo plano euclidiano.
Se podría entonces concebir que una situación análoga ocurre en el mundo tridimensional y la
posición de Poincaré es que ninguna evidencia experimental puede determinar con certeza cual es
la hipótesis correcta. De modo que según esta concepción, la decisión sobre cual es la geometría
del mundo, es una cuestión de elección. En la base del argumento de Poincaré está la convicción
que hay hechos de la naturaleza que no pueden conocerse por observación o experimentación
“directa” sino sólo por inferencia. Esta inmunidad de los hechos geométricos a la observación
directa es lo que habilitaría teorías alternativas. Si bien hay quienes niegan que puedan existir
hechos de la naturaleza inmunes a la observación directa, lo cierto es que la física contemporánea
está poblada de tales hechos. Ya hemos visto que en relatividad por ejemplo, la simultaneidad
debe ser determinada por medio de haces de luz, señales causales de algún tipo o relojes móviles.
Del mismo modo, no es la gravedad en si lo que observamos directamente sino sus efectos sobre
reglas, relojes, partículas materiales y haces luminosos. Por otra parte, ¿cómo sabemos que
relojes estándar y reglas rígidas son indicadores adecuados de intervalos temporales y espaciales?
De modo que siempre terminamos haciendo algunas suposiciones que trascienden la experiencia
directa.
M ás allá que las ideas de Poincaré implicarían una verdadera “conspiración” de la naturaleza
para engañarnos, aquella argumentación no puede ignorarse ligeramente. ¿Cuál sería entonces,
frente a esta argumentación, la posición del realista? Por lo pronto, Poincaré no niega la
existencia de una realidad, sino que afirma que hay porciones de la realidad que escapan a la
observación o experimentación directa entre las que se encontraría la geometría del mundo. Desde
la posición positivista, el contenido de una teoría se agota en sus consecuencias observacionales,
de manera que dos o más teorías que interpreten los mismos datos empíricos son en última
instancia, equivalentes. Esta posición no es por supuesto compartida por todos los realistas. Los
no positivistas no aceptan que porque dos teorías conducen a las mismas consecuencias
observacionales, ambas sean necesariamente equivalentes. Dos teorías de idénticas consecuencias
observacionales pero de distinta estructura teórica deben, según estos realistas, considerarse
diferentes. Recordemos que en particular para el realismo científico una teoría que se ajusta a los
datos debe tener “alguna verdad” en ella, entendiendo por tal la representación de algún aspecto
fundamental de la naturaleza.
De modo que el problema a resolver por el realista es cómo se hace la elección entre dos
teorías que guardan correspondencia con los hechos empíricos u observacionales y en esta
decisión pueden intervenir aspectos que tienen que ver con la simplicidad, la estética y por
supuesto con la correspondencia con hechos relacionados con otras teorías.
71 . P or esta razón, el físico argentino Mario Castagnino, denomina tiempo ALM (Aristóteles, Leibnitz, Mach) al
concebido de este modo, y tiempo NT (Newton), al concebido como ente primitivo o absoluto.
M.Castagnino, J.J.Sanguineti “ Tiempo y Universo: Una visión filosófica y científica” Ed. Catálogos, Buenos Aires,
2006.
72 . P or supuesto, lo que estamos haciendo es interpretar las ideas aristotélicas desde nuestra propia perspectiva, sin
pretender que esta interpretación refleje lo que el propio Aristóteles concebía.
73 . P or supuesto podemos seguir construyendo sucesivas “ jerarquías” de observadores, ya que el sol a su vez se
desplaza en la Vía Láctea y la propia galaxia se desplaza dentro del grupo local y así sucesivamente.
74 . R.P enrose, “ The Road to Reality: A complete guide to the laws of the universe” Alfred A. Knopf, N.Y, 2005.
75 . L.Sklar “ Philosophy of Physics” Oxford University P ress, 1992.
76 . “ Mach´s Principle: From Newton bucket to Quantum Gravity” J.Barbour, H.P fister Editores., Einstein Studies, Vol
6., Birkhäuser, 1995.
77 . M.V.Berry, “ Principles of Cosmology and Gravitation” Adam Hilger, 1989.
W.Rindler, “ Essential Relativity” Springer-Verlag, 1977.
78 . En este diagrama y en los que utilizaremos más adelante, limitaremos a solo una las dimensiones espaciales (en este
caso la recta representada por el eje x). Hacemos esto para poder representar el espacio-tiempo en un gráfico bidimensional,
pero debemos tener en cuenta que en realidad las dimensiones espaciales son, como siempre, 3.
79 . Dado que en nuestras descripciones gráficas estamos considerando sólo una dimensión espacial, en este caso
simplemente sería DS2 = c2t2 - x2.
80 . Utilizamos las expresiones inglesas por no haber hallado una expresión equivalente satisfactoria en español.
81 . En rigor, también deberíamos diferenciar entre masa gravitacional activa y masa gravitacional pasiva. La primera es la
que produce el campo gravitatorio y la segunda es la que es sujeto de la acción de dicho campo. Sin embargo, es fácil
demostrar, a partir de la 3ª ley de Newton, que ambas son idénticas por lo que ignoraremos esta diferenciación.
82 . El requerimiento que el laboratorio sea “ local” implica que el laboratorio debe tener dimensiones lo suficientemente
pequeñas para permitir ignorar los llamados “ efectos de marea” (“ tidal effects”) que ocurrirían si el campo gravitatorio no
fuese estrictamente uniforme.
83 . Esto es lo contrario de los que ocurre en un espacio euclidiano con métrica Dx2 +Dy2 +Dz2 en el cual una geodésica
corresponde al camino mínimo entre dos puntos del espacio, es decir a una segmento de recta. En el caso de una superficie
esférica, y por lo tanto de métrica no-euclidiana, las geodésicas también corresponden a un camino mínimo entre puntos y
corresponden por lo tanto a arcos de círculos máximos.
84 . Hasta aquí hemos considerado sólo línea de universo rectas que son las que corresponden al movimiento de
partículas libres. P ero lo expresado es válido en general para partículas con movimiento acelerado cuyas líneas de
universo exhiben curvatura.
85 . También hay una razón técnica para escribir m y n como subíndices en gmn y como
supraíndices en xm y en xn, pero no entraremos en esta cuestión.
86 . Usamos el término “ variedad” como sinónimo de espacio n-dimensional.
87 . R.P.Feynman, R.B.Leighton, M.Sands “ Lectures on Physics” Vol.II, Addison Wesley P ublishing Co., Reading, Mass.,
1964.
88 . R.P enrose, “ The Emperor’s New Mind: Concerning computers, minds and the laws of physics” Oxford University
P ress, 1989.
89 . Dado que para este observador es c2Dt2 < Dx2 + Dy2 + Dz2, donde Dt es el tiempo tarda la señal luminosa en ir de A
a B y (Dx2 + Dy2 + Dz2)1/2 es la distancia entre los eventos A y B vistos desde U.
90 . R.Courant, H.Robbins, “ W hat is Mathematics? Oxford University P ress, 1978.
91 . Ésta es sólo una forma de representación de la geometría hiperbólica. Otra forma utilizada a veces es la representación
proyectiva.
92 . R.P enrose, “ The Road to Reality: A complete guide to the laws of the universe” Alfred A. Knopf, N.Y, 2005.
93 . Nos referimos al espacio en gran escala de modo que las perturbaciones que produce la presencia de masas se
promedien y no conspiren contra la homogeneidad e isotropía como ocurriría tomando regiones más limitadas del
universo.
94 . T.Needham “ Visual Complex Analysis” Oxford University P ress, U.K., 1998.
95 . J.P.Luminet, G.D.Starkman, J.R.Weeks “ Is Space Finite?” Scientific American, April 1999.
96 . Basta por ejemplo considerar una variación de temperatura dada por T(R2-r2), donde T es una constante, R es el radio
del disco y r un radio genérico. De este modo, la temperatura en el centro del disco es TR2 y cero sobre el borde.
VI.
ACCIÓN A DISTANCIA Y LOCALIDAD ESPACIO-
TEMPORAL
VI.1. ¿Qué es la espacio-temporalidad local?
La primera pregunta que puede surgir cuando analizamos las relaciones causales entre
eventos es: ¿Puede haber una diferencia temporal o espacial entre un efecto y su causa? Ésta es
una pregunta cuya respuesta implica varias consideraciones previas. En primer lugar, para hablar
de una diferencia temporal y espacial entre efecto y su causa, es necesario que cada uno ocurra
en un momento dado y en un lugar determinado. Analicemos si esto es siempre efectivamente
así. Consideremos el caso de una piedra que arrojada a una ventana provoca su rotura. Es
evidente que la rotura de la ventana se inicia en el instante en que la piedra, habiendo tomado
contacto físico con el vidrio de la ventana, lleva la deformación local de éste hasta su límite de
rotura. En este caso tenemos un instante y un lugar perfectamente determinado para que la causa
(la piedra que toma contacto físico con la ventana) detone el proceso de rotura del vidrio.
Podemos en este caso afirmar que el evento causa se produce en correspondencia (temporal y
espacial) con el evento inicio de la rotura. Lo mismo puede afirmarse del desarrollo del resto del
proceso de rotura. La onda elástica que se origina con el primer contacto de la piedra con la
ventana se propagará a través del vidrio de la misma y de esa manera la rotura progresará en
correspondencia con ese frente de onda de choque, de modo que en cada instante, la causa
(deformación local del vidrio) es correspondiente espacial y temporalmente con el efecto (rotura
del vidrio). Observemos que en nuestra percepción cotidiana, posiblemente la causa para
nosotros sería la persona que arrojó la piedra. Sin embargo, si bien ésta es una causa relevante, es
una causa mediata, ya que hay todo un encadenamiento de eventos desde el momento en que la
persona arroja la piedra hasta la rotura de la ventana.
Hay sin embargo situaciones en las cuales la vinculación entre causa y efecto no es tan clara.
Tomemos por ejemplo el caso de una “corrida” bancaria. Una corrida bancaria se produce cuando
una cantidad muy grande de ahorristas decide retirar en forma más o menos simultánea sus
ahorros de los bancos. Generalmente, la corrida bancaria se detona luego de un período en el cual
por distintas razones, el público comienza a perder confianza en los bancos como custodios de
sus ahorros. Por razones que son muy complejas de analizar, la comunidad actúa en estos casos
en forma concertada como una suerte de organismo que en determinado momento decide retirar
sus ahorros con el consiguiente problema de liquidez que esto implica para las instituciones
bancarias. Es evidente que frente a esta situación, identificar la localización temporal y espacial
de la causa es imposible y hasta cierto punto carece de sentido porque el efecto, es decir la
corrida bancaria no es en sí un evento localizado en un instante y lugar determinado sino que está
constituido por una multitud de eventos particulares (cada persona retirando sus ahorros) que se
producen en una extensión dada del tiempo y del espacio. Sin embargo, si analizamos el
fenómeno en detalle, vemos que cada operación de retiro de fondos es en sí un evento que es
consecuencia de la decisión tomada por el ahorrista individual en determinado momento que
ciertamente no coincide en general con el instante en que se materializa el retiro de los fondos.
Esto nos muestra claramente que cuando nos estamos refiriendo a procesos mentales que derivan
en acciones físicas, la causa no es fácilmente localizable ni en el tiempo ni en el espacio. Sin
embargo, si aceptamos que los procesos mentales son procesos físicos y que como tales
obedecen las leyes de la física (algo que como veremos más adelante, no constituye una opinión
unánime), debemos aceptar que el encadenamiento de procesos mentales y las acciones físicas
que culminan en la de retiro de fondos, constituye también una cadena causal en la cual las causas
son correspondientes espacial y temporalmente con los efectos.
Una pregunta que surge es si un efecto tiene siempre una única causa o es consecuencia de
una conjunción de causas. Es obvio que para que ocurra un evento efecto es necesario en general
un conjunto de condiciones que tienen que estar presentes como un evento en correspondencia
con el efecto. Por ejemplo, para que una madera se prenda fuego requiere que su temperatura en
un dado lugar e instante alcance un dado valor, que se encuentre seca en ese lugar y en ese
instante, etc. Nada impide considerar al conjunto de eventos como “la” causa del efecto, pero
para precisar el concepto, nos referiremos a un conjunto completo de eventos-condición como el
conjunto de eventos necesario y suficiente para producir el efecto. Es importante destacar que
cada uno de los eventos-condición es necesario para producir el efecto, pero sólo el conjunto
completo de eventos condición es suficiente para dicho efecto. Además, aceptaremos que el
conjunto completo de eventos-condición constituye la causa directa del efecto y no una causa
indirecta o mediata.
La espacio-temporalidad local se refiere entonces a la correspondencia espacial y temporal
que existe entre el evento causa y el evento efecto en el mundo físico. Hasta aquí hemos hablado
de una relación de correspondencia espacial y temporal sin definir con precisión que entendemos
por tal relación. Obsérvese que no hemos empleado el término “coincidencia” entre eventos
causa y efecto porque la relación causal entre ambos sugiere que el evento causa se produzca
infinitamente próximo tanto en el tiempo como en el espacio al evento efecto pero no
coincidente, donde le estamos dando al término “evento” el significado con que lo hemos
utilizado en la teoría de la relatividad, es decir un suceso que puede ser considerado como un
punto del espacio-tiempo. Por lo tanto, introduciremos las siguientes definiciones de localidad
espacial, temporal y espacio-temporal (97).
Localidad temporal: Para cualquier evento E y para un intervalo temporal
> 0 arbitrariamente corto, hay un conjunto completo de eventos-condición de E tal que para
cada evento condición C en este conjunto, hay un instante en el cual ocurre que está separado
por un intervalo no mayor que t del momento en que E ocurre.
Con esta definición, cada uno de los eventos-condición de un efecto se encuentra
arbitrariamente próximo temporalmente al efecto. En otras palabras, para un evento efecto E y
para un intervalo temporal
arbitrariamente breve, hay un conjunto completo de eventos-condición de E que se producen
con una separación temporal no mayor que t del instante en que tiene lugar E.
En forma análoga, definimos la localidad espacial como:
Localidad espacial: Para cualquier evento E y para un intervalo espacial
> 0 arbitrariamente pequeño, hay un conjunto completo de eventos-condición de E tal que para
cada evento condición C en este conjunto, hay un lugar en el cual ocurre que está separado por
una distancia no mayor que del lugar en que E ocurre.
Por último, definimos la localidad espacio-temporal, como:
Localidad espacio-temporal: Para cualquier evento E y para un intervalo temporal
> 0 arbitrariamente corto y para un intervalo espacial > 0 arbitrariamente pequeño, hay un
conjunto completo de eventos-condición de E tal que para cada evento condición C en este
conjunto, hay un lugar y un instante en el cual C ocurre que está separado por una distancia no
mayor que y por un intervalo no mayor que del lugar e instante en que E ocurre.
De manera que la localidad espacio-temporal requiere que se cumplan la localidad espacial y
la localidad temporal. Sin embargo, podemos referirnos a ejemplos en los que sólo se cumple una
de ellas. Efectivamente, en la concepción newtoniana de la mecánica las interacciones
gravitatorias se transmiten a distancia en forma instantánea. De este modo, si hipotéticamente se
produjese la repentina creación de un cuerpo estelar con una cierta masa a una distancia de 100
años luz de la tierra, ésta debería sentir instantáneamente el correspondiente efecto gravitatorio
con lo que tendríamos que se cumple la localidad temporal pero estaríamos frente a una clara
violación de la localidad espacial. Si ahora interpretamos el mismo fenómeno pero aceptando, en
línea con la teoría de la relatividad que la velocidad de propagación de la información de la
creación de la masa estelar no puede ser superior a la de la luz en el vacío y si consideráramos
que no hay fenómenos físicos en el espacio interestelar que puedan considerarse eventos
causalmente relevantes a la interacción gravitacional entre la estrella y la tierra, tendríamos que
un evento que se produjo a una distancia de 100 años luz de la tierra hace 100 años está
causando un evento “ahora” en la tierra. En tal caso no sólo tendríamos violación de la localidad
espacial sino también de la localidad temporal.
Por supuesto que en el caso descripto en el último ejemplo, la relatividad general nos enseña
que de crearse súbitamente una masa estelar, esto generaría una onda gravitacional que se
propagaría a velocidad finita en todas direcciones creando un campo gravitacional a su paso. De
manera que si aceptamos la existencia real de campos de fuerza, es la interacción local de este
campo con la tierra lo que produce el efecto gravitatorio sobre ésta, con lo que rescatamos tanto
la localidad espacial como la temporal en la relación causa-efecto.
VI.2. Relevancia causal y relaciones no causales
La teoría de la relatividad nos enseña que cuando dos eventos tienen separación spacelike no
puede existir una relación causal entre ambos dado que sólo podrían estar vinculados mediante
una señal que viajase a mayor velocidad que la de la luz, lo cual está prohibido en el marco de
aquella teoría. En términos de espacio-temporalidad local, lo que esto implica es que si un evento
A tiene separación spacelike con un evento B, el evento causa de B (este evento existe ya que
asumimos que B se produce) no puede tener relación alguna con el evento A.
Por el contrario, todo par de eventos con separación timelike podrían estar vinculados
causalmente y por esta razón su ordenamiento temporal es necesariamente el mismo para todos
los observadores, lo que significa que si los eventos A y B tienen separación timelike, el evento
causa de B puede tener relación (a través de una cadena causal de eventos) con el evento A. Hasta
qué punto la posibilidad debe considerarse una necesidad no tiene una respuesta inequívoca.
Pensemos por ejemplo el caso en que una persona jugando a la ruleta en el casino de M ontecarlo
toma la decisión de apostar al color rojo. Otro jugador, en un casino de Las Vegas, a unos miles de
kilómetros del anterior toma la decisión 5 minutos más tarde de apostar al color negro.
Obviamente ambos eventos tiene separación timelike ya que hay tiempo más que suficiente para
que una señal luminosa que parte del primer apostador cuando efectúa su apuesta, llegue al
segundo apostador para cuando hace la suya. ¿Puede en este caso decirse que ambos eventos
están vinculados causalmente? El sentido común nos dice que a menos que ambos apostadores
estuviesen en contacto por algún medio y acordaran entre ellos como hacer sus apuestas, no hay
relación causal entre sus acciones. Pero no es imposible concebir que la acción del primer
apostador detonase una cadena de eventos que sutilmente influenciara al segundo en el momento
de hacer su apuesta. De manera que no es fácil en todos los casos determinar cuándo un evento
tiene relevancia causal sobre otro con el cual tiene separación timelike. Es importante notar que
de existir entre ambos apostadores una relación causal, el evento constituido por el segundo
apostador haciendo su apuesta no violaría la localidad espacio-temporal ya que esta acción sería
el efecto de una causa directa que le llega a través de una cadena causal desde el primer apostador.
Recordemos que en el espacio-tiempo de M inkowski, todo evento que se encuentre en el cono
de luz del pasado de un evento puede tener relación causal con este evento.
Surge de la discusión anterior que lo que es más importante que determinar si un evento es o
puede ser causalmente relevante para otro evento, es determinar cuándo un evento no puede ser
causalmente relevante de otro evento. Sabemos que no puede ser causalmente relevante un
evento que tiene separación spacelike con otro evento. Pero consideremos el siguiente ejemplo
de trivialización de la relación de localidad espacio-temporal entre eventos con separación
timelike: supongamos que un objeto pasa por una dada posición sin dejar rastro alguno de su
paso. Una hora más tarde otro objeto pasa por la misma posición y es afectado por el hecho que
el primer objeto pasó una hora antes por la misma posición. Evidentemente, de ser esto así
estamos en una situación en la que se satisface la localidad espacial pero frente a una violación de
localidad temporal. Sin embargo, podemos argumentar que esta temporalidad local también está
satisfecha porque en el momento en que pasa el segundo objeto, tenemos localmente el evento
que hace exactamente una hora pasó el primer objeto por ese lugar. Obviamente, aquí tenemos un
evento (que el primer objeto haya pasado una hora antes por el mismo lugar) que si bien
satisface la localidad espacial y temporal con el evento “paso del segundo objeto”, claramente no
tiene relevancia causal sobre este último evento. Si así fuera, la localidad temporal se cumpliría
siempre automáticamente. Por lo tanto debemos encontrar algún criterio para saber si un evento
puede ser causalmente relevante sobre otro.
La primera consideración que surge de la argumentación anterior es la forma peculiar de
clasificar una situación como un evento. Si bien es cierto que la circunstancia que “hace
exactamente una hora” haya pasado “por aquí” un objeto, es ahora y aquí un hecho y por lo
tanto calificaría como evento. Pero cualquier evento C que ocurra en el lugar y en el momento en
que el segundo cuerpo pasa, automáticamente tiene la propiedad de ocurrir una hora después que
el primer cuerpo haya pasado, de manera que no puede haber una relación causal entre C y el
hecho que hace una hora pasó el primer cuerpo, ya que C puede ser cualquier evento.
Analicemos esto: un evento implica siempre la instanciación de algunas propiedades en un lugar
y momento determinado que constituyen la localización espacio-temporal del evento. (98) De
modo que el hecho de que hace una hora pasó por el lugar el primer cuerpo no es la instanciación
de una propiedad intrínseca al evento sino simplemente una relación temporal entre eventos con
la misma localización espacial.
Decimos que una propiedad es intrínseca a una entidad cuando su instanciación requiere algo
sólo de esa entidad y no de su relación de esa entidad con otras entidades. En el ejemplo anterior,
el evento “hace una hora pasó el primer cuerpo por aquí” se refiere a una propiedad extrínseca,
es decir no intrínseca. Esto nos sugiere que para que un evento pueda ser causalmente relevante a
un efecto, debe referirse a la instanciación de una propiedad intrínseca en la localización espacio-
temporal del efecto. Consideremos otro ejemplo: tomemos la propiedad de tener padres vivos.
El hecho de que aquí y ahora Juan tiene padres vivos es la instanciación de una propiedad no
intrínseca ya que no depende exclusivamente de Juan sino de su relación con otros seres
humanos que son sus padres. Un día los padres de Juan mueren en un accidente automovilístico
a kilómetros de distancia de donde se encuentra Juan. Instantáneamente, Juan pasa a ser
huérfano. ¿Estamos ante una violación de la localidad espacial? Obviamente no. Juan volviéndose
huérfano no es algo que ocurre en el momento del choque en virtud de lo que está ocurriendo en
el lugar y en el momento en que Juan se encuentra. La propiedad “huérfano” no es una
propiedad intrínseca de ningún evento que ocurre en la localización espacio-temporal de Juan en
el momento del accidente. Efectivamente, todo lo que Juan estaba haciendo en el momento del
accidente no se vio modificado para nada por aquel suceso. De manera que la propiedad “Juan es
huérfano” no es causalmente relevante a su orfandad.
Por todo lo visto, podemos estar razonablemente seguros de que la relación causa-efecto
satisface la localización espacio-temporal. Sin embargo, la evidencia física nos pone frente a
situaciones en las que esta localización parecería violarse. Veremos este punto a continuación.
VI.3. La realidad de los campos clásicos de Maxwell
Hemos visto que en la mecánica newtoniana las acciones se transmiten a distancia en forma
instantánea, lo cual es una violación de la localidad espacial. La introducción del concepto de
“campo” o “campo de fuerzas” vino al rescate de la localización espacial en la medida que
podamos aceptar que esos campos son “reales”, es decir que poseen status ontológico concreto.
Según esta idea, la acción gravitatoria de un cuerpo sobre otro se materializa por el campo
gravitatorio que el primer cuerpo crea en el lugar y en el instante en que se encuentra el segundo
cuerpo. De esta manera la localidad espacial y temporal queda a salvo dado que el campo alcanza
y actúa sobre el segundo cuerpo luego de propagarse con velocidad finita a través del espacio
entre ambos cuerpos siendo el proceso de propagación un encadenamiento de relaciones causales
localizadas espacial y temporalmente.
Esta idea es inmediatamente trasladable al caso de interacciones eléctricas y magnéticas por
lo que nos detendremos a analizar los argumentos que pueden justificar aceptar la realidad de los
campos electromagnéticos.
Comencemos considerando la definición de campo electrostático. Existe una ley básica de la
naturaleza que nos dice que dos cargas eléctricas puntuales q1 y q2 a una distancia r12 entre ellas,
interaccionan con una fuerza F1 = -F2 , dada por
que es la ley de Coulomb, donde F1 es la fuerza sobre q1 , e12 es un vector unitario con
origen en q2 y sentido hacia q1 y F2 es la fuerza sobre q2 que es igual y opuesta a F1 .
Observemos que las fuerzas de interacción serán de repulsión si ambas cargas son positivas o
ambas negativas y de atracción si son de distinto signo.
La constante k que figura en la (6.1) depende del sistema de unidades empleado. Definiendo
como unidad de carga el statcoulomb de manera tal que dos cargas puntuales de 1 statcoulomb
colocadas a una distancia entre ellas de 1 cm, la fuerza de interacción sea de 1 dyna, la constante
k se hace igual a la unidad por lo que prescindiremos de ella en lo sucesivo. La (6.1) es valida
para cargas puntuales. Si tenemos una distribución de cargas sobre un dado volumen V1 del
espacio siendo
1 la densidad de carga en dicho volumen y otro volumen V2 con densidad de carga 2 , la
aplicación del Principio de Superposición nos dice que la fuerza de interacción entre ambas
distribuciones de carga, resulta
en la que
1 y 2 serán en general funciones de la posición sobre V1 y sobre V2 respectivamente.
Otra condición bajo la cual la (6.1) y la (6.2) son únicamente válidas es que se trate de
sistemas de cargas estáticas, es decir que hayan permanecido inmóviles por un tiempo
suficientemente prolongado. Este requerimiento surge debido a que la acción que una carga
eléctrica ejerce sobre otra no es instantánea sino que se propaga con la velocidad de la luz. De
manera que la acción que “siente” una carga por la presencia de otra situada a una distancia r
corresponde no a la posición actual de esta segunda carga sino a la posición que tenía un tiempo
r´/c anterior al instante en que la acción es “sentida” por la primer carga, siendo r´ la distancia
entre las cargas en el instante t - r´/c (fig. 6.1). Por lo tanto, si el sistema de cargas se ha
mantenido inmóvil por un tiempo suficiente para que la acción de la segunda carga alcance a la
primera, podemos considerar que se trata de una condición estática y no es necesario en tal caso
efectuar la corrección por retardo de la acción en las expresiones anteriores.
Las consideraciones anteriores nos dicen que a menos que exista alguna entidad de existencia
física real entre las cargas que interaccionan, nos encontramos frente a una violación de la
localidad espacio-temporal, ya que no sólo tendríamos acción a distancia sino también acción
retardada.
Por el momento introduciremos sólo como un recurso de cálculo, el concepto de campo
eléctrico E, que definimos como la fuerza que se ejercería sobre la unidad de carga eléctrica en un
punto del espacio en un dado instante. De manera que según la (6.1) y de acuerdo con esta
definición, el campo eléctrico en el punto donde se encuentra la carga q1 , es
Si hay una distribución de cargas
2 en un volumen V2, la aplicación del Principio de Superposición nos conduce que el campo
eléctrico E(1) en un punto (1) del espacio será
Aquí también las (6.3) y (6.4) requieren para su validez la condición estática. La
generalización de la (6.3) al caso de cargas en movimiento como lo muestra la fig. 6.1 no es trivial
y está dada por la expresión (99)
(6.5)
en la que r´ es la distancia retardada o sea la distancia entre la carga y el punto considerado
en el instante t – r´/t.
Fig. 6.1. El campo en el punto ( 1) en el instante t depende de la posición ( 2´) ocupada por la carga q2 en el instante t –
r´/c
El primer término de la (6.5) es el campo coulombiano retardado ya que representa el campo
que existiría en el punto (1) producido por la carga q2 a la distancia retardada r´. El segundo
término es el producto de la rapidez de variación del campo coulombiano por el tiempo de
retardo r´/c, de modo que constituye una corrección del campo coulombiano retardado hasta el
tiempo t. El tercer término tiene en cuenta la contribución al campo eléctrico en (1) de la
aceleración de la carga en la posición retardada (2).
Utilizando el concepto de campo eléctrico, la fuerza que actuará sobre una carga q1 en un
punto (1) será simplemente el producto del campo eléctrico en ese punto (1) por el valor de la
carga q1 . Esto constituye una ayuda computacional invalorable porque al conocer el valor del
campo eléctrico E en un punto dado, nos olvidamos de la distribución de cargas que lo produce.
La pregunta es entonces si el campo eléctrico es sólo una herramienta de cálculo sin existencia
física real o por el contrario constituye una entidad física con existencia real. En el primer caso,
tendremos violación de la localidad espacio-temporal, la que quedaría a salvo con la segunda
opción.
En el electromagnetismo clásico se puede definir el vector densidad de flujo magnético B o
simplemente campo magnético asociado al campo eléctrico E en el sistema cgs electromagnético
o Gaussiano, como
en la que “x” representa producto vectorial.
Observemos que la (6.6) nos dice que sólo puede haber un B no nulo si el campo E no es
colineal con er´ ya que de lo contrario el producto vectorial se anula. De modo que para que B no
sea cero, la velocidad v de la carga debe tener una componente no nula en la dirección normal a r´.
La densidad de flujo magnético B interviene en otra ley fundamental de la naturaleza, que es
La (6.7) es la ley de Lorentz que nos da la fuerza que actúa sobre una carga puntual q cuando
esta se mueve con velocidad v en un campo magnético B. El vector campo magnético B es similar
en muchos aspectos al vector campo eléctrico E. La forma habitual de visualizarlo es mediante
limaduras de hierro, donde cada limadura se alinea con la dirección de B en cada punto. Es
razonable concebir que cada limadura responde a una condición particular en el espacio que la
limadura está ocupando y que esta condición existe independientemente de la presencia de la
limadura de hierro. En otras palabras, es entonces posible asumir espacio-temporalidad local.
Pero esto es sólo una conjetura razonable por lo que es conveniente considerar otros argumentos
que la apuntalen.
Una experiencia particularmente convincente en este sentido es la siguiente: se disponen dos
cilindros conductores concéntricos unidos por una barra conductora b como se muestra en la fig.
6.2. En el eje de común de dichos cilindros se coloca un imán permanente que genera un campo
magnético estacionario B como lo indican las líneas de fuerza (100) representadas en trazo
punteado en la figura.
Fig. 6.2. Experiencia consistente en dos cilindros conductores concéntricos vinculados
mediante una barra conductora de modo que al rotar en el campo magnético del imán
permanente central se genere una fuerza sobre los electrones libres de la barra.
La experiencia consiste en hacer girar los dos cilindros en forma solidaria alrededor del imán
que permanece fijo. De este modo, los electrones libres de la barra b se mueven con una cierta
velocidad cuya dirección es perpendicular a la del campo magnético B, por lo que de acuerdo con
la Ley de Lorentz (6.7) se debe producir una fuerza sobre dichos electrones de conducción que,
como la experiencia lo confirma, se acumulan en uno de los cilindros que queda cargado
negativamente mientras el otro adquiere una carga igual y contraria (positiva).
Si en lugar de mantener el imán fijo, se lo hace rotar junto con los cilindros, el resultado
experimental es que también en este caso se genera la carga igual y opuesta entre los cilindros, lo
que indica que el campo magnético no “rota” con el imán que lo produce ya que si así fuese, no
habría fuerza actuando sobre los electrones por ser nula velocidad relativa entre éstos y el campo
magnético. Finalmente, cuando se hace rotar sólo el imán y se mantienen inmóviles los cilindros,
no se observa la carga de los mismos. Este resultado es consistente con el anterior ya que si el
campo magnético B no rota con el imán, tampoco hay en este caso fuerza de Lorentz para mover
los electrones.
Esta experiencia sugiere fuertemente que el campo magnético B tiene existencia real en el
espacio, ya que si así no fuese deberíamos aceptar que el imán actúa sin mediación alguna sobre
los electrones de la barra b. Pero el resultado de la última experiencia nos dice que la rotación
relativa del imán respecto de la barra b no produce ningún efecto, lo que lleva a concluir que la
fuerza sobre los electrones de la barra no es el resultado de una acción directa del imán sobre esos
electrones ya que de lo contrario “sentirían” el movimiento del imán. Surge entonces como
razonable aceptar que existe una entidad intermediaria del efecto del imán sobre los electrones
que no sería otra cosa que el campo magnético. Está claro que esta experiencia no constituye una
demostración de la realidad del campo magnético, pero es bastante convincente en tal sentido.
VI.4. Disposiciones, categorías y explicación
Cuando se utiliza la expresión “en este punto del espacio y en este instante hay un campo
eléctrico de 10 dynas por statcoulomb” hay dos maneras de interpretarla. Una de ellas, que sería
la forma “literal” es aceptar que efectivamente en ese punto del espacio en ese instante tiene
existencia real un campo eléctrico del valor mencionado. La otra forma de interpretar la expresión
es la “no literal” entendiendo entonces que si en ese punto del espacio en ese instante hubiese
una carga de 1 statcoulomb, sobre ésta actuaría una fuerza de 10 dynas. Este tipo de
propiedades, que no se materializan pero que son enunciadas en forma condicional, se
denominan disposiciones. Una propiedad de tal tipo es por ejemplo la fragilidad de una copa de
vidrio. La disposición se expresa diciendo que si se la golpease o dejase caer, la copa se rompería.
La fragilidad es una propiedad que el objeto posee sin que necesariamente se materialice y es por
lo tanto una disposición. Otras propiedades en cambio, no son disposiciones como por ejemplo
el color, la forma, etc., sino que se las considera categorías.
Una forma de trivializar la localización espacio-temporal de la relación causa-efecto es
recurriendo a las disposiciones. La disposición de que si en un punto del espacio en un dado
instante hubiese una carga eléctrica, sobre ésta actuaría una fuerza, puede ser efectivamente
considerada una propiedad de ese punto del espacio en ese instante, con lo cual se podría
argumentar que se cumple la localidad espacial y temporal. Es obvio que esto no es nada más que
una “trampa” dialéctica que no explica nada. Con el mismo criterio podría explicarse cualquier
fenómeno diciendo que el mismo ocurre porque en un lugar e instante determinado existe la
disposición, que surge de alguna propiedad oculta, para que el fenómeno se produzca. La
fragilidad de una copa de vidrio no queda explicada por su disposición a la fragilidad sino por su
estructura atómica, tipos de enlaces interatómicos, etc., que son categorías y no disposiciones.
De modo que la explicación de la fuerza que experimenta una carga eléctrica cuando es colocada
en un dado lugar y en un dado instante en presencia de otras cargas debe buscarse en categorías
instanciadas en algún otro y en otro momento, como la distribución de las otras cargas, lo cual
nos retorna a la acción diferida a distancia.
De todas formas, el atractivo de la espacio-temporalidad local se debe a que tenemos la idea
que si no existe nada que medie entre el efecto y la causa, no puede haber explicación de esa
causa. Pero en realidad éste es un argumento circular, ya que implica tácitamente la aceptación de
la espacio-temporalidad local.
La Ley de Coulomb o la Ley de Gravitación Universal nos dice que las fuerzas disminuyen
con el cuadrado e la distancia. Si estas fuerzas operan en base a un proceso local, los detalles de
este proceso posiblemente explicarían la razón por la cual las fuerzas disminuyen con la
distancia de esa manera. Por el contrario, si estas fuerzas implican acción a distancia, es difícil
concebir la existencia de una ley de aquel tipo que las gobierne ya que en tal caso el concepto de
“distancia” se hace dificultoso. En efecto, si la ley de la inversa del cuadrado de la distancia es
una ley de acción a distancia, cómo “sabe” una carga que produce un campo eléctrico, qué fuerza
aplicar sobre otra carga a menos que haya una forma local de medir la distancia hasta esa otra
carga. Como dice Richard Feynman en The Character of Physical Law (101) refiriéndose a la
acción gravitatoria: ¿Una masa “mira” donde se encuentra la otra y “calcula” el valor de la fuerza
de interacción para ese punto? Sin ninguna duda el concepto de acción local salva en buena
medida este tipo de dificultades. Aún más, sabemos que la acción es retardada, por lo tanto si la
acción es a distancia, ¿qué es lo que demora la acción sobre la otra carga si no es la propagación
de la información sobre esa acción?
Por las razones recién vistas es difícil concebir que pueda haber una explicación a una ley de
variación de la fuerza con la distancia en el contexto de la acción a distancia. Del mismo modo,
que pueda haber una explicación para la acción retardada. Éstas deberían ser entonces en ese
contexto leyes básicas de la naturaleza sin explicación, lo que contradice una idea muy aceptada
en ciencia y en filosofía que es el “Principio de razón suficiente” al cual ya nos hemos referido
anteriormente. Este principio, enunciado por Gottfried Leibnitz (1646-1716) dice que nada
ocurre sin una razón o explicación. Estos argumentos ya no son tan circulares y constituyen
razones bastante elocuentes para la aceptación del principio de espacio-temporalidad local. En el
próximo capítulo, exploraremos otras razones que justifiquen tal aceptación.
97 . M.Lange, “ An Introduction to the Philosophy of Physics: Locality, Fields, Energy and Mass” Blackwell
P ublishing, USA, 2002.
98 . El término instanciación se refiere a la materialización de una propiedad abstracta en alguna entidad. P or ejemplo, la
propiedad abstracta color “ azul” se instancia cuando un objeto posee ese color.
99 . R.P.Feynman, R.B.Leighton, M.Sands “ Lectures on Physics” Vol.II, Addison Wesley P ublishing Co., Reading, Mass.,
1964.
100 . Las líneas de fuerza son un recurso gráfico usualmente empleado para visualizar un campo eléctrico o magnético. Su
propiedad es que en cada punto de la línea de fuerza el vector campo es tangente a la misma. A diferencia de lo que ocurre
con los campos, la posición aceptada habitualmente entre los físicos es que las líneas de fuerza no tienen realidad física.
101 . R.P. Feynman, The Carácter of Physical Law, P enguin Books, UK, 1992.
VII.
CAMPOS, ENERGÍA Y MOMENTO
VII.1. La ley relativista de adición de velocidades
Sea una partícula que se mueve en la dirección del eje de las x con velocidad v1 respecto del
sistema S´ el cual se mueve a su vez con velocidad v2 respecto del sistema S como se indica en la
fig. 7.1.
Fig. 7.1. Sistemas de coordenadas cartesianas en movimiento relativo con una partícula con velocidad de dirección
coincidente con la velocidad de traslación de los sistemas.
Al analizar el sistema con las transformaciones de Lorentz (5.13) expresadas en forma
diferencial, resulta
siendo
De manera que la velocidad de la partícula respecto de S, que llamaremos v3 , será
Este resultado es consistente con el segundo postulado. En efecto, consideremos el caso de
una astronave que se mueve con respecto a un observador externo con velocidad v. En el interior
de la astronave, otro observador mide la velocidad de un rayo luminoso obteniendo como
resultado c. ¿Cuál será la velocidad del rayo luminoso para el observador externo? En este caso
es
de modo que según la (7.3), es
es decir que el observador externo verá al rayo luminoso avanzar con velocidad c con
respecto a su propio sistema de referencia.
En el caso en que el movimiento de la partícula no coincidiera con el de traslación relativa de
los sistemas S y S´, un procedimiento análogo nos da la correspondiente fórmula de
transformación de velocidades. Tomemos por ejemplo el caso de una partícula que se mueve
respecto de S´ según la dirección del eje y con una velocidad v1y como se muestra en la fig. 7.2.
Fig. 7.2. Sistemas de coordenadas cartesianas en movimiento relativo con una partícula con velocidad no coincidente
con la velocidad de traslación de los sistemas.
En este caso tenemos
de manera que
En el caso en que es
de la (7.4) resulta
En el caso más general, en el que v1 tiene componentes sobre los tres ejes de la terna S´,
resulta
y de acuerdo con los resultados arriba obtenidos, es (102)
VII.2. Masa relativista
Definimos el momento lineal o cantidad de movimiento p de una partícula como el producto
de su masa por su velocidad, es decir
Consideremos ahora tentativamente como válida la ley de conservación de la cantidad de
movimiento, con m = m(v), es decir admitiendo que m es una función de la velocidad y
analicemos una colisión muy rasante entre dos partículas esféricas iguales A y A´ en reposo con
respecto a las ternas inerciales S y S´ respectivamente como se indica en la fig. 7.3.
Fig. 7.3. Colisión rasante de partículas ( a) antes de la colisión, ( b) después de la colisión.
Por simetría, las partículas tendrán después de la colisión componentes de velocidad
transversal (perpendicular a los ejes x y x´) iguales y opuestas en sus respectivas ternas de
referencia. Llamando v1y a la magnitud de esta componente transversal de la velocidad después
del choque, la velocidad transversal de la partícula A´ respecto de la terna S será, de acuerdo con
(7.5)
donde v1x es la componente según x´ de la velocidad de A´ en S´.
Considerando, como se ha dicho más arriba, válida la ley de conservación del momento lineal;
aplicando la misma para las componentes transversales referidas al sistema S, resulta
donde M y M´ son las masas de A y A´ respectivamente, medidas en S después de la colisión.
Pasando ahora al límite v1y , v1x g 0, es decir considerando choques cada vez más rasantes, la
masa M será simplemente mo, o sea la masa en reposo (en este caso respecto de S) de una
partícula y m = M´ la masa a una velocidad v de una partícula idéntica. De modo que
simplificando v1y en la expresión anterior y haciendo el pasaje al límite mencionado, queda
De la (7.6) se desprende que la masa de una partícula acelerada hasta la velocidad de la luz
crece más allá de todo límite, lo que justifica la afirmación ya hecha respecto de la imposibilidad
de que un móvil material pueda alcanzar dicha velocidad.
La ecuación anterior encierra un importante resultado. En efecto, expandiendo dicha
expresión mediante el teorema del binomio, es
donde T es la energía cinética de la partícula.
La (7.7) nos dice que una partícula en movimiento con velocidad v tiene una masa m que
excede la masa de la misma partícula en reposo en un valor 1/c2 veces su energía cinética. Esto es
consistente con la afirmación de Einstein acerca de la relación masa-energía. En efecto
en la que el término mo c2 representa la energía de reposo de la partícula.
VII.3. Cuadrivectores velocidad y momento-energía
Es interesante observar que las transformaciones de Lorentz (5.8) para las variables x,t son
de la forma
Estas transformaciones pueden ser interpretadas como una rotación en el “plano” x,t puesto
que son formalmente idénticas a una rotación de un vector de componentes x, y, z, t en dicho
plano (103) . La analogía con una rotación se completa si tenemos en cuenta la relación
que como ya habíamos visto, es un invariante en el espacio-tiempo de M inkowski.
Esto permite extender la idea de vectores en tres dimensiones (donde el módulo del vector
constituye un invariante frente a rotaciones) incluyendo ahora la coordenada temporal t y generar
de este modo 4-vectores o cuadrivectores con cuatro componentes, tres de la cuales se
comportan como las componentes de un vector ordinario y un cuarto componente que se
comporta como el componente temporal.
El ejemplo más inmediato de un cuadrivector lo constituye el vector desplazamiento o
separación entre eventos . Asimismo, si x, y, z, t son las coordenadas espacio-
temporales de una partícula en movimiento, se define el cuadrivector velocidad U, como
en la que S es el vector “posición” en el espacio r, t, es decir es el vector que tiene como
componentes las coordenadas de un dado evento en un sistema de referencia inercial y
es el tiempo propio de la partícula.
Al escribir ahora la (5.25) en forma diferencial, es
de manera que
siendo v el vector velocidad de la partícula. De modo que
Dado que se puede escribir
y análogamente para dy/d
y dz/d , teniendo en cuenta la (7.14), la (7.11) queda
Puede verse fácilmente, razonando en forma análoga que para el caso de un vector en tres
dimensiones, que el cuadrivector velocidad U es un vector tangente a la línea de universo de la
partícula.
La utilidad de introducir el concepto de cuadrivector es que nos permite establecer relaciones
entre cuadrivectores que permanecen invariantes bajo transformaciones de Lorentz. Del mismo
modo que los vectores ordinarios tridimensionales nos permiten formular un álgebra vectorial
con relaciones invariantes bajo rotaciones espaciales, los cuadrivectores nos permiten establecer
un álgebra cuadrivectorial con relaciones invariantes bajo las transformaciones de Lorentz, que
como ya vimos pueden ser interpretadas como “rotaciones” en el espacio de M inkowski.
Otro cuadrivector importante es el constituido por las tres componentes del momento lineal
de una partícula y la energía de la misma como cuarto componente. Este es el llamado
cuadrivector momento o cuadrivector momento-energía de una partícula. Demostraremos que
sus componentes transforman como corresponde a las componentes de un cuadrivector, es decir
como las componentes t, x, y, z del vector separación, bajo transformaciones de Lorentz. Para
simplificar el álgebra en la demostración, haremos c = 1. De este modo, teniendo en cuenta la
(7.6) y la (7.8) las ecuaciones de energía y momento lineal resultan
de donde resulta la relación
Nos interesa ahora saber como se transforman estas expresiones desde un sistema S´ que se
desplaza con velocidad u con respecto al sistema S (es decir con respecto al sistema en el que la
partícula se mueve con velocidad v) como lo indica la fig. 7.4, en la que para simplificar v y u
tienen la misma dirección.
Fig. 7.4. Partícula vista desde sistemas inerciales en movimiento relativo uniforme.
En el sistema S’ la energía es (c=1)
enverdo con el teorema de adición relativista de velocidades, según la (7.3) en este caso es v1
= v, v2 = -u, de modo que resulta
de manera que como es fácil comprobar, resulta
por lo que
al introducir la (7.21) en la (7.19), queda
de manera que teniendo en cuenta las (7.17), resulta
que es una transformación como
Para hallar la ley de transformación del momento, debemos tener en cuenta que es
de manera que por las (7.17), resulta
que es una transformación de la forma
Vemos entonces que en el espacio de M inkowski la cantidad de movimiento y la energía de la
partícula no son otra cosa que las componentes de lo que hemos definido como cuadrivector
impulso-energía.
VII.4. Cantidades clásicas conservadas: energía y cantidad de
movimiento
Asumiendo que el campo eléctrico tiene existencia real, consideremos la interacción entre una
carga eléctrica A con otra carga eléctrica B ubicada a una cierta distancia de la A. En tal caso, el
efecto en A, es decir la fuerza que actúa sobre esta carga tiene un conjunto completo de causas en
A (la carga de A y el campo eléctrico retardado producido por B en ese instante y lugar). La
interacción satisface entonces la espacio-temporalidad local. Un razonamiento similar puede
hacerse para el caso de interacciones electromagnéticas en general en las que se cumple la
espacio-temporalidad local.
A diferencia de lo hecho en las consideraciones anteriores, aceptemos que el campo eléctrico
no tiene existencia real por lo que la acción retardada sólo puede explicarse por acción a distancia
con lo que se viola tanto la localidad espacial como la temporal. Veremos que en este caso se
violan principios fundamentales de la física clásica como los son el de conservación de energía y
el de conservación de cantidad de movimiento, lo que no ocurre en el contexto de la aceptación de
la localidad espacio-temporal.
Supongamos que dos cuerpo A y B con idéntica carga eléctrica q interactúan por acción
retardada a distancia. Asumamos que el cuerpo A ha permanecido inmóvil durante un tiempo
prolongado hasta un instante to
Fig. 7.5. El cuerpo B es desplazado más cerca del A, de modo que su separación pasa de R a r.
En cambio, el cuerpo B ha permanecido en una ubicación alejada de A hasta un instante antes
de to , instante en el cual es desplazado hasta el punto más cercano C de la fig. 7.5 al que arriba en
el instante to . En dicho instante los dos cuerpos son dejados libres sin animarlos de velocidad
inicial por lo que configuran un sistema cerrado en el cual ambos cuerpos están inicialmente
inmóviles. (104) Dado que A ha permanecido en su lugar un tiempo prologado, su acción a
distancia ya había alcanzado el punto C cuando arriba a ese punto el cuerpo B por lo que la
fuerza coulombiana que este experimentará será q2 /r2 estando esta fuerza dirigida desde C en el
sentido opuesto a A. En cambio, en el instante to en que B arriba a la posición C, la información
de este arribo no ha llegado aún a A (acción retardada) por lo que este cuerpo experimentará una
fuerza q2 /R2 menor que q2 /r2 (dado que r < R) y dirigida desde A en dirección opuesta a B.
Al considerar ahora un intervalo de tiempo muy breve t a continuación de to, podemos usar
la aproximación que las fuerzas que actúan sobre las cargas se mantienen esencialmente
constantes durante el intervalo. La variación de la cantidad de movimiento de las cargas en el
intervalo t la podemos estimar como el producto de la fuerza sobre cada cuerpo por t. De
manera que para el cuerpo B tendremos tq2 /r2 y para el cuerpo A tq2 /R2 . De manera que los
cambios de cantidad de movimiento no son iguales ni opuestos ya que la dirección de ambas
fuerzas no es la misma. Surge entonces que la acción retardada a distancia viola necesariamente la
conservación de la cantidad de movimiento y un razonamiento un poco más elaborado nos
enseña que tampoco se cumple la conservación de la energía.
En estos argumentos sólo se ha utilizado el concepto de acción retardada que también esta
presente aun cuando se acepte la realidad física de los campos, de modo que parecería que desde
ambos puntos de vista (existencia real de los campos o acción retardada a distancia) se
violentaría la conservación de la cantidad de movimiento y de la energía. Sin embargo, esto no es
así ya que en el caso de aceptar la acción a distancia retardada, al no haber una entidad que
intervenga entre las cargas como ocurre si aceptamos la realidad del campo eléctrico, el sistema
constituido por las dos cargas debe considerarse efectivamente como sistema aislado o cerrado.
Por el contrario, si las cargas se encuentran inmersas en un campo eléctrico, este campo
interactúa con las cargas y el sistema de las dos cargas deja de ser cerrado ya que es necesario
incorporar el campo como protagonista. En este caso, cada carga interactúa con el campo de
acuerdo al principio de localidad espacio-temporal. Si el campo lleva energía y momento, cada
carga toma o cede energía y momento del campo de forma de mantener un balance exacto que
garantice la conservación de esas cantidades. De este modo es el sistema cerrado constituido
ahora por las cargas y el campo el que satisface esa conservación.
Observemos de paso que el desplazamiento físico de la carga B desde su posición inicial
alejada de A hasta la posición C se efectuará en general a una velocidad mucho menor que c. De
modo que la distancia BC será en general mucho menor que R dado que esta es la distancia que
una señal luminosa que parte de la posición inicial de B recorre en el mismo intervalo de tiempo
(ya que estamos asumiendo que cuando el cuerpo B arriba a la posición C, la información que
partió de B cuando esta carga estaba aún en la posición inicial está alcanzando a A). De modo que
la distancia r será muy próxima a R y casi colineal con ella. Por esta razón, en la vida cotidiana
no apreciamos una apartamiento de la ley de acción y reacción. Notemos que la violación del
Principio de Acción y Reacción no implica entonces en el marco de la teoría de campos, una
violación de los Principios de Conservación. De hecho, es fácil concebir situaciones en los cuales
aquel principio no se cumple (105).
Fig. 7.6. Movimiento relativo de cargas en los que no se cumple el Ppio de acción y reacción “fuerte” ( a) y “débil” ( b)
Consideremos la configuración de dos cargas positivas en movimiento uniforme de la fig.
7.6a. De acuerdo con la Ley de Biot y Savart (106) el campo magnético B a una distancia r de
una carga q que se mueve con velocidad v, es
en la que r es el vector posición desde la carga en movimiento hasta el punto considerado y k
una constante que depende del sistema de unidades empleado. De manera que aplicando esta
expresión a la carga q1 , vemos que ésta producirá en la posición de la carga q2 un campo B de
dirección normal al plano de la figura y dirigido hacia el interior del mismo y cuya magnitud es
kq1v1/r2. Por otra parte, hemos visto que la ley de Lorentz (6.7) nos da la fuerza que actuará
sobre la carga q2 al moverse ésta en el campo magnético creado por q1 . Aplicando entonces la
(6.7) a la carga q2 obtenemos la fuerza F21 (es decir la fuerza que actúa sobre q2 debida a q1 ) que
tiene la dirección y sentido que se muestra en la figura con un valor kq1 q2 v1 v2 /r2 . Aplicando el
mismo razonamiento para la fuerza F12 que actúa sobre q1 debido a la acción de q2, obtenemos
que esta fuerza es igual y opuesta a F21 aunque no colineal. De modo que en este caso se cumple
el principio de acción y reacción en su versión “debil” ya que las fuerzas de acción y reacción si
bien del mismo módulo, no actúan sobre la misma recta como lo exige el Principio de Acción y
Reacción “fuerte”. Análogamente es fácil verificar que la configuración de cargas en movimiento
relativo de la Fig. 7.6b conduce a que la fuerza F21 se anula pero no así la F12 lo que nos dice que
en este caso no se cumple siquiera el Principio de Acción y Reacción en su versión “débil”.
Como se ha indicado más arriba, esta violación del Ppio. de Acción y Reacción newtoniano
en fenómenos electromagnéticos no implica en el marco de la teoría de campos una violación de
la conservación de la energía y de la cantidad de movimiento lo que constituye uno de los
argumentos más fuertes para la aceptación de la realidad de la existencia de los campos
electromagnéticos. Sin embargo, este argumento por peso que tenga, no constituye una prueba
definitiva del status ontológico de los campos aunque vemos que la conservación de la cantidad
de movimiento y de la energía se rescata a través de los campos que completan así junto con la
carga el balance necesario de cantidad de movimiento y energía. Obviamente, en la interpretación
de la acción retardada a distancia, los campos, al no existir, no pueden ser portadores de cantidad
de movimiento o de energía. Pero la negación de la existencia real de los campos no significa
necesariamente que la conservación de la energía y de la cantidad de movimiento no se cumpla en
el marco de la acción retardada a distancia sino que estos términos representan simplemente
cantidades resultantes de una dada forma de calcularlas que permanecen constantes en el tiempo
en un sistema cerrado (en este caso sin participación de los campos) sin que ello implique una
existencia física real de las mismas.
VII.5. Status ontológico de la energía y de la cantidad de
movimiento
Observemos que los argumentos anteriores justifican la existencia real de los campos
electromagnéticos sobre la base que estos son el asiento de la energía y de la cantidad de
movimiento que garantiza el balance necesario para la conservación de esas cantidades. Esto
presupone a su vez la existencia real de la energía y de la cantidad de movimiento como una
suerte de “sustancias” que se almacenan en una región del espacio durante un cierto tiempo (es
decir en los campos). De manera que los argumentos anteriores a favor de la espacio-
temporalidad local descansan en buena medida en el status ontológico de los conceptos de energía
y de cantidad de movimiento, ya que si éstas no tienen existencia real, tampoco habría necesidad
de existencia real de los campos para almacenarlas y todo el edificio construido para justificar la
localidad espacio-temporal perdería su principal basamento.
Es importante notar que la sola conservación de la energía y de la cantidad de movimiento no
es suficiente para garantizar la espacio-temporalidad local. Efectivamente, es perfectamente
concebible que en una dada región del espacio desaparezca una cierta cantidad de energía (o de
cantidad de movimiento) y que en el mismo instante una cantidad igual se cree en otro punto del
espacio alejado del anterior. En este caso estaríamos conservando las correspondientes
magnitudes pero obviamente se estaría en presencia de una violación de la localidad espacial. El
problema se complica aún más si tenemos en cuanta que el significado de la expresión “en el
mismo instante” es equivalente a “simultáneamente” pero la teoría de la relatividad nos ha
enseñado que el concepto de simultaneidad no es absoluto sino que depende de la terna de
referencia que utilice un observador. Por lo tanto la idea de magnitudes conservadas
“globalmente” no tiene mucho significado, ya que la conservación se cumpliría para un
observador pero no para otros observadores en movimiento con respecto al primero.
Cuando hablamos de conservación de magnitudes como la energía o la cantidad de
movimiento debemos entonces, para que tenga sentido, referirnos a un proceso “local”, es decir
que la conservación se cumple en un lugar e instante determinado. Esto significa que si tomamos
un elemento de volumen V en un punto del espacio en un determinado instante, la diferencia
entre la energía (o la cantidad de movimiento) entrante al elemento en un intervalo de tiempo
muy breve t y la que sale del elemento en el mismo intervalo de tiempo debe ser igual al aumento
(o disminución) de la energía (o la cantidad de movimiento) en ese volumen en ese intervalo de
tiempo. En otras palabras, estamos agregando al requerimiento de conservación de las
magnitudes, el de continuidad. Toda la evidencia experimental disponible sugiere que la
conservación de la energía y de la cantidad de movimiento son efectivamente procesos “locales”.
El requerimiento de continuidad nos sugiere que debe haber un “flujo” de energía o de
cantidad de movimiento que ingrese a un elemento de volumen en un intervalo de tiempo dado y
otro “flujo” saliente en el mismo intervalo de tiempo quedando la diferencia (positiva o negativa)
acumulada en el elemento. De esta manera, si llamamos S al vector que representa la energía que
atraviesa una superficie por unidad de área y por unidad de tiempo, el flujo total de energía que
pasa por una superficie cerrada que encierra un volumen arbitrario vacío de materia,
donde dA es el vector elemental ndA, siendo n el vector normal exterior unitario al elemento
de superficie dA. La (7.23) no es otra cosa que la diferencia entre la energía que entra y la que
sale del volumen V en un dado instante por unidad de tiempo. El requerimiento de continuidad
nos impone que si esta diferencia no es nula, debe haber una correspondiente variación de energía
en el volumen V para satisfacer la conservación. En el espacio vacío del volumen V tendremos
entonces una variación de la cantidad de energía contenida en dicho espacio. Si llamamos g a la
densidad de energía en dicho espacio, es decir a la energía por unidad de volumen, el requisito de
continuidad exige que se cumpla
La (7.24) no es de mucha utilidad a menos que se conozca la forma explícita de S y de
. Puede demostrarse que en el sistema cgs gaussiano, es
donde S es el llamado vector de Poynting, mientras que la expresión para
, es
Obsérvese que para escribir la (7.24) impusimos que el volumen V no contuviera materia
(espacio vacío). Esto obedece a que si en el interior de V existiesen por ejemplo cargas que bajo la
acción del campo electromagnético efectuasen trabajo sobre el campo o a expensas de campo,
esto requeriría agregar a la (7.24) un término adicional para tener en cuenta esta contribución
positiva o negativa. Debe destacarse también que las expresiones (7.25) y (7.26) si bien
satisfacen la (7.24), no son las únicas expresiones que lo hacen y no ha habido hasta ahora un
procedimiento experimental que permita verificar en forma categórica su validez. Sin embargo
son las formas funcionales más simples que satisfacen la ecuación de continuidad por lo que se
las acepta como verdaderas.
La interpretación física del vector de Poynting S presenta no obstante algunas dificultades.
Un ejemplo sencillo de estas dificultades queda ilustrado por la situación que muestra la fig. 7.7.
Fig. 7.7. Una carga y un imán producen un vector de Poynting que circula en un circuito cerrado.
En la figura se observa un imán permanente con sus líneas de fuerza B y las líneas de campo
eléctrico producidas por una carga eléctrica estática q cercana al imán. De acuerdo a la (7.25) el
vector de Poynting está representado por la línea cerrada S . Sin embargo, el sistema es
totalmente estático y no resulta intuitivo que exista un flujo de energía (el representado por S )
ya que no hay nada aparente que “fluya” en este sistema. En qué medida ésta y otras
dificultades de interpretación física del vector de Poynting contribuyen a poner en duda la
naturaleza de la energía como la de una “sustancia” almacenada en el espacio, es aún materia de
controversia.
Así como la (7.26) determina la densidad de energía de un campo electromagnético,
correspondiendo el primer término al campo eléctrico y el segundo término al campo magnético,
hay una expresión para la densidad de cantidad de movimiento G. Esta expresión, en el sistema
de unidades cgs gaussiano es
Observemos que G es una magnitud vectorial como corresponde a la definición clásica de
cantidad de movimiento. Sin embargo aquí nos encontramos con una magnitud asociada a un
campo electromagnético que en una situación estática no tiene movimiento aparente alguno. Sin
embargo, que un campo posea momento aunque ningún cuerpo se mueva en él no debería ser una
idea tan extraña si uno tiene en cuenta que un sistema puede tener energía sin que exista
movimiento siendo aquella en tal caso la energía potencial. De manera que podemos interpretar la
cantidad de movimiento de un campo estático como una suerte de cantidad de movimiento
potencial. La conservación se expresa entonces diciendo que el momento total en el campo
electromagnético más el momento total de los cuerpos presentes, se mantiene constante si el
sistema es cerrado.
La (7.27) expresa un relación muy simple entre el vector de Poynting y el vector densidad de
momento, lo que sugiere que esta relación no es accidental. Esto nos lleva a considerar que si G
describe adecuadamente la densidad de momento, S debería describir adecuadamente la densidad
de flujo de energía aunque esto requiera como hemos visto, circulación perpetua de energía
alrededor de un imán permanente en presencia de una carga eléctrica. Aunque esta situación
aparezca como estática, el campo debe poseer momento dado por G para satisfacer su
conservación.
Para dar un ejemplo sencillo, reemplacemos el imán permanente de la configuración indicada
en la fig. 7.7 por un solenoide corto alimentado con corriente por una batería como lo sugiere la
fig. 7.8.
Fig. 7.8. Solenoide corto y líneas de campo magnético en presencia de una carga. E es el campo inducido.
M ientras la batería provea al solenoide un corriente constante habrá un campo magnético B
también constante de dirección esencialmente paralela al eje del solenoide. En estas condiciones,
de acuerdo con la ley de Faraday, (107) no habrá campo eléctrico inducido alguno debido a que
no hay variación en el tiempo del campo magnético. El sistema está entonces estático por lo que
la cantidad de movimiento aparente total del sistema es cero. Si por alguna razón la batería
interrumpe el suministro de corriente al solenoide (por ejemplo por acción de un interruptor
programado), el campo B desaparece y de acuerdo con la Ley de Faraday se genera en forma
momentánea un campo eléctrico inducido E como se muestra en la figura. Este campo inducido E
produce una fuerza qE sobre la carga q. Esta fuerza impulsa a la carga que adquiere de este modo
una cierta cantidad de movimiento. Sin embargo, el sistema parte de una condición de momento
aparentemente nulo y sin que medie ningún agente externo, pasa a un estado con una cierta
cantidad de movimiento, violando la conservación del momento. Obviamente, la interpretación
apropiada es que el campo magnético junto con la carga q poseía inicialmente una cantidad de
movimiento G = S /c2 (el vector de Poynting S circula en forma similar a la que se muestra en la
fig. 7.7). Al interrumpirse la corriente, ese momento se extingue y se transfiere al impulso que
recibe la carga q satisfaciéndose así la conservación de la cantidad de movimiento.
En este experimento se asiste a la generación de una cantidad de movimiento asociada al
movimiento que la carga q adquiere cuando se induce el campo E lo que naturalmente sugiere que
esta cantidad de movimiento proviene del momento que el campo electromagnético tenía
almacenado hasta ese momento y que desaparece al anularse la corriente en el solenoide. Por lo
tanto, si se tiene en cuenta la relación (7.27) que vincula en forma directa el vector de Poynting
con la densidad de momento, la razonabilidad de aceptar la existencia real del momento del
campo electromagnético se aplica inmediatamente a la circulación del vector de Poynting.
De acuerdo con las consideraciones hechas hasta aquí, surgen argumentos muy elocuentes en
el sentido que los campos electromagnéticos tienen existencia real. De todos modos estos
argumentos, por persuasivos que resulten no constituyen una demostración de la existencia real
de dichos campos, ya que siempre es posible considerar la integral (1/8 π)(E2 + B2 ) dV sobre
todo el espacio como una simple cantidad sin significado físico específico que agregada a otros
términos como (1/2)mv2 para cada cuerpo del sistema, genere una cantidad conservada. De la
misma manera, la integral G dV sobre todo el espacio puede considerarse una cantidad que
sumada a otros términos como mv para cada cuerpo del sistema, genere otra cantidad conservada.
VII.6. La electrodinámica clásica como teoría relativista
La teoría especial de la relatividad nos permite finalmente encontrar una interpretación de la
vinculación entre los campos eléctricos y magnéticos en la que ambos constituyen aspectos
distintos de una única entidad física de existencia real, que es el campo electromagnético. De
todas maneras, cuando hablamos de electrodinámica o electromagnetismo clásico no es apropiado
referirse a una versión pre-relativista de esta teoría porque el electromagnetismo clásico tal como
fue desarrollado por M axwell ha sido desde su origen una teoría relativista en el sentido
Einsteiniano.
Fig. 7.9. Interacción electromagnética entre dos cargas eléctricas de igual signo vistas desde dos sistemas de
referencia inerciales.
Para analizar de qué manera la relatividad nos permite interpretar los campos eléctricos y
magnéticos como dos aspectos diferentes de la misma realidad física, comencemos analizando las
dos situaciones siguientes descriptas en la fig. 7.9. En la parte (a) de la figura tenemos dos cargas
eléctricas del mismo signo que se desplazan en trayectorias paralelas con velocidad uniforme
pero vistas por un observador comóvil con las cargas, es decir que las cargas están en reposo con
respecto a este observador. Para este observador las únicas fuerzas que actuarán sobre las cargas
son las de repulsión coulombiana Fe. En cambio, en la parte (b) de la figura tenemos las mismas
cargas en movimiento pero vistas por un observador con respecto al cual las cargas se mueven
con velocidad v. Para este observador, además de la fuerza de repulsión Fe habrá una fuerza de
atracción Fm que se origina por el campo magnético creado en la posición instantánea de cada
carga por el movimiento de la otra carga de modo que la fuerza de interacción resultante es
diferente para ambos observadores (108).
Lo que esta sencilla experiencia nos enseña es que la relación entre el campo eléctrico y el
magnético depende de la terna de referencia lo que nos lleva a cuestionar la existencia real de
estos campos tomados individualmente. Afortunadamente la relatividad especial nos permite
resolver el problema. Para ello, comencemos derivando las ecuaciones de transformación de los
campos E y B entre ternas de referencia inerciales en movimiento relativo uniforme. Ya hemos
visto que estos vectores pueden definirse a partir de sus efectos sobre una carga móvil. Sabemos
que la experiencia nos dice que el vector fuerza f que actúa sobre una carga q en una terna con
respecto a la cual la carga se mueve con velocidad v, es
La (7.28) es la fuerza de Lorentz en la que f es ahora la fuerza relativista definida
generalizando la 2ª ley de la dinámica de Newton incorporando la variación relativística de la
masa, es decir
siendo p la cantidad de movimiento de la partícula y m = gmo, donde mo es la masa de
reposo según ya hemos visto.
Aceptaremos en base a la evidencia experimental disponible que la carga q es independiente
de la velocidad y que la masa de reposo mo no se modifica por la presencia del campo
electromagnético. Definamos ahora el 4-vector o cuadrivector fuerza F que actúa sobre una
partícula que posee un cuadrivector momento P cuyas componentes están dadas en la (7.17),
como
Hemos visto que según la (7.14), es
por lo que la (7.30) resulta
Ahora bien, para un observador comóvil con la partícula, es
donde U es el cuadrivector velocidad de la partícula definido en (7.11) y A es el cuadrivector
aceleración definido como
La relación entre A y la aceleración convencional a = dv/dt , la obtenemos teniendo en cuenta
que
Como es fácil de verificar teniendo en cuenta la expresión de g(v), surge de la (7.35) que en
una terna inercial con respecto a la cual la partícula se encuentre instantáneamente en reposo (v =
0) resulta,
Teniendo ahora en cuenta (7.16) y (7.36), para una terna inercial en reposo instantáneo
respecto de la partícula (v = 0), podemos escribir
en la que el punto representa producto escalar o producto interno entre U y A y constituye
un invariante. De la misma forma, teniendo en cuenta (7.33), es
Introduciendo (7.16) y (7.32) en (7.38) obtenemos (109)
por lo que resulta
por lo que podemos escribir la (7.32) como
Sustituyendo ahora f en la (7.41) por la (7.28), resulta
en la que todas las cantidades que intervienen en la (7.41) son medidas en una terna inercial
S. Consideremos ahora las componentes de este mismo cuadrivector fuerza en la terna S´ que sin
pérdida de generalidad la elegiremos comóvil con la partícula como lo muestra la fig. 7.10. Por
simplicidad asumiremos que q = 1 y que v =(v1 , 0, 0). De este modo, de acuerdo con la (7.42), en
S´ tendremos (v1 ´= 0)
Aplicando la regla de producto vectorial (teniendo en cuenta que v2 = v3 = 0), de la (7.42)
obtenemos
Obsérvese que lo que hemos hecho con la (7.42) y (7.44) es incorporar el trivector fuerza f
dentro de la expresión del cuadrivector fuerza F, cuyas componentes transforman según las
correspondientes coordenadas de las ecuaciones (5.8), de manera que
Para hallar las ecuaciones de transformación de las componentes de B efectuemos la
transformación inversa de la última ecuación en (7.45) intercambiando cantidades primadas por
no primadas y reemplazando v1 por –v1 , resulta
Fig. 7.10. La partícula se mueve con velocidad v1 respecto de S. La terna S´ es comóvil con la partícula, de modo que
en esta terna es v1´ = 0
Eliminado E3´ entre la última ecuación en (7.45) y la (7.46), teniendo en cuenta que es g2 – 1
= g2 v2 /c2 , obtenemos
y análogamente
Para obtener la transformación correspondiente a B1 adjudiquemos a la carga q en S´ una
componente infinitesimal de velocidad v2´según el eje y´, de modo que en lugar de la (7.43)
tendremos ahora
siendo v´=(0, v2´, 0). Tengamos en cuenta que en la (7.42) de acuerdo con las (7.5), ahora es
v =(v1, v2´/
, 0). Aplicando la regla de producto vectorial a las (7.42) y (7.49) e igualando las componentes
según el eje z consistentemente con las (5.8), obtenemos
De la comparación de (7.50) con la última de las (7.45), surge que B1´ = B1, de modo que
finalmente tenemos
Hasta aquí hemos tratado al vector fuerza de Lorentz F como un cuadrivector. Por
consistencia, quedaría por verificar que con estas transformaciones F es efectivamente un
cuadrivector. Para esto sólo habría que comprobar la invariancia de la norma del vector en el
espacio de M inkoswski. Si bien es una operación conceptualmente sencilla, es algebraicamente
tediosa por lo que prescindiremos de ella y aceptaremos que efectivamente F es un cuadrivector.
Una de las consecuencias más importantes que surgen de las (7.51) es la mezcla de los
vectores E y B bajo transformaciones de Lorentz. Por ejemplo, un campo eléctrico E “puro” en
una terna tiene componentes de ambos E y B en otra terna. En otras palabras, como Einstein lo
intuyó, la fuerza magnética actuando sobre una carga en movimiento se manifiesta como un
campo eléctrico en la terna de reposo de la carga. Utilizando las (7.51) es fácil comprobar que la
cantidad
es un invariante bajo transformaciones de Lorentz de mismo modo que lo es E.B.
Las consideraciones anteriores nos permiten reinterpretar la experiencia de la interacción
entre dos cargas eléctricas descripta en el parágrafo 7.5. En esta nueva interpretación, no hay
realmente un campo eléctrico o un campo magnético. Lo que hay es una única entidad que es el
campo electromagnético, que en distintas ternas de referencia aparece como distintas
combinaciones de campos eléctricos y magnéticos. Ni E ni B son invariantes. Como hemos visto,
lo que se mantiene invariante en ambas ternas es el producto escalar E.B y la diferencia E2 – B2 .
De modo que estas cantidades caracterizan el campo electromagnético en sí independientemente
de la perspectiva particular desde una dada terna de referencia. De manera que si la localidad
espacio-temporal se cumple, lo que tiene existencia real es el campo electromagnético, mientras
que los campos eléctrico y magnético no existen independientemente de la terna a la cual se los
refiere. Del mismo modo, el vector de Poynting S = (c/4 π) E x B tampoco es un invariante por
lo que la densidad de flujo de energía no es una entidad objetiva.
En resumen, el magnetismo resulta ser un fenómeno relativista y como hemos visto,
desaparece en la terna de reposo de la carga en la que sólo persiste el campo eléctrico. Pero dado
que la carga es un invariante, no hay una terna en la que el campo eléctrico desaparezca. Como
hemos visto, la relatividad especial explica como se modifica la perspectiva desde una terna a
otra. Esta es la razón por la cual la teoría electromagnética de M axwell, que se cumple en todas
las ternas inerciales, es una pieza de física que era relativista antes de la formulación de la
relatividad por Einstein.
VII.7. La unificación relativista de la energía y el momento a
través de la masa
Uno de los argumentos más convincentes que hemos utilizado para justificar la existencia
real de los campos es que de negarse la existencia de los mismos se violentaría la conservación del
momento y la conservación de la energía. Pero ni la cantidad de movimiento de una partícula ni
su energía tomados aisladamente son, en el marco de la mecánica newtoniana, invariantes, lo que
conspira contra la realidad objetiva de estas cantidades. La relatividad viene entonces en nuestro
auxilio definiendo el cuadrivector momento-energía cuyas componentes son las dadas en (7.17) y
de las que surge la relación (con c = 1) E2 – p2 = mo2 . Dado que la masa de reposo mo es
invariante de Lorentz, la diferencia E2 – p2 también lo es. Vemos que esta relación es análoga a la
(7.52) por lo que la energía E y el momento p son a la luz de la relatividad diferentes aspectos de
la misma realidad que es la masa y que se manifiestan de diferente forma según la terna de
referencia a la cual se los refiera.
La relación (7.18) es inmediatamente aplicable al campo electromagnético, que como hemos
visto posee momento y energía. En la terna de reposo de dos cargas de distinto signo el campo
magnético B = 0 por lo que la densidad de energía del campo magnético B2/8 π también es cero y
del mismo modo se anula la densidad de momento del campo electromagnético G = (1/4 πc)E x
B, por lo que también será nulo el momento p del campo electromagnético. No será nula en
cambio la densidad de energía del campo eléctrico E2 /8 π, de manera que de la (7.18) obtenemos
en la que mem y Eem son respectivamente la masa y la energía del campo electromagnetico.
La (7.53) nos dice que es Eem > 0 por lo que la masa mem del campo electromagnético es
también positiva como era de esperar.
Lo anterior sugiere fuertemente que el campo electromagnético es un constituyente de
existencia real del sistema, tan real como otros cuerpos ya que al igual que ellos posee el atributo
masa. Ni la densidad de energía del campo electromagnético ni su densidad de cantidad de
movimiento son invariantes de Lorentz, en cambio sí lo es su densidad de masa. En efecto, de
acuerdo con la (7.18), es
Escribiendo la (7.54) en términos de densidad de masa electromagnética
em, densidad de energía electromagnética em, y densidad de momento electromagnético G,
resulta
Teniendo en cuenta la (7.26) y la (7.27), la (7.55) resulta
Desarrollando la (7.56) obtenemos
pero teniendo en cuenta que
y que además es
Reemplazando (7.58) y (7.59) en (7.57), se obtiene
Pero ya hemos visto que E2 – B2 = E2 – B2 y E.B son invariantes de Lorentz, de manera que
la (7.60) también lo es.
El campo electromagnético, en virtud de su masa, posee de acuerdo con la teoría general de la
relatividad influencia gravitacional por lo que afectará también a cuerpos sin carga. De manera
que un experimento de suficiente sensibilidad permitiría determinar la cantidad de masa en un
dado volumen de campo electromagnético. Por todo lo expuesto, surge la razonabilidad de la
existencia real de los campos clásicos de M axwell y por ende de la localización espacio-temporal
de las relaciones causa-efecto.
102 . W.Rindler, “ Essential Relativity” Springer-Verlag, 1977.
103 . R.P.Feynman; R.B.Leighton; M.Sands, “ The Feynman Lectures on Physics” Vol. 2, Addisson Wesley P ublishing
Company, 1963.
104 . Hasta ese instante los cuerpos estaban sujetos a fuerzas exteriores que los mantenían en sus respectivas posiciones.
Al ser liberados en el instante to pasan a constituir un sistema aislado en el que se debería cumplir la conservación de la
energía y de la cantidad de movimiento.
105 . H.Goldstein “ Classical Mechanics” 2nd. Ed., Addison Wesley, N.Y., 1982.
106 . En este análisis no estamos teniendo en cuenta el retardo del campo magnético por considerarlo despreciable si
asumimos que v<<c.
107 . La ley de Faraday de inducción electromagnética se corresponde con una de las ecuaciones de Maxwell del
electromagnetismo clásico. En el vacío esta ecuación en el sistema de unidades cgs gaussiano es
. Lo que esta ecuación nos dice es que la variación temporal de un campo
magnético induce la generación de un campo eléctrico.
108 . M. Lange, “ An Introduction to the Philosophy of Physics: Locality, Fields, Energy and Mass” Blackwell
P ublishing, USA, 2002.
109 . Téngase en cuenta que el producto escalar de dos cuadrivectores (x1, y1, z1, t1) y (x2, y2, z2, t2) en el espacio-
tiempo de Minkowski se define como (x1, y1, z1, t1).(x2, y2, z2, t2) = -x1x2-y1y2-z1z2+c2t1t2. Al constituir un
invariante, la (7.38) es valida en cualquier terna inercial.
VIII.
TERMODINÁMICA Y LA FLECHA DEL TIEMPO
VIII.1 Reversibilidad e irreversibilidad en el mundo físico
La observación cotidiana del mundo que nos rodea nos muestra un aspecto de la naturaleza
que encierra un profundo enigma. Sin embargo este modo de presentarse el mundo a nuestra
percepción necesariamente macroscópica nos resulta tan familiar que no nos detenemos a
reflexionar sobre algunos aspectos de la experiencia diaria que merecen un mayor análisis.
Efectivamente, estamos habituados a que los múltiples fenómenos físicos de los que somos
continuamente testigos exhiben una clara asimetría temporal, es decir son irreversibles. Sabemos
que el vaso de vidrio que se deja caer al piso se romperá en innumerables pedazos, que el
recipiente con líquido caliente dejado sólo en un ambiente más frío cederá calor al ambiente y
alcanzará después de un tiempo la temperatura del ambiente (si asumimos que éste es de
dimensiones y masa mucho mayores que el recipiente y que por lo tanto su temperatura no es
prácticamente afectada por el calor que le cede el recipiente) (110) y que el humo que se
desprende de un tostador que se encuentra en la cocina de la casa debido a un trozo de pan que
se nos ha quemado, se difundirá gradualmente al resto de las habitaciones. La observación
cotidiana también nos permite estar seguros que nunca seremos testigos de los procesos
inversos, es decir: los trozos de vidrio no se elevarán del piso para volverse espontáneamente a
unir para restituir el vaso sano, el líquido a temperatura ambiente no se calentará
espontáneamente extrayendo calor de la habitación, ni el humo que está distribuido más o menos
uniformemente en una casa abandonará los ambientes para concentrarse espontáneamente en el
tostador de la cocina. Decimos que la forma en que estos fenómenos evolucionan presenta una
asimetría temporal debido a que si viésemos una filmación de los mismos proyectada en sentido
inverso, nos daríamos inmediatamente cuenta de esta circunstancia, ya que estaríamos siendo
testigos de un orden de sucesos que sabemos nunca se nos presentará en la realidad. Sin embargo,
y en esto radica el enigma al que hacíamos referencia más arriba, las leyes que rigen el
comportamiento microscópico de las partículas de los cuerpos que toman parte de los
fenómenos mencionados, son totalmente simétricas en el tiempo. En otras palabras, si
analizásemos en detalle el movimiento de cada una de las partículas que intervienen en estos
ejemplos vistos en reversa, digamos por ejemplo el movimiento de los trozos de vidrio que
restituyen el vaso o las partículas de humo que se vuelven a concentrar en el tostador, no
podríamos detectar ninguna violación de las leyes físicas que rigen su comportamiento no
obstante que la observación global macroscópica nos dice que de acuerdo a nuestra experiencia
cotidiana, el fenómeno es en la práctica imposible que ocurra, es decir que es a nivel
macroscópico, irreversible (111).
Para analizar esto un poco más en detalle, consideremos el caso clásico de un recipiente
cerrado que posee un tabique divisorio y que contiene gas en unos de los sectores en que el
recipiente queda dividido por el tabique y se ha practicado vacío en el otro. Sabemos que al
eliminar el tabique, el gas contenido en un sector se difundirá uniformemente por todo el
recipiente. También estamos seguros de que lo que ya no ocurrirá es que en forma espontánea el
gas vuelva a concentrase en la región del recipiente que ocupaba inicialmente. Nuevamente, si
analizásemos el movimiento de cada molécula de gas en este hipotético proceso inverso, no
detectaríamos violación alguna de las leyes de la dinámica que rigen el movimiento de las
moléculas, o sea que el comportamiento de las moléculas a nivel microscópico es completamente
reversible. Esto se debe a que en un nivel fundamental, las leyes de la dinámica Newtoniana que
rige el movimiento de las partículas exhiben simetría temporal, por lo que las llamaremos t-
simétricas. Esto significa que si en un instante t dado de la evolución del gas en el recipiente,
invirtiésemos simultáneamente las velocidades de cada una de las moléculas que lo constituyen,
las mismas reproducirían exactamente el movimiento que venían desarrollando hasta ese instante
pero en sentido inverso, lo que sería como ver una filmación de las mismas a partir del instante t
pero en sentido temporal opuesto (112).
Éste es un punto oportuno para establecer con precisión cuál es el significado de la expresión
“simetría (o asimetría) temporal” que en general es utilizada en forma un tanto indefinida. Para
ello, tengamos en cuenta que cuando hablamos de simetría (o asimetría) temporal, debemos
determinar si nos estamos refiriendo a la simetría (o asimetría) del tiempo en sí, o
alternativamente, a la simetría (o asimetría) de las cosas en el tiempo. La diferencia no es trivial:
una cosa es pensar al tiempo como algo que fluye en una dirección, digamos del pasado al futuro,
y entonces del mismo modo en que podemos concebir que el flujo de un río puede invertirse,
pensar el tiempo como algo que fluye nos permite concebir ese flujo también en sentido inverso,
es decir del futuro al pasado. Así como la observación local (113) de un río que fluye no nos
permitiría detectar ninguna característica que nos pueda dar la pauta si ese flujo es el normal o su
inverso por lo que podemos concluir que al menos localmente el flujo de un río presenta simetría
temporal, surge la pregunta de cómo podemos establecer localmente (114) si el flujo del tiempo
es o no simétrico a menos que la observación de los fenómenos que transcurren en el tiempo nos
pudiesen dar la pauta del sentido en que transcurre.
De manera que una interpretación que nos evita estas dificultades derivadas de la concepción
del tiempo como algo que fluye, es considerar que los fenómenos del mundo evolucionan de
determinada manera en el tiempo, y que pueden presentar o no un comportamiento simétrico si
evolucionan en sentido temporal opuesto. Esto último puede concebirse, aunque no
necesariamente, como una inversión del tiempo, es decir del presente al pasado. Cuando decimos
que las leyes de la dinámica newtoniana son t-simétricas lo que estamos diciendo es que son
invariantes frente a la transformación t → - t.
Efectivamente, de las tres leyes de la dinámica de Newton, sólo en la segunda interviene el
tiempo y tiene la forma: F = md2r/dt2, donde F es el vector fuerza que actúa sobre la partícula
considerada, m su masa y r es el vector posición instantánea de la misma. De modo que al
reemplazar en esta ecuación t por –t, la ecuación se mantiene inalterada debido a que el tiempo
aparece como segunda derivada. (115) Esto también nos dice que si bien la aceleración
correspondiente a esta segunda derivada temporal de la posición de la partícula se mantiene
invariable, la primer derivada temporal de r, es decir la velocidad instantánea de la partícula se
invierte bajo la transformaciónt → - t, lo que implica que hacer esta transformación implica
invertir simultáneamente las velocidades de cada una de las partículas del sistema considerado.
En otras palabras, bajo la transformación t → - tlas soluciones de las ecuaciones de la dinámica de
un sistema de partículas sometido a un campo de fuerzas siguen siendo totalmente válidas pero
con los vectores velocidad de cada una de las partículas actuando en sentido contrario al que
tendrían en el tiempo t. (116)
En particular, partiendo de una condición inicial correspondiente a un instante cualquiera
para un sistema de partículas sometido a un campo de fuerzas, la evolución será la misma,
aunque en sentido opuesto, si a partir de ese instante reemplazamos t por –t en las soluciones de
las ecuaciones del movimiento. Esto no nos obliga necesariamente a pensar que el movimiento
del sistema evoluciona hacia el pasado sino simplemente que a partir de la inversión de las
velocidades, el sistema reproduce en sentido opuesto lo que venía haciendo hasta ese instante. Es
decir sería lo mismo que ver una filmación en reversa sin que esto implique que estamos
retrocediendo en el tiempo. Cuando hablamos de simetría o asimetría temporal nos estamos en
realidad refiriendo a esta última interpretación. Esta forma de concebir la simetría o asimetría de
cómo evolucionan los fenómenos en el tiempo tiene la ventaja que no nos requiere concebir el
tiempo como “algo” que fluye, no entrando por lo tanto en conflicto con la concepción relacional
del tiempo (117).
Hay sin embargo en el análisis anterior un punto que es necesario atender. Hemos dicho más
arriba que el tiempo interviene en la segunda ley de la dinámica a través de una segunda derivada
temporal. Sin embargo, en general la fuerza F puede ser función de la posición, pero también de
la velocidad o del tiempo. Sin embargo, en cualquiera de estos dos últimos casos, estaríamos en
presencia de sistemas no conservativos y por lo tanto de sistemas en los que el movimiento es
inherentemente irreversible. Ahora bien, esta irreversibilidad surge de la existencia en el sistema
de mecanismos disipativos, es decir que consumen irreversiblemente energía, como podrían ser
por ejemplo fenómenos de rozamiento o de viscosidad. En cualquiera de estos casos, un análisis
microscópico de los mismos podría siempre en principio reducirlos a mecanismos subyacentes
conservativos. En otras palabras, en último análisis todos los sistemas de la mecánica
newtoniana, considerados adecuadamente son conservativos y por lo tanto reversibles y las
fuerzas siempre pueden en última instancia expresarse como una función exclusiva de la posición
y por ende independientes del tiempo (118).
Surge ahora la pregunta: si tanto la evolución temporal de un sistema de partículas como su
evolución en sentido inverso están de acuerdo con las leyes que rigen su movimiento y estas son
t-simétricas, ¿por qué razón casi siempre observamos sólo la evolución en uno de los dos
sentidos y no son ambos sentidos tan frecuentes el uno como el otro? Tengamos en cuenta sin
embargo, que esta asimetría se manifiesta típicamente en la evolución temporal de sistemas de
elevada complejidad, es decir de sistemas en los que toman parte un número muy grande de
partículas. En efecto, en sistemas muy simples en los que el número de partículas es limitado,
estamos acostumbrados a un comportamiento exhibiendo simetría temporal, por ejemplo,
podemos detener el movimiento de un péndulo e invertir su movimiento sin ninguna dificultad, o
actuar en forma similar con algún otro sistema siempre que conste de sólo una o dos partículas.
La reversibilidad se va haciendo rápidamente más problemática a medida que la complejidad del
sistema aumenta y bastan unas pocas partículas para que en la práctica la evolución se torne
desde un punto de vista práctico (fáctico), irreversible.
Para dar una explicación a esta aparente contradicción, no debemos buscarla en el ámbito de
las leyes de la mecánica, ya que no es lógicamente posible demostrar un comportamiento
temporal asimétrico a partir de principios temporalmente simétricos. En cambio, los argumentos
que requerimos son de otra naturaleza y provienen de la termodinámica, enriquecida con la
mecánica estadística y conceptos de probabilidad.
VIII.2. La termodinámica clásica y la idea de entropía
La termodinámica clásica se sustenta sobre dos principios de los cuales el primero es
simplemente la expresión del principio de conservación de la energía en su forma más general. El
segundo principio es de interpretación más dificultosa y surge como consecuencia de los trabajos
de Sadi Carnot con máquinas térmicas en la primera mitad del siglo XIX y que fue enunciado por
primera vez en forma precisa por Rudolf Clausius en 1865. Existen varias formas totalmente
equivalentes de expresar este principio. La forma más útil para nuestro análisis es la siguiente
(119).
En un sistema aislado, es decir que no intercambia energía ni trabajo con el medio exterior, la
entropía aumenta o se mantiene constante, es decir nunca disminuye. Clausius definió el cambio
diferencial de entropía dS en un sistema termodinámico en un proceso reversible, como
donde dQ es una cantidad pequeña de calor introducida reversiblemente en el sistema y T la
temperatura absoluta del sistema al introducirse la cantidad de calor dQ. Obsérvese que
denotamos el calor elemental introducido en el sistema como dQ y no como dQ para denotar el
hecho que dQ no es un diferencial exacto por no ser Q una función de estado.
Ahora bien, de acuerdo a Clausius, en un ciclo cerrado reversible, se cumple
lo que implica que dS es un diferencial exacto y por lo tanto la entropía S es una función de
estado o lo que es lo mismo, la variación
entre dos estados cualesquiera A y B, es independiente del camino seguido por el sistema
para ir desde el estado A al B.
Clausius demostró además que en un ciclo cerrado en general (es decir no necesariamente
reversible), se cumple
donde la igualdad rige para evoluciones reversibles y la desigualdad para evoluciones
irreversibles.
Ahora bien, para cualquier evolución irreversible, como la entropía es una función de estado,
siempre podemos conectar el estado inicial y final mediante una evolución postulada reversible e
integrar sobre ese camino para calcular la variación de entropía. Dado que este camino es
reversible podemos recorrerlo en sentido contrario y combinarlo con el camino irreversible para
completar un ciclo cerrado, en el cual teniendo en cuenta la desigualdad de Clausius (8.4),
tendremos
de manera que resulta
donde la igualdad rige para evoluciones reversibles y la desigualdad para evoluciones
irreversibles.
Si el sistema considerado es aislado y por lo tanto no intercambia calor con el medio, es dQ =
0, por lo que resulta que en una evolución cualquiera de un sistema termodinámico aislado se
cumple que
que es la expresión del 2º Principio de la Termodinámica.
De manera que la termodinámica clásica nos provee de una función de estado del sistema, la
entropía, que o bien se mantiene constante en un sistema aislado en el que tienen lugar sólo
procesos reversibles o bien aumenta si existe irreversibilidad, pero nunca disminuye. Es decir
tenemos una función que claramente introduce una asimetría en la dirección temporal en que
pueden evolucionar los sistemas naturales vedando todos aquellos en los que la entropía
disminuya. Es evidente que esto requiere un análisis que permita compatibilizar esta asimetría
temporal que los procesos físicos exhiben a nivel macroscópico con las leyes de la dinámica de
las partículas que como hemos visto, poseen simetría temporal a nivel microscópico. Para
efectuar este análisis, podemos partir de la interpretación estadística del concepto de entropía
introducida por el físico austriaco Ludwig Boltzmann en 1877 utilizando elementos de la teoría
de probabilidades.
Según Boltzmann, la entropía es una medida del número de posibles microestados de un
sistema en equilibrio termodinámico, consistentes con sus propiedades termodinámicas
macroscópicas, es decir con su macroestado. Para entender lo que son microestados y
macroestados, consideremos el ejemplo de un gas en un recipiente. A nivel microscópico, el gas
se compone de un gran número de átomos en libre movimiento, que a veces chocan entre sí y con
las paredes del recipiente. El microestado del sistema es una descripción de las posiciones y
cantidades de movimiento de todos los átomos. En principio, todas las propiedades físicas del
sistema están determinadas por su microestado. Sin embargo, debido a que el número de átomos
es tan grande, el movimiento de los átomos individuales es en su mayoría irrelevante para el
comportamiento del sistema en su conjunto. Siempre que el sistema esté en equilibrio
termodinámico, su estado macroscópico puede ser adecuadamente descrito por un puñado de
cantidades macroscópicas, llamado “variables termodinámicas”: la energía total E, el volumen V,
la presión P, la temperatura T, y así sucesivamente. En otras palabras, el macroestado del
sistema queda prescripto por la especificación de sus variables termodinámicas.
Hay tres puntos importantes a destacar. En primer lugar, para especificar un microestado,
tenemos que escribir una lista excesivamente larga de números como por ejemplo la cantidad de
movimiento de cada partícula, mientras que la especificación de un macroestado requiere sólo
unos pocos números (E, V, etc.) Sin embargo, y este es el segundo punto, las ecuaciones usuales
de la termodinámica sólo describen el macroestado de un sistema de forma adecuada cuando este
sistema está en equilibrio. Las situaciones de no equilibrio en general no pueden ser descritas por
un pequeño número de variables. Por ejemplo, si un gas está en movimiento en un recipiente,
incluso una descripción macroscópica tendría que incluir, por ejemplo, la velocidad del fluido en
cada punto. De modo que el estado macroscópico de un sistema se describe por un pequeño
número de variables si el sistema está en equilibrio termodinámico global. En tercer lugar, más de
un microestado puede corresponder a un solo macroestado. De hecho, para cualquier
macroestado dado, habrá un gran número de microestados que son consistentes con los valores
dados de E, P, T, V, etc. De acuerdo con esto, asumiendo como postulado fundamental que todos
los microestados son igualmente probables, Boltzmann definió la entropía de un sistema en
equilibrio como
donde k es la constante de Boltzmann cuyo valor es 1,380 x 10-23 J/ºK. k es una constante
dimensional introducida para hacer igual la entropía calculada con esta definición a la (8.1)
definida por Clausius y W es el número de microestados accesibles por las fluctuaciones del
sistema consistentes con el macroestado de equilibrio dado.
Este postulado, que se conoce como principio de Boltzmann, se puede considerar como la
base de la mecánica estadística, que describe los sistemas termodinámicos a través del
comportamiento estadístico de sus microconstituyentes. S es en sí una propiedad
termodinámica, al igual que E o V y actúa como un vínculo entre el mundo microscópico y lo
macroscópico. Una propiedad importante de S sigue fácilmente de la definición: dado que W es
un número natural (1, 2, 3,...), S es cero o positivo (ln (1) = 0, ln W ≥ 0).
Para aclarar el significado de W consideremos el ejemplo muy simple de un sistema
consistente en 100 monedas iguales para las que una dada distribución de “caras” y “cecas”
representaría un “macroestado”. Asumamos que este “macroestado” es el que corresponde a 99
caras y 1 ceca. Ahora bien, su asumimos que las monedas son distinguibles, como lo asume
Boltzmann con las moléculas del gas, existen 100 “microestados” distintos correspondientes al
mismo “macroestado”, ya que cualquiera de las 100 monedas puede estar en la condición “ceca”
y las restantes en la condición “cara” y dado que postulamos que las monedas son distinguibles,
dos “microestados”donde la moneda en la condición “seca” no sea la misma, son “microestados”
diferentes. En este caso sería W = 100. Observemos que si ahora nuestro “macroestado” es tener
98% caras, la cantidad de “microestados” distintos que conducen a este “microestado” será W =
100 x (100-1) = 9900 ya que tenemos 100 posibilidades al voltear la primer moneda y 99
posibilidades al voltear la segunda moneda. Es fácil ver que el número máximo de “microestados”
que corresponden a un “macroestado” sería en nuestro ejemplo W = 100 x (100-1) x (100-2) x
…….x (100-50) = N!/((N/2) -1)! = 100!/49! @ 56,8 x 1095 . Este número máximo posible de
“microestados” distintos corresponden al “macroestado” más probable que sería el de 50% de
“caras” e igual proporción de “cecas”. Efectivamente si arrojáramos repetidamente al azar las
100 monedas, nos iríamos acercando al límite de 50% de “caras” a medida que aumentara el
número de repeticiones. Es lo que podríamos considerar la “condición de equilibrio” del sistema
de monedas. Observemos que al aumentar el número N de monedas, el número máximo de
“microestados” crece rápidamente. Del mismo modo, un gas en que típicamente tenemos del
orden de 1023 partículas, el número máximo W de microestados que corresponden al
macroestado más probable es enormemente más alto que el de macroestados menos probables, lo
que justifica en términos puramente probabilísticos la tendencia de un gas a alcanzar rápidamente
su condición de equilibrio (120) .
VIII.3. El espacio de fases y el teorema de Boltzmann
Para comprender adecuadamente las ideas de Boltzmann, es necesario introducir algunos
instrumentos geométricos para la descripción de sistemas complejos que involucran la evolución
de un número grande de partículas. La mecánica clásica nos enseña que el estado de un sistema de
partículas queda totalmente determinado si en un dado instante conocemos su configuración, es
decir la posición que ocupa en ese instante cada una de las partículas y los vectores velocidad
asociados a cada una de las mismas también en ese instante momento. Dado que las partículas
pueden diferir entre ellas en su masa, resulta necesario en lugar de referirse al vector velocidad de
cada partícula, referirse al vector cantidad de movimiento o impulso lineal definido para cada
partícula como el producto del vector velocidad por su masa y que simbolizaremos como pi,
donde el subíndice i es simplemente una etiqueta que identifica la partícula que posee esa
cantidad de movimiento. Lo anterior nos dice que si tenemos un sistema con N partículas,
podemos concebir un espacio de 6N dimensiones en el que incorporamos un sistema de
coordenadas donde 3N ejes corresponden a las posiciones x1i, x2i, x3i (i = 1, 2,….N), que tienen
en un dado instante cada una de las partículas y los 3N ejes restantes corresponden a las
componentes p1 i , p2 i , p3 i (i = 1, 2,….N), del vector cantidad de movimiento de cada una de las
partículas en el instante dado. De modo que un punto en dicho espacio contiene toda la
información sobre el estado instantáneo del sistema. Un tal espacio es lo que en física llamamos
espacio de fases (121) como lo muestra esquemáticamente la fig. 8.1.
Ahora bien, según hemos visto, la dinámica newtoniana y su t-simetría nos dice que
conociendo el estado del sistema en un dado instante, podemos predecir el comportamiento del
mismo en el futuro o retrodecir cuál ha sido su comportamiento hasta el momento presente. En
otras palabras, dado un punto representativo del sistema en el espacio de fases, podemos
conocer su trayectoria en el mismo tanto en su evolución futura como pasada.
Fig. 8.1. Trayectoria de un sistema de partículas en el espacio
de fases. El punto denota el estado actual del sistema.
Para el caso de un gas, o en general de cualquier sistema que contenga un número muy
elevado de partículas, se presenta una imposibilidad práctica de conocer la posición y la cantidad
de movimiento de cada partícula en un dado instante, lo que obliga a un tratamiento estadístico
del sistema.
Como hemos puntualizado más arriba, el concepto estadístico de entropía de Boltzmann nos
permite relacionar ambos enfoques a través del uso del espacio de fases. En mecánica clásica, a
diferencia de lo que ocurre en mecánica cuántica, la energía de una partícula puede adoptar
cualquier valor de manera que tanto la posición como la velocidad de la partícula pueden variar
en forma continua. Esto significa que si para un sistema de N partículas un microestado queda
determinado por la posición y la cantidad de movimiento de cada partícula, el número de
microestados accesibles al sistema es infinito y sólo está sujeto a la condición que su energía
total sea igual a la del correspondiente macroestado.
Esto no impide dividir el espacio de fases en volúmenes o celdas de manera que los puntos
que se encuentran en una misma celda correspondan al mismo macroestado, como lo sugiere la
fig. 8.2. Cuanto mayor sea el número de microestados correspondientes a un mismo
macroestado, mayor será el volumen en el espacio de fases que contiene los puntos
representativos de esos microestados. Un resultado de la mecánica clásica conocido como
Teorema de Liouville dice que si seguimos la evolución temporal de un punto representativo de
un microestado en el espacio de fases, la densidad r de puntos representativos de los
microestados del sistema en la vecindad del punto que evoluciona en el espacio de fases se
mantiene constante. Por otra parte, un corolario del Teorema de Ergodicidad nos dice que si se
espera un tiempo suficiente, el punto representativo de un microestado recorrerá todo el espacio
de fases accesible al sistema. De manera que la densidad de puntos representativos de los
distintos microestados accesibles al sistema que estamos considerando, se mantendrá constante
en el tiempo y el volumen de una celda correspondiente a un dado macroestado será V = W/r,
donde W es el número de puntos en la celda representando los microestados del ensemble
correspondientes al macroestado dado (122).
La entropía correspondiente a un dado macroestado resulta entonces, de acuerdo a la (8.7)
Fig. 8.2. Representación esquemática del espacio de fases P para un gas donde cada celda contiene los puntos
representativos de los distintos microestados correspondientes a un mismo macroestado.
(8.8)
Dado que la densidad de puntos es constante, ln r aparece como una constante aditiva, por lo
que podemos tomar la entropía de cada macroestado como proporcional al logaritmo natural de
su volumen.
Hay algunos detalles de la fig. 8.2 que conviene aclarar. En primer lugar, se trata de una
representación esquemática bidimensional de un espacio de fases P que como ya hemos visto, es
6N-dimensional, donde N es el número de partículas del sistema en consideración. Como estamos
considerando un gas, las partículas son los átomos del mismo y N es del orden de 1023 por lo
que estamos hablando de un espacio de fases con un número de dimensiones de ese orden. Por
otra parte, cuando nos referimos al “volumen” de una celda, tengamos en cuenta que se trata de
un volumen también 6N-dimensional, es decir V = ( x1 1 x2 1 x3 1 ) ( x1 2 x2 2 x3 2 )….....( x1 N
x2 N x3 N ) ( p1 1 p2 1 p3 1 ) ( p1 2 p2 2 p3 2 ) ……..( p1 N p2 N p3 N ), donde el significado de
los subíndices y supraíndices es el indicado más arriba y D denota los rangos de coordenadas de
posición o de cantidad de movimiento sobre los que se extiende la celda en el espacio de fases.
La notable diferencia entre los volúmenes más pequeños y el identificado como se explica
al tener en cuenta que el número de microestados y por lo tanto de puntos correspondientes al
macroestado S es muchísimo mayor que los correspondientes a microestados menos numerosos.
Volviendo al ejemplo de las 100 monedas, la contribución del logaritmo natural de W a la
“entropía” correspondiente al “macroestado” de 98% de “caras”, sería, según ya hemos visto
(adoptando en este caso por simplicidad = 1) ln W = ln 9900 = 9.20, mientras que para el
“macroestado” de 50% de “caras”, resulta ln (56,8 x 1095) = 222.78. Esta marcada diferencia de
contribuciones a la entropía entre estados menos probables y el más probable correspondiente a
un sistema de 100 “partículas” se hace enormemente más amplia si consideramos la cantidad de
átomos contenidos en el gas lo que justifica la gran diferencia esquemática de volúmenes en la fig.
8.2.
Un aspecto adicional con relación a esta figura, es que existe cierto grado de subjetividad en
la forma en que el espacio de fases P es dividido en volúmenes o celdas correspondientes a
distintos macroestados. Esta forma de dividir el espacio de fases se conoce como coarse
graining. La subjetividad surge porque mientras que para un observador dos o más microestados
distintos pueden corresponder al mismo macroestado, un observador con medios de observación
más refinados podría reconocer macroestados diferentes. De cualquier modo, como veremos con
el siguiente ejemplo, variaciones no demasiado groseras en la forma de dividir el espacio de fases
tienen una influencia despreciable en los valores de entropía correspondientes a los macroestados
representados por las distintas celdas en que el espacio de fases es dividido.
En efecto, consideremos el caso de un gas en un recipiente rígido aislado que tiene un
volumen total de 1 litro, es decir 1 dm3. Supongamos que el recipiente tiene un tabique que
separa un volumen del 10% del total, es decir 0.1dm3 y que este volumen contiene un gas a
temperatura ambiente y presión atmosférica, lo que significa aproximadamente 1021 moléculas
de gas, (123) mientras que el otro 90% del volumen se mantiene evacuado. Si mediante algún
mecanismo se elimina el tabique, el gas se difundirá uniformemente por todo el recipiente. Dado
que la expansión del gas no implica en este caso trabajo alguno dado que se efectúa sobre un
recinto vacío, la energía interna y por lo tanto la temperatura del sistema se mantendrá constante
por lo que la cantidad de movimiento media de las moléculas de gas no cambiará. Pero ahora las
moléculas del gas disponen de un volumen 10 veces mayor para moverse, de modo que en
términos del espacio de fases el nuevo macroestado está representado por un volumen que es
1021 veces mayor que el volumen V0 en el espacio de fases correspondiente al macroestado
inicial, es decir del gas contenido en el volumen inicial de 0.1 dm3. La entropía del estado final
será entonces (124)
De modo que el incremento de entropía por la expansión del gas es
Si bien el valor de 0.03 J/ºK puede parecer modesto, corresponde a un incremento de
volumen de 1021 en el espacio de fases. De manera que surge inmediatamente la altísima
probabilidad que un punto representativo de un microestado del sistema en el espacio de fases se
encuentre en esta celda y la pequeñísima probabilidad de que estando en ella, fluctuaciones
accidentales lleven espontáneamente al sistema a concentrar todas las moléculas del gas
nuevamente en el volumen que ocupaba inicialmente en el sector del 10% del volumen total del
recipiente. Es evidente que esta celda de volumen dominante en el espacio de fases representa lo
que habitualmente consideramos como condición de equilibrio del gas. De hecho, su volumen es
muy superior a los volúmenes agregados de las celdas correspondientes a los otros macroestados
posibles y en la medida en que el coarse graining practicado para dividir el espacio de fases en
macroestados posibles sea “razonable”, no surgirán diferencias significativas en lo que hace al
estado más probable o de equilibrio.
Hay una forma ilustrativa que nos permite visualizar de qué manera la condición inicial de no
equilibrio representada por el gas confinado en una pequeña porción del volumen total
disponible, evoluciona hacia la condición de equilibrio representada por el gas distribuido
uniformemente en todo el volumen accesible. Consideremos la situación de la fig. 8.3 que
muestra esquemáticamente la región R del espacio de fases P que contiene los puntos
representativos de los microestados de la condición inicial confinada del gas. El Teorema de
Liouville impone que la evolución temporal de los puntos representativos de los microestados se
efectúe manteniendo constante el volumen que ocupaban inicialmente en el espacio de fases, es
decir la deformación de la región R sobre P debe progresar de manera análoga a la que
experimentaría un fluido incompresible, por ejemplo como lo haría una gota de tinta insoluble en
agua manteniéndose constante el volumen ocupado por la tinta independientemente de cómo se
encuentre dispersa.
Debemos ser cuidadosos al interpretar la evolución de los puntos representativos de los
microestados iniciales del sistema contenidos en la región R.
Fig. 8.3. Evolución esquemática de los puntos representativos bde los microestados de un macroestado inicial R fuera
de equilibrio que se dispersa en forma fibrilada sobre todo el espacio de fases P como lo haría un fluido
incompresible, es decir manteniendo constante su volumen.
Tengamos en cuenta que cada punto de la región R del espacio de fases que esté
efectivamente ocupado por un punto representativo de la condición inicial del sistema representa
un microestado inicial compatible con las restricciones macroscópicas impuestas al sistema.
Éstas podrían ser por ejemplo la presión P, el volumen V, el número N de partículas y la energía
inicial E. Ahora bien, cada uno de esos puntos evolucionará según una trayectoria en el espacio
determinada por las leyes de la dinámica aplicables al sistema y consistentemente con las
restricciones macroscópicas impuestas. Dado el tiempo suficiente, cada punto recorrerá
recurrentemente todo el espacio de fases accesible al sistema pero de acuerdo al Teorema de
Liouville, el volumen ocupado en cada instante por el conjunto de puntos representativos de
cada uno de los microestados se mantendrá constante en el tiempo. De este modo, los
microestados posibles evolucionan hacia una distribución que, dado un tiempo suficientemente
largo, ocupará todo el espacio de fases accesible al sistema y en cada instante la fracción de
puntos ocupados en cualquier región arbitrariamente seleccionada del espacio de fases será igual
a la fracción de puntos ocupados inicialmente sobre todo el espacio de fases accesible al sistema.
Los puntos del espacio de fases accesible al sistema permiten entonces generar un coarse
graining donde cada celda corresponda a un posible macroestado y la celda de mayor volumen y
por lo tanto de mayor entropía o probabilidad, será la que corresponda a la condición de
equilibrio del sistema.
La interpretación de Boltzmann del 2º Ppio. de la termodinámica a través de su definición
probabilística de la entropía, no impide entonces en términos absolutos fluctuaciones en
sistemas cerrados en los que la entropía disminuya. Pero como el ejemplo anterior lo ilustra, la
probabilidad de que ello ocurra es tan insignificante que tales evoluciones no se nos presentan a
la observación en el mundo físico al menos en la escala de tiempo de nuestra experiencia como
especie. Vista bajo esta luz, la 2da. ley de la termodinámica tiene un carácter esencialmente
probabilístico, lo que marca una significativa diferencia con el carácter que poseen las leyes de la
mecánica clásica newtoniana, de naturaleza totalmente determinística.
VIII.4. La “flecha del tiempo” termodinámica
Encontramos en la entropía un concepto que si bien probabilístico, implica una clara
asimetría en la dirección en que evolucionan los sucesos que tienen lugar en el mundo físico en
escala macroscópica.
Fig. 8.4. Evolución temporal de un sistema en el espacio de fases a partir de una condición inicial de baja entropía.
Podemos ilustrar esta idea, haciendo referencia a la fig. 8.4 que muestra esquemáticamente el
espacio de fases dividido en las celdas que contienen los diferentes microestados que
corresponden a un mismo macroestado. Hemos visto que el volumen de cada celda es
proporcional a la entropía del correspondiente macroestado. De manera que si consideramos un
sistema que parte de una condición inicial de muy baja entropía (y por lo tanto de baja
probabilidad), su evolución temporal se realizará de acuerdo a las leyes de la dinámica que rigen
al sistema y satisfaciendo las restricciones externas impuestas al mismo. Es fácil ver que la
evolución más probable que el sistema seguirá en el espacio de fases corresponde a un camino
que lo llevará progresivamente a regiones de mayor volumen y por lo tanto de mayor entropía
como lo sugiere la trayectoria indicada en la figura con línea continua. Como ya hemos visto, la
celda correspondiente a la condición de equilibrio es inmensamente mayor que las que
corresponden a condiciones fuera de equilibro por lo cual el punto representativo del sistema en
el espacio de fases tendrá una alta probabilidad de alcanzar y permanecer en aquella condición.
Esto no introduce ninguna imposibilidad esencial para que el punto representativo del
microestado del sistema reingrese en una celda de menor entropía. Lo que simplemente ocurre es
que debido a la enorme diferencia en los volúmenes resultante del coarse graining, la
probabilidad de que el punto representativo de la evolución del sistema retorne a una celda más
pequeña que la que se encuentra en un dado instante es altamente improbable al menos en un
plazo de tiempo que no sea absurdamente largo.
El análisis anterior constituye la razón por la cual podemos esperar que efectivamente la 2da.
ley de la termodinámica se cumpla. Sin embargo, es necesario hacer consideraciones adicionales.
En primer lugar, observemos que asumiendo que el sistema se encuentre “ahora” en la condición
que hemos indicado como inicial en la fig. 8.4, una inversión temporal a partir este instante
implica que el punto representativo del estado del sistema debe haber alcanzado esta condición
proviniendo de celdas de mayor volumen, como lo sugiere la curva discontinua de la misma
figura. Pero esto implicaría, como se ilustra en la fig. 8.5, que la entropía aumenta cuando vamos
hacia el pasado en lugar de disminuir, en flagrante contradicción con la 2da. ley de la
termodinámica.
Fig. 8.5. De acuerdo a lo inferido de la Fig. 8.4, la entropía debería aumentar hacia el pasado como lo sugiere la línea
discontinua. En cambio, la observación de la realidad nos indica que la entropía disminuye hacia el pasado como lo
prescribe la 2ª ley de la termodinámica.
De manera que por alguna razón, “algo” debe haber actuado para que en el pasado la entropía
fuese muy baja de modo que con el transcurso del tiempo la entropía fuese siempre aumentando.
La entropía inicial del universo tiene entonces que haber sido extremadamente baja para que se
cumpla la 2da. ley de la termodinámica. Posiblemente la respuesta a este enigma se encuentre en
el universo primitivo. El modelo cosmológico standard nos dice que el universo comienza con
una gran explosión, el llamado “big bang”. Ahora bien, una de las propiedades más notables del
universo primigenio que surge del big bang es su gran uniformidad que se manifiesta hoy en la
isotropía de la radiación de 2.7 ºK que constituye la reliquia de la explosión primitiva que dio
origen al universo y que es uniforme en el sorprendente valor de 1 en 105. Esta gran uniformidad
en la masa de gas y radiación primitiva puede justificar la muy baja entropía inicial del universo.
En efecto, tengamos en cuenta que cuando nos referimos a un gas en equilibrio distribuido
uniformemente en un volumen asociamos al mismo un estado de máxima entropía. Sin embargo,
con masas gravitantes la situación es completamente diferente. En este caso una distribución
uniforme de partículas gravitantes en un dado volumen constituye un estado de baja entropía y
esta entropía va en aumento al comenzar esas partículas a coalescer en grupos y llegar
eventualmente a constituir un único cuerpo. De esta manera, la entropía extremadamente baja del
universo primitivo puede explicarse por la gran uniformidad que exhibía. Una alternativa, es que
la baja entropía inicial obedece a que en algún momento de su historia, nuestra región el universo
experimentó una “fluctuación” al azar que llevó el punto representativo de esta parte del
universo en el espacio de fases a una región de entropía extremadamente baja. Si bien esta
fluctuación es extremadamente improbable, puede haber ocurrido. Esta alternativa está en alguna
medida justificada por lo que hemos denominado “Principio antrópico” y al cual hemos hecho
referencia anteriormente. De acuerdo con este principio, la existencia de vida sobre la tierra y en
particular la existencia de vida inteligente, no se podría haber desarrollado de no haber existido en
al menos alguna región del universo una entropía lo suficientemente baja como para que en esa
región sea válida la 2da. ley de la termodinámica. Efectivamente, el desarrollo y evolución de la
vida requiere un sistema lo suficientemente alejado del equilibrio termodinámico como para que
tengan lugar todas las fluctuaciones químicas necesarias para iniciar las primeras formas de vida
y su posterior evolución (125).
El Principio Antrópico, tal como lo formuló el físico Robert Dicke en 1957, no debe verse
como una ley falsable sino más bien como un principio metodológico útil para interpretar ciertos
hechos de la naturaleza, entre ellos la existencia de observadores inteligentes en el universo. En
1930, físico inglés Paul Dirac notó una coincidencia notable: el número de partículas del universo
observable es del orden de 1078, mientras que el radio entre las fuerzas electromagnéticas y las
fuerzas gravitatorias entre dos protones es de aproximadamente 1039. Que estos números sean
tan elevados ya es notable, pero el hecho que el primero sea el cuadrado del segundo lo es aún
más, lo que sugeriría alguna relación entre ambos. De cualquier modo, el radio entre las fuerzas
electromagnéticas y las fuerzas gravitatorias depende de constantes de la naturaleza que son la
carga del electrón, la masa del protón y la constante de gravitación universal que se presume son
constantes e invariantes en cualquier región del universo. Por el contrario, el número de
partículas del universo observable aumenta constantemente a medida que la luz de regiones más
lejanas del universo nos alcanza y se hacen por lo tanto accesibles a nuestra observación. En este
momento, el radio de nuestro universo observable es de unos 15000 millones de años luz. De
modo que la única manera que aquella relación numérica se mantenga es si varían las constantes
de la naturaleza involucradas. Sin embargo, la evidencia experimental más reciente parece indicar
que en particular, la constante de gravitación universal se ha mantenido constante en el tiempo.
Fue Dicke quien propuso que la razón de ser de la coincidencia numérica detectada por Dirac es
una condición necesaria para la evolución de la vida, debido a que el desarrollo de vida inteligente
requiere un universo que haya envejecido lo suficiente como para que la relación apuntada por
Dirac se cumpla. En otras palabras un universo en el que la relación de Dirac no se cumple, no ha
tenido el tiempo suficiente para la evolución de vida inteligente. La relación se explica entonces
como un proceso antrópico de selección que no requiere la modificación en el tiempo de ninguna
constante universal. En la misma tónica, podemos justificar la ocurrencia de una fluctuación en
una región del universo de manera que la baja entropía resultante de esta fluctuación habilite con
el tiempo el desarrollo de la vida y de observadores inteligentes. La “flecha del tiempo” no sería
entonces otra cosa que la consecuencia de la asimetría que rige la evolución de los sistemas
macroscópicos, al menos en nuestra región del universo.
110 . De lo contrario, la temperatura final del recipiente y del ambiente estaría en algún valor intermedio entre la
temperatura inicial del ambiente y la inicial del recipiente.
111 . D.Barrow, “ The World within the World” Oxford University P ress, 1988.
112 . H.Reichenbach, “ The Direction of Time” Dover P ublications, Inc. N.Y., 1999.
113 . Decimos que la observación debe ser “ local”, porque si la misma incluyera todo el curso del río surgirían datos que
podrían indicar cuál es el flujo normal, ya que por ejemplo en un río de montaña queda clara la dirección del flujo normal
aguas abajo.
114 . También la observación debe ser localizada en el tiempo, ya que si la extendemos a períodos suficientemente largos
surgirían aspectos que nos permitirían identificar el sentido del flujo temporal, por ejemplo el ordenamiento espontáneo
de un mazo de cartas previamente mezclado al azar.
115 . Esta simetría de la leyes de la mecánica la denominamos nomológica, ya que proviene del término nomos, regla.
116 . Como vemos la simetría nomológica o invariancia de las leyes de la mecánica bajo inversión temporal, conduce a
soluciones también simétricas bajo esa inversión temporal (simetría fáctica). Esto no es necesariamente siempre así y hay
capítulos de la física en que la simetría nomológica no conduce a simetrías fácticas.
117 . L.Sklar “ Philosophy of Physics” Oxford University P ress, 1992.
118 . M.Castagnino; J.J.Sanguinetti, “ Tiempo y Universo: Una visión filosófica y científica” Ediciones Catálogos,
Bs.As., 2006.
119 . E.Fermi “ Thermodynamics” Dover P ublications, N.Y., 1956.
120 . R. P enrose, “ The Emperor’s New Mind: Concerning computers, minds and the laws of physics” Oxford University
P ress, 1989.
121 . A diferencia de lo que se denomina “ espacio de configuración” que sería el espacio de 3N dimensiones donde cada
punto del espacio contiene la información de la posición de todas las partículas en un dado instante.
122 . R. P enrose, “ The Road to Reality: A complete guide to the laws of the universe” Alfred A. Knopf, N.Y, 2005.
123 . Si bien hablamos indistintamente de átomos o de moléculas, estamos considerando para simplificar un gas
monoatómico como por ejemplo He o Ar, por lo que la diferencia es insubstancial.
124 . Imponemos por conveniencia que la densidad de puntos en el espacio de fases es igual a 1, lo que no resta ninguna
generalidad al análisis.
125 . J.D.Barrow, F.J.Tipler, “ The Anthropic Cosmological Principle” Oxford University P ress, 1986.
IX.
COMPUTADORAS, CONCIENCIA E INTELIGENCIA
ARTIFICIAL
IX.1. El problema de la naturaleza de la conciencia
Resulta seguramente apropiado comenzar nuestro análisis de algunos de los problemas
actuales de la ciencia y la tecnología con el relacionado al origen del pensamiento consciente.
Como veremos, lejos de ser una cuestión alejada de la física y la ingeniería, este problema tiene
connotaciones importantísimas en este terreno. De hecho hay quienes asignan tal trascendencia a
este problema que sus argumentos nos resultarán seguramente sorprendentes cuando los
consideremos.
El problema del despertar de la conciencia sólo puede plantearse una vez definido el
significado del término conciencia, y esto sin duda no es algo inequívoco ni sencillo, al estar
sujeto este concepto como tantos otros que iremos viendo, a interpretación subjetiva y por ende
discutible. En tal sentido, adheriremos a la idea que la conciencia es esa condición mental que nos
permite identificarnos como algo distinto del resto del universo. De hecho, la posibilidad de
percibir nuestro propio yo, en otras palabras, de darnos cuenta de nuestra existencia
(awareness), es posiblemente el atributo característico de la conciencia. Como veremos existen
otras interpretaciones acerca de lo que puede entenderse por “conciencia”, dado que la idea de
ésta como una cualidad de nuestra mente que nos permite asumirnos como una entidad
independiente del resto del mundo, constituye sin duda un concepto poco satisfactorio y difuso.
Tal concepto no permite por ejemplo, decidir de manera categórica si un animal no humano
posee o no conciencia. Cabe por supuesto especular que la conciencia pueda encontrarse
presente en los seres de la escala zoológica a partir de cierto nivel de complejidad en la
organización de su sistema nervioso, de modo que de acuerdo con este criterio una mosca puede
no ser consciente pero quizás sí podría serlo un perro o un gorila. Si el concepto de conciencia
pudiese definirse científicamente, los interrogantes anteriores podrían resolverse
experimentalmente. El hecho de que hasta ahora ello no haya ocurrido, de ninguna manera puede
tomarse como evidencia de una supuesta imposibilidad que la conciencia sea un fenómeno
reducible a interpretación científica.
De cualquier modo y dejando de lado por el momento la cuestión de una definición científica
rigurosa del concepto de conciencia, la evidencia antropológica nos sugiere que la forma de
pensamiento que podemos considerar “humana” es un fenómeno relativamente tardío en la escala
geológica del desarrollo de la vida sobre la tierra. En este sentido, se estima que el pensamiento
consciente, tal como lo concebimos en los seres humanos, se alcanza sólo hace unos pocos
millones de años (126). Este suceso coincide con una marcada expansión del volumen del
cerebro. Suponemos que antes de que tal desarrollo tuviera lugar, el hombre primitivo no se veía
a si mismo diferenciado del mundo exterior al que interpretaba posiblemente como una
manifestación de su propio espíritu. De esta manera, el primitivo era un participante en la
naturaleza y no un observador. De hecho se menciona que quienes han sido sometidos a
lobotomías han perdido en algunos casos el sentido de identidad, es decir la sensación de ser un
individuo distinto de los demás. Fósiles que datan de hace aproximadamente dieciocho millones
de años (Procónsul) muestran la aparición por primera vez de cavidades endocraneales que
sugieren la presencia de lóbulos frontales apreciables y con ellos un salto importante en la
capacidad intelectual. No vamos a hacer aquí una descripción detallada de la evolución del
cerebro. Basta mencionar que su desarrollo parece haberse realizado desde adentro hacia afuera.
Es así que en lo más profundo del cerebro se encuentra el tallo encefálico que gobierna las
funciones vitales básicas, tales como los latidos del corazón o la respiración. Sobre el tallo
encefálico se encuentra el tejido que se denomina complejo R o cerebro reptílico, que constituye
el asiento de la agresividad, la territorialidad, del comportamiento ritual y jerárquico que
desarrollaron nuestros antepasados los reptiles. Rodeando al complejo R se encuentra el sistema
límbico característico de los mamíferos, y que determina nuestros estados de ánimo y emociones
así como el instinto del cuidado y amor por la cría. Finalmente, en la parte más externa (y más
expuesta) encontramos la corteza cerebral o neocortex, sede de la intuición, el pensamiento
analítico y por lo tanto, según algunos sostienen, de la conciencia.
En forma esquemática, podemos concebir el cerebro como tres capas concéntricas, donde
cada capa corresponde a un estadio de la evolución del mismo comenzando por el centro. Hay
una notable falta de acuerdo respecto de cuál es en realidad el asiento de la conciencia. Lo que
resulta evidente, es que no todas las partes del cerebro juegan el mismo rol en tal sentido. De
hecho, la experiencia recogida en intervenciones quirúrgicas realizadas a seres humanos ha llevado
a conjeturar que el desarrollo de actividad consciente (a diferencia de la actividad inconsciente o
refleja), requiere la participación de al menos algunas zonas del sistema límbico y del tallo
cerebral (127). En este sentido se ha puntualizado que el hipocampo podría constituir el
componente esencial de la conciencia. Esto puede estar relacionado con el hecho que el
hipocampo juega un papel importante en la memoria de largo plazo y se podría especular que el
estado consciente tiene mucho que ver con la existencia de tal tipo de memoria. Algunos
neurofisiólogos han ido todavía más lejos y proponen que el asiento de la conciencia, si en
realidad tal sitio existe, se localizaría en zonas del complejo R. Esto puede resultar
desconcertante para algunos, ya que según hemos visto se trata de la parte más primitiva de
nuestro cerebro, lo que nos induciría a pensar que nuestros antepasados los lagartos y otros
grandes reptiles ya gozaban de este atributo del cual tanto nos enorgullecemos los humanos.
Incidentalmente, la idea de que la conciencia puede estar vinculada con la actividad del complejo
R podría resultar útil para explicar o al menos tratar de entender porque a lo largo del tiempo se
ha mantenido de manera casi inalterable el interés del hombre por lo temas esotéricos, que
constituyen en última instancia un claro ejemplo de comportamiento ritual. De ser esto así,
quienes no compartimos dichas prácticas y las vemos como un signo de ignorancia y
oscurantismo injustificable en nuestros días, deberíamos quizás reconfortarnos con el hecho que
las mismas obedecen a la existencia de una zona inevitablemente presente en lo profundo de
nuestras cabezas. Volviendo al tema de la conciencia, un punto de vista psicologista propone en
cambio que su desarrollo está íntimamente relacionado con la evolución del lenguaje. Desde este
punto de vista, los estados conscientes serían mera consecuencia de la posibilidad de
comunicarnos con otros seres humanos a través del lenguaje, con lo cual podemos transmitirnos
los unos a los otros nuestros estados de ánimo y nuestros pensamientos, persuadiéndonos
mutuamente de nuestra condición única de seres conscientes. Si tenemos en cuenta que la
regiones del cerebro responsables del lenguaje son las llamadas áreas de Broca y Wernicke que se
encuentran (en la mayoría de las personas) en el lado izquierdo de la corteza cerebral, ello
implicaría que la conciencia se encuentra relacionada con dicha zona.
Llegamos así a uno de los puntos centrales de nuestro análisis. Esto es: ¿en qué medida las
consideraciones anteriores implican que la conciencia puede localizarse en un lugar determinado
de nuestro cerebro? ¿No resulta quizás más razonable suponer que lo que llamamos conciencia es
en realidad el resultado de la complejidad organizacional del cerebro y de las interrelaciones que
se establecen entre sus partes cuando éstas desarrollan sus funciones? En otras palabras: ¿hasta
qué punto podemos asimilar el funcionamiento del cerebro al de una computadora digital de gran
sofisticación?
Hemos consideramos la posibilidad que la conciencia sea la consecuencia de la complejidad
cerebral y de las interrelaciones que se establecen entre sus partes cuando éstas desarrollan sus
funciones. Desde este punto de vista, cabría entonces la posibilidad de que una máquina, una
computadora, de suficiente complejidad y sofisticación pudiese llegar a poseer el atributo al que
denominamos conciencia. De hecho, ésta es la posición de los sostenedores de lo que suele
llamarse versión “fuerte” del concepto de inteligencia artificial (IA). Para ellos, el cerebro
humano no es entonces otra cosa que una computadora altamente perfeccionada por el proceso
de selección natural, y todas las manifestaciones que normalmente atribuimos a la conciencia,
tales como la percepción de la belleza, placer, dolor, amor, etc., son sólo manifestaciones de una
complejidad algorítmica. Otros en cambio, en forma muy notable R. Penrose (128) en los últimos
años, han atacado este concepto. En general estamos acostumbrados a que las máquinas nos
superen físicamente. Lo que no estamos dispuestos a aceptar tan fácilmente es que nos derroten
intelectualmente. Podemos en general decir que existen cuatro posiciones suficientemente
diferenciadas entre sí respecto de este punto:
A. Todo pensamiento es computación, en particular la experiencia consciente (conscious
awareness) es el resultado de la ejecución de procesos computacionales apropiados
B. La experiencia consciente es una característica de la acción física del cerebro, pero si bien
toda acción física puede simularse computacionalmente, la simulación computacional no
puede resultar en la experiencia consciente.
C. La acción física del cerebro resulta en la experiencia consciente, pero esta acción física (y
por ende la experiencia consciente) no puede ser simulada computacionalmente.
D. La experiencia consciente no puede ser explicada en términos físicos, computacionales, o
de ningún otro tipo científico.
El tema sin duda no es trivial. Para poner en evidencia su complejidad, basta tener en cuenta
que la conciencia constituye, al menos hasta ahora, un lugar inaccesible para todos excepto para
uno mismo. Esto es algo que consideramos natural y de lo que el ser humano se da cuenta ya en
sus primeras experiencias. De hecho, como lo señala E. Squires en su muy interesante libro
(129), el niño sabe perfectamente que cuando dice “me siento mal” para evadir la obligación de ir
a la escuela, no existe forma sobre la tierra de refutar de manera absoluta su afirmación. Por la
misma razón, el “detector de mentiras” utilizado por la policía para determinar si una persona
sometida a un interrogatorio dice la verdad, sólo es considerado un elemento circunstancial desde
el punto de vista legal y no tiene valor probatorio absoluto. Todo esto está por otro lado
directamente relacionado con el problema de decidir si es o no posible determinar de manera
empírica si un sujeto (o un objeto) es o no consciente. Hasta ahora, juzgamos que algo o alguien
es consciente sólo en la medida que presente analogías de conducta con nosotros mismos. Ya
hemos mencionado anteriormente que hay quienes ponen en duda la universalidad de la
conciencia en el mismo ser humano, al menos a través del tiempo, llegando al extremos de
argumentar que el advenimiento de la conciencia se produce en el hombre hace sólo unos dos o
tres mil años (130) como consecuencia de transformaciones cerebrales inducidas por
acontecimientos de tipo social. Según esto, los individuos antes de esta transformación actuaban,
un poco como autómatas, de acuerdo al dictado de “voces” interiores provenientes de sus
mentes y desconocían todo sentido de responsabilidad por su comportamiento. Según R.
Penrose, las dificultades encontradas hasta ahora para explicar en términos lógicos o físicos el
fenómeno de la mente, es consecuencia de un todavía incompleto conocimiento de las leyes
físicas a un nivel fundamental.
Éste es uno de los problemas fundamentales que nos proponemos oportunamente explorar.
Planteado en otros términos sería: ¿es posible diseñar una máquina, construible en principio
(aunque el estado de la tecnología no lo permita todavía), cuyo comportamiento sea imposible de
distinguir con respecto al de un ser humano consciente? Además: de ser esto último posible,
¿podríamos en tal caso afirmar que dicha máquina posee conciencia en el sentido que
normalmente asignamos a éste término? Aún mas: ¿tienen estos interrogantes respuesta en el
campo de la ciencia y la filosofía? Volveremos, por supuesto, sobre estos temas más adelante.
Por el momento nos basta con puntualizar que mientras la posición A indicada más arriba
representa lo que hemos calificado la tesis de los adeptos a la IA “fuerte”, la posición
representada por B sería la de los defensores de la IA “débil”.
Ahora bien, la aceptación de C implica la aceptación de que no todas las acciones físicas
pueden ser simuladas por una computadora. Podemos entonces preguntarnos si la física actual
permite concebir una acción (física) que sea en principio imposible de simular en una
computadora. Digamos que no hay hasta ahora total acuerdo al respecto. En este sentido
podemos diferenciar entre los sostenedores de dos posturas claramente separadas: la de quienes
sostienen que la física actual es adecuada y que sólo es necesario encontrar procesos sutiles
dentro de nuestro conocimiento convencional que nos lleven a situaciones no asimilables al
funcionamiento de una computadora, y la de quienes piensan que tales situaciones sólo son
concebibles en el marco de una física aún no descubierta.
IX.2. Sistemas formales
Una de las ideas centrales de este capítulo es la de sistema formal. En lugar de intentar una
definición de sistema formal, lo que haremos es procurar introducir el concepto siguiendo de
cerca a D.R. Hofstadter (131), quien lo hace a través de lo que él llama “problema-mu”, y que
consiste en lo siguiente:
Dadas las reglas:
i. Si se tiene una cadena de caracteres alfabéticos cualesquiera, cuya última letra es I, se
puede agregar la letra U al final de la cadena.
ii. Si se tiene una cadena de caracteres alfabéticos cualesquiera, se puede siempre duplicar la
última letra y agregarla al final de la cadena.
Es decir, si designamos por comodidad con la letra M a una cadena cualquiera de letras,
M x representará la cadena M seguida de la letra x. Lo que la regla ii) nos dice es que si
tenemos la cadena M x, podemos siempre construir la nueva cadena M xx.
iv. Si el triplete III aparece en cualquier posición de una cadena, se puede siempre construir
una nueva cadena al reemplazar el triplete por la letra U.
v. Si el doblete UU aparece en cualquier lugar de una cadena, se puede siempre eliminarlo.
Ahora bien, dada la cadena M I, utilizando las reglas i) a iv), construir la cadena M U.
En realidad no nos interesa aquí la solución de este problema. Por ahora lo importante es que
al intentar hallar la repuesta, es decir producir la cadena M U, encontramos una cantidad de
cadenas que son consecuencia de la aplicación de las reglas anteriores. Tales cadenas son
teoremas, y las i) a iv) son reglas de producción o reglas de inferencia que, junto con los
teoremas, constituyen el sistema formal. De manera que en un sistema formal, los teoremas son
simplemente producidos a partir de la aplicación automática de las reglas de inferencia. Por la
misma razón, en un sistema formal los teoremas no deben ser necesariamente considerados como
enunciados provistos de algún significado en particular sino simplemente como cadenas de
símbolos que resultan de la aplicación de reglas tipográficas. Por esto en sistemas formales es
más adecuado decir que los teoremas son “producidos” en lugar de “demostrados”, ya que esta
última expresión se aplica más adecuadamente a enunciados provistos de significado a los que se
arriba por la aplicación de razonamientos lógicos, tal como ocurre por ejemplo con los teoremas
de la geometría euclidiana.
Es interesante considerar el hecho de que si comenzamos a generar teoremas aplicando las
reglas de inferencia dadas más arriba, a poco de comenzar nos daremos cuenta que todas las
cadenas producidas comienzan con la letra M . Basta revisar la reglas de producción de las
cadenas para darnos cuenta que la M inicial es la herencia del axioma M I por lo que es una
inevitable consecuencia lógica de las reglas de inferencia. Este resultado representa una
demostración de naturaleza totalmente distinta a los teoremas constituidos por las cadenas de
símbolos, ya que para arribar a aquella es necesario observar el sistema en su conjunto (“salir
fuera” del sistema) e identificar patrones de comportamiento. Lo anterior pone de manifiesto una
característica peculiar de la inteligencia: mientras que sería relativamente sencillo programar una
máquina que construyese ciegamente cadenas por la aplicación automática de las reglas de
inferencia, es virtualmente imposible pedir a un ser inteligente que aplique las mismas reglas sin
que en algún momento efectué una observación general sobre el comportamiento del sistema.
Esto no debe en modo alguno considerarse como una “prueba” de la imposibilidad de diseñar una
“máquina inteligente”, es decir capaz de salir del sistema y de efectuar observaciones sofisticadas
y generales sobre el mismo. De hecho, esto es posible y quizás el primer ejemplo de ello fue el
de una computadora que participó hace ya tiempo en un torneo de ajedrez en Canadá. La
computadora no era particularmente brillante en lo que hace al juego en sí, pero tenía la
particularidad de poder evaluar su situación en la partida y abandonar el juego cuando llegaba a
una situación insalvable sin necesidad de alcanzar una condición de jaque-mate. Actualmente, las
computadoras son capaces de derrotar a los grandes maestros y programas de ajedrez para juego
y entrenamiento están disponibles en Internet. De modo que es muy importante destacar la
diferencia entre lo que es trabajar “dentro” de un sistema (como sería la producción automática
de cadenas por aplicación de la reglas de inferencia), modo al que llamaremos M (M ecánico), y
trabajar “fuera” del sistema, modo al que llamaremos I (Inteligente). En los seres humanos la
frontera entre estos dos modos de operar no se encuentra en general claramente definida, y en la
vida cotidiana solemos “saltar” dentro o fuera de los sistemas que manejamos, de manera natural
e inadvertida.
La aplicación sistemática de las reglas de producción de nuestro sistema formal nos
permitiría, si disponemos del tiempo necesario, ir generando todas las cadenas o teoremas. Surge
entonces la siguiente pregunta: ¿dada una cadena cualquiera, cómo podemos saber si es un
teorema del sistema considerado? Es relativamente fácil identificar cadenas que no puede ser
teoremas: por ejemplo las que no comiencen con la letra M . Sin embargo probar que una cadena
cualquiera dada no es un teorema requiere de algún procedimiento general. Una forma de hacerlo
sería programar una máquina para que vaya produciendo de modo sistemático todas las cadenas
del sistema, de modo que cuando aparezca la que estamos buscando la identifique como un
teorema. De lo contrario, es decir si la cadena no aparece, la misma no es un teorema. El
inconveniente que tiene este procedimiento es que no sabemos a priori cuánto tiempo
tendríamos que esperar hasta que apareciese la cadena en cuestión. Incluso pudiera darse el caso
en que el tiempo necesario fuese infinito. De modo que para que el procedimiento sea aplicable
debemos imponer la condición que obtengamos la respuesta deseada en un tiempo finito, es decir
que el procedimiento siempre termine, en cuyo caso lo llamaremos procedimiento de decisión
para el sistema. Un procedimiento de decisión es entonces una caracterización concreta y
explícita de la naturaleza de los teoremas en el sistema, en contraste con la que brindan los
axiomas y las reglas de inferencia, que constituyen una caracterización implícita. De aquí la
importancia de contar con un procedimiento de decisión.
IX.3. El Test de Turing
Alan Turing (132) propuso una metodología para determinar si una máquina posee
inteligencia en la forma en que se manifiesta en los seres humanos, es decir a través del
pensamiento consciente. Esta metodología se conoce hoy con el nombre de Test de Turing. Para
entender en qué consiste el test de Turing puede resultar útil reflexionar acerca de qué manera
podríamos determinar si una entidad cualquiera (ser vivo o inanimado) es poseedor del atributo
de la conciencia tal como lo entendemos habitualmente. Debemos admitir que éste no constituye
para nosotros un problema habitual dado que en nuestra vida cotidiana interactuamos
generalmente con otros seres humanos en los que damos por sentado la existencia de la
conciencia, o con objetos o artefactos en cuyo caso damos por descontado la carencia de tal
atributo. Para demostrar la complejidad del problema basta dar un ejemplo. Consideremos el
caso de un gato en una habitación cuya temperatura resulta excesivamente elevada debido a la
regulación inadecuada del sistema de calefacción. Es probable que el animal nos diera en tal caso
indicios de encontrarse incómodo moviéndose de un lado a otro de la habitación, y otras señales
de inquietud. Sin embargo, sabemos que a pesar de esta aparente incomodidad, el gato no tomaría
acción alguna para modificar la temperatura de la habitación, como lo sería por ejemplo alterar la
regulación del termostato para disminuir la temperatura de la habitación. En cambio, es el propio
termostato el que, alcanzada cierta temperatura, actuaría de modo de que la misma no continuase
elevándose. En otras palabras, desde un punto de vista muy simplista, podríamos atribuir al
termostato un grado de conciencia que quizás negaríamos al gato, ya que es el termostato y no el
animal el que actuaría de la misma manera en que lo haríamos nosotros frente a una situación
similar. El caso se complicaría por supuesto si tuviésemos que determinar la existencia de una
conducta inteligente en el caso de un chimpancé o un gorila. En tal caso, posiblemente
condicionaríamos nuestra decisión al resultado de algunas pruebas que nos permitiesen, a través
de algún criterio razonable, establecer la presencia o la carencia de una condición consciente. En
todo caso, lo que seguramente haríamos es analizar la respuesta del sujeto bajo análisis a ciertos
estímulos y evaluar el grado de racionalidad de tales respuestas. Por supuesto que el grado de
racionalidad de las respuestas será juzgado por la semejanza de dichas respuestas con las que
nosotros mismos hubiésemos elaborado en idénticas circunstancias. Es precisamente en esto en
lo que se basa el test de Turing. Imaginemos que nos encontramos en una habitación cerrada y
que sólo podemos comunicarnos con el exterior a través de un fax o una terminal de
computadora, es decir a través de mensajes escritos únicamente. La esencia del test de Turing
consiste entonces en tratar de establecer a través de un diálogo conducido por escrito, si nuestro
interlocutor es o no un ser inteligente. De modo entonces que si algo (p. ej. una máquina) o
alguien puede convencernos desde el otro lado de la línea que su comportamiento es inteligente,
entonces no nos queda otra alternativa que aceptar que ese algo o alguien es, efectivamente, una
entidad consciente.
IX.4. Hardware y software
En la jerga de la computación, el término hardware se emplea para designar a los
componentes materiales de una computadora. Es decir sus plaquetas, cables, impresora, disco
rígido o disco flexible, etc. Por el contrario, el término software, como su nombre lo sugiere se
reserva para designar a los componentes inmateriales del sistema, tales como los programas o
cualquier otro tipo de información que sea utilizado por la computadora (el soporte físico de tal
información, como por ejemplo los dominios magnéticos en una cinta o en un disco, ya son parte
del hardware). Ahora bien, el descubrimiento más notable de Alan Turing es que cualquier
máquina cuyo hardware haya alcanzado un grado suficiente de complejidad y flexibilidad, es
equivalente (en su comportamiento) a cualquier otra máquina cuya complejidad sea también lo
suficientemente elevada. Debemos precisar aquí el término de “comportamiento”, entendiendo
por tal al hecho de que si a ambas máquinas las alimentamos con los mismos datos de entrada,
obtendremos en ambas exactamente la misma respuesta independientemente del modo en que
cada una procese la información que le fue suministrada o del tiempo que se tomen para
procesarla. Denominaremos a cualquier máquina que satisfaga las condiciones anteriores como
Máquina Universal de Turing (MUT). En principio, cualquier computadora moderna puede ser
considerada, dentro de ciertos límites, como una MUT. Estos conceptos no son para nada
triviales, ya que los sostenedores de la IA argumentan que los aspectos de detalle particulares del
hardware son en última instancia de importancia secundaria en el proceso del pensamiento, lo
que brinda sustento a la idea de reducir el comportamiento consciente de cualquier ser humano al
de una máquina suficientemente compleja. Todo esto está relacionado con el interrogante acerca
de cómo está en última instancia constituida la individualidad de una persona. En otras palabras,
si a un individuo le cambiamos los átomos y moléculas de su cuerpo por otros idénticos:
¿obtendremos como resultado la misma persona? Es difícil no contestar a esta pregunta con un
rotundo Sí. La razón para ello surge por un lado de considerar que a lo largo de nuestras vidas,
gran parte de los constituyentes de nuestras células son continuamente reemplazados o
eliminados, incluyendo las células de nuestro cerebro y del sistema nervioso en general. Por otro
lado la física cuántica nos enseña que si intercambiamos un electrón, protón o neutrón de nuestro
cuerpo con los de cualquier otro objeto, no hay forma de distinguir las partículas intercambiadas,
es decir el estado inicial será indistinguible del estado final. De modo que la individualidad o la
personalidad están en realidad dadas, no por los componentes materiales en sí mismos, sino por
la manera en que éstos se encuentran ordenados. Cada personalidad obedece por lo tanto a un
patrón determinado por el arreglo particular de sus componentes, que podrían ser reemplazados
en su totalidad sin destruir el patrón que define la personalidad del individuo. En relación con
esto, Hofstadter y Dennet (133) consideran el tema de la teleportación, tal como se acostumbra
tratarlo en la televisión o en la literatura de ciencia ficción. La versión usual de teleportación
consiste en la reconstrucción de un individuo o de un objeto a partir de un original, mediante el
envió de información por medio de ondas electromagnéticas que se desplazan a la velocidad de la
luz. Esta información permite la reproducción exacta del original en una región del universo
remota y de otra manera inaccesible para aquél. Ahora bien, en general aceptamos sin discusión,
como algo natural, que el ser teleportado de esta manera no sólo conserva los atributos del
original sino que es el “mismo” original, lo que implícitamente pone de manifiesto la concepción
que lo que consideramos el espíritu de un individuo es la consecuencia de su estructura física
particular.
Es importante de todos modos destacar que cuando hablamos de estructura física nos
referimos a la manera en que los componentes elementales de un organismo (digamos hasta nivel
atómico) se encuentran arreglados para constituir dicho organismo en particular. Esto implica por
supuesto (y muy especialmente) la organización neuronal del cerebro de un individuo, que es el
asiento de su conciencia. La conciencia no sería entonces otra cosa que el resultado de la
actividad neuronal que a su vez responde tanto a los programas que el individuo trae en sus
genes cuando viene al mundo y que son el resultado de millones de años de evolución de la
especie, como a los programas adquiridos durante la vida del individuo a través de sus
experiencias conscientes. Desde el punto de vista de la IA fuerte, el proceso de teleportación
reproduce al individuo teleportado porque dichos programas, codificados en los genes y en la
estructura neuronal, se han transferido en el proceso. En otras palabras, lo que determina desde
este punto de vista la personalidad de un individuo es el software mientras que el soporte físico
en sí, o sea el hardware, tiene menos (o quizás ninguna) importancia. De la misma manera que
dos computadoras de suficiente complejidad alimentadas con la misma información producirán la
misma respuesta en la medida que ambas estén programadas de modo similar
independientemente de cómo estén configurados su circuitos o de qué componentes se hayan
utilizado en su construcción, la conducta de un individuo, es decir su personalidad, no depende
de la disposición de sus vísceras ni de los componentes particulares que entran en la
composición de su materia cerebral.
IX.5. Algoritmos y máquinas de Turing
Nos preguntamos ahora cuáles serían las características que debería poseer una máquina
capaz de realizar un procedimiento de cálculo definible mediante un número finito de
proposiciones. (134) Por lo pronto necesitaremos que nuestra máquina sea capaz de adoptar
distintos estados, entendiendo por tal a cada condición discernible clara e inequívocamente. En
este sentido, es importante tener en cuenta que el estado de la máquina cambia por ejemplo,
cuando recibe información del medio. Podemos comparar esta situación a la de un individuo cuyo
“estado” cambia en forma continua por la adquisición de nueva información del medio externo.
Efectivamente, como seres humanos interactuamos en forma permanente con el mundo que nos
rodea y en cada instante nos enriquecemos con información proveniente del aquél. Podemos
decir que nuestra condición (a la que llamamos en tal caso experiencia) se modifica
constantemente. En otras palabras, somos distintos en cada instante.
Volviendo al tema de nuestra máquina, debemos aceptar que el número de estados posibles,
por grande que sea no puede ser infinito. Sin embargo, la finitud del número de estados no debe
tomarse como una limitación de la magnitud de los problemas que la máquina pudiera encarar.
Esto de ninguna manera constituye una contradicción. Para ver que esto es así basta tener en
cuenta que con un número finito de símbolos (p. ej. 10), podemos representar por ejemplo la
infinitud de los números naturales, donde cada símbolo correspondería en tal caso a los dígitos
desde cero a nueve. Esto nos dice también que nuestra máquina ideal debe ser capaz de aceptar
una cantidad ilimitada de información (datos de entrada), lo que a su vez exige una capacidad
ilimitada de almacenamiento para dicha información (capacidad infinita de memoria), y tener un
capacidad de salida también infinita. Es precisamente en estos requerimientos de memoria
infinita y la posibilidad de manejar datos de entrada y salida de dimensiones ilimitadas donde
radica la idealización que estamos haciendo. Sin embargo, la tecnología moderna de las
computadoras nos provee de dispositivos realizables físicamente que desde un punto de vista
práctico se aproximan notablemente al ideal que estamos planteando. El funcionamiento de
nuestra máquina sería el siguiente: estando la máquina en un dado estado interno, la misma
adquiere cierta información. Dependiendo de la información adquirida y del estado que la
máquina poseía en el momento de adquirir la información, la máquina adopta un nuevo estado
interno (no necesariamente distinto al anterior) y produce una dada información de salida, al
tiempo que se dispone a adquirir un nuevo dato de entrada.
Esta secuencia de operaciones continúa hasta que el dato de entrada es una instrucción para
que la máquina detenga su funcionamiento. Es evidente que el funcionamiento de una máquina de
las características mencionadas sólo es posible en la medida que aquélla haya sido instruida con
anterioridad acerca de cómo debe actuar cada vez que recibe un determinado dato y se encuentre
en un cierto estado interno. El conjunto de instrucciones necesarias para ello es lo que
usualmente llamamos “programa”, mientras que a la secuencia de operaciones que la máquina
realiza al seguir las instrucciones de un programa, es lo que denominamos “algoritmo”. (135) En
otras palabras, cuando programamos una máquina, lo que hacemos es darle las instrucciones
necesarias para que ejecute un cierto algoritmo. De modo entonces que un algoritmo no es otra
cosa que un proceso sistemático que se ejecuta rígidamente de acuerdo con un conjunto de
instrucciones. Sin embargo, es importante destacar que la acción que la máquina ejecuta en cada
paso no está determinada únicamente por su estado interno en ese momento sino que depende
también de la información que reciba en dicho paso. Esta información puede ser un dato que es
alimentado a la máquina desde el exterior o información que la máquina había almacenado
previamente en su memoria y a la que accede siguiendo la correspondiente instrucción del
programa. Siguiendo a Allan Turing, podemos imaginar que nuestra máquina adquiere los datos
de entrada leyéndolos en una cinta de longitud ilimitada en la que la información se encuentra
codificada en una secuencia de unos y ceros. La lectura se efectúa en forma también secuencial,
es decir cuadro por cuadro, y la máquina es capaz de discernir cuando se encuentra con un uno o
con un cero. Completada la lectura de un cuadro, la cinta utiliza el mismo cuadro para imprimir
un carácter que podrá también ser un cero o un uno. De modo que asumimos que nuestra
máquina puede borrar el carácter ya leído del cuadro e imprimir uno nuevo, lo que tiene la ventaja
que sólo es necesario utilizar una única cinta para los datos de entrada y de salida. Completada la
impresión, la cinta se desplaza un cuadro hacia adelante o hacia atrás según lo ordene el programa
y se repite la secuencia anterior hasta que eventualmente llegue una instrucción de detención del
programa.
Teniendo en cuenta lo expuesto, podríamos indicar un programa mediante la siguiente secuencia
de instrucciones
El programa anterior determina totalmente el comportamiento de una máquina que posee 233
estados internos. La primer cifra que se encuentra a la izquierda de la flecha indica el estado
interno que la máquina posee en un dado momento, mientras que el número que le sigue (un cero
o un uno, escrito en negrita sólo por claridad), separado por un espacio, denota la lectura que la
máquina efectúa en ese instante. La cifra que figura a la derecha de la flecha es el nuevo estado
que la máquina adopta y el número que le sigue (cero o uno, escrito en negrita sólo por claridad),
también separado por un espacio, es el que la máquina imprime en el casillero de la cinta en que
se efectuó la última lectura, reemplazando de este modo a aquella. La letra mayúscula (I ó D) que
se encuentra a la derecha del dato impreso constituye la instrucción a la máquina para que se
desplace un casillero sobre la cinta hacia la izquierda (I), o hacia la derecha (D), a fin de efectuar
la lectura de un nuevo dato. Es fácil ver que el programa contiene todas las instrucciones
necesarias para determinar completamente el comportamiento de la máquina en cualquier
situación que se pueda presentar, es decir para cualquier combinación posible de estado interno y
dato de entrada. Es precisamente este rígido determinismo en el comportamiento del sistema, lo
que hace del algoritmo una operación que podemos calificar como de modo M (mecánico).
Incidentalmente, observemos que los espacios empleados en (9.1) no son estrictamente
necesarios ya que siempre podemos convenir que el último dígito sea interpretado como el dato
leído, para el caso de la cifra a la izquierda de la flecha, o el dato a ser impreso, para el último
dígito que se encuentra a la derecha de aquélla (es decir antes del carácter alfabético). Además,
resulta conveniente que en lo sucesivo indiquemos los estados internos de la máquina mediante el
sistema binario de numeración, con lo cual los mismos quedarán determinados por sucesiones de
ceros y unos. Finalmente, nada impide imponer como condición que el estado inicial de la
máquina sea siempre el estado interno 0, así como que la lectura de la cinta se inicie siempre en
algún punto de la misma tal que todos los casilleros que se encuentran a la izquierda de dicho
punto sean ceros.
IX.6. Codificación binaria de datos numéricos
Dado que tanto los datos que la máquina lee en la cinta, como los que la máquina imprime en
aquélla tienen que tener un significado numérico o de otro tipo, es importante ver ahora de qué
manera una sucesión de ceros y unos puede ser utilizada para codificar tal información.
Consideremos primeramente el caso de los datos numéricos. Supongamos que queremos ingresar
a la máquina una serie de números naturales arbitrarios. En primer lugar, dado que en la cinta sólo
empleamos ceros y unos, es necesario expresar dichos números naturales en el sistema binario.
La dificultad que se presenta inmediatamente es la manera de informar a la máquina cuándo
comienza o termina la lectura de una cifra, dado que si queremos limitarnos al uso de dos
símbolos solamente (ceros y unos), no podemos emplear espacios en blanco ya que ello estaría
introduciendo el uso de un nuevo símbolo (el espacio en blanco). Es posible no obstante resolver
el problema si introducimos la regla que una secuencia de ceros y unos (con un número finitos de
unos), no debe simplemente interpretarse como un único número binario, sino como una
secuencia de números naturales en notación decimal igual al número de unos que hay entre dos
ceros sucesivos de la primer secuencia, tal como lo sugiere el siguiente ejemplo:
Podemos ahora asignar a los números 2, 3, 4, etc. distintos significados. Por ejemplo, al 2 lo
podemos interpretar como una “coma” (,) que denote la separación entre dos números, mientras
que 3, 4, 5, etc. pueden denotar otros símbolos convenientes, tales como signos, operadores, etc.
o expresiones tales como “ir a la ubicación del próximo número”, “iterar la operación anterior
tantas veces”, etc.
De modo que lo que tenemos ahora es una secuencia de cadenas de ceros y unos que pueden
interpretarse como números ordinarios escritos en el sistema binario. De acuerdo con esto, la
secuencia anterior significa
9,3,4(instrucción 3),3(instrucción 4)0,
Es importante destacar que la codificación anterior nos permite escribir cualquier secuencia
finita de números naturales utilizando para ello sólo ceros y unos, dándonos en cada caso la
terminación de aquélla mediante una coma, lo que impide que leamos al último número de la
secuencia como conteniendo una cantidad infinita de ceros. Del mismo modo, es posible escribir
cualquier secuencia finita de números naturales, escritos en notación binaria, como una única
secuencia de ceros y unos, donde las comas son utilizadas para la separación de los números. En
efecto, consideremos la secuencia
5,13,0,1,1,4,
que en notación binaria se escribe
101,1101,0,1,1,100,
la que empleando la regla expresada más arriba, pude escribirse como es fácil comprobar
(recordar que la “,” está representada por el decimal “2”
La primera línea representa la secuencia anterior expresada en notación binaria expandida.
Vemos en la segunda línea que “contrayendo” la notación binaria expandida hemos recuperado la
secuencia inicial. Obsérvese que los espacios se han intercalado sólo por claridad ya que no son
necesarios.
El procedimiento de codificación puede ser automatizado si tenemos en cuenta que para ello
basta efectuar los reemplazos
y colocar un número ilimitado de ceros en ambos extremos.
Trataremos ahora de ilustrar mediante un ejemplo de que manera podemos operar con
numeración binaria expandida una M áquina de Turing de forma que realice una operación
determinada, por ejemplo la simple operación de sumar una unidad a un número natural
cualquiera. Para ello consideremos la siguiente MT (a la que llamaremos XN+1):
En efecto, consideremos un número natural cualquiera tal como 167, que en el sistema
binario se expresa como 10100111, de modo que de acuerdo con la regla anterior queda indicado
en la cinta como
....00000100100010101011000...
Ahora bien, para sumar una unidad a un número binario todo lo que debemos hacer es
localizar el último 0 y reemplazarlo por un 1 y luego reemplazar todos los 1’s que siguen por
ceros, es decir
10100111 + 1 = 10101000
que de acuerdo con nuestra regla de “expansión”, quedará expresado en la cinta como
....0000100100100001100000....
que como puede comprobarse con un poco de trabajo, es efectivamente lo que hace nuestra
máquina de Turing XN+1.
Si bien el ejemplo anterior sirve para ilustrar la forma en que es posible diseñar una MT para
que realice una operación sencilla, las cosas se pueden poner mucho más complicadas cuando la
complejidad de la tarea aumenta. De todos modos, adquiriendo alguna familiaridad con el diseño
y la operación de MT, uno puede quedar razonablemente convencido de que siempre es posible
diseñar una máquina para cumplir una dada tarea algorítmica, por complicada que esta sea. De
hecho, uno puede definir una tarea mecánica como aquella que pueda ser ejecutada por una MT.
En lo sucesivo utilizaremos como sinónimos los adjetivos mecánica, recursiva, o computable,
cuando nos refiramos a una operación matemática del tipo de las que puede realizar una MT
(Tesis de Church-Turing).
Observemos que en los ejemplos vistos hasta aquí sólo hemos considerado operaciones en
las que se han empleado números naturales, si bien no hemos impuesto limitación alguna al
tamaño de los mismos. No obstante es fácil ver que una MT puede manejar fácilmente números
negativos y fracciones, dado que para ello sólo es necesario introducir alguna codificación
adecuada para los símbolos “-“ y “/”, lo que puede hacerse sin inconveniente mediante la
notación binaria expandida descripta más arriba (por ejemplo empleando “3” para el símbolo “-”
y “4” para “/”, codificados respectivamente como 1110 y 11110). Sin embargo, cuando
consideramos los números irracionales, no es siempre posible generarlos con una MT. De hecho,
la gran mayoría de los irracionales no son generables de tal manera por lo cual a tales números los
llamaremos no computables, llamando en cambio computables a los generables, aun en el caso en
que sean irracionales.
IX.7. La Máquina Universal de Turing
La idea básica de una Máquina Universal de Turing (MUT), es la siguiente: la codificación de
instrucciones de una máquina de Turing arbitraria T se escribe en términos de 0’s y 1’s en el
comienzo de una cinta que es a su vez alimentada a una M áquina de Turing particular, a la que
llamaremos U, y que luego de leer las instrucciones actúa exactamente como lo haría T. En otras
palabras, la MUT es una imitadora universal. La parte inicial de la cinta contiene todas las
instrucciones necesarias para que U se comporte en el resto de la cinta como lo haría T.
Para analizar el funcionamiento de una MUT debemos encontrar una forma sistemática de
numerar a dichas máquinas. En primer lugar, de acuerdo con lo dicho más arriba, debemos
codificar la lista de instrucciones de una máquina cualquiera T en términos de 0’s y 1’s. Para ello
podemos representar los símbolos D, I, STOP, la flecha “g”, y la coma “,” como 2, 3, 4, 5, y 6
respectivamente, y codificarlos como 110, 1110, 11110, 111110, y 1111110. En cuanto a los
dígitos 0 y 1, codificados como 0 y 10 respectivamente, pueden ser empleados para construir las
cadenas correspondientes a dichos símbolos. Podemos introducir una economía importante en la
escritura al ignorar las flechas y todos los símbolos que se encuentran a su izquierda
simplemente teniendo en cuenta el ordenamiento de las instrucciones, aunque esto implica que
debemos asegurarnos que no haya instrucciones faltantes, como ocurre por ejemplo con la 110 0
en la máquina XN+1, ya que dicha combinación no ocurre nunca durante el funcionamiento de
esta máquina. Todo lo que es necesario hacer en tal caso es utilizar una instrucción “muda”, tal
como por ejemplo 110 0 g0 0D, que puede agregarse a la lista sin que se altere el algoritmo ya
que esta instrucción nunca es convocada por el programa. También podemos obviar una coma al
final de cada instrucción, dado que los símbolos I y D son suficientes para separar una
instrucción de otra. De modo que finalmente nos queda la siguiente codificación:
Tomemos como ejemplo la máquina XN+1, a la cual agregamos la instrucción “muda” 110 0
g0 0D. Al eliminar las flechas y los dígitos que las preceden, teniendo en cuenta (9.2), obtenemos
de manera que al eliminar los espacios, resulta
Finalmente, reemplazando los símbolos D, I, STOP en la forma indicada más arriba, resulta
Podemos todavía introducir otras economías pero que no son esenciales para nuestro
análisis. Procediendo de este modo, es posible asignar a un dado programa el número que lo
define en la forma en que lo hemos hecho para la máquina XN+1. Tengamos en cuenta que
identificar el programa es equivalente a identificar una MT particular, ya que la máquina es la
instanciación del programa. De este modo, la máquina XN+1 tiene el número que es la expresión
en sistema decimal del número binario (9.5). En lo sucesivo nos referiremos a una M áquina de
Turing cuyo número sea n, como Tn.
Consideremos ahora el accionar de una máquina Tn sobre alguna cadena (finita) de 0’s y 1’s
en una cinta que es alimentada a la máquina desde la derecha. Nada impide considerar también a
esta cadena como la representación binaria de un número m de acuerdo con el esquema antes
visto. Supongamos además que luego de un cierto tiempo de operación la máquina se detiene (es
decir llega a un STOP). La cadena de dígitos binarios que la máquina ha impreso en la cinta que
sale por su izquierda es la respuesta o solución al cálculo planteado, y podemos también
representarla por un número, tal como p. Podemos entonces expresar simbólicamente el accionar
de la máquina como
Alternativamente, podemos expresar la relación anterior como expresando una operación
particular que se aplica a un par de números n y m para producir el número p. Dada que ésta es
una operación algorítmica perfectamente definida, puede ser llevada a cabo por una M áquina de
Turing particular U. En otras palabras, U actúa sobre el par (n,m) para producir p. Dado que U
tiene que actuar sobre n y m, tenemos que introducir una forma de identificar las porciones de la
cadena de dígitos binarios que corresponde a cada uno de aquellos. Para ello basta observar que
una MT bien formulada es una secuencia de 0’s, 10’s, 110’s, 1110´s y 11110’s, por lo que
podemos terminar la escritura de n con la secuencia 111110, escribiendo el número m a
continuación. (136) Si interpretamos cualquier cadena de 0’s y 1’s en la cinta como la
representación binaria de un número, en este caso m, debemos indicar en qué dígito termina la
representación (dado que existe un número infinito de 0’s a la derecha del último 1). Para ello
podemos adoptar la convención de utilizar el último 1 como marcador y finalizar la lectura en el
dígito inmediatamente anterior, que entonces puede ser 0 o 1.
Por ejemplo, si tomamos n = 11 y m = 6, la cinta sobre la cual U deberá actuar, contendrá la
cadena
....0001011111110110100000....
donde
...00000 (parte inicial de la cinta)
1011 (representación binaria de 11)
111110 (terminación de n)
110 (representación binaria de 6)
1000.. (resto de la cinta)
Ahora bien, lo que la máquina U tiene que hacer es construir Tn y hacer actuar a ésta sobre
los dígitos en la expresión de m. Dado que todas estas operaciones se encuentran totalmente
determinadas, es siempre posible (aunque tedioso) construir la máquina U, a la que llamaremos
MUT. Podemos entonces escribir simbólicamente
Incidentalmente, observemos que dado que U es una MT, la misma tendrá un número u, de
modo que será
IX.8. La insolubilidad del Problema de Hilbert
Llegamos así al problema para el cual Turing elaboró sus ideas: la resolución del llamado
Problema de Hilbert. Esto es: ¿existe algún procedimiento mecánico (o sea algorítmico) para
hallar la respuesta a todos los problemas matemáticos pertenecientes a una clase amplia, pero
bien definida? Puesto en otros términos: ¿es posible establecer si, para cada problema
matemático perteneciente a una dada clase representado por la M áquina de Turing Tn actuando
sobre el número m, aquélla se detendrá o no?
Es obvio que para muchas MT la respuesta a la pregunta anterior es fácil de encontrar. Sin
embargo para otras MT dicho problema no es de ninguna manera trivial y para resolverlo
debemos establecer que es siempre posible determinar si una máquina Tn, aplicada al problema
representado por el número m, eventualmente se detendrá o no. En otras palabras, deberá existir
algún algoritmo (procedimiento de decisión) para resolver este problema general si deseamos
hallar respuesta al Problema de Hilbert. Asumamos que tal algoritmo efectivamente existe y
corresponde a la MT que llamaremos H. Esta MT está entonces en condiciones de determinar si
la máquina Tn, cuando se la aplica al número m, eventualmente se detendrá o no. Supongamos
que H da su respuesta imprimiendo 0 en la cinta si Tn no se detiene y 1 en el caso en que lo haga.
Es decir
donde utilizamos el símbolo o para denotar la circunstancia que la máquina no se detendrá.
Imaginemos ahora un arreglo infinito para el listado de todas las salidas de todas las MT
actuando sobre todas las posibles entradas. La n-ésima fila del arreglo contiene las salidas de la
máquina Tn, cuando ésta actúa sobre las distintas entradas m = 0, 1, 2, 3,....... Es decir, en forma
esquemática
La tabla anterior podría haber sido generada utilizando para ello el algoritmo H, ya que el
mismo nos permite establecer en cada caso si la máquina se detendrá o no. No obstante, lo que
haremos es utilizar dicho algoritmo para eliminar los símbolos □ por 0’s permitiendo que Tn
accione sobre m sólo en el caso en que H(n,m) = 1 (es decir sólo si el cálculo Tn (m) conduce a
una respuesta, es decir finaliza), y escribiendo 0 en el caso en que H(n,m) = 0. En otras palabras,
hemos creado una MT Q(n,m) que podemos indicar simbólicamente
La tabla (9.8) nos queda ahora
De modo que asumiendo que el algoritmo H efectivamente existe, las filas de la tabla anterior
consisten en secuencias computables, es decir existe siempre alguna MT que aplicada a los
números naturales m = 0, 1, 2, 3,...., arroja los sucesivos miembros de la secuencia. Observemos
que toda secuencia computable de números naturales debe necesariamente encontrarse presente
(quizás en forma repetida) entre las filas.
Consideremos ahora los elementos de la diagonal principal de la tabla anterior, que son
0, 0, 1, 2, 1, 0, 3, 7, 1, .....
y sumémosle 1 a cada uno de ellos, es decir generemos la secuencia
1, 1, 2, 3, 2, 1, 4, 8, 2, .....
Ésta es una secuencia claramente computable ya que es generada por el algoritmo 1 + Q(n,n)
= 1 + Tn (n) X H(n,n) (ya que los elementos diagonales gozan de la propiedad n = m). Pero
nuestra tabla ya contiene todas las secuencias computables, de modo que la nueva secuencia debe
encontrarse en algún lugar de la tabla. Sin embargo, esto no es posible por lo siguiente: la nueva
secuencia difiere de la primera fila de la tabla al menos en la primera cifra, de la segunda fila al
menos en la segunda cifra, de la tercera fila en la tercera cifra, y así sucesivamente. Esto
constituye obviamente un absurdo, que surge de admitir que la máquina H existe realmente. De
modo que hemos probado que no existe un algoritmo universal o procedimiento de decisión
general para establecer si una M áquina de Turing se detendrá o no. Es decir, el Problema de
Hilbert no tiene solución. Una forma alternativa de desarrollar el razonamiento anterior es notar
que bajo la suposición que H existe, habrá una MT Tk para el algoritmo 1 + Q(n,n), de modo que
tendremos
pero si ahora hacemos en la expresión anterior n = k (es decir consideramos los elementos
diagonales), obtenemos
lo que constituye una contradicción, ya que si Tk (k) se detiene es H(k,k) = 1, quedándonos
mientras que si Tk (k) no se detiene, resulta H(k,k) = 0 y por lo tanto
que son resultados absurdos en ambos casos.
El hecho de que no exista un algoritmo general para determinar si una MT se detendrá o no,
no debe interpretarse como la imposibilidad de que un algoritmo tal exista para una máquina en
particular. En algunos casos, esto puede ser un problema trivial como lo sería el representado por
una máquina sin la instrucción STOP o por el contrario, con la instrucción STOP en todas sus
líneas. Lo que hemos demostrado es la inexistencia de un procedimiento general que sirva para
todas la M áquinas de Turing y para todos los números sobre los cuales dichas máquinas pueden
actuar. De ninguna manera debemos considerar esto como la demostración de que existen
problemas particulares, que planteados a una MT también particular, para los cuales es imposible
determinar si la máquina llegará o no a detenerse. No hemos demostrado nada con respecto a
situaciones individuales, sino en relación a familias o clases de problemas.
Una forma equivalente alternativa quizás más simplificada de llegar al mismo resultado es la
siguiente. Volvamos a partir de la suposición que efectivamente existe un algoritmo para
establecer si, para cada problema matemático perteneciente a una dada clase representado por la
M áquina de Turing Tn actuando sobre el número m, aquélla se detendrá o no.
Esta MT está entonces en condiciones de determinar si la máquina Tq, cuando se la aplica al
número n, eventualmente se detendrá o no. Supongamos entonces que disponemos de un
procedimiento computacional A tal que, cuando termina, ello constituye la demostración que la
computación llevada a cabo por una MT Tq no termina. De modo que debemos imaginar que A
encapsula todos los procedimientos disponibles a los matemáticos para probar de manera
convincente que una computación no se detiene.
Observemos que no estamos exigiendo que A pueda siempre establecer que Tq no se detiene
aunque efectivamente no lo haga, es decir que A puede no detenerse aunque Tq tampoco se
detenga. Lo que estamos exigiendo es que A nunca nos brinde una respuesta incorrecta, es decir
que si se detiene, ello implica que Tq no lo hace. En otras palabras, lo que asumimos es que A
representa un algoritmo “sano”.
Es fácil ver que A constituye una MUT, ya que debe poder aplicarse a cualquier MT Tq ,
cuando ésta actúa a su vez sobre el número n, de modo tal que:
Haciendo q = n, resulta entonces que
(b) Si A(n,n) se detiene g Tn (n) no se detiene
Pero A(n,n) depende de un solo número n que será entonces una de las computaciones T0(n),
T1(n), T2(n) ..... y habrá entonces una MT Tk(n), tal que
(c) A(n,n) = Tk (n)
Consideremos ahora el caso particular n = k, entonces resulta
(d) A(k,k) = Tk (k)
De manera que de (b) con n = k,
Pero sustituyendo (d) en (e) obtenemos que
De modo que debemos aceptar (lógicamente) que Tk (k) no se detiene ya que si lo hiciese,
según (f) no lo haría.
Por (d) vemos que A(k,k) tampoco se detiene (es idéntica a Tk (k), de modo que A es incapaz
de establecer que Tk (k) no se detiene, aún cuando no lo hace.
Observemos que para la demostración anterior sólo hemos impuesto que el algoritmo
representado por A(q,n) sea “sano”. De manera que si sabemos que A es sano, entonces sabemos
también que Tk(k) no se detiene. Por lo tanto sabemos algo que el algoritmo A es incapaz de
determinar. A no puede entonces encapsular todo nuestro entendimiento. El resultado anterior se
aplica a cualquier algoritmo general A destinado a determinar si las computaciones no terminan,
con la sola condición de que A sea sano, es decir que no se detenga si la computación no lo hace.
Surge entonces que no hay un conjunto sano de reglas computacionales (tales como A) que
puedan ser suficientes para establecer si las computaciones no se detendrán, dado que como
hemos demostrado, hay computaciones (tales como Tk (k)) que eluden esta posibilidad. Dado
que del conocimiento de A y de su condición de sano, podemos construir una computación Tk (k)
que podemos ver que no se detiene, deducimos que A no puede constituir un procedimiento
formal general disponible (a los matemáticos o a otras personas) para determinar que las
computaciones no se detienen. Surge por lo tanto la siguiente conclusión:
Los matemáticos (u otros seres humanos), no utilizan un algoritmo sano para establecer una
verdad matemática.
La razón de la conclusión anterior es que tal algoritmo general simplemente no existe. La
mayor parte del razonamiento anterior ha sido presentado como una pieza formal de matemática,
pero es esencial detectar que el algoritmo A participa en el argumento en dos niveles totalmente
diferentes. En uno de esos niveles, el algoritmo A es tratado como cualquier otro algoritmo que
tiene ciertas propiedades específicas. Pero en el otro nivel, intentamos inicialmente considerar a
A como el algoritmo que realmente utilizamos con nuestro cerebro para llegar a persuadirnos que
la computación no se detendrá. Sin embargo, hemos visto que este algoritmo es incapaz de
hacerlo y nuestro conocimiento de que efectivamente la computación no se detendrá lo
obtenemos razonando fuera del algoritmo A. Por lo tanto el argumento anterior no trata sólo
simplemente sobre computación, sino también sobre cómo utilizamos nuestro entendimiento
consciente para inferir la validez de una proposición matemática, en este caso la no detención de
Tk(k). Es precisamente el juego de interacción entre los dos niveles en los cuales el algoritmo A
es considerado, es decir como una instancia de actividad consciente por un lado y de
computación por el otro, lo que nos permite arribar a la conclusión, según Roger Penrose (137),
de que existe una diferencia fundamental entre tal actividad consciente y la mera computación.
Como es de suponer, se han alzado una cantidad de objeciones a la postura de Penrose. Un
pormenorizado detalle de las mismas y la respuesta a ellas dadas por Penrose, pueden
encontrarse en la referencia que se acaba de indicar.
IX.9. Cálculo proposicional
Ya hemos analizado anteriormente qué es lo que entendemos por “sistema formal”. Debemos
asumir que existe algún alfabeto de símbolos en términos de los cuales es posible expresar
nuestras proposiciones matemáticas. Es evidente que estos símbolos deben ser adecuados para
permitir una notación para los números naturales, si es que deseamos que la aritmética esté
incorporada a nuestro sistema. Podríamos por ejemplo utilizar simplemente la notación decimal
corriente para los números, pero ello haría más complicada la especificación de las reglas de
procedimiento o de inferencia. Una codificación mucho más simple sería utilizar la secuencia 0,
01, 011, 0111, 01111,... para denotar los números naturales, o bien la notación binaria con el
mismo propósito. A fin de separar las “palabras” o los “números” podemos introducir el
símbolo (,) y para denotar números naturales arbitrarios (variables) podemos utilizar letras t, u,
v, w,x ,y z, t’, t’’, t’’’, etc. El uso de las primas (‘) es necesario para no tener que limitar el
número de variables que puedan ocurrir. No obstante, considerando a (‘) como un símbolo
separado, el número total de símbolos necesarios en el sistema formal es finito.
Necesitaremos introducir también símbolos para las operaciones aritméticas básicas =, +, X,
etc., quizás distintos tipos de paréntesis {, ), [, ], (, ), y símbolos lógicos como ∧ (y), ∨(o), g
(Implica), n (si y sólo si), ~ (no), (tal que), etc. Tendremos además los cuantificadores lógicos:
el cuantificador existencial $, y el cuantificador universal ∀. Denotaremos las proposiciones
con letras mayúsculas P, Q, R, S,...., de modo que una proposición F podría representar por
ejemplo el teorema de Fermat
Una proposición puede depender de una o más variables. Por ejemplo, en la expresión
anterior del teorema de Fermat puede interesarnos asignar a w distintos valores, por lo que es
conveniente definir
de modo que por ejemplo G(0) representa la expresión particular
Esta notación nos permite un ahorro importante de escritura, ya que de acuerdo a ella, el
Teorema de Fermat se expresa simplemente como
G(w) es un ejemplo de lo que se denominan funciones proposicionales que dependen de una
o más variables.
Ahora bien, del conjunto de todas las cadenas de símbolos que podemos construir en el
sistema, nos interesa especialmente un subconjunto al que denominaremos conjunto de cadenas
bien formuladas (o bien formadas). Definiremos a las cadenas bien formuladas en forma
recursiva, de la manera siguiente:
i. Las cadenas de símbolos P, Q, y R, a los que llamaremos “átomos”.
ii. Podemos generar nuevos átomos simplemente adicionando símbolos (‘), P.Ej. P’, R’, R’’,
etc. De modo que el suministro de átomos es ilimitado. Todos los átomos están, por
definición, bien formulados.
iii. Si las cadenas x e y están bien formuladas, entonces las siguientes cadenas también lo
están:
A título de ejemplo, es fácil comprobar que las siguientes cadenas están bien formuladas (P y
Q´: átomos):
Observemos que el conjunto de cadenas bien formuladas se va construyendo mediante el uso
correcto de la reglas de inferencia, las que a su vez implican las expresiones “y”, “o”, “si ....
entonces ....”. Los métodos de razonamiento que dependen de esas cuatro expresiones se llaman
proposicionales.
Hasta aquí no hemos hecho mención de cómo se van generando los teoremas en el sistema.
En realidad, nada impide considerar a los átomos como postulados, y a todas las cadenas bien
formadas como teoremas. Sin embargo, esto no es estrictamente necesario y siempre tendremos
la libertad de seleccionar a ciertas cadenas como postulados, a partir de las cuales se construirán
los teoremas por aplicación de la reglas de inferencia. Observemos por otra parte, que las reglas
de inferencia son de naturaleza tipográfica, y por lo tanto independientes de las posibles
asignaciones de significado a los símbolos o a las cadenas que surjan de aquellos por aplicación
de tales reglas. Por tal motivo hemos dicho que los teoremas son generados o construidos en
lugar de demostrados. De todos modos, en lo sucesivo ignoraremos esta diferencia en
terminología y diremos que la lista o conjunto de proposiciones que termina en la proposición P,
constituye la prueba o demostración del teorema P en el sistema.
La idea básica del llamado Programa de Hilbert era encontrar, para una área bien definida de
la matemática, una lista de axiomas y de reglas de inferencia lo suficientemente amplia como para
que todas las formas correctas de razonamiento dentro de ese área estuviesen incorporadas en el
sistema. En otras palabras, tal sistema de axiomas y de reglas debería ser completo, es decir para
cualquier cadena de símbolos que represente una proposición P de un área bien definida de la
matemática, debería ser posible demostrar o bien P, o bien ~P. A la cadena de símbolos P se le
asigna el valor de verdad verdadero y a la cadena ~P se le asignará el valor de verdad falso. Para
que esto tenga sentido lógico, el sistema además de ser completo, debe ser consistente, o sea que
las proposiciones P y ~P no deben ocurrir simultáneamente.
Observemos que de ser exitoso el Programa de Hilbert, podríamos independizarnos del
significado de las proposiciones matemáticas, dado que para probar la veracidad de una
proposición P sólo es necesario que la misma esté correctamente formulada, mientras que para
probar su falsedad bastaría en cambio mostrar que ~P está correctamente formulada. El punto de
vista según el cual en matemática es posible independizarse del significado de las proposiciones,
considerándolas simplemente como cadenas de símbolos, constituye lo que se conoce como
formalismo, al que como veremos enseguida, Gödel asestó un golpe devastador.
IX.10. El teorema de Gödel
Consideremos en lo que sigue un área bien definida de la matemática, tal como la aritmética.
Una de las ideas centrales a la demostración del teorema que veremos a continuación consiste en
establecer una forma sistemática de codificar las reglas de procedimiento de un sistema formal,
así como las proposiciones que se forman a partir de sus axiomas, en operaciones aritméticas.
Una forma simple (aunque quizás poco eficiente) de hacer tal codificación sería ordenar las
distintas proposiciones de acuerdo a la longitud de la cadena de símbolos que las representan, y
ordenar a su vez a las cadenas de igual longitud de manera alfabética. Este tipo de ordenamiento
se conoce como lexicográfico. En realidad Gödel empleó un método de ordenamiento más
complicado, pero tal distinción no es relevante para nuestro análisis. En lo que sigue
consideraremos en particular funciones proposicionales que dependen solamente de una variable,
del tipo G(w) visto más arriba, donde w es aquí un número natural. Denotaremos la n-ésima
función proposicional (de acuerdo con el ordenamiento adoptado) aplicada a la variable w, como
Pn (w)
Ahora bien, si Pn (w) es sintácticamente correcta (138), representará alguna proposición
aritmética particular perfectamente definida concerniente a los dos números naturales n y w. Por
supuesto que cuál proposición en particular representa, dependerá del tipo de ordenamiento
empleado. Por otra parte, las cadenas de proposiciones que corresponden a la demostración de
un teorema dado pueden también ser ordenadas utilizando el esquema elegido, y denotadas como
donde n se refiere a la n-ésima prueba.
Consideremos ahora la siguiente función proposicional, que depende del número natural w
Si bien parte de la proposición anterior está expresada en palabras, es un enunciado
matemático perfectamente definido, que afirma que no existe prueba de la proposición Pw(w)
dentro del sistema. Asumiremos que la misma está construida en forma sintácticamente correcta
(aun en el caso en que Pw(w) no lo esté, en cuyo caso la misma es verdadera, ya que no puede
haber prueba dentro del sistema formal de una expresión sintácticamente incorrecta, es decir mal
formulada).
Dado que hemos numerado todas las proposiciones que dependen de una variable, habrá un
número que le corresponde a la proposición anterior. Asumamos que tal número sea k. En otras
palabras, nuestra proposición es la k-ésima de la lista. De manera que
Examinemos ahora esta expresión para el caso particular w = k. Nos queda entonces
Ahora bien, la proposición Pk (k) es sintácticamente correcta y corresponde a un enunciado
aritmético perfectamente definido. Sin embargo, observemos que ni Pk (k), ni su negación ~Pk (k)
poseen una prueba dentro del sistema. Para ver que esto es así, debemos analizar el significado
subyacente en el procedimiento seguido por Gödel. Aunque Pk (k) es sólo una proposición
aritmética, la hemos construido de modo que niega la existencia de prueba dentro del sistema, de
la proposición Pk (k). De manera que si hemos hecho las cosas bien, es decir si hemos elegido
adecuadamente los axiomas y las reglas de procedimiento y utilizado correctamente el sistema de
numeración, no puede haber prueba de Pk (k) dentro del sistema. Si hubiere tal prueba, entonces
el significado del enunciado (que la prueba no existe), sería falso, por lo que Pk (k) sería falsa
como proposición aritmética y no podría entonces tampoco tener prueba en el sistema. De
manera que no puede haber prueba de Pk (k) dentro del sistema, y como esto es precisamente lo
que afirma Pk (k), hemos hallado una proposición verdadera que no tiene prueba dentro del
sistema.
Consideremos ahora qué es lo que ocurre con la negación ~Pk (k). Hemos establecido que
~Pk (k) deber ser falsa (ya que hemos demostrado que Pk (k) es verdadera), y estamos asumiendo
que no es posible demostrar proposiciones falsas dentro del sistema. De modo que ni Pk (k), ni
~Pk (k) son demostrables dentro de nuestro sistema formal, lo que completa la prueba del
Teorema de Gödel.
IX.11. El teorema de Gödel y el problema de la conciencia
Ya hemos visto de qué manera Turing estableció la insolubilidad del problema de la detención
(lo que hizo luego de conocer los trabajos de Gödel). Como hemos visto, ambos resultados tiene
una estrecha relación entre sí, y de hecho los resultados más importantes de Gödel pueden ser
obtenidos mediante el procedimiento de Turing.
Esencialmente lo que el procedimiento de Turing y el Teorema de Gödel nos dicen es que en
un sistema formal con complejidad suficiente como para encapsular la aritmética, pueden
construirse proposiciones que satisfacen las reglas tipográficas del sistema y son por lo tanto
sintácticamente correctas, pero para las que no es posible probar su valor de verdad dentro del
sistema formal. Es decir, estas proposiciones no pueden ser generadas por la aplicación mecánica
de las reglas de inferencia a partir de los postulados del sistema no obstante que constituyen
proposiciones verdaderas. Pero el valor de verdad de estas proposiciones sólo se obtiene
analizando las mismas desde fuera del sistema formal.
Ya hemos mencionado un interpretación importante que hacen del Teorema de Gödel los
defensores de la posición C en el sentido que la acción física del cerebro resulta en la experiencia
consciente, pero esta acción física (y por ende la experiencia consciente) no puede ser simulada
computacionalmente. Pero el debate se encuentra lejos de encontrarse cerrado y en este sentido,
Hofstadter (6) es uno de los más lúcidos defensores de posición A que dice que todo
pensamiento es computación y en particular la experiencia consciente (conscious awareness) es
el resultado de la ejecución de procesos computacionales apropiados en el cerebro.
Surge entonces la pregunta sobre qué es lo que realmente nos prueba el Teorema de Gödel
acerca de nuestras mentes. Según Hofstadter, lo que el teorema nos brinda es la noción de que
una visión de alto nivel de un sistema puede contener poder explicativo ausente en una visión de
menor nivel entendiendo por esto que siempre hay para una proposición indecidible en un nivel
un procedimiento algorítmico de decisión en otro nivel. Según esto, lo que el Teorema de Gödel
sugeriría, pero de ninguna manera probaría, es que habría una forma de alto nivel de entender la
generación de conceptos mentales que no aparece en niveles inferiores. En este sentido, es
importante tener en cuenta que la determinación de si una proposición es o no un teorema del
sistema de un sistema de axiomas siempre tiene una solución. Por supuesto que como el mismo
Teorema de Gödel nos enseña, la explicación puede requerir la comprensión en más de un nivel,
es decir es necesario acceder a un metanivel. De este modo, fenómenos emergentes como la
conciencia pueden ser explicados en términos de relaciones entre diferentes niveles de los
sistemas mentales.
Sin embargo, si analizamos el teorema de Gödel a la luz de la metodología de Turing, lo que
ésta nos dice es que no puede existir una MUT capaz de ejecutar un algoritmo general que
permita determinar si una máquina de Turing genérica Tn actuando sobre el número m se
detendrá o no. Si bien siempre puede haber un algoritmo específico que constituya un
procedimiento de decisión para este caso particular, nuestro cerebro debe actuar no como una
máquina de Turing particular sino como una MUT que para cada problema en particular actúe
como la máquina de Turing correspondiente al problema en cuestión. Por lo tanto, en caso de ser
nuestro cerebro asimilable a una computadora digital, debería poder ejecutar un algoritmo general
que permita imitar el funcionamiento de la máquina de Turing particular correspondiente al
problema. Lo que precisamente nos demuestra Turing es que tal algoritmo no existe. De manera
que en alguna medida la posición A se derrota a sí misma ya que según ésta, el análisis que
haceamos en otro nivel para determinar el valor de verdad de una proposición, también resultaría
de la ejecución de un algoritmo, lo que requeriría que nuestro cerebro tuviese la posibilidad de
ejecutar un algoritmo general para encontrar el procedimiento de decisión apropiado en cada
caso.
Hasta aquí no hemos ocupado principalmente de la controversia entre la posición A que
adoptan quienes adhieren al concepto de IA fuerte, y la posición C que niega la posibilidad que
los fenómenos físicos que tienen lugar en el cerebro y de los cuales emerge el pensamiento
consciente sea el resultado de procesos computacionales en el cerebro. No hemos hecho
prácticamente referencia a la posición B que identificamos como aquella que adoptan quienes
adhieren al concepto de IA débil. Observemos que esta posición admite que si bien los
fenómenos físicos que tienen lugar en el cerebro y de los cuales es emergente la experiencia
consciente pueden ser el resultado de procesos computacionales en el cerebro, la experiencia
consciente no puede ser invocada por dichos procesos computacionales. En otras palabras, esta
posición diferenciaría entre pensamiento inteligente y experiencia consciente. En cambio para las
posiciones A y C, pensamiento inteligente y experiencia consciente se funden en un mismo
fenómeno, pero difieren en la forma en que se pueden realizar. Al recurrir al concepto del test de
Turing, podríamos decir que para la posición A, si una entidad pasa satisfactoriamente el test,
debemos aceptar que esa entidad es inteligente y consciente y podríamos estar en presencia de
una computadora digital de gran sofisticación que ejecuta un programa que la hace actuar en
forma consciente (no sólo que imita un comportamiento consciente). En cambio, para la posición
B una entidad que pasa el test de Turing puede ser una computadora de gran sofisticación que
ejecuta un algoritmo que la convierte en una entidad inteligente pero desprovista del atributo de
conciencia. Finalmente, la posición C asegura que una entidad que no posea el atributo de
inteligencia/conciencia no puede pasar el test de Turing si éste es lo suficientemente exhaustivo.
Podemos resumir estas ideas en el siguiente cuadro:
Como vemos, el problema no está para nada resuelto y quizás tengamos que esperar por
nuevos avances en neurociencia o, como sugiere R.Penrose, el descubrimiento de leyes físicas
hasta hoy desconocidas.
126 . C.Sagan, Cosmos, Editorial P laneta, Barcelona, 1982.
R.P enrose, The Emperor’s New Mind: Concerning Computers, Minds and the Laws of Physics. Oxford University P ress,
1989.
127 . R.P enrose, The Emperor’s New Mind: Concerning Computers, Minds and the Laws of Physics. Oxford University
P ress, 1989.
128 . R.P enrose “ Shadows of the Mind: a search for the missing science of consciousness”. Oxford University P ress,
1994.
129 . E.Squires, Conscious Mind in the Physical World, Adam Hilgher, Bristol, 1990.
130 . J.J.Jaynes, The Origin of Consciousness in the Breakdown of the Bicameral Mind, P enguin Books, 1990.
131 . D.R.Hofstadter, “ Gödel, Escher, Bach: an ethernal golden braid” P enguin Books, 1979.
132 . Alan Turing, Computing Machinery and Intelligence. Mind, 1950.
133 . D.R. Hofstadter & D.C. Dennet, The mind’s I: fantasies and reflections on self and soul, P enguin Books, Great
Britain, 1981.
1349. De este modo quedan prohibidos problemas del tipo: ¿ Cuál es el resultado de tomar la unidad, sumarle uno y al
nuevo resultado sumarle uno y así sucesivamente? Obviamente en la expresión “ y así sucesivamente” estamos implicando
un número infinito de proposiciones “ al nuevo resultado sumarle uno”.
135 . El término “ algoritmo” proviene del nombre del matemático persa del siglo noveno Abu Ja’ far Mohamed ibn Musa
al-Khowarizm.
136 . Aquí se presenta la dificultad que con algunas MT, p. ej. T7, la secuencia de 0’s y 1’s que la codifican implican
secuencias de cinco 1’s sucesivos. Tales máquinas se denominan mal especificadas o formuladas, y en tales casos el
marcador 111110 no es apto para separar n de m. El problema tiene sin embargo solución sencilla aceptando que la
codificación de n la efectuemos en notación binaria expandida, con lo cual podemos utilizar el marcador 110 para la
terminación de n, codificando m en forma binaria estándar. Sin embargo, en lo sucesivo ignoraremos este problema que no
es esencial para nuestro análisis.
137 . R.P enrose “ Shadows of the Mind: a search for the missing science of consciousness”. Oxford University P ress,
1994.
138 . Una expresión es sintácticamente correcta si está construida de acuerdo con las reglas “ gramaticales” del formalismo
tales como uso adecuado de los paréntesis y otros símbolos.
X.
OBSERVACIONES Y MECÁNICA CUÁNTICA
X.1. El problema de la interpretación de nuestras
observaciones a la luz de la Física Moderna
Hemos dicho previamente que el realismo consiste en aceptar que el mundo efectivamente
existe y que es esencialmente de la manera como lo percibimos. Sin embargo, aun simpatizando
con este punto de vista, no podemos desconocer que muchas veces “las apariencias engañan” y
la percepción que tenemos de un fenómeno cualquiera es necesariamente aproximada. Sin
embargo, la concepción realista clásica o tradicional implica que si mejorásemos nuestros medios
de observación así como la técnica empleada para utilizar dichos medios, nuestro conocimiento
de la realidad podría perfeccionarse indefinidamente hasta que, al menos en principio, la imagen
mental que nos hiciésemos de dicha realidad se correspondiera exactamente con aquélla. Es por
esto que, por ejemplo en la física clásica, no encontramos ningún impedimento para referirnos
sin ambigüedad a la posición o a la velocidad de una partícula, ya que aunque no seamos capaces
en la práctica de determinar dichos parámetros con total exactitud, asumimos tácitamente que
nada impide en principio que mejoremos indefinidamente la precisión de nuestras mediciones. En
otras palabras, desde este punto de vista lo único que se interpone entre la realidad exterior a
nosotros y nuestro conocimiento cabal y detallado del mundo, son las limitaciones en nuestra
capacidad experimental de observación y medición. Este realismo clásico, compartido tanto por
racionalistas como por positivistas, constituyó la actitud dominante en la ciencia (aunque quizás
en menor medida en la filosofía) desde el siglo VI A.C. hasta comienzos del siglo XX de nuestra
era. En este sentido, la diferencia entre positivistas y racionalistas radica en el significado
asignado al término “conocimiento”, que para los primeros implica mera descripción mientras
que para los segundos representa también entendimiento.
Esta visión del mundo comienza a presentar fisuras desde el momento en que los físicos,
forzados por la creciente evidencia experimental que se iba acumulando desde fines del siglo
XIX, se ven en la necesidad de desarrollar la Mecánica Cuántica en un asombroso tour de force
intelectual que tiene lugar, al menos en sus aspectos esenciales, entre 1900 y 1930.
La M ecánica Cuántica (M C) constituye el marco teórico dentro del cual ha sido posible
describir y predecir el comportamiento de un amplio rango de sistemas físicos, desde partículas
elementales, hasta átomos, radiación, moléculas y sólidos. En otras palabras, la M C es la
descripción del comportamiento de la materia y de la luz en todos sus detalles, en particular en la
escala atómica. La M C surge de la imposibilidad de la Física Clásica para explicar
satisfactoriamente algunos de los fenómenos de la radiación electromagnética y de la estructura
atómica. No obstante, la teoría emergente ha demostrado ser capaz de proveer la explicación, no
sólo de los fenómenos de interacción de la radiación electromagnética con la materia sino también
de la estructura de la materia misma.
M ientras que en la Física Clásica el rol del observador es completamente superfluo y ajeno a
su formulación, en la M C, de acuerdo con la interpretación ortodoxa (de Copenhagen), el rol del
observador, y en especial el de un observador consciente, aparece fuertemente enfatizado hasta el
punto de constituirse en un elemento irreductible y esencial de la física.
El concepto clave introducido por Niels Bohr en la M C es que ninguno de los dos modelos
ofrecidos por la M ecánica Clásica (M CL) para describir el comportamiento de los sistemas, es
decir ni el modelo corpuscular ni el modelo ondulatorio son adecuados para la descripción de
todos los aspectos del comportamiento de los sistemas cuánticos (q-sistemas). M ás
específicamente, Bohr tomó a los dos modelos anteriores como complementarios; es decir,
cuando uno resulta adecuado para describir ciertos aspectos del comportamiento de un q-
sistema, el otro no lo es y viceversa. Esto condujo a Bohr a formular su Principio de
Complementariedad: los grados de imprecisión que los modelos corpuscular y ondulatorio
introducen en la descripción de un q-sistema, son inversos uno del otro.
La “imagen corpuscular” de un q-sistema constituido por una microentidad libre, es decir no
sujeta fuerza alguna, consiste en la especificación de las coordenadas espacio-temporales del
sistema. En otras palabras, la imagen corpuscular especifica la trayectoria del q-sistema en el
espacio y en el tiempo. En cambio, la “imagen ondulatoria” consiste en la especificación de
valores particulares de cantidad de movimiento (en realidad las tres componentes), y de la
energía. Podemos aquí preguntarnos por qué las propiedades de poseer una dada cantidad de
movimiento y una dada energía son propiedades ondulatorias. A esto respondemos diciendo que
la evidencia experimental nos enseña que cualquier q-sistema con cantidad de movimiento
definida se comporta como una onda (en particular muestra efectos de difracción e interferencia,
lo que nos permite asociar una longitud de onda con el q-sistema). Del mismo modo, un q-
sistema con un valor definido de energía nos permite asociar con aquél una frecuencia.
Analizaremos a continuación el experimento de difracción de electrones (el q-sistema) por
rendijas que nos permite asociar con los electrones una longitud de onda y nos ilustra un caso en
el que se produce el quiebre del modelo corpuscular. Siguiendo de cerca a Richard P.Feynman,
analizaremos este fenómeno de manera simplificada considerando previamente una situación
experimental análoga con cuerpos macroscópicos.
X.2. El experimento de difracción de electrones
Para tratar de entender el comportamiento cuántico de los electrones, compararemos su
comportamiento en una situación experimental dada, con el de partículas macroscópicas que
imaginaremos como proyectiles. Para ello consideremos un arma como lo ilustra la fig. 10.1 que
dispara tales proyectiles hacia un muro de contención, haciéndolo con gran dispersión. Además,
entre la boca del arma y el muro de contención se ha colocado paralelamente a éste un tabique
blindado con dos orificios adecuados para dejar pasar exactamente una bala por cada uno de
ellos. Sobre el muro de contención se desliza algún elemento colector adecuado tal como un
pequeño recipiente con arena, que permite detectar la llegada de un proyectil al punto en que se
encuentre el colector. Finalmente, asumiremos que si bien un proyectil puede rebotar sobre el
borde de uno de los orificios y su trayectoria cambiar de dirección como se muestra en la figura,
los proyectiles son indestructibles, es decir no se fragmentan en el proceso. M ediante este
dispositivo experimental estamos en condiciones de responder a la siguiente pregunta: ¿Cuál es
la probabilidad de que un dado proyectil que pasa por uno de los agujeros, llegue a un punto
determinado del muro de contención identificado por ejemplo, con la coordenada x? Es evidente
que aquí debemos hablar de probabilidad de arribo ya que el proyectil luego de rebotar en el
borde del orificio puede terminar en cualquier punto del muro de contención. Esta probabilidad
puede ser calculada sumando la cantidad de proyectiles que llegan durante un cierto tiempo al
detector cuando éste está colocado en la posición x, y dividiendo este número por la cantidad
total de proyectiles que llegaron al muro de contención durante el mismo período de tiempo. Si
efectivamente hiciésemos la experiencia, obtendríamos el resultado que se muestra en la fig. 10.1.
Fig. 10.1. Dispositivo para estudiar la probabilidad de arribo de proyectiles macroscópicos a un punto dado del
tabique de contención.
Si llamamos P1 a la probabilidad de llegada a un punto del muro de contención de un
proyectil que pasó por el orificio 1 y P2 la que corresponde a un proyectil que proviene del
orificio 2, la distribución de la probabilidad correspondiente a proyectiles que provengan del
orificio 1 ó 2, estará dada por la curva P12 que no es otra cosa que la suma de las curvas P1 y P2 .
Por otra parte, la curva P1 es idéntica a la que obtendríamos si obturáramos el orificio 2, y
recíprocamente para la curva P2. Observemos de paso que si bien los máximos de las curvas P1
y P2 se obtienen en puntos del muro de contención que se encuentran alineados con los
respectivos orificios y la boca del arma, el máximo de la curva P12 se encuentra situado sobre el
eje de simetría del sistema. En definitiva, para el caso de proyectiles se encuentra
experimentalmente, lo que significa que
las probabilidades son aditivas: el efecto de tener ambos orificios abiertos es la suma de los
efectos de abrir un orificio por vez.
Imaginemos ahora un experimento similar con electrones. Como lo ilustra la fig. 10.2, el arma
ha sido reemplazada por una fuente de electrones, tal como podría serlo un filamento de
tungsteno caliente al que le aplicamos un potencial eléctrico negativo respecto de una envolvente
metálica que los contiene y que se encuentra provista de un orificio para permitir la salida de los
electrones hacia una pantalla que se observa en la misma figura.
Fig. 10.2. Dispositivo de difracción de electrones por rendijas
Al igual que en la experiencia anterior, disponemos de un diafragma con dos orificios por los
que puede pasar un electrón. Sobre la pantalla existe un instrumento adecuado que permite
detectar la llegada de un electrón al punto de la pantalla donde el detector esté situado. Es
necesario destacar que a diferencia del dispositivo experimental anterior, este experimento no es
realizable de la manera indicada ya que el aparato debería tener una escala sumamente pequeña.
De todas maneras, el principio es correcto y los resultados que analizaremos son los mismos que
obtendríamos si realizáramos efectivamente la experiencia con la instrumentación apropiada. En
primer lugar observaríamos que al igual que los proyectiles considerados anteriormente, los
electrones son indestructibles. Esto quedaría en evidencia por la respuesta del detector, que sería
idéntica en todos los casos en que acusara la recepción de una partícula. Sin embargo, el resultado
de una experiencia con electrones sería el indicado en la fig. 10.2. La probabilidad P12 no es en tal
caso la suma de las probabilidades P1 y P2 correspondientes a mediciones efectuadas con los
orificios 2 y 1 respectivamente obturados. En otras palabras, para electrones se cumple que
La forma de la curva P12 convoca inmediatamente la idea del fenómeno de interferencia de,
por ejemplo, dos ondas luminosas. Interpretado de esta manera, la matemática para vincular para
vincular P1 y P2 con P12 se torna particularmente simple. En efecto, todo lo que tenemos que
hacer es asociar con el evento de llegada a un punto de la pantalla de los electrones que provienen
del orificio 1 y del orificio 2, los números complejos
respectivamente, tales que la probabilidad de llegada de un electrón a la
pantalla con el orificio 2 obturado sea
y que análogamente
. Experimentalmente se verificaría entonces que resulta simplemente
. En otras palabras, la matemática que rige la experiencia con electrones es la misma
que para fenómenos ondulatorios.
De Broglie propuso que la dualidad onda-corpúsculo es una característica universal de la
naturaleza aplicable a cualquier entidad, propuso que la naturaleza ondulatoria y corpuscular de
tal entidad, se encuentran vinculadas por la relación
(10.3)
donde p es el vector cantidad de movimiento, la longitud de onda asociada con el
movimiento de la entidad, y h = 2π = 6.6255 x 10-27 erg.s es la Constante de Plank. Es
importante observar aquí que si el valor de h fuese cero, sería = 0, por lo que uno recuperaría el
comportamiento clásico de una objeto. De modo que es entonces posible considerar a la M CL
como el límite de la M C para h→0. En otras palabras, la M CL constituye el límite inferior de
longitudes de onda de la M C de la misma manera que la Optica Geométrica lo es para la Optica
Física. Podemos formular esto de manera más precisa diciendo que si x es una longitud
característica en la descripción del movimiento de un objeto con cantidad de movimiento p, el
comportamiento cuántico quedará oculto si es
por lo que el objeto se comportará en tal caso de manera “clásica”.
Una ilustración de esto lo constituye el hecho de no presentarse efectos de interferencia en la
experiencia realizada con proyectiles macroscópicos. En efecto, la aplicación de (10.3) a este
caso daría como resultado una longitud de onda asociada tan pequeña que tendríamos lo que
esquemáticamente se muestra en la fig. 10.3(a). Obviamente, ningún instrumento real (clásico)
sería capaz de resolver dicha distribución de amplitudes, por lo que en definitiva mediríamos la
variación promedio que se muestra en la parte (b) de la misma figura.
Fig. 10.3. Difracción correspondiente un objeto macroscópico
Esta transición gradual que podemos hacer entre el comportamiento cuántico y el clásico
para h→0, nos sugiere que la M C no sólo debe ser consistente con la M CL, sino que sus leyes
deben reducirse a las expresiones clásicas en una adecuada aproximación. Este requerimiento, que
constituye como veremos una guía útil para desarrollar la M C, ha sido elevado a la categoría de
principio y recibe el nombre de Principio de Correspondencia.
10.3. La función de onda y su interpretación ortodoxa. El
Principio de Incertidumbre. Dificultades de interpretación en
términos clásicos
Históricamente, la interpretación de la M C no relativista ha sido dominada por dos
corrientes principales. Por un lado, tenemos la “interpretación ortodoxa” o “interpretación de
Copenhagen” que surgió a partir de la visión de Bohr, y promulgada por Heisemberg, Born,
Pauli, y otros. Por el otro lado, encontramos la “interpretación realista” que se desarrolló a partir
de las críticas de Einstein a Bohr, y que ha sido expuesta por Landé, Popper, Putnam, Bohm, y
en general por los representantes de la escuela de las llamadas “variables ocultas”. Este último
grupo objeta a la interpretación ortodoxa en base a su antirrealismo. Sin embargo, ni Bohr ni
Heisemberg eran antirrealistas en el sentido metafísico de negar la existencia de una realidad
externa objetiva detrás del velo de la percepción, ni renegaban del compromiso del realista de
describir tal realidad mediante el lenguaje de la ciencia. En particular, ambos compartían con
Einstein y los otros realistas la creencia en la realidad objetiva de los átomos y en el
encuadramiento científico de la teoría atómica de la materia. En otras palabras, el desacuerdo
entre Bohr y Heisemberg por un lado y Einstein por el otro no era sobre el realismo metafísico ni
sobre el realismo científico. Como veremos, se trataba en cambio de un desacuerdo acerca de los
términos en los cuales dicha realidad externa debía ser descripta.
Hasta aquí sólo hemos considerado la relación existente entre la longitud de una onda
(llamada a veces onda de materia) asociada al movimiento de una microentidad, con la cantidad
de movimiento p. M atemáticamente, podemos representar a dichas ondas mediante una función
de onda escalar (x,y,z,t), donde debe representar de alguna manera una medida de la presencia
de la partícula. En efecto, no deberíamos esperar encontrar la partícula en una región donde = 0,
y recíprocamente, en aquellas regiones del espacio donde la partícula puede ser hallada, debe
ser diferente de cero. Nos preguntamos inmediatamente si constituye una magnitud
experimentalmente medible, y en tal caso cuál sería su significado preciso. La experiencia de
interferencia con electrones que analizamos anteriormente sugiere que no puede ser ella misma
la medida de la presencia de la partícula, ya que ello obligaría a que adoptara únicamente
valores positivos o nulos y esto no es compatible con los efectos de interferencia destructiva.
Por otra parte, los mismos resultados de la experiencia con electrones nos sugieren que es
(x,y,z,t) 2 y no simplemente (x,y,z,t) lo que mide la probabilidad de hallar una partícula en la
posición x,y,z, en el instante t (Born).
Debemos ahora tener en cuenta un aspecto de la experiencia con electrones que es de
fundamental importancia para un correcto entendimiento de la M C: los efectos de interferencia
observados experimentalmente aparecen una vez que un gran número de electrones han arribado
a la pantalla. Sin embargo ello no implica que sea necesario que utilicemos un haz de partículas.
En efecto, la acumulación de arribos correspondientes a electrones individuales producirá el
mismo efecto. Esto nos está indicando que el comportamiento ondulatorio es atributo de cada
partícula individual y que el efecto de interferencia depende por lo tanto del pasaje de la onda
asociada a la partícula por ambos orificios a la vez. Si utilizáramos algún instrumento adecuado
para establecer durante la experiencia por cuál de los orificios pasan los electrones, por el solo
hecho de efectuar el monitoreo destruiríamos el patrón de interferencia obteniendo en cambio una
distribución de probabilidades P12 similar a la de la fig. 10.1. Obviamente, el mismo resultado es
el que obtendríamos obturando alternativamente los orificios y sumando las probabilidades
resultantes, ya que ésta es una manera de determinar por cuál de los orificios pasa cada partícula.
En otras palabras, toda la evidencia experimental existente nos indica que el mantenimiento de la
coexistencia de los aspectos ondulatorio y corpuscular asociados al movimiento de una
microentidad exige la aceptación de una cierta indeterminación en el conocimiento de la
configuración del sistema. Fue Heisemberg quien sugirió que las leyes de la M C sólo pueden ser
consistentes si se acepta una cierta limitación esencial en nuestra capacidad experimental y
propuso como criterio general el Principio de Incertidumbre, que enunciado en su forma original,
dice: si se efectúan mediciones sobre un objeto, y se puede determinar la componente en la
dirección x de su cantidad de movimiento con una incertidumbre Δpx, no es posible al mismo
tiempo conocer su coordenada de posición x con una exactitud mayor que Δx = h/Δpx, donde h es
la Constante de Plank.
Siguiendo en forma abreviada y algo modificado un argumento de Krips (2) demostraremos
ahora que, dadas ciertas suposiciones adicionales plausibles, los resultados de una versión
ligeramente cambiada del experimento de las rendijas refuta la imagen corpuscular para los
electrones. En otras palabras, no es que el experimento de difracción de electrones simplemente
sugiera el aspecto ondulatorio del fenómeno, sino que los resultados del mismo son
incompatibles con una interpretación corpuscular. El argumento es del tipo reductio en el que la
hipótesis básica que consiste en asumir a los electrones como partículas (lo que implica que los
mismos tienen una localización espacial definida en todo instante del experimento), conduce a
una contradicción con la evidencia experimental. Asumimos adicionalmente que la localización
espacial de las partículas es continua en el tiempo, y que satisface el Ppio. Newtoniano de
Inercia, es decir que aquellas no modificarán su trayectoria a menos que medie una fuerza externa
sobre las partículas. Finalmente, asumiremos que una partícula se registra sobre la placa
fotográfica ssi (139) realmente alcanza el punto en el cual se registra.
Sea Eo el haz de electrones que se registra en la placa en el experimento de las rendijas. De
esta definición y de nuestras suposiciones iniciales sigue que cada miembro de Eo tiene una
trayectoria continua y determinada que comienza en el lado opuesto del diafragma con respecto a
la placa fotográfica y termina en la misma. Pero una trayectoria continua que comienza en un
lado del diafragma y termina en el lado opuesto debe interceptar al diafragma y sólo lo puede
hacer en S1 o en S2, que son las posiciones correspondientes a las dos rendijas en el diafragma
(ya que se ha impuesto la condición experimental que el diafragma sea opaco a los electrones).
Además dado que los electrones obedecen el Ppio. de Inercia y que se trata de partículas libres,
cada electrón pasa sólo a través de una rendija (es decir no puede volver sobre si mismo y pasar
también por la otra).
Consideremos ahora un haz de electrones E1 preparado idénticamente a Eo , excepto por el
hecho que sólo la rendija S1 se encuentra abierta cuando transitan el diafragma, análogamente
para el haz de electrones E2 que son los que se registran en la placa cuando sólo S2 se encuentra
abierta.
Denotemos ahora con “x” la propiedad de que un electrón se registre en el entorno del punto
de coordenada x en la placa y llamemos respectivamente P0 (x), P1 (x), y P2 (x) a las
probabilidades de que los electrones de los haces Eo , E1 , y E2 , se registren en el entorno del
punto x de la placa. De modo que teniendo en cuenta que cualquier electrón que se registre en la
placa debe haber pasado por S1 o por S2 , resulta P0 (x) = P0 [x y ( S1 o S2 )] = P0 [(x y S1 ) o (x
y S2 )], por la Ley Distributiva de la lógica. Por lo tanto, recordando que un electrón sólo puede
pasar por una de las rendijas, lo que hace que S1 y S2 sean mutuamente excluyentes, el Teorema
de Adición de las probabilidades nos permite escribir
donde P0 (x/S1) denota la probabilidad de que un electrón se registre en un entorno del punto
x de la placa habiendo pasado por la rendija S1 , y análogamente para P0 (x/S2).
Ahora bien, resulta además que
En este punto introduciremos el Postulado de Independencia (PI) de Reichembach (3) que
nos dice que la circunstancia que S2 esté o no abierta, no tiene relevancia causal sobre las
trayectorias de los electrones de Eo que pasen por S1 . De manera que de acuerdo con este
postulado, podemos escribir
y análogamente
Observemos que las probabilidades que hemos igualado en (10.7) y (10.8), son por un lado
las probabilidades empíricas P1 (x) y P2 (x), y por el otro lo que podríamos denominar las
probabilidades metafísicas P0 (x/S1) y P0 (x/S2 ), a las que llamamos así porque no las podemos
observar directamente ya que según hemos visto, cualquier intento de medirlas
experimentalmente destruye el patrón de interferencia.
De manera que introduciendo (10.7) y (10.8) en (10.6), nos queda
y del mismo modo, obtenemos
Por lo tanto, teniendo en cuenta (10.9) y (10.10), reordenando la (10.5) nos queda
pero dado que es P0 (S1) + P0 (S2) = 1, resulta finalmente
Ahora bien, teniendo en cuenta la distribución experimental de las probabilidades P1 (x) y
P2 (x), la (10.12) predice que deberíamos obtener en la película una imagen consistente en dos
únicas líneas. Sin embargo, sabemos que la evidencia experimental nos muestra un espectro
complejo de difracción consistente en múltiples líneas, refutando la expresión anterior.
Así como hemos demostrado que la imagen corpuscular no es apropiada para la descripción
de un electrón y en general de un q-sistema (en particular hemos analizado las dificultades que
surgen de asignar a los electrones una trayectoria espacio-temporal definida), analizaremos a
continuación un argumento que recurre a principios básicos de M C para demostrar que tampoco
es posible considerar al electrón como una onda sin caer en inconsistencias. Consideremos para
ello los siguientes tres experimentos: Primero se dispara un conjunto E1 de electrones a lo largo
de una dirección l, de modo tal que cada electrón tenga una cantidad de movimiento precisa p1 .
Dado que los electrones se desplazan en un campo libre de fuerzas, la cantidad de movimiento se
conserva, pero todo el dispositivo experimental se considera limitado por paredes que se
encuentran a una distancia L una de otra a lo largo de la línea l. Sea R un intervalo espacial
arbitrario a lo largo de l, y P1 (R,t) la probabilidad de encontrar electrones de E1 en R en el
instante t. De acuerdo con los principios básicos de la M C, una partícula animada de una
cantidad de movimiento precisa p1 que se desplaza en el sentido positivo del eje x, queda
representada por la función de onda 1(x,t), cuya expresión es
donde A es una constante compleja en general que queda sujeta a la condición de
normalización de la función de onda y k 1 el vector de onda de módulo 2π/ 1 . En el caso que nos
ocupa, la condición de normalización resulta
dado que cualquier electrón de E1 debe necesariamente hallarse en el intervalo [0,l], es decir
De manera que teniendo en cuenta (10.15), y la interpretación ortodoxa de la función de onda
como densidad de probabilidad de localización de la partícula en un entorno del punto de
coordenadas x en el instante t, resulta que la probabilidad de encontrar la partícula en el intervalo
[x, x+R] en el instante t, es
Cambiando un poco la notación, hemos demostrado entonces que la probabilidad de
encontrar un electrón de E1 en el intervalo arbitrario R, está dada por la expresión P1 (R,t) =
L(R)/L, donde con L(R) denotamos la longitud del segmento R.
Repitiendo la experiencia y procediendo de la misma manera surge que dado un conjunto de
electrones E2 animados de una cantidad de movimiento precisa p2, la probabilidad de hallar un
electrón de E2 en el intervalo R en el instante t, será P2 (R,t) = L(R)/L. Observemos que estas
probabilidades son las mismas que se esperarían si los electrones fuesen efectivamente partículas
clásicas de localización totalmente incierta.
Finalmente, imaginemos un conjunto de electrones Eo , preparado de manera que cada
electrón en el conjunto se encuentra en el instante t en una superposición lineal de los estados
correspondientes a los estados de los electrones de E1 y E2 , con los mismos coeficientes de
superposición para cada estado.
En tal caso, tendremos
de manera que la probabilidad de hallar un electrón de Eo en el intervalo R en el instante t, es
Puede sin embargo argumentarse que este resultado contradice la suposición que los
electrones poseen siempre una cantidad de movimiento definida, ya que en tal caso esperaríamos
una probabilidad 1/2 de medir en los electrones detectados una cantidad de movimiento p1 (y
por lo tanto correspondientes a electrones pertenecientes a E1 ), y una probabilidad 1/2 de medir
una cantidad de movimiento E2 (y por lo tanto correspondientes a electrones pertenecientes a
E2 ) (140), por lo que sería
que contradice a la expresión anterior. De manera que la asignación a un q-sistema (en este
caso los electrones) de una cantidad de movimiento definida, lo que de acuerdo con lo dicho
equivale a identificarlo con una onda de longitud también definida, conduce a dificultades
similares a las halladas en el experimento de las rendijas cuando se asume que el q-sistema posee
en todo momento una localización espacial definida. De modo que ni la imagen puramente
corpuscular ni la imagen puramente ondulatoria son suficientes para caracterizar a un q-sistema.
De hecho, los argumentos analizados más arriba soportan la posición de Bohr en el sentido de
que ambas imágenes son en realidad complementarias sin que ninguna de ellas individualmente
sea universalmente aplicable a un q-sistema.
En virtud de lo expuesto, puede sugerirse que cuando hablamos de indeterminación de la
posición de un electrón, nos referimos al hecho que (i) el electrón satisface algunos pero no todos
los criterios para estar espacialmente disperso, (ii) satisface algunos pero no todos los criterios
para encontrarse localizado en un punto, (iii) el electrón satisface todos los criterios para ser un
objeto espacial, situado en un volumen espacial, ya que si el electrón está caracterizado por una
función de onda de valor no-nulo en una cierta región V y sólo en V, entonces podemos decir que
el electrón está localizado en V, como lo demostraría toda medición experimental de la posición
del mismo. De la misma manera, podemos extender este concepto de indeterminación en la
posición de un electrón al de indeterminación de otras cantidades físicas. Es así que podemos
decir que la cantidad Q está indeterminada en valor en el q-sistema S en el instante t, si (i) se
satisfacen todos los criterios para que Q tenga algún valor en S en el instante t (es decir, una
medición de Q arrojaría un valor en t), pero (ii) debido a la existencia de fenómenos de
interferencia no hay valores particulares para los cuales S en t satisface todos los criterios para
que Q tenga tales valores. En tal caso, no sólo diremos que “Q tiene un valor indeterminado en S
en t”, sino que estaremos también afirmando que “Q tiene algún valor en S en t”, de la misma
manera que hemos afirmado que si bien la posición del electrón se encuentra indeterminada, el
mismo se encuentra localizado en algún punto de una dada región. Puede verse que la
introducción del concepto de indeterminación en la M C exige la erección de un estructura
semántica adecuada para que la frase “Q tiene un valor indeterminado en S en t”, sea lógicamente
consistente con la frase “Q tiene algún valor en S en t”. Esto no es tan sencillo como puede
parecerlo a primera vista, ya que cuando decimos que “Q tiene un valor indeterminado en S en t”,
no estamos simplemente manifestando nuestro desconocimiento de dicho valor sino que estamos
afirmando que la cantidad Q, en tanto no sea medida experimentalmente, posee una
indeterminación esencial e irreductible. De manera que la indeterminación cuántica puede ser
considerada como una nueva propiedad de un sistema (con un sentido diferente al de los
términos “vago” o “impreciso” del lenguaje ordinario o de la física clásica) que debe ser
incorporada de la forma más rigurosa posible al discurso teórico.
Uno puede preguntarse en este punto por qué Bohr, frente a estas dificultades, persistía en
la utilización de imágenes clásicas para la descripción de sistemas cuánticos. En este sentido, la
interpretación que Krips (141) hace de la actitud de Bohr es la siguiente: los q-sistemas (o de
hecho cualquier sistema) deben ser descriptos en los términos que se emplean para la descripción
del mundo macroscópico, dado que es nuestra experiencia acerca de este mundo macroscópico lo
que se emplea para el aprendizaje de nuestro lenguaje descriptivo, y esos términos son los de la
física clásica que sabemos que son válidos a nivel macro. En otras palabras, es esencial reconocer
que por más que los fenómenos trasciendan el marco de la física clásica, la descripción de toda la
evidencia debe efectuarse en términos clásicos, dado que por el término “experimento” nos
referimos a una situación en la que podemos transmitir a otros lo que hemos hecho y lo que
hemos aprendido, y por lo tanto, la descripción del dispositivo y de los resultados de la
observación deben ser expresados en un lenguaje no ambiguo mediante la adecuada utilización de
la terminología de la física clásica (142). Desde este punto de vista, el rol de la M C resulta una
extensión de la concepción positivista del siglo XIX que veía a la función de la física como
construcción de modelos y como investigación empírica para establecer en qué medida dichos
modelos eran aplicables para la descripción de fenómenos particulares.
Por el contrario, la nueva M C desarrollada por Born, Heisemberg, Schrödinger y otros,
describe en todo instante a los q-sistemas en términos de funciones o vectores de onda, lo que
constituye una forma no clásica de efectuar la descripción ya que no se corresponde con la
manera tradicional de caracterización de un sistema en términos de cantidades físicas a las que se
les asigna valores numéricos definidos. La posición de Bohr ante este nuevo formalismo fue
asignarle carácter instrumental, definiéndolo como un aparato matemático que suministra reglas
de cálculo (143). Sin embargo, como lo señala Krips (144) y como ya se ha puntualizado más
arriba, el instrumentalismo de Bohr respecto del formalismo de la función de onda no se extendía
a otros conceptos de la M C, ya que no dudaba de la existencia de inobservables como átomos o
electrones, adoptando en tal caso una actitud realista. En otras palabras, el antiRrealismo de
Bohr se limitaba esencialmente a una actitud escéptica respecto de la realidad física de las
entidades representadas por las estructuras matemáticas de la nueva M C. En general, la actitud
de los físicos posteriores a Bohr ha sido aceptar que el formalismo emergente de la nueva M C
describe un nuevo nivel de realidad, aunque esta realidad no quede descripta de la manera clásica
habitual. Sin embargo, es importante notar que esta descripción no-clásica de los sistemas
cuánticos no reemplaza completamente al estilo clásico de descripción de la vieja M C, sino que
lo suplementa con un conjunto de conceptos no-clásicos referentes a un nivel más profundo de
realidad. Es así que aún persisten en el lenguaje de la M C términos como “cantidad de
movimiento”, “posición”, “energía”, etc, y sobreviven expresiones como “imagen ondulatoria” e
“imagen corpuscular”.
X.4. Los postulados básicos de la Mecánica Cuántica (145)
Postulado 1: Para cada sistema dinámico existe una función de onda que es función
univaluada de los parámetros del sistema y del tiempo, y a partir de la cual pueden obtenerse
todas las posibles predicciones de las propiedades físicas del sistema.
Postulado 2: La evolución temporal de la función de onda está determinada por la Ecuación
de Schrödinger dependiente del tiempo,
En el caso en que el potencial V no dependa del tiempo, el sistema es conservativo. La
circunstancia de que V no dependa de t nos permite aplicar a la (10.20) la técnica de separación
de variables, escribiendo
Sustituyendo (10.21) en (10.20) y operando obtenemos las ecuaciones separadas
donde E es la constante de separación. La primera de las (10.22) se resuelve inmediatamente,
mediante
mientras que la solución de la segunda ecuación (10.22) (llamada Ecuación de Schrödinger
independiente del tiempo) depende de la forma particular de V(r).
En el caso de una partícula libre, podemos adoptar V(r) = 0, de modo que (10.22) se
satisface para
donde A es una constante y k = (2mE/ 2)1/2, de modo que
donde = E/ , lo que nos brinda una justificación para identificar la constante de separación
E con la energía del sistema.
Consideremos ahora la Ec. de Schrödinger independiente del tiempo para el caso de una
partícula que se mueve en un potencial V(r), que escribimos en la forma
o bien
La cantidad encerrada en el corchete de (10.26) y definida como en (10.27), es un ejemplo
de lo que denominamos operador matemático. Tales operadores actúan sobre funciones (en este
caso un para producir nuevas funciones. La (10.27) nos dice que los niveles de energía En y las
correspondientes funciones de onda un son tales que cuando el operador actúa en un, produce un
resultado que es equivalente a multiplicar la función un por la constante En . Las cantidades En y
las funciones un se conocen como los autovalores y las autofunciones respectivamente del
operador, que por razones históricas se conoce como operador hamiltoniano. De modo que las
autofunciones un son las funciones de onda que describen el sistema cuando este se encuentra en
un estado de energía En . En otras palabras, si medimos la energía del sistema cuando éste se
encuentra en el estado descripto por la función de onda un , el valor de energía que mediremos
será En .
A la luz de lo expuesto resulta razonable extender el argumento anterior y suponer que otras
variables dinámicas tales como posición, cantidad de movimiento, etc., puedan también ser
representadas por operadores, tales que sus autovalores correspondan a posibles mediciones de
tales cantidades. Consideremos el operador cantidad de movimiento: es obvio que la primer parte
del hamiltoniano (10.27) corresponde a la energía cinética de la partícula, y clásicamente ésta se
encuentra relacionada con la cantidad de movimiento a través de la expresión
de modo que si asumimos una relación análoga en M C, obtenemos
donde P es el operador cantidad de movimiento. De modo que resulta
A título de comprobación consideremos la ecuación del autovalor correspondiente al
operador que representa la componente x de la cantidad de movimiento, es decir llamando p y
al autovalor y a la autofunción respectivamente, resulta
de manera que es
donde A es una constante de integración y k = p/ , es decir hemos recuperado la relación de
de Broglie que conecta el vector de onda con la cantidad de movimiento de la partícula.
Observemos de paso que la (10.31) tiene solución para cualquier valor de p, lo que nos dice que
la cantidad de movimiento de una partícula no está limitada a valores discretos como ocurre con
la energía de una partícula confinada. Además notemos que en general las autofunciones del
operador cantidad de movimiento son diferentes a las del operador energía (hamiltoniano),
excepto en el caso de una partícula libre en que V(r) es constante en todo el espacio. De modo
que inmediatamente después de la medición de la energía de una partícula confinada, la función
de onda no será una autofunción del operador cantidad de movimiento, lo que implica que el
valor de una medición de esta cantidad de movimiento no puede ser predicho en forma exacta.
Consideremos ahora el operador que representa a la posición de una partícula que se mueve
en una dimensión. Podemos plantear la ecuación del autovalor como
donde ahora xo y representan los autovalores y las autofunciones del operador posición.
Ahora bien, teniendo en cuenta que el cuadrado del módulo de la función de onda en un punto
representa la densidad de probabilidad de la presencia de la partícula en dicha posición, es
razonable que luego de una medición de la posición de la partícula que arroja como reSultado el
valor xo, la autofunción de la posición se identificará con la función delta de Dirac (x-xo), es
decir
que se satisface para
como surge inmediatamente de reemplazar (10.35) en (10.34) y de aplicar las propiedades de
la función delta de Dirac. De modo que generalizando a tres dimensiones, el operador que
representa la posición r de la partícula es simplemente el vector r.
Dado que hemos interpretado a los autovalores de los operadores como representando
posibles resultados de mediciones experimentales para determinar las correspondientes
cantidades físicas, surge la condición de que dichos autovalores deben ser siempre números
reales, aunque las autofunciones o los operadores mismos sean cantidades complejas en general.
Una clase de operadores matemáticos que siempre arrojan autovalores reales son los llamados
operadores hermíticos. Los operadores hermíticos se definen de manera tal que si f(r) y g(r) son
funciones suficientemente bien comportadas que se extinguen en el infinito, entonces el operador
Q es hermítico si y sólo si se cumple que
donde Q* es el conjugado complejo de Q.
Es fácil demostrar que los autovalores de operadores hermíticos son reales. En efecto, sea
de modo que
pero si Q es hermítico, surge de (10.36) (identificando f con n y g con n*) que los primeros
miembros de (10.38) y (10.39) son iguales, por lo que resulta
es decir debe cumplirse
de modo que qn es real de acuerdo con lo requerido.
Si bien el inverso de este teorema no es cierto (es decir que hay operadores con autovalores
reales que no son hermíticos), se ha encontrado posible representar todas las cantidades físicas
mediante operadores hermíticos lo que justifica imponer tal condición.
Hemos justificado así los postulados:
Postulado 3: Toda variable dinámica puede ser representada por un operador hermítico
cuyos autovalores representan los posibles resultados de mediciones de la variable dinámica.
Inmediatamente después de la medición, la función de onda del sistema será idéntica a la
autofunción correspondiente al autovalor obtenido en la medición.
Postulado 4: Los operadores (hermíticos) que representan en M C la posición y la cantidad
de movimiento de una partícula, son r y -i respectivamente. Los operadores que representan
otras variables dinámicas guardan con los anteriores la misma relación funcional que las
correspondientes cantidades en M CL.
A los que agregamos:
Postulado 5: Cuando se efectua la medición de una variable dinámica representada por el
operador Q en un sistema cuya función de onda es , entonces la probabilidad de que el
resultado de la medición corresponda al autovalor particular qm, será ,
siendo las n las autofunciones correspondientes a los autovalores qn. En el caso de autovalores
continuos, la probabilidad de un resultado entre q(k) y q(k + dk), es a(k) 2 dk, donde (r) =
a(k) (k,r)dk.
El postulado anterior nos dice por un lado que cualquier función de onda puede ser
expandida en términos de autofunciones n de un operador hermítico. Por eso decimos que tal
conjunto de autofunciones es completo. Una propiedad importante de las autofunciones de
operadores hermíticos es la de ortonormalidad, es decir, se cumple siempre
Es fácil ver que esta propiedad nos permite calcular los coeficientes an de la expansión si
conocemos la función de onda y las autofunciones n. En efecto
El postulado 5 nos brinda por otra parte la manera de calcular la probabilidad relativa de
obtener los resultados en mediciones experimentales de las variables dinámicas. Podemos
emplear este concepto para predecir el valor promedio que obtendremos si efectuamos una gran
cantidad de determinaciones de la misma cantidad en sistemas que poseen idéntica función de
onda inmediatamente antes de la medición. Tal valor promedio se conoce como valor de
expectación o simplemente expectación de la variable dinámica correspondiente. Consideremos la
expresión
Utilizando la expansión de en términos de las autofunciones n de Q, resulta
Ahora bien, teniendo en cuenta que de acuerdo con el postulado 5, an 2 es la probabilidad
de obtener el valor qn en una medición, resulta claro que el primer miembro de la (10.45) es el
valor de expectación buscado, que suele escribirse
de manera que si conocemos la función de onda del sistema y el operador que representa a la
variable dinámica de interés, siempre podemos calcular el valor de expectación de la misma.
Dos cantidades observables (representadas por sus correspondientes operadores hermíticos)
se dicen compatibles si los operadores que las representan poseen un conjunto común de
autofunciones. Esto implica que si una cantidad es medida, dado que la función de onda del
sistema será después de la medición una autofunción del conjunto común, una medición
subsiguiente de la otra cantidad tendrá un resultado completamente predecible y dejará la función
de onda inalterada. Sean Q y R los operadores que representan dos cantidades compatibles, con
los autovalores respectivos qn y rn , y el conjunto común de autofunciones n. Definimos ahora
el (operador) conmutador de Q y R, como
Si representa una función de onda del sistema, aplicando a esta función de onda el
operador (10.47), resulta
de modo que el conmutador de operadores que representan cantidades compatibles se anula.
Es fácil demostrar que el enunciado inverso también es cierto, es decir que si el conmutador de
dos operadores se anula, ambos tiene un conjunto común de autofunciones.
El conmutador de dos operadores no se anulará en general. En tal sentido, introduciremos
ahora sin demostración el Principio de Incertidumbre Generalizado, que podemos escribir
de manera que si conocemos el conmutador de dos operadores, la (10.49) nos permite
calcular el producto de las incertidumbres asociadas con series de mediciones de las cantidades
representadas por dichos operadores en un sistema cuya función de onda inmediatamente antes
de cada medición es .
X.5. Momento cinético y momento magnético
La expresión clásica para el momento cinético I de una partícula cuya posición y cantidad de
movimiento son r y p respectivamente, es
Surge entonces de acuerdo con el postulado 4, que el correspondiente operador en M C, será
de manera que los operadores representando las respectivas componentes cartesianas del
momento cinético, son
Es fácil demostrar a partir de las (10.52) y (10.53) que las componentes del momento
cinético no conmutan entre sí por lo que no son compatibles. Esto significa que si el sistema se
halla en un autoestado correspondiente a una de las componentes de L, no puede estar
simultáneamente en el autoestado de ninguna otra componente de este operador. En cambio, 2
conmuta con cada una de las componentes de , lo que nos dice que es posible conocer
simultáneamente el valor de momento cinético total y de una de sus componentes, que en lo
sucesivo seleccionaremos arbitrariamente como z .
Clásicamente, una partícula con una carga eléctrica e tal como un electrón con masa me que
se mueve en una órbita con momento cinético I, tiene asociado un momento magnético μ, dado
por
De manera que de acuerdo con el postulado 4, el operador correspondiente en M C debe ser
es decir, por ejemplo
de lo que sigue que si una componente del momento magnético de un átomo es medida, se
obtiene también el valor de la correspondiente componente del momento cinético.
X.6. Momento cinético intrínseco o spin
Hasta aquí hemos analizado solamente la descripción cuántica de una partícula considerada
como una masa puntual carente de estructura interna. En otras palabras, hemos asumido hasta
ahora que el estado de una partícula queda totalmente descripto por la función de onda (r,t),
donde las variables dinámicas x,y,z constituyen un conjunto completo. Debemos sin embargo
enfatizar que cuando hablamos aquí de conjunto completo, lo hacemos con relación a la
descripción de un modelo físico en particular y no en el sentido matemático estricto en que lo
hemos utilizado anteriormente, ya que la experiencia nos enseña que siempre aparecerán nuevas
evidencias experimentales que nos obligarán a un refinamiento del modelo en uso. En tal sentido,
existe suficiente evidencia experimental para atribuir a ciertas partículas elementales como
electrones, protones y neutrones, un momento cinético intrínseco o spin, y asociado con el
mismo, un momento magnético intrínseco.
La primera evidencia empírica del spin y del momento magnético intrínseco deriva del
denominado experimento de Stern-Gerlach. Si un campo magnético B es aplicado a un electrón
dotado de un momento magnético orbital μ, la física clásica nos enseña que la energía de
interacción entre ambos será -μ.B, de manera que si la dirección del campo magnético se toma
arbitrariamente como la del eje z, la fuerza resultante de tal interacción será F = μz B. M idiendo
la deflexión de los átomos mediante la consideración de los trazos que estos dejan sobre una
pantalla, es posible estimar la fuerza, y por lo tanto calcular la componente del momento
magnético μz.
Si bien clásicamente se debería esperar un tazo continuo sobre la pantalla en correspondencia
con una variación continua de μz entre +μ y -μ, el experimento muestra en cambio una cierta
cantidad de trazos equidistantes, lo que constituye una indicación clara de la naturaleza cuántica
discreta del momento magnético (cuantización espacial). Sin embargo, si bien la cuantificación
del espectro es esperable en el marco de la M C, el número de líneas que se presentan
experimentalmente duplica la cantidad que puede esperarse a partir de la cuantificación del
momento magnético orbital. La correcta explicación del fenómeno fue introducida por Goudsmit
y Uhlenbeck, basados en el análisis de una gran cantidad de datos espectroscópicos, postulando
que el electrón posee un momento magnético intrínseco que puede tener solamente dos
proyecciones: μz = +e /2me y μz = -e /2me.
De manera que de acuerdo con este postulado, debemos considerar al electrón como una
carga puntual que posee un momento magnético finito cuya proyección puede tomar sólo dos
valores discretos. Goudsmit y Uhlenbeck postularon también que asociado con el momento
magnético intrínseco, el electrón posee un momento cinético intrínseco o spin, pero cuya
medición directa es mucho más dificultosa que la del momento magnético.
X.7. Matrices de Pauli y el problema de la medición en MC
Es fácil demostrar que es posible representar en forma totalmente equivalente a las variables
dinámicas por medio de matrices en lugar de hacerlo mediante operadores hermíticos
diferenciales. En efecto, consideremos la ecuación del autovalor
Expandiendo en términos del conjunto completo de autofunciones n, resulta
donde estamos suponiendo que las autofunciones constituyen un conjunto discreto, pero
cuya extensión al caso continuo es inmediata. Sustituyendo (10.58) en (10.57), resulta
M ultiplicando ahora ambos miembros de (10.59) por la conjugada compleja de alguna de las
autofunciones, digamos m*, e integrando sobre todo el espacio, nos queda (teniendo en cuenta
la ortonormalidad de las autofunciones)
donde
Ahora bien, es fácil ver que podemos escribir la (10.60) en forma matricial, como
donde de (10.61) y del hecho que Q es un operador hermítico, surge que se cumple Qmn * =
Qnm . Una matriz cuyos elementos satisfacen esta condición se denomina hermítica, y la (10.62)
constituye la ecuación del autovalor expresada en forma matricial. La similitud entre operadores
y matrices hermíticas hace posible recuperar todos los resultados anteriores a partir de una
formulación enteramente matricial. El inconveniente de tal formulación es que la mayoría de los
sistemas cuánticos admite un número infinito de autoestados, es decir las variables dinámicas
tendrían entonces que ser representadas por matrices de orden infinito. Sin embargo, en el caso
en que el número de autovalores es finito, como ocurre con la variable dinámica spin, el empleo
de matrices hermíticas para la representación de operadores puede resultar conveniente. Es así
que W.Pauli introdujo un conjunto de matrices de 2x2 para representar las componentes del
momento cinético intrínseco de partículas con spin 1/2, y que por tal motivo se conocen como
matrices de Pauli. Éstas tienen la forma
siendo
La justificación de que las matrices de Pauli constituyen una representación apropiada del
spin, lo da el hecho de que las mismas satisfacen relaciones de conmutación para el momento
cinético. La (10.64) nos dice que los autovalores de por ejemplo z, serán los autovalores de [
z] multiplicados por /2, y de manera análoga para las otras componentes del spin.
Fig. 10.4. El experimento de Stern-Gerlach
A continuación se muestran los autovalores y autovectores de las matrices de Pauli, que
surgen de resolver las correspondientes ecuaciones del autovalor para cada una de las
componentes del spin.
La medición del spin provee una clara ilustración de lo que se llama la teoría cuántica de la
medición. Consideremos un haz de partículas que viajan a lo largo del eje y hacia un aparato de
Stern-Gerlach orientado de manera de medir la componente z del spin (a tal aparato lo
indicaremos como SGZ), como se muestra esquemáticamente en la fig. 10.4.
Si un campo magnético B es aplicado a un electrón dotado de un momento magnético orbital
μ, la física clásica nos enseña que la energía de interacción entre ambos será -μ.B, de manera que
si la dirección del campo magnético se toma arbitrariamente como la del eje z, la fuerza resultante
de tal interacción será F = μz B. M idiendo la deflexión de los átomos mediante la consideración
de los trazos que estos dejan sobre una pantalla, es posible estimar la fuerza, y por lo tanto
calcular la componente del momento magnético μz.
Podemos asumir que el número de partículas en el haz es lo suficientemente pequeño como
para que en cualquier instante no haya más que una partícula en el aparato, pudiéndose de este
modo descartar cualquier posible interacción entre las partículas. De SGZ emergerán dos haces
de partículas. Uno con la componente z del spin igual a + /2 y el otro con la componente - /2. Si
bloqueamos éste último de modo de permitir que sólo continúe el haz con spin + /2, tenemos
totalmente definido el estado del sistema y el vector de estado de las partículas que continúan es
el autovector z de z, correspondiente a un autovalor + /2. Resulta razonable suponer que si
hiciésemos pasar este haz de partículas por otro aparato SGZ, todas las partículas emergerían en
el canal correspondiente a z = + /2, resultando esta predicción confirmada experimentalmente.
Consideremos en cambio la situación en la cual el haz de partículas emergente del primer
aparato SGZ con la componente z positiva, se hace pasar por un aparato SGX (es decir
preparado para medir la componente en la dirección x). Cada partícula deberá emerger con una
componente x i gual a + /2 ó - /2, pero como el vector de estado inicial z no es un autovector
de x, no podemos predecir cuál será el resultado de la medición. Sin embargo, podemos utilizar
la M C para calcular las probabilidades relativas de los diferentes resultados. Para ello
expandimos el vector de estado inicial z en términos de los autovectores de x, de manera que
resulta
donde c+ y c- son constantes. Es decir
de donde surge que c+ = c- = 2-1/2, por lo que
de manera que los dos resultados posibles de la medición de la componente x del spin tienen
idéntica probabilidad. Sin embargo, es importante tener en cuenta que no podemos considerar
que este resultado se debe a que antes de la medición las partículas tienen distribuidos sus
autoestados de x al azar, la mitad de ellos con cada autovalor, ya que de ser así las partículas no
podrían haber pasado todas por el mismo canal del primer aparato SGZ, dado que sus vectores
de estado no podrían haber sido autovectores de z. En otra palabras, si hiciésemos pasar uno de
los haces emergentes de SGX por un nuevo aparato SGZ, seríamos incapaces de predecir por
cuál canal particular emergerá una dada partícula, ya que las probabilidades de ambos resultados
posibles serían idénticos nuevamente.
De modo que la medición de una componente del spin tiene como efecto la destrucción de
cualquier conocimiento previo que pudiésemos tener del valor de otra componente. De hecho, la
interpretación convencional de la teoría cuántica de la medición nos dice que mientras una
partícula permanezca en un autoestado de z, carece de sentido pensar que la misma tiene un
valor correspondiente a la componente x de su spin, ya que ésta sólo puede ser medida
cambiando el estado del sistema a un autoestado de x, y esta indeterminación debe considerarse
como una propiedad intrínseca de un sistema cuántico.
Dado que lo requeriremos más adelante, hagamos ahora el siguiente análisis: consideremos un
haz de partículas que se desplaza en la dirección del eje y, y que ha emergido del canal positivo
de un aparato SGZ. Asumamos que este haz es dirigido hacia un segundo aparato de Stern-
Gerlach SG , preparado para medir la componente del spin en el plano xz, a un ángulo de z.
Razonando por analogía con la M CL y empleando (10.63) y (10.64), el operador S
representado la componente del spin, estará dado por
Puede verificarse fácilmente que los autovalores de esta matriz son + /2 como era de
esperarse, y que el autovector correspondiente al autovalor positivo es
y
para el autovalor negativo.
De manera que la expansión del estado de las partículas que habiendo pasado por SGZ,
entran en el aparato SG , resulta...
de donde surge que
de modo que las respectivas probabilidades son cos2( /2) y sen2( /2).
X.8. Los problemas conceptuales de la Mecánica Cuántica
Determinismo: A través de la discusión de los principios básicos de la M C, hemos
procurado enfatizar la naturaleza esencialmente indeterminística de la teoría. Esto se manifiesta
en el hecho de que aun conociendo en forma completa el estado del sistema, no es posible en
general efectuar predicciones exactas del resultado de mediciones de variables dinámicas del
sistema, excepto en el caso en que la condición del sistema inmediatamente antes de la medición
corresponda a un autoestado. Todo lo que en general podremos calcular son las probabilidades de
los posibles valores de la medición. Hemos visto un ejemplo particularmente elocuente de este
hecho en la medición del spin mediante la experiencia de Stern-Gerlach. Si una partícula con spin
1/2, cuya componente z ha sido medida, entra en un tal aparato preparado para medir la
componente del spin en alguna otra dirección, sabemos que el resultado será + /2 o - /2, que las
probabilidades de uno y otro resultado pueden ser calculadas, pero que no es posible predecir
cuál será el resultado de una medición en particular.
El indeterminismo que se presenta en M C es de naturaleza totalmente distinta al que nos
encontramos en M CL, en donde la aleatoriedad de un resultado obedece esencialmente a una
limitación en nuestro conocimiento del estado del sistema. En efecto, sabemos que clásicamente
dos sistemas que parten de idéntico estado inicial y que se encuentran sometidos a las mismas
acciones se comportarán de idéntica manera. En cambio, en M C dos partículas inicialmente en un
autoestado de z tienen completamente definida la parte de la función de onda que corresponde
al spin, y son desde este punto de vista indistiguibles. Sin embargo, su comportamiento no será
en general idéntico al pasar por un aparato de Stern-Gerlach preparado para medir el spin en otra
dirección.
Una forma en que se ha intentado dar un rodeo al problema de esta indeterminación de los
sistemas cuánticos, es postulando que las partículas en el mismo estado sólo parecen ser
idénticas, y que poseen propiedades adicionales cuyos valores determinan los resultados de
experimentos subsiguientes. De acuerdo con esta idea, una partícula en un austoestado de z
debe pensarse como manteniendo un valor definido de digamos x, aún cuando éste no pueda ser
medido. Teorías de este tipo se denominan de variables ocultas y las consideraremos con más
detalle un poco más adelante.
No-localización: Al hablar de partículas en el sentido clásico, imaginamos a las mismas como
puntuales o al menos de dimensiones mucho más pequeñas que las que caracterizan al resto del
sistema. Resulta por lo tanto natural pensar que una partícula tal como por ejemplo un electrón,
será influido sólo por campos u otras acciones que puedan manifestarse en su inmediata
vecindad, es decir localmente. Sin embargo, esta idea no es consistente con el comportamiento
cuántico de las partículas tal como se manifiesta por ejemplo en el fenómeno de difracción de
electrones por rendijas, en donde el efecto de interferencia nos sugiere una dispersión espacial de
la partícula, lo que implica que estamos en presencia de un aspecto no-local de tales fenómenos.
Si bien se ha procurado desarrollar teorías de variables ocultas que pudiesen resguardar la
localización de los fenómenos cuánticos, y al mismo tiempo quizás el determinismo,
demostraremos que no es posible que conduzcan a las mismas predicciones que la M C.
Reducción de la función de onda: Los postulados básicos de la M C nos dicen que cuando se
mide una propiedad en un sistema cuántico, la función de onda cambia de lo que era antes de la
medición a una autofunción del operador que representa la magnitud medida. Este proceso se
conoce como reducción de la función de onda. El problema que surge con esta idea es la de en
qué instante en el tiempo dicha reducción se produce, y en que consiste por lo tanto una
medición en M C. De hecho es siempre posible suponer que la reducción de la función de onda se
produce más adelante o más atrás en el proceso de medición, quedando siempre librado a cierta
arbitrariedad el establecimiento de los límites entre el sistema objeto de la medida y el
instrumento de medición.
X.9. Teorías de variables ocultas
M uchos de los problemas conceptuales de la M C desaparecerían si se pudiese demostrar
que las predicciones de la teoría están en realidad determinadas por propiedades que por alguna
razón, no pueden ser observadas directamente, esto es por variables ocultas. Existen
experimentos en los cuales las predicciones de la M C no pueden coincidir con los de una teoría
de variables ocultas. Tal es el caso de dos partículas separadas cuyas propiedades se sabe que se
encuentran correlacionadas de algún modo, como ocurre en el caso de sistemas del tipo concebido
por A. Einstein, B. Podolski y N. Rosen en 1935, pero no fue hasta 1969 que J.S. Bell demostró
concluyentemente que ninguna teoría de variables ocultas puede reproducir los resultados de la
M C en tales casos. Un ejemplo que ilustra este punto particularmente bien es el de un par de
partículas de spin 1/2, cada una de las cuales posee momento cinético orbital nulo, y cuyo spin
total también es cero. Una vez que las partículas se encuentran suficientemente separadas se
procede a medir la componente (digamos) z del spin de la primer partícula (Sz1 ). Dado que el
spin total es cero, la medición del spin (Sz2 ) de la segunda partícula arrojará un valor igual y
opuesto + /2, cualquiera sea la dirección del eje z elegido. De acuerdo con esto, podríamos
pensar que la segunda medición es innecesaria y que el valor de la componente Sz2 del spin de la
segunda partícula es directamente deducible del valor de la primera medición. Sin embargo, la
M C nos dice que cualquier medición efectuada cambia el estado del sistema y que por lo tanto la
función de onda de la segunda partícula cambiará a la autofunción de Sz2 luego de la medición de
Sz1 . Esto significa que la probabilidad del resultado de una medición subsiguiente de cualquier
otra componente del spin de la segunda partícula, habrá cambiado como consecuencia de la
primera medición, aun estando las partículas separadas espacialmente por una distancia
arbitraria y sin aparente interacción entre ellas. Por esta razón es que decimos que la M C es una
teoría no-local, o bien que las partículas no son separables.
Veremos un poco más adelante que ninguna teoría de variables ocultas que preserve la
localización, puede reproducir los resultados de la M C en un caso como el descrito. Para ello,
debemos previamente establecer las predicciones de la M C para una medición de la componente
del spin de la segunda partícula en una dirección que forma un ángulo con la del eje z (S 2 ),
luego de haber efectuado una medición de la componente z del spin de la primera partícula (Sz1 ).
A fin de simplificar la notación, asumiremos que todos los momentos cinéticos están expresados
en unidades de /2, de manera que el resultado de una medición será siempre +1 ó -1.
Asumamos que el resultado de la primera medición es positivo, de modo que Sz2 debe ser
negativo y la parte correspondiente al spin de la función de onda de la segunda partícula queda
representado, de acuerdo con (10.65) por el vector columna z. De modo que expandiendo este
vector estado en términos de los autovectores de S 2, teniendo en cuenta (10.70) y (10.71),
resulta
De modo que si indicamos a la probabilidad de que la segunda medición sea también positiva,
con el símbolo P++( ), resulta P++( )= sen2( /2). Procediendo en forma análoga obtendríamos
Definamos ahora un coeficiente de correlación C( ), como
Puede comprobarse a partir de la definición del coeficiente de correlación, que C( )
representa el valor medio del producto Sz1S 2, cuando se han efectuado mediciones en un gran
número de pares de partículas.
A fin de demostrar el Teorema de Bell, consideremos que una teoría de variables ocultas
requeriría que una vez separadas las partículas, el sistema debería poseer alguna propiedad que
determine (y haga por lo tanto predecible de manera exacta) su comportamiento futuro, por
ejemplo el resultado de una medición de cualquier componente del spin de cualquiera de las
partículas en un aparato de SG. Consistentemente con esto, representemos el resultado de la
medición de la componente z de spin de la primera partícula por Sz1 ( ), donde como antes Sz1
adopta el valor +1 ó -1 y representa una variable oculta. De manera análoga, el resultado de la
medición de una componente del spin de la segunda partícula en una dirección que forma un
ángulo con el eje z, también estará determinado por la variable oculta , y lo indicaremos como
S 2( ). Esta teoría es entonces determinista ya que el resultado de ambas mediciones está
determinado por la variable , y es además local porque el resultado de cada medición es
independiente de la dirección elegida para la otra.
Ahora bien, cada par de partículas posee entonces un valor particular de y definimos una
cantidad p( ) de modo que la probabilidad que sea producido un par con un valor de
comprendido entre y +d , es p( )d . Por otra parte, asumiremos la normalización p( )d
= 1.
Consideremos primero un experimento en el cual las cantidades Sz1 y S 2 son medidas sobre
un gran número de pares de partículas. De acuerdo con nuestra teoría de variables ocultas, el
promedio de los valores de los productos Sz1 S 2 estará dado por
Consideremos ahora un segundo conjunto de mediciones en las cuales el primer aparato es
similar al del caso anterior, pero el segundo aparato está orientado para medir la componente del
spin que forma un ángulo con el eje z, de modo que
Ahora bien, sabemos que si medimos la misma componente de ambos spins, obtendremos
resultados iguales y opuestos, de modo que necesariamente se cumple
de manera que sustituyendo (10.79) en (10.78), resulta
donde hemos tenido en cuenta que S 1 ( ) = 1 por lo que [S 1 ( )]2 = 1.
Tomando ahora el valor absoluto de ambos miembros de (10.80), nos queda (recordando que
el valor absoluto de una integral es siempre menor o igual que la integral del valor absoluto del
integrando)
Teniendo en cuenta que ni p( ) ni la cantidad entre corchetes en (10.81) pueden ser
negativos, y que se cumple que Sz1 ( )S 1 ( ) = 1 porque cada una de estas cantidades vale 1,
utilizando la condición de normalización p( )d = 1 resulta
Puede verse que la integral en (10.82) no es otra cosa que la correlación C’’( - ) entre dos
componentes del spin que están en un ángulo - entre ellos, de modo que podemos escribir
La desigualdad (10.83) constituye el Teorema de Bell, y según hemos visto, es la
consecuencia necesaria de cualquier teoría local determinista de variables ocultas.
Fig. 10.5. Representación gráfica de la cantidad
A fin de verificar la inconsistencia de tal teoría con la M C, basta considerar el caso especial
en que = 2 . De acuerdo con (10.76), la M C nos dice que las expresiones correspondientes
para los coeficientes de correlación, son
Las (10.83) y (10.84) nos muestran que la M C será consistente con la teoría de variables
ocultas, sólo si se cumple que cos(2 ) - cos + cos ≤ 1.
La fig. 10.5 muestra la representación gráfica de cos(2 ) - cos + cos en función de . Es
fácil ver que el teorema de Bell aunque se cumple en el rango π/2 ≤ ≤ π, pero diverge en sus
predicciones para 0 ≤ ≤ π/2 alcanzando un máximo para = π/3 en el que la función toma el
valor 1.5.
X.10. La metafísica de la Mecánica Cuántica
Los resultados anteriores nos llevan a concluir que no hay un teoría local determinista de
variables ocultas capaz de reproducir los resultados de la M C para las experiencias vistas más
arriba. Dado que la M C ha sido tan extensamente verificada sobre un rango muy amplio de
experimentos, podría pensarse que resultaba innecesaria cualquier comprobación experimental
ulterior de la discrepancia entre aquélla y la teoría de variables ocultas. Sin embargo, dada la
naturaleza particular de la correlación analizada más arriba, ninguno de los experimentos que
habían sido realizados antes de la formulación del teorema de Bell en 1969 brindó una prueba
experimental directa de aquel punto. No obstante se han derivado otras versiones del teorema de
Bell que no están sujetas a esta crítica y que van incluso más allá al producir desigualdades que
deben ser satisfechas por cualquier teoría local de variables ocultas y no sólo por aquellas
basadas en el determinismo. Desde la formulación de estas otras versiones, los resultados
experimentales obtenidos han confirmado las predicciones de la M C. Dentro de esta serie de
experiencias, se destaca la que realizaron Allain Aspect y sus colaboradores en 1980 en Francia.
Como hemos visto, a través del Principio de Incertidumbre de Heisemberg la M C afirma que
hay aspectos de la realidad, como la posición y la velocidad de una partícula que no pueden tener
simultáneamente valores definidos. Lo mismo afirma sobre el spin de un electrón diciendo que no
puede tener un valor definido sobre más de un eje y en general lo mismo afirma para pares de
variables dinámicas cuyos operadores no conmutan. De manera que las partículas se encuentran
según la M C en una suerte de limbo probabilístico, del cual sólo emergen cuando se efectúa la
medición de una de aquellas variables. Einstein fue siempre escéptico respecto de tal
interpretación, afirmando que si bien el Ppio. de Incertidumbre impide el conocimiento
simultáneo de variables conjugadas, ello no implica que dichas variables no tengan en todo
momento un valor perfectamente definido. De acuerdo a este criterio, la M C sería una teoría
incompleta ya que no puede manejar todos los elementos de la realidad y que hay aspectos de
los q-sistemas, a las que no tenemos acceso por el Pio. de Incertidumbre, pero que tienen
existencia real. Estos aspectos constituyen lo que se denomina, según vimos más arriba,
variables ocultas. Para sustentar esta posición, Einstein con sus colaboradores de Princeton,
Boris Podolsky y Nathan Rosen, presentó un trabajo en el año 1935 (146) en el que
argumentaba que la interpretación de Copenhagen era incorrecta y que en realidad había algún
mecanismo subyacente que sólo daba la apariencia de incertidumbre e impredictibilidad a nivel
cuántico.
Estos autores sugerían imaginar dos partículas inicialmente cercanas interactuando entre sí y
que luego se alejan una de otra sin interactuar con ninguna otra cosa hasta que el experimentador
decide actuar sobre alguna de ellas. Cada partícula tiene, según los autores, su cantidad de
movimiento y su posición en el espacio. Aun dentro de las reglas de la M C es posible medir con
precisión la cantidad de movimiento total de las dos partículas cuando aún se encuentran
cercanas. Cuando más tarde se decide medir el momento de una de las partículas, digamos el de la
partícula A, se conoce indirectamente sin haber actuado de ninguna manera sobre la partícula B,
su cantidad de movimiento, ya que se tenía la información de la cantidad de movimiento total
inicial que se tiene que haber mantenido constante. De manera que la partícula B tiene que haber
tenido, en el momento de la medición sobre la partícula A, esa cantidad de movimiento.
Alternativamente, se podría haber decidido medir la posición de la partícula A y de este modo,
también indirectamente, conocer la posición de la partícula B sin perturbarla y puesto que no se
ha actuado en forma alguna sobre la partícula B, ésta debe haber tenido esa posición. De manera
que uniendo la medición que se efectuó con la que se podría haber efectuado, los autores
concluyeron que la partícula B tiene posición y momento definido en todo instante. Por
supuesto, este análisis se puede realizar intercambiando las partículas por lo cual ambas
partículas tendrían siempre una posición y momento definido (147).
En otras palabras, una cosa es afirmar que la medición del momento de la partícula A
destruye el conocimiento de su propia posición, y otra muy distinta es decir que la medición del
momento de la partícula A destruye el conocimiento de la posición de la partícula B ya que esto
implicaría que una medición hecha sobre la partícula A tiene un efecto instantáneo sobre el estado
de la partícula B, dado que de ser así no sería posible elegir que tipo de medición, si del momento
o de la posición se quiere efectuar sobre la partícula B. Esto implicaría una transmisión
instantánea de información de la partícula A a la B para que ésta pueda “saber” si debe adoptar
una cantidad de movimiento definida o una posición definida. Esto es acción a distancia y
resultaba inaceptable para Einstein y sus colaboradores. El hecho que una medición hecha sobre
una partícula aquí afecte instantáneamente a otra partícula allá les parecía que no condecía con
una interpretación razonable de la realidad (148).
De todas maneras, es importante destacar que no obstante el razonamiento detrás de la
llamada paradoja de Einstein, Podolsky y Rosemberg (EPR), la determinación experimental
precisa simultánea de la cantidad de movimiento y posición de una partícula sigue siendo
imposible. Efectivamente, al medir la posición (o el momento) de una de las partículas se
perturba, según el Ppio de Incertidumbre, su momento (o posición). De modo que al no poderse
determinar con precisión la posición y la velocidad de una de las partículas, tampoco es posible
determinar indirectamente con precisión esas variables para la otra partícula. Sin embargo, EPR
opinaban que esta limitación experimental introducida por el Ppio. de Incertidumbre no
invalidaba el hecho que las partículas tuvieran en realidad, posición y momento definidos. A
esto, los adherentes a la M C, entre ellos el eminente físico Wolfgang Pauli, replicaban que no
tiene sentido hablar de la realidad de algo que no se puede determinar.
Fue el físico David Bohm el que razonó que la paradoja EPR podía formularse en términos
de si las partículas poseen un spin definido sobre uno o sobre todos los ejes. Para ello, imaginó
dos detectores capaces de medir el spin de un electrón entrante, situados en extremos opuestos
de un laboratorio. Se preparan dos electrones de modo que sus spins estén inicialmente
correlacionados de modo que al separarse e ingresar cada electrón al detector correspondiente,
habiéndose ambos detectores ajustado para medir el spin en una misma dirección, ambos
detectores brindarán el mismo resultado (spin up o spin down). Ahora bien, la M C sólo permite
predecir la probabilidad de que ambos detectores midan uno u otro resultado. Lo que se tiene en
este caso es la certeza de que ambos detectores darán el mismo resultado. Como en la paradoja
EPR, la medición del spin de uno de los electrones por un detector nos da indirectamente la
información del spin del otro electrón sobre el mismo eje. Dado que no se ha actuado de manera
alguna sobre este electrón, debe haber tenido este spin sobre ese eje. Como se podrían haber
efectuado estas mediciones sobre cualquier eje, surge la conclusión que este electrón tiene spin
definido sobre cualquier eje. De lo anterior surge entonces que un electrón tendría spin definido
sobre cualquier eje. Pero como ya hemos visto, el Ppio. de Incertidumbre hace imposible medir
simultáneamente el spin en más de una dirección. Nuevamente, puede cuestionarse qué sentido
tiene hablar sobre la existencia de algo que no es posible determinar.
El dilema introducido por la paradoja EPR, perteneció al ámbito de la metafísica hasta que se
produjo el vuelco conceptual producido por el trabajo del físico irlandés John Bell del CERN
(149) en 1964 (150) dando origen a la “desigualdad de Bell” que hemos deducido más arriba y
que habilita por primera vez la posibilidad de emplear una metodología experimental para dirimir
el dilema introducido por la paradoja EPR. Efectivamente, Bell se dio cuenta que aunque no es
posible medir el spin de una partícula sobre más de una dirección, de tener la partícula un spin
definido sobre todas las direcciones, hay consecuencias confirmables experimentalmente. Una
consecuencia del Teorema de Bell es que si EPR estaban en lo cierto, dos detectores separados
espacialmente midiendo en direcciones seleccionadas al azar el spin de partículas inicialmente
correlacionadas, deberían coincidir en sus resultados más del 50% de las veces.
En el momento en que Bell obtuvo este resultado, la tecnología no estaba aún disponible para
confirmarlo. Como se ha mencionado, la experiencia crucial fue la realizada por Aspect y su
equipo en Francia en 1980. En tal experimento, dos detectores se colocaron a una distancia de 13
m uno de otro con un contenedor de átomos energéticos de calcio en el punto medio entre ambos
detectores. Al pasar a un estado de menor energía, un átomo de calcio emite dos fotones en
direcciones opuestas con sus spins correlacionados. De modo que en este experimento, si los
detectores están ajustados en la misma dirección, los spins de ambos fotones producirán el
mismo resultado (ambos spin up o ambos spin down). Pero cuando la dirección de los detectores
fue variada independientemente al azar en cada medición, los detectores no coincidieron en sus
resultados en más del 50% de los casos, lo que dio por tierra con la teoría de las variables
ocultas. Para ver que esto es efectivamente así, asumamos que mediante los dos detectores
podemos medir en las direcciones x, y, z, el spin de los fotones inicialmente correlacionados.
Sabemos que si la medición Sz1 da como resultado spin up o spin down, la medición Sz2 dará el
mismo resultado spin up o spin down y análogamente con las mediciones Sx1 y Sy1 con relación
a las mediciones Sx2 y Sy2. Ahora bien, según Einstein y sus colaboradores, cada par de fotones
lleva consigo el mismo “programa” escrito en términos de variables ocultas, que determina el
valor de cada medición según los ejes x, y, z. Supongamos que este programa determina que los
resultados de las mediciones de los detectores según estos ejes sean respectivamente: spin up,
spin up, spin down. De manera que las combinaciones que arrojarán resultados coincidentes serán
(Sx1 , Sx2 ), (Sy1 , Sy2 ), (Sz1 , Sz2 ), (Sx1 , Sy2 ), (Sy1 , Sx2 ), es decir son cinco combinaciones en total.
Las combinaciones de direcciones posibles son en cambio xx, xy, xz, yx, yy, yz, zx, zy, zz, es decir
nueve en total. Dado que cinco es más que la mitad de nueve, la validez de la teoría de variables
ocultas implicaría que en un número suficientemente grande de mediciones hechas sobre los ejes
x, y, z independientemente al azar mediante cada detector, tendríamos que encontrar
coincidencias en los pares de mediciones más del 50% de las veces lo que no se verifica
experimentalmente. Si bien en este análisis hemos considerado el “programa” particular spin up,
spin up, spin down para las direcciones x, y, z, respectivamente, cualquier otro programa arrojaría
las mismas conclusiones y lo mismo cabe consignar si en lugar de considerar mediciones según
tres direcciones definidas, se hubiesen considerado direcciones cualesquiera.
La refutación experimental de la teoría de variables ocultas nos lleva a la antiintuitiva
conclusión que en los fenómenos cuánticos, parece no cumplirse la localidad espacial y se pone
de manifiesto una suerte de acción a distancia. Además, la inexistencia de variables ocultas
introduce un indeterminismo esencial en lo que hace al resultado de las mediciones de variables
dinámicas en general. Este carácter no local de la M C ya se había puesto de manifiesto en la
experiencia de difracción de electrones por rendijas, donde hemos visto que el espectro de
difracción se produce aun cuando los electrones entren al dispositivo de a uno. Esto significa que
el electrón de alguna manera “pasa” por ambas rendijas lo que impide considerarlo como una
partícula localizada. Esta no localización de la partícula queda interpretada en alguna medida por
el aspecto ondulatorio asociado al electrón. Con relación a esto, es importante recordar que este
aspecto ondulatorio desaparece en el momento en que se hace una detección de la posición del
electrón, por ejemplo a la salida de una de las rendijas. Esta simple experiencia, pone de
manifiesto el llamado problema de la medición en M C y al cual nos hemos referido en relación a
la determinación del spin de una partícula, pero que podemos volver a describir de la siguiente
manera:
Asumamos tener un q-sistema como puede serlo un electrón que hemos preparado de forma
tal que conocemos su spin inicial, es decir para t = 0, por haberlo hecho pasar por un aparato de
Stern-Gerlach (SG) y por haber emergido el electrón del canal correspondiente a, digamos spin
up. Esto significa que si hiciésemos inmediatamente una nueva medición del spin en la misma
dirección, obtendríamos el mismo resultado. Ahora bien, la función de onda del electrón cuando
sale del aparato de SG es tal que el operador spin tiene un autovector con un autovalor en la
dirección de medición del valor de spin medido, en este caso spin up. A partir del instante en que
se hace la medición del spin (t = 0), la evolución del estado del electrón en su subsiguiente
interacción con eventuales campos eléctricos y magnéticos queda totalmente determinada por la
evolución de su función de onda según la ecuación de Schrödinger. Esta evolución, totalmente
determinista, se mantiene hasta que se efectúa una nueva medición. El resultado de esta nueva
medición no puede en general predecirse en forma exacta y todo los que podemos inferir del
conocimiento de la función de onda utilizando el operador correspondiente a la dirección
seleccionada para efectuar la nueva medición, es la probabilidad de que el resultado sea spin up o
spin down. Dicho de otra manera, la medición de una variable dinámica “destruye” la información
que se tenía del estado del q-sistema a través de la evolución temporal determinista de su función
de onda y se “salta” a un nuevo estado correspondiente al autovector del operador de la variable
dinámica en consideración. Este “salto” desde una evolución temporal perfectamente
determinista a un estado definido pero de resultado aleatorio cuando se efectúa una medición, es
lo que se conoce como “reducción” o “colapso” de la función de onda. Es importante destacar
aquí que, a diferencia de lo que es habitual en las distintas posiciones filosóficas respecto de la
realidad que ya hemos analizado, las variables dinámicas en M C se denominan observables
aunque las mismas son sólo determinables a partir de instrumentos de medición, lo que las
calificaría, de acuerdo con aquellas posiciones, como inobservables (151).
Un punto a destacar sobre la interpretación probabilística de los resultados de una medición
en M C, es que a diferencia de la interpretación habitual sobre la probabilidad de obtención de un
dado resultado como podría serlo la extracción al azar de un número de la lotería en la que las
bolillas con los distintos números tienen existencia real antes de la extracción, en un q-sistema,
hasta el momento de efectuar la medición, la variable dinámica a medir no tiene un valor definido
que sólo adquiere al producirse la reducción de la función de onda por el acto de medición. Por
esta razón hemos dicho más arriba que los q-sistemas se encuentran según la M C en una suerte
de limbo probabilístico, del cual sólo emergen cuando se efectúa el acto de medición.
La pregunta que surge con relación al fenómeno de reducción de onda es en qué etapa del
proceso de medición dicha reducción se produce. Puede argumentarse que la reducción se
produce en el momento en que el experimentador obtiene la información del valor del observable
a través de la lectura de algún instrumento de medición cuyo funcionamiento es descrito en
términos clásicos. Pero la frontera entre la evolución determinista del sistema según la ecuación
de Schrödinger y el estado correspondiente a un valor definido del observable medido es móvil y
podría ubicarse en cualquier punto entre el q-sistema y el observador. En efecto, la interacción
entre el q-sistema y al menos una parte del instrumento de medición puede describirse en
términos cuánticos por lo que no queda claro en qué punto de todo el proceso de medición se
produce el colapso o reducción de la función de onda dando lugar a un resultado definido para la
variable medida. Si todos los sistemas físicos, aun los clásicos como los son los instrumentos de
medición, más allá de las dificultades matemáticas, pueden ser descriptos con el formalismo
cuántico, y la M C asegura que esto es efectivamente así, ¿cómo puede haber lugar para
instrumentos cuyas mediciones corresponden a estados descriptos en términos clásicos?
La respuesta dada por Bohr en el marco de la interpretación de Copenhagen es que la
“medición” debe interpretarse como una noción “primitiva”. Es decir un q-sistema interactuando
con el mundo exterior al mismo puede ser medido pero no entrar en interacción dinámica con el
exterior (instrumento de medición). La teoría es así sólo un instrumento cuyo fin es proveer
correlaciones entre el estado de un q-sistema y un proceso (de medición) que prepara al sistema
en un dado estado cuántico para la medición posterior del observable. Sin embargo, esta posición
es discutible habida cuenta de resultados que muestran que la probabilidad de obtener un dado
valor de un observable en un q-sistema A mediante un instrumento de medición complejo B + C,
es la misma que considerando el sistema A + B y efectuando la medición con el instrumento C.
En otras palabras, la separación ineliminable de naturaleza metafísica que según Bohr hay entre
el q-sistema y el instrumento clásico de medición queda sin resolver.
Estas dificultades han llevado a algunos científicos, en particular a E.Wigner, a sugerir que el
colapso de la función de onda se produce sólo cuando una mente consciente toma conocimiento
del valor del observable medido. No es de sorprender que esta posición de una metafísica
dualista de un mundo físico por un lado y mentes conscientes por el otro tenga pocos
adherentes. El colapso de la función de onda causado por la intervención de una mente
consciente queda sin explicación y fuera de la competencia de la física.
Una alternativa más promisoria es la caracterización del proceso de medición como una clase
particular de interacción física en la que participa un microsistema (el q-sistema) y un sistema
macroscópico (el instrumento de medición). De este modo, un aspecto microscópico del sistema
que es medido se correlaciona con aspectos macroscópicos del sistema de medición de una
manera que revela el valor de la microentidad. Por ejemplo, en una operación en la que se detecta
por cual rendija pasa un electrón, esta detección puede ser efectuada por un dispositivo que
amplifica el efecto del pasaje de la partícula por el detector, por ejemplo por un amplificador en
cascada que multiplica el número de partículas cargadas que terminan revelando la presencia de la
microentidad inicial mediante un voltaje macroscópico producido por una gran cantidad de
partículas cargadas actuando concertadamente. Del manera análoga, en un aparato SG, las
partículas con diferente spin son separadas espacialmente por distancias macroscópicas por el
campo magnético inhomogéneo del dispositivo y luego son detectadas en el haz superior o
inferior por un dispositivo como el descrito anteriormente. Tengamos en cuenta que hay dos
características en el proceso de medición: la primera es que el estado del aparato de medición
implica siempre un gran número de partículas y es caracterizable en escala macroscópica. La
segunda es que el estado final del aparato es macroscópicamente discernible, es decir no se trata
de un estado de superposición sino de un estado “puro” perfectamente correlacionado con los
estados cuánticos del sistema que está siendo medido.
Los adherentes a esta interpretación del proceso de medición aceptan de todos modos que la
interacción entre el microsistema cuántico y el instrumento de medición obedece a las leyes de la
M C. Esto implica que si el microsistema a medir se encuentra en un estado de superposición,
por ejemplo spin up con spin down el sistema constituido por el microsistema y el aparato de
medición también debe encontrarse en un estado de superposición spin up más el instrumento
indicando spin up y spin down más el instrumento indicando spin down. Lo que ocurre es que
dado que el aparato de medición es macroscópico, está constituido por una enorme cantidad de
partículas por lo que la caracterización de su estado requiere una mayor cantidad aún de grados
de libertad. Los efectos de interferencia entre el microsistema y el instrumento no desaparecen
pero se disipan en el proceso de amplificación del que sólo emerge un valor de la variable
dinámica medida, en este caso spin up o spin down, que es el que se toma como valor de la
medición. De manera que según esta interpretación, el colapso de la función de onda debe
interpretarse como el resultado de la compleja interacción entre microsistema y aparato de
medición que hace que el efecto de superposición entre ambos sea en la práctica indetectable.
Algunas de las dificultades asociadas con la naturaleza indeterminista no local de la M C
pueden ser reducidas mediante la interpretación tradicional (de Copenhagen) complementada con
la interpretación recién expuesta. En efecto, ambas enfatizan el rol de los instrumentos de
medición como una parte integral de cualquier experimento con un q-sistema. Desde este punto
de vista, el resultado de una medición, por ejemplo de un componente del spin, debe verse como
una propiedad no sólo de la partícula sino de todo el sistema incluyendo al otro miembro del par
correlacionado y a los dos conjuntos de aparatos de medición, de modo que las subsiguientes
correlaciones deben interpretarse como correlaciones entre las propiedades de las partículas más
los aparatos orientados adecuadamente y no como propiedades de las partículas exclusivamente.
De este modo, hasta que la primera medición es hecha no se consideraría al sistema como
constituido por dos partículas separadas y por lo tanto es razonable esperar que luego de esta
primera medición las propiedades de todo el sistema se hayan modificado. No es necesario
pensar en las partículas como influenciándose mutuamente de manera no local dado que no
tienen existencia independiente con anterioridad al momento de la primera medición.
Observemos que esta interpretación reduce el problema de la no localidad pero no el del
indeterminismo, ya que si bien no hace necesario recurrir a argumentos metafísicos como puede
serlo el rol atribuido a la intervención de una mente consciente, desde el punto de vista práctico
la reducción de la función de onda con sus resultados aleatorios sigue vigente. Una ventaja de la
interpretación anterior, es que hace innecesaria la separación metafísica entre microsistema e
instrumento de medición que postula la interpretación de Copenhagen ya que todo el proceso de
medición se explica como resultado de la interacción física entre aquéllos.
Una alternativa un tanto esotérica que prescinde de la reducción de la función de onda en el
proceso de medición, es la propuesta por H. Everett y J. Wheeler que implica un nueva
metafísica del mundo. En las interpretaciones vistas anteriormente, la parte de la función de onda
que no corresponde al resultado de una medición es descartada. Efectivamente, por ejemplo en
una medición del spin la partícula entra a un aparato SG en una superposición up y down. Si
emerge, digamos up, ¿qué es lo que pasa con la componente de la función de onda
correspondiente al estado down? Simplemente desaparece en la medición. Lo que Everet y
Wheeler sugieren es que ambos componentes de la función de onda continúan existiendo. Y aquí
la parte metafísica de esta interpretación, la parte que desaparece por no corresponder el
resultado de nuestra medición continúa existiendo en algún otro de la multiplicidad de mundos
que corresponden a los posibles resultados de la medición. En otras palabras, si nuestro aparato
de SG nos informa que el spin de la partícula es up habrá una bifurcación en el mundo en el
momento de la medición de manera que en el otro mundo, al que no tenemos acceso, la partícula
emergerá con spin down. De aquí que esta interpretación es conocida como de mundos múltiples.
De manera que en esta visión, los estados en superposición de un sistema dan origen a tantos
mundos como estados superpuestos haya. El colapso de la función de onda obedecería entonces
a que sólo podemos acceder como observadores a uno de esos mundos. Indudablemente, la
hipótesis de mundos múltiples ha sido sujeta a numerosas críticas y al escepticismo de muchos
científicos, pero aún hoy existen adherentes a esta posición que intentan mejorarla.
BIBLIOGRAFÍA
A. Sobre filosofía analítica, metafísica e historia de la filosofía
A.1 P.F. Strawson, Analysis and Metaphysics: an introduction to philosophy, Oxford University
Press, 1992.
A.2 P. Van Inwagen, Metaphysics, Oxford University Press, 1993.
A.3 T.L.S. Sprigge, Theories of Existence, Penguin Books, 1985.
A.4 R. Scruton, Kant, Oxford University Press, 1982.
A.5 J.Hospers, An Introduction to Philosophical Analysis, Routledge, London, 1992.
A.6 J. Hospers, Introducción al Análisis Filosófico, vols. 1 y 2, Editorial M acchi, Buenos Aires,
1961.
A.7 A. Kenny (ed.), The Oxford Illustrated History of Western Philosophy, Oxford University
Press, 1994.
A.8 W. Durant, Historia de la Filosofía, Editorial Diana, M éjico, 1978.
A.9 J. Bronowski, The Ascent of Man, British Broadcasting Corporation, 1973.
A.10 B. Russell, La Sabiduría de Occidente, Ediciones Aguilar, 1975.
A.11 B. Russell, Fundamentos de Filosofía, Plaza & Janes Editores, Barcelona, 1975.
A.12 A. Koiré, Del Mundo Cerrado al Universo Infinito, Siglo Veintiuno Editores, 1979.
B. Sobre el problema de la “realidad”. Inductivismo y el método hipotético-deductivo.
Concepciones popperiana y kuhniana de la ciencia. Epistemologías alternativas.
Reduccionismo
B.1 A. O’Hear, An Introduction to the Philosophy of Science, Clarendon Press, Oxford, 1989.
B.2 M . Comesaña, Razón, Verdad y Experiencia: Un Análisis de sus Vínculos en la
Epistemología Contemporánea con Especial Referencia a Popper, Ed. Universidad Nacional
de M ar del Plata, Facultad de Humanidades, 1995.
B.3 H. Reichenbach, Experience and Prediction, University Press, Chicago, 1938.
B.4 J. Bronowski, El Sentido Común de la Ciencia, Ediciones Península, Barcelona, 1978.
B.5 G. Klimovsky, Las Desventuras del Conocimiento Científico: Una introducción a la
epistemología, A-Z Editora, Buenos Aires, 1994.
B.6 K.R. Popper, La Lógica de la Investigación Científica, Rei Argentina, 1985.
B.7 T.S. Kuhn, La Estructura de las Revoluciones Científicas, Breviarios Fondo de Cultura
Económica, 1982.
B.8 M .Bunge, La Ciencia, su Método y su Filosofía, Ediciones Siglo Veinte, Buenos Aires, 1971.
B.9 R. Gómez, Neoliberalismo y Seudociencia, Lugar Editorial, 1995.
B.10 J. Cornwell (ed.), Nature`s Imagination: The frontiers of scientific vision, Oxford
University Press, 1995.
B.11 R. Audi, Epistemology: A contemporary introduction to the theory of knowledge, Routledge,
London, 1998.
C. Sobre la naturaleza de la investigación básica y aplicada, filosofía e historia de la tecnología
C.1 W.F. Hood, “The Aristotelian Versus the Hideggerian Approach to the Problem of
Technology”, en C. M itcham & R.M ackey (eds.), Philosophy and Technology Readings in
the Philosophical Problems of Technology, The Free Press, New York-London, 1983.
C.2 F. Rapp, Analityc Philosophy of Technology Trans., Carpenter & Langenbruch, vol.63, 1981.
C.3 S.R. Carpenter, “What Technology Transfer: The Contingent Nature of Cultural
Responses”, en E.F: Birne & J.C. Pitt (eds.), Technological Trasnformation: Contextual and
Conceptual Implications, Kluwer Academic Publishers, The Netherlands, 1989.
C.4 J. Gimpel, La revolución Industrial en la Edad Media, Ediciones Taurus, M adrid, 1981.
C.5 J.E.S. Parker The Economics of Innovation: The National and Multinational Enterprise of
Technological Change, 2da. ed., Longman, London, 1978.
C.6 J.M . Utterback “Innovation in Industry and the Diffusion of Technology”, en Science, 183,
febrero de 1974, p. 622.
C.7 M . Bunge “Impacto Social de la Innovación Técnica”, en Sistemas Sociales y Filosofía,
Editorial Sudamericana, Buenos Aires, 1995.
C.8 M . Bunge, “Toward a Philosophy of Technology”, en C. M itcham & R. M ackey (eds.),
Philosophy and Technology Readings in the Philosophical Problems of Technology, The Free
Press, New York-London, 1983.
C.9 M . Bunge, “Qué Significa Ley Científica?” en La Ciencia, Su Método y Su Filosofía, Siglo
Veinte, Buenos Aires, 1971.
C.10 J.K. Feibleman “Pure Science, Applied Science, and Technology: An Attempt at
Definition”, en C. M itcham & R. M ackey (eds.), Philosophy and Technology Readings in the
Philosophical Problems of Technology, The Free Press, New York-London, 1983.
C.11 M . Bunge “Ciencia Básica, Ciencia Aplicada y Técnica”, en Ciencia y Desarrollo, Siglo
Veinte, Buenos Aires, 1982.
C.12 H.L. Dreyfus, “Heidegger on Gaining a Free Relation to Technology”, en A. Feenberg & A.
Hannay (eds.), The Politics of Knowledge, Indiana Univ. Press, Indianapolis, 1995.
C.13 M . Heidegger, The Question Concerning Technology, Harper Colophon, New York, 1977.
C.14 M . Heidegger, “Overcoming M etaphysics”, en The End of Philosophy, Harper and Brown,
New York, 1973.
C.15W.I.B. Beveridge, The Art of Scientific Investigation, Vintage Books, New York, 1977.
C.16 C.P. Snow, The Two Cultures, Cambridge University Press, 1993.
D. Sobre la naturaleza de las teorías y las leyes físicas. Simetría, causalidad y azar. Filosofía del
tiempo. El ppio. antrópico
D.1 L. Sklar, Philosophy of Physics, Oxford University Press, 1992.
D.2 M . Lange, An Introduction to the Philosophy of Physics: Locality, Fields, Energy and Mass,
Blackwell Publishing, USA, 2002.
D.3 J.D. Barrow, The World within the World, Oxford University Press, 1988.
D.4 J.D. Barrow & F.J.Tipler, The Anthropic Cosmological Principle, Oxford University Press,
1986.
D.5 B.C. Van Fraassen, Laws and Symmetry, Clarendon Press, Oxford, 1989.
D.6 M . Bunge, Causality and Modern Science, 3ra. ed., Dover Publications Inc., 1979.
D.7 E.Sosa & M .Tooley (eds.), “Causation”, en Oxford Readings in Philosophy, Oxford
University Press, 1993.
D.8 R. Le Poidevin & M .M c Beath (eds.), “The Philosophy of Time”, en Oxford Readings in
Philosophy, Oxford University Press, 1993.
D.9 R.P. Feynman, The Character of Physical Law, Penguin Books, 1992.
D.10 D. Deutsch & M .Lockwood, “The Quantum Physics of Time Travel”, en Scientific
American, vol. 270, 3, pp. 50-56.
D.11 M . Gardner, The Ambidextrous Universe: Left, rigth and the fall of parity, Penguin Books,
1982.
D.12 I. Prigogine; I. Stengers, Order out of Caos, Bantam Books, 1984.
D.13 H..S. Leff & A.F. Rex (eds.), Maxwell’s Demon: Entropy, information, computing, Adam
Hilger, 1990.
D.14 H. Reichenbach, The Direction of Time, Dover Publications, Inc. N.Y., 1999.
D.15 M . Castagnino & J.J. Sanguinetti, Tiempo y Universo: Una visión filosófica y científica,
Ediciones Catálogos, Bs.As., 2006.
D.16 R. Penrose, The Road to Reality: A complete guide to the laws of the universe, Alfred A.
Knopf, N.Y, 2005.
D.17 I. Inkster, “Science and Technology in History: An approach to industrial development”,
en Themes in Comparative History, M acM illan Press, 1991.
E. Computadoras, conciencia, e inteligencia artificial
E.1 R. Penrose, The Emperor ’s New Mind: Concerning computers, minds and the laws of
physics, Oxford University Press, 1989.
E.2 R. Penrose, Shadows of the Mind: A search for the missing science of consciousness, Oxford
University Press, 1994.
E.3 E. Squires, Conscious Mind in the Physical World, Adam Hilgher, 1990.
E.4 R.L. Gregory, Mind in Science, Penguin Books, 1981.
E.5 J.D. Barrow, Pi in the Sky, Oxford University Press, 1992.
E.6 C. Sagan, Los Dragones del Edén, Ediciones Grijalbo, Buenos Aires, 1982.
E.7 W.H. Calvin, “The Emergence of Intelligence”, en Scientific American, vol. 271, 4, octubre de
1994, pp. 78-85.
E.8 D.R. Hofstadter, Gödel, Escher, Bach: An ethernal golden braid, Penguin Books, 1979.
E.9 D.R. Hofstadter & D.C.Dennet, The Mind’s Eye: Fantasies and reflections on self and soul,
Penguin Books,1981.
E.10 J. Jaynes, The Origin of Consciousness in the Breakdown of the Bicameral Mind, Penguin
Books, 1990.
E.11 P.J. Davis & R.Hersh, The Mathematical Experience, Penguin Books, 1981.
E.12 S. Rose, The Making of Memory, Anchor Books, Doubleday, 1992.
E.13 E. Schródinger, Mente y Materia, Tusquets Editores, 1985.
F. Sobre filosofía de la mecánica cuántica y el problema de la medición
F.1 A.M . Rae, Quantum Mechanics, Adam Hilger, 1990.
F.2 J.Horgan, “Quantum Philosophy”, en Scientific American, vol. 268, 7, julio de 1992, pp. 72-
80.
F.3 J. Horgan, “Particle M etaphysics”, en Scientific American, vol. 270, 2, febrero de 1994, pp.
70-78.
F.4 B. D’Espagnat, Reality and the Physicist: Knowledge, duration and the quantum world,
Cambridge University Press, 1990.
F.5 M . Bunge, Controversias en Física, Editorial Tecnos, 1983.
F.6 A.C. de la Torre, Física Cuántica para Filo-sofos, Fondo de Cultura Económica, 1992.
F.7 D. Bohm, Causality and Chance in Modern Physics, Routledge & Kegan Paul, London,
1984.
F.8 H. Krips The Metaphysics of Quantum Theory, Clarendon Press, Oxford, 1987.
F.9 M . Readhead, Incompletness, Nonlocality and Realism: A prolegomenon to the philosophy of
quantum mechanics, Clarendon Press, Oxford, 1987.
G. Bibliografía suplementaria
G.1 R. Courant & H. Robbins, What is Mathematics?, Oxford University Press, 1978.
G.2 M .V. Berry, Principles of Cosmology and Gravitation, Adam Hilger, 1989.
G.3 R.P. Feynman; R.B. Leighton & M .Sands, The Feynman Lectures on Physics, vols. 1, 2 y 3,
Addisson Wesley Publishing Company, 1963.
G.4 G.D. Coughlan & J.E. Dodd, The Ideas of Particle Physics: an introduction for scientists,
Cambridge University Press, 1991.
G.5 W. Rindler, Essential Relativity, Springer-Verlag, 1977.
139 . Denotaremos en lo sucesivo con el vocablo “ ssi” a la expresión “ si y sólo si”.
140 . Estas probabilidades son coincidentes con las que se obtendrían dentro de la MCL para la obtención en una
medición de cantidades de movimiento iguales a p1 y p2, respectivamente.
141 . Krips, H. 1987. The Metaphysics of Quantum Theory. Clarendon P aperbacks, Oxford.
142 . Bohr, N. 1949. Albert Einstein Philosopher Scientist, P.Schilpp Ed. Evanston University P ress, Evanston.
143 . Bohr, N. 1934. Atomic Theory and the Description of Nature. Cambridge University P ress.
144 . Krips, H. 1987. The Metaphysics of Quantum Theory. Clarendon P aperbacks, Oxford.
145 . A.M.Rae, “ Quantum Mechanics” Adam Hilger, 1990.
146 . A.M.Rae, “ Quantum Mechanics” Adam Hilger, 1990.
147 . A.Einstein, B.P odolsky, N.Rosen “ Can quantum-mechanical description of physical reality be considered
complete?” P hysical Review, v.47, pp.777-780, 1935.
148 . B.R.Greene “ The fabric of the cosmos” 8ª Ed., Knopf P ress, USA, 2005.
149 . CERN: Centro Europeo para Investigaciones Nucleares, cercano a Ginebra, Suiza.
150 . J.Gribbin “ In search of Schrödinger cat” Bantam Books, USA, 1994.
151 . J.S.Bell, Physics, v.1, p.195, 1964.