Historia

La temperatura de los cuerpos es un concepto que el hombre primitivo (precientífico) captó a través de sus sentidos.

Si tocamos dos piedras iguales, una a la sombra y otra calentada por el sol (o por el fuego de una hoguera) las encontramos diferentes. Tienen algo distinto que detecta nuestro tacto, la temperatura.

La temperatura no depende de si la piedra se desplaza o de si está quieta y tampoco varía si se fragmenta.

Las primeras valoraciones de la temperatura dadas a través del tacto son simples y poco matizadas. De una sustancia sólo podemos decir que esta caliente, tibia (caliente como el cuerpo humano), templada (a la temperatura del ambiente), fría y muy fría.

Con el diseño de aparatos se pudieron establecer escalas para una valoración más precisa de la temperatura.

termómetro de Galileo

El primer termómetro( vocablo que proviene del griego thermes y metron, medida del calor) se atribuye a Galileo que diseñó uno en 1592 con un bulbo de vidrio del tamaño de un puño y abierto a la atmósfera a través de un tubo delgado.

Para evaluar la temperatura ambiente, calentaba con la mano el bulbo e introducía parte del tubo (boca abajo) en un recipiente con agua coloreada. El aire circundante, más frío que la mano, enfriaba el aire encerrado en el bulbo y el agua coloreada ascendía por el tubo.

La distancia entre el nivel del líquido en el tubo y en el recipiente se relacionaba  con la diferencia entre la temperatura del cuerpo humano y la del aire.

Si se enfriaba la habitación el aire se contraía y el nivel del agua ascendía en el tubo. Si se calentaba el aire en el tubo, se dilataba y empujaba el agua hacia abajo.

Las variaciones de presión atmosférica que soporta el agua pueden hacer variar el nivel del líquido sin que varíe la temperatura. Debido a este factor las medidas de temperatura obtenidas por el método de Galileo tienen errores. En 1644 Torricelli estudió la presión y construyó el primer barómetro para medirla.

En 1641, el Duque de Toscana, construye el termómetro de bulbo de alcohol con capilar sellado, como los que usamos actualmente. Para la construcción de estos aparatos fue fundamental el avance de la tecnología en el trabajo del vidrio.

A mediados del XVII, Robert Boyle descubrió las dos primeras leyes que manejan el concepto de temperatura:

Posteriormente se descubrió, pese a la engañosa evidencia de nuestros sentidos, que todos los cuerpos expuestos a las mismas condiciones de calor o de frío alcanzan la misma temperatura (ley del equilibrio térmico). Al descubrir esta ley se introduce por primera vez una diferencia clara entre calor y temperatura. Todavía hoy y para mucha gente estos términos no están muy claros. Informante aquí de las diferencias

Los termómetros tuvieron sus primeras aplicaciones prácticas en Meteorología, en Agricultura (estudio de la incubación de huevos), en Medicina (fiebres), etc., pero las escalas eran arbitrarias: "estaba tan caliente como el doble del día más caliente del verano" o tan fría como "el día más frío del invierno".

Antes de la aparición de los termómetros de mercurio se construyeron termómetros de alcohol como los de Amontons y Reamur.

En 1717 Fahrenheit, un germano-holandés (nació en Dancing y emigró a Amsterdam), fabricante de instrumentos técnicos, construyó e introdujo el termómetro de mercurio con bulbo (usado todavía hoy) y tomó como puntos fijos:

Dividió la distancia que recorría el mercurio en el capilar entre estos dos estados en 96 partes iguales.

Newton había sugerido 12 partes iguales entre la congelación del agua y la temperatura del cuerpo humano. El número 96 viene de la escala de 12 grados, usada en Italia en el S. XVII (12*8=96).

Aunque la temperatura de la mejor proporción de hielo y sal es alrededor de -20 ºC Fahrenheit, finalmente, ajustó la escala para que el punto de congelación del agua (0 ºC en la escala Celsius) fuera de 32 ºF y la temperatura de ebullición del agua de 212 ºF.

La escala Fahrenheit, que se usa todavía en los países anglosajones, no tenía valores negativos (no se podían lograr en esa época temperaturas por debajo de cero grados) y era bastante precisa por la dilatación casi uniforme del mercurio en ese intervalo de temperaturas.

En la Inglaterra victoriana de Guillermo Brown una fiebre que provocara 100 grados de temperatura libraba al niño de ir a clase ese día.

Con este termómetro de precisión Farenheit consiguió medir la variación de la temperatura de ebullición del agua con la presión del aire ambiente y comprobó que todos los líquidos tiene un punto de ebullición característico.

Celsius

En 1740, Celsius, científico sueco de Upsala, propuso los puntos de fusión y ebullición del agua al nivel del mar (P=1 atm) como puntos fijos y una división de la escala en 100 partes (grados).

Como en Suecia interesaba más medir el grado de frío que el de calor le asignó el 100 al punto de fusión del hielo y el 0 al del vapor del agua en la ebullición. Más tarde el botánico y explorador Linneo invirtió el orden y le asignó el 0 al punto de congelación del agua.

Esta escala, que se llamó centígrada por contraposición a la mayoría de las demás graduaciones, que eran de 60 grados según la tradición astronómica, ha perdurado hasta época reciente (1967) y se proyectó en el Sistema métrico decimal (posterior a la Revolución Francesa).

La escala Kelvin tiene como referencia la temperatura más baja del cosmos.

Para definir la escala absoluta o Kelvin es necesario recordar lo que es el punto triple. El llamado punto triple es un punto muy próximo a 0 ºC en el que el agua, el hielo y el valor de agua están en equilibrio.

En 1967 se adoptó la temperatura del punto triple del agua como único punto fijo para la definición de la escala absoluta de temperaturas y se conservó la separación centígrada de la escala Celsius. El nivel cero queda a -273,15 K del punto triple y se define como cero absoluto o 0 K. En esta escala no existen temperaturas negativas. Esta escala sustituye a la escala centígrada o Celsius.

A la temperatura del cero absoluto no existe ningún tipo de movimiento y no se puede sacar calor. Es la temperatura más baja posible y todo el movimiento atómico y molecular se detiene. Todos los objetos tienen una temperatura más alta que el cero absoluto y por lo tanto pueden emitir energía térmica o calor.

Paralelamente al estudio de los conceptos de temperatura y de calor se empezaron a desarrollar aplicaciones técnicas derivadas de la manipulación de la energía térmica. Pulsa aquí

A finales del s. XVII se empezó a utilizar el vapor de agua para mover las bombas de achique de las minas de carbón en Inglaterra. Las primeras máquinas fueron la bomba de Savery (1698) y la de Newcomen (1711). La máquina de Savery consistía en un cilindro conectado mediante una cañería a la fuente de agua que se deseaba bombear, el cilindro se llenaba de vapor de agua, se cerraba la llave de ingreso y luego se enfriaba. Cuando el vapor se condensaba se producía un vacío que permitía el ascenso del agua.

Newcomen

En la máquina de Newcomen el vapor a presión atmosférica (sin recalentar) procedente de una caldera (alambique de cobre de cervecería) se metía en un cilindro y elevaba un émbolo.

El émbolo estaba conectado a un balancín. El balancín al quedar libre por el peso de las cuerdas y de los contrapesos accionaba la bomba de achique en la mina en un sentido, luego se cerraba la entrada de vapor y se inyectaba agua fría que ocasionaba un gran vacío en el cilindro. El pistón se movía y arrastraba el balancín en el otro sentido, con lo cual se elevaba el pistón de la bomba. El ciclo se repetía indefinidamente. Ver ampliado el esquema

Esta conversión de energía térmica en energía mecánica, que daba 4 kW con un rendimiento del 1%, fue el fundamento de la Revolución Industrial y dio origen a una nueva ciencia: la Termodinámica, que estudia la transformación de calor (termo) en trabajo (dinámica).

Durante el siglo XVIII se asentaron las bases para utilizar las máquinas de vapor para mover maquinaria industrial, para el transporte marítimo (barcos) y terrestre (locomotoras).... En 1769 Watt ideó la separación entre el expansor y el condensador y a partir de entonces empezó la fabricación a nivel industrial.

En 1765, el profesor de química escocés Joseph Black (Watt fue ayudante suyo) realizó un gran número de ensayos calorimétricos, distinguiendo claramente entre calor (cantidad de energía) y temperatura (nivel térmico). Introdujo los conceptos de calor específico y de calor latente de cambio de estado.

Uno de los experimentos de Black consistía en echar un bloque de hierro caliente en un baño de hielo y agua y observar que la temperatura no variaba. Desgraciadamente, sus experimentos eran a presión constante cuando se trataba de líquidos, y a volumen constante cuando eran gases, y el trabajo intercambiado por el sistema con el exterior era siempre despreciable, dando origen a la creencia errónea de que el calor se conservaba en los procesos térmicos: famosa y errónea teoría del calórico.

En 1798, B. Thompson (conde Rumford) rebatió la teoría del calórico de Black diciendo que se podía generar continuamente calor por fricción, en contra de lo afirmado por dicha teoría. Hoy día suele mostrarse esta teoría del calórico (que fue asumida por grandes científicos como Lavoisier, Fourier, Laplace, Poisson y que llegó a utilizar Carnot para descubrir el "Segundo Principio de la Termodinámica") como el ejemplo más notorio que a veces una teoría inicial equivocada puede conducir al final a resultados correctos que obligan a revisarla.¡ Así avanzan las CIENCIAS !

No fue hasta 1842, con los concluyentes experimentos de Mayer y Joule, cuando se desechó la teoría de calórico y se estableció que el calor es una forma de energía.

Mayer y Joule establecen una correspondencia entre la energía mecánica y el calor producido por el movimiento de unas paletas dentro de agua cuando son accionadas por unas pesas que disminuían su energía potencial.

Su equivalencia: 1 caloría=4,18 Julios

máquina de Joule

Para conocer más del tema pulsa aquí para ir a la página de Isidoro Martinez y en ella pulsar en "History of Science" (en español).

Otra buena página