Wenn Sie einen einzelnen Artikel nur kurz anlesen möchten, dann klicken Sie bitte auf die entsprechende Überschrift. Das komplette Heft mit den vollständigen Artikeln finden Sie als *.pdf-Datei zum Herunterladen auf dieser Seite.
Wolfgang Buck
Fast jedes neues Auto besitzt ein Thermometer für die Umgebungstemperatur und warnt vor Bodenfrost. Und die Klimaanlage regelt bei Frost und Hitze die Innentemperatur auf ein angenehmes Niveau. Es gibt keine Wettervorhersage, wie sie heute zu jeder Zeit und für jeden Ort der Welt online verfügbar ist, in der nicht Angaben über die Temperatur eine wesentliche Rolle spielen. Sogar der Flugkapitän macht Eindruck, wenn er auf die erreichte Flughöhe und die Minusgrade an der Außenhaut des Fliegers aufmerksam macht oder wenn er die einladenden Temperaturen des Zielflughafens am Ferienort bekannt gibt. Die Temperatur spielt nicht nur bei alltäglichen Dingen wie dem Wetter oder in der Küche eine wichtige Rolle, sie ist auch eine entscheidende Kenngröße bei Erderwärmung und Klimawandel, in der medizinischen Diagnostik und Therapie, beim Energieumsatz in Motoren, Turbinen und Kraftwerken und sie bestimmt den Ablauf von Lebensprozessen oder wirkt als Steuergröße in der Chemie. Es spricht also einiges dafür, wenn behauptet wird, die Temperatur sei die meistgemessene physikalische Größe überhaupt.
Peter Strehlow und Joachim Seidel
Der Begriff der Temperatur verdankt seine Entstehung der Existenz des menschlichen Wärmesinns. Wie das Volumen durch das Auge oder der Druck durch den Tastsinn wahrgenommen werden, so ist unseren Sinnesempfindungen unmittelbar ein qualitatives Gefühl für Wärme und Kälte zugänglich, das wir beim Berühren eines Körpers empfinden. Selbst wenn unsere Empfindungen von warm und kalt mit dem tatsächlichen physikali-schen Zustand des untersuchten Körpers zusammenhängen, so sind sie doch höchst subjektiv und tragen in sich auch die Merkmale des Beobachters und seines momentanen Zustandes. Dass unsere Wärmeempfindung Täuschungen unterliegen kann, wurde erst nach Erfindung des Thermometers im 17. Jahrhundert erkannt. So schrieb der venezianische Diplomat Gianfrancesco Sagredo 1615 an seinen Lehrer Galileo Galilei über seine Beobachtungen mit Luftthermometern: "Mit diesen Instrumenten konnte ich ganz klar feststellen, dass unser Brunnenwasser im Winter viel kälter ist als im Sommer, auch wenn unsere Sinne das anders beurteilen."
Eine physikalisch präzise Definition und Messvorschrift der Temperatur lässt sich erst aus einer Reihe von Überlegungen ableiten, die experimentell begründet sind und mit den wichtigsten Erkenntnissen übereinstimmen, die wir über den Wärmezustand eines Körpers durch unsere Sinnesempfindungen erlangen. Auf diese Weise wird die Temperatur in der Thermodynamik axiomatisch als Zustandsgröße eingeführt, deren Definition eng mit dem Begriff des thermischen Gleichgewichts verbunden ist: Systeme, die sich miteinander im thermischen Gleichgewicht befinden, haben als gemeinsame intensive (nicht additive) Eigenschaft dieselbe Temperatur.
Das Messverfahren besteht darin, ein System (Thermometer), dessen thermischer Gleichgewichtszustand eindeutig mit einer in der Mechanik oder Elektrodynamik definierten Zustandsvariablen zusammenhängt, mit dem zu messenden System in thermisches Gleichgewicht zu bringen. Als Zustandsvariable können das Volumen einer Flüssigkeit (Flüssigkeitsthermometer), der Druck eines Gases bei konstantem Volumen (Gasthermometer) oder auch andere Größen verwendet werden, die sich mit dem Wärmezustand ändern. Man nennt die über die speziellen Eigenschaften eines Thermometers weitgehend willkürlich definierte Temperatur eine empirische Temperatur. Der zweite Hauptsatz der Thermodynamik wird es uns gestatten, dieser Willkür zu entgehen und eine absolute thermodynamische Temperatur zu definieren, so dass das Ergebnis der Temperaturmessung von der Art und Substanz des Thermometers ebenso unabhängig ist, wie die Messung von Volumen oder Druck vom Material des Maßstabes oder des Gewichtes. In der folgenden Darstellung der Thermodynamik quasistatischer Prozesse nach Carathéodory wird die Existenz von absoluter Temperatur und Entropie als Zustandsgrößen mit einem Minimum an Hypothesen mathematisch bewiesen. Ihre tiefere physikalische Begründung finden Temperatur und Entropie erst in der statistischen Mechanik. Speziell die kinetische Gastheorie ermöglicht eine statistische Interpretation der Temperatur, ihre Definition im Nichtgleichgewicht und die Angabe der Grenzen ihrer Existenz.
Ziel diese Beitrages ist, eine möglichst umfassende Antwort auf die Frage "Was ist Temperatur?" zu geben und beim Leser zumindest das Gefühl zu hinterlassen, das Einstein in einem Brief an Carathéodory über dessen axiomatische Begründung der Thermodynamik mit den Worten ausdrückte : "Lieber Herr Kollege! Ihre Ableitung finde ich wundervoll. Nun verstehe ich alles!"
Joachim Seidel
Die Temperatur T ist nicht nur die thermodynamische Zustandsgröße schlechthin [1], sie ist auch für viele industrielle Verfahren, beispielsweise in der chemischen oder der Lebensmittelindustrie, einer der wesentlichen Prozessparameter. Darüber hinaus spielt die Temperatur bei zahlreichen anderen Messungen eine Rolle: Da praktisch alle anderen makroskopischen physikalischen Größen, die in Industrie und Forschung von Interesse sind, mehr oder weniger stark von der Temperatur als Einflussgröße abhängen, sind sie ohne Weiteres nur vergleichbar, wenn sie bei derselben Temperatur bestimmt werden. Deshalb gehört die Temperatur zu den meistgemessenen physikalischen Größen und es werden jedes Jahr weltweit mehrere Millionen Temperaturfühler und -messgeräte neu installiert. Für diese Messungen ist die thermodynamische Temperaturskala wenig geeignet, weil zu ihrer Realisierung Primärthermometer wie z. B. das Gasthermometer erforderlich sind [1,2]
Terry Quinn
These days when climate change and global warming is much in our minds, it is interesting to remember that the very first objective temperature scale, devised by Robert Hooke in the 1660s, was used to calibrate thermometers that were then used to make daily meteorological measurements of temperature in London. As I shall recount in this short article, temperature was a quantity whose physical basis was not really understood until the development of thermodynamics in the 19th century and the first international temperature scale appeared only when it became necessary to specify the means of correcting the length of the international prototype of the metre to its reference temperature, namely the temperature of melting ice. Since then we have seen great developments in temperature scales and in the methods and accuracies of measuring temperature. Today, the limiting factor in the measurement of temperature is rarely the definition of the temperature scale but instead is in the understanding of the behaviour of the thermometer and its thermal links with its surroundings.
It is a fundamental principle of good metrology that the only way to have reliable measurements of small long-term changes over thirty to fifty year periods in any parameter is to make sure that the measurements at the beginning as well as those at the end are accurate and linked to the same unchanging standards of nature. Our temperature scale of today, ITS-90, is perfectly adapted to such a requirement, but much work still needs to be done to ensure that the measurements themselves are properly linked to ITS-90. For global climate studies it is in the measurement of the temperature of the atmosphere and the oceans that the most critical applications are found. It is a non-trivial problem to obtain accurate measurements of ocean temperatures at great depths and the same applies to obtaining accurate measurements of the temperature of the atmosphere from ground level to the upper atmosphere. This applies equally to all those optical and thermal measurements of the Earth's radiation budget made from Space. Thus while we might think that we have solved the problem of temperature scales, we are still far from having solved the problems of using it to make the accurate measurements needed for global climate studies. This is a situation that Robert Hooke would have well understood!
Joachim Seidel, Jost Engert, Bernd Fellmuth, Joachim Fischer, Jürgen Hartmann, Jörg Hollandt, Erich Tegeler
Die Temperatur T ist nicht nur die thermodynamische Zustandsgröße schlechthin [1], sie ist auch für viele industrielle Verfahren, beispielsweise in der chemischen oder der Lebensmittelindustrie, einer der wesentlichen Prozessparameter. Darüber hinaus spielt die Temperatur bei zahlreichen anderen Messungen eine Rolle: Da praktisch alle anderen makroskopischen physikalischen Größen, die in Industrie und Forschung von Interesse sind, mehr oder weniger stark von der Temperatur als Einflussgröße abhängen, sind sie ohne Weiteres nur vergleichbar, wenn sie bei derselben Temperatur bestimmt werden. Deshalb gehört die Temperatur zu den meistgemessenen physikalischen Größen und es werden jedes Jahr weltweit mehrere Millionen Temperaturfühler und -messgeräte neu installiert. Für diese Messungen ist die thermodynamische Temperaturskala wenig geeignet, weil zu ihrer Realisierung Primärthermometer wie z. B. das Gasthermometer erforderlich sind [1,2]
J. Hartmann, F. Edler, K. Anhalt
Oberhalb der Temperatur von erstarrendem Silber (961,78 °C) erfolgt die Darstellung der Internationalen Temperaturskala von 1990 (ITS-90) mit spektral charakterisierten Strahlungsthermometern [1]. Die Temperaturmessung erfolgt durch Vergleich der spektralen Strahldichte der Strahlung eines schwarzen Strahlers mit der zu messenden Temperatur T90 und der spektralen Strahldichte eines schwarzen Strahlers mit einer von drei Referenztemperaturen, der Temperatur von erstarrendem Silber, Gold oder Kupfer. In der Praxis werden für die Weitergabe von Temperaturen oberhalb von 962 °C neben Strahlungsthermometern auch Thermoelemente bis zu Temperaturen von 2200 °C eingesetzt, die idealerweise ebenfalls an Temperaturfixpunkten kalibriert werden. In beiden Fällen basiert die weitergegebene Temperatur oberhalb 962 °C auf extrapolierenden Methoden mit dadurch bedingter erhöhter Unsicherheit. Der Einsatz stabiler Hochtemperaturfixpunkte oberhalb der Erstarrungstemperatur von Kupfer kann die Weitergabe der Temperaturskala an industrielle Nutzer vereinfachen, da sie direkt als Referenztemperaturquellen in der Industrie einsetzbar sind. Gleichzeitig können die mit der Weitergabe verbundenen Messunsicherheiten reduziert werden, da die bislang angewandten Vergleichsverfahren zur Kalibrierung der Thermometer überflüssig werden. Diese Verbesserungen der Hochtemperaturskala sind notwendig für viele, auf genaue Hochtemperaturmessungen angewiesene Industrie- und Forschungszweige. Eine Auswahl dieser Hochtemperaturanwendungen sind in Abbildung 1 als Funktion der Temperatur angegeben.
Bisher war die Verfügbarkeit von Hochtemperatur-Fixpunkten allerdings an der mangelnden Stabilität der vorhandenen Material-Kombinationen gescheitert. Abhilfe versprechen jetzt neuartige eutektische Metall-Kohlenstoff (MC) Legierungen [2]. Diese Klasse von Materialien bietet die Möglichkeit, Hochtemperatur-Fixpunkte im Bereich von 1100 °C bis über 3000 °C zur Verfügung zu stellen. Seit ihrer erstmaligen Präsentation sind diese Materialien Gegenstand umfangreicher, weltweiter Forschungsarbeiten [3, 4].
In diesem Beitrag wird diese neue Materialklasse vorgestellt und ihre Anwendung in der Strahlungs- und Berührungsthermometrie beschrieben. Es werden Ergebnisse von Stabilitäts- und Reproduzierbarkeitsuntersuchungen sowie von absoluten Temperaturbestimmungen einer Auswahl dieser Materialklasse präsentiert. Die dargestellten Ergebnisse verdeutlichen das Potential dieser Materialklasse, die Kalibriermöglichkeiten in der Thermometrie und die Weitergabe der Temperaturskala an die Industrie zu vereinfachen.
F. Edler, J. Engert,
Die Rauschthermometrie ist eine primärthermometrische Methode zur Bestimmung thermo-dynamischer Temperaturen in einem breiten Temperaturbereich. Sie wird in der PTB bei der Aufstellung neuer Temperaturskalen sowie bei der Bestimmung von Phasenübergangstem-peraturen, die als thermometrische Fixpunkte dienen, eingesetzt.
Die Ursache des thermischen Rauschens liegt in der regellosen Wärmebewegung freier La-dungsträger in einem Leiter [1]. Es ist unabhängig vom speziellen Leitungsmechanismus, von der Realstruktur, von der chemischen Zusammensetzung des Materials und der Natur der sich bewegenden Ladungsträger. Die Rauschthermometrie als Methode zur Messung thermodynamischer Temperaturen basiert auf der von Nyquist im Jahre 1928 [2] aus allge-meinen thermodynamischen Zusammenhängen abgeleiteten und im gleichen Jahr von Johnson experimentell bestätigten Beziehung, nach der an den Enden eines unbelasteten, passiven Netzwerkes eine statistisch um Null schwankende Spannung gemessen wird, de-ren mittleres Spannungsquadrat proportional zur thermodynamischen Temperatur T ist.
Erich Tegeler
In vielen Bereichen, insbesondere der Fertigungs- und der Energietechnik, ist die Tempera-tur einer der am häufigsten gemessenen Parameter. Es wird geschätzt, dass in der Verfah-renstechnik etwa die Hälfte aller eingesetzten Sensoren der Temperaturmessung dienen. Weltweit werden jährlich etwa 2 Mio. Widerstandsthermometer und 3 Mio. Thermoelemente im industriellen Bereich neu installiert oder ausgetauscht [1]. Genaue Temperaturmessungen sind notwendig bei sehr hohen Temperaturen (Müllverbrennung, Metallurgie) und sehr tiefen Temperaturen (Supraleiter, Elektronik), während hochpräzise Messungen mit Unsicherheiten im Bereich von wenigen mK hauptsächlich im Raumtemperaturbereich erforderlich sind. (Fertigungsmesstechnik, Labortechnik). Weitere Anwendungsbereiche sind in Bild 1 zusammengestellt. Die jeweils verwendeten Thermometer unterscheiden sich dabei grundlegend. Die Weitergabe der Einheit Temperatur muss daher sehr unterschiedliche Bedürfnisse erfüllen. Die dafür notwendige metrologische Infrastruktur muss diesen Anforderungen gerecht werden.
Die PTB steht dabei wie bei den meisten Messgrößen an der Spitze der Kalibrierhierarchie, d.h. alle in Deutschland eingesetzten Thermometer sind letztlich auf die Normale der PTB und damit auf die Internationale Temperaturskala ITS-90 zurückgeführt. Das setzt natürlich voraus, dass die Messungen der PTB weltweit anerkannt werden. Die Mittel hierzu sind ein Qualitätsmanagement, die Teilnahme an internationalen Vergleichsmessungen und darauf aufbauend die Bekanntgabe der Messmöglichkeiten der PTB in der Datenbank des Bureau International des Poids et Mesures (BIPM). Die Weitergabe der Temperaturskala an die Nutzer erfolgt in der Regel in mehreren Stufen, wobei die PTB hauptsächlich für die Bereitstellung der Bezugsnormale für die im Deutschen Kalibrierdienst DKD akkreditierten Kalibrierlaboratorien und für die Eichbehörden zuständig ist. Darüber hinaus werden vielfältige unterstützende Maßnahmen angeboten, angefangen von der Beratung bei schwierigen Messprob-lemen über die Erarbeitung von Normen und Richtlinien bis hin zur Durchführung von Überwachungsbesuchen bei akkreditierten Laboratorien im Auftrag des DKD.
Jörg Hollandt, Jürgen Hartmann, Berndt Gutschwager
Strahlungsmessgeräte, mit denen die mittlere Temperatur eines durch die optische Anordnung festgelegten Messfeldes bestimmt wird, heißen Strahlungsthermometer. Sie erlauben eine berührungslose, schnelle und rückwirkungsarme Oberflächen-temperaturmessung, die mit kleiner Unsicherheit auf die Internationale Temperatur-skala zurückgeführt werden kann.
Unter der Vielzahl von existierenden Temperaturmessverfahren hat die Strahlungs-thermometrie damit ein einzigartiges Potenzial. Sie erlaubt unter anderem eine Temperaturmessung an
Im Folgenden werden die Grundlagen der strahlungsthermometrischen Temperaturmessung vorgestellt. Es werden der Aufbau und die wesentlichen Spezifikationen von Strahlungsthermometern erläutert. Die Kalibrierung von Strahlungsthermometern, das heißt ihre Rückführung auf die Internationale Temperaturskala, und die Bestimmung des für die Strahlungsthermometrie wichtigen Emissionsgrads von Oberflächen wird dargestellt. Abschließend verdeutlichen einige Beispiele für die industrielle Anwendung der Strahlungsthermometrie die Breite der Einsatzmöglichkeiten von Strahlungsthermometern.
Joachim Seidel und Andreas Steiger
Erhitzt man "gewöhnliche" Materie auf immer höhere Temperaturen, so reicht die thermische Energie der Einzelteilchen schließlich aus, um in inelastischen Stößen zunächst Molekülbindungen aufzubrechen und dann auch Neutralatome anzuregen und zu ionisieren*; bei extrem hoher Temperatur können auch Atomkerne gesprengt werden oder miteinander verschmelzen (Kernfusion). Ein heißes Gas, das insgesamt elektrisch neutral ist, aber so viele freie elektrische Ladungen (Elektronen und ein- oder mehrfach geladene Ionen) enthält, dass deren elektromagnetische Wechselwirkung untereinander oder mit äußeren elektromagnetischen Feldern die Systemeigenschaften wesentlich bestimmt, bezeichnet man in der Physik als Plasma (Langmuir 1929). Weil sich die Eigenschaften von Plasmen teils deutlich von denen von Neutralgasen unterscheiden, wird der Plasmazustand gelegentlich auch als "vierter Aggregatzustand" der Materie (neben dem festen, flüssigen und gasförmigen Zustand) bezeichnet. Plasmen sind zunächst im Rahmen der Gasentladungs- und der Ionosphärenphysik untersucht worden, vor allem aber von der Astrophysik, denn der weitaus überwiegende Teil der uns bekannten Materie im Weltall befindet sich im Plasmazustand. Tatsächlich befindet sich also die uns auf der Erdoberfläche umgebende Materie in einem sehr seltenen Zustand, und das Plasma ist der im Universum "gewöhnliche" Materiezustand (Bild 1). Seit etwa 1950 ist das Interesse an der Plasmaphysik wegen der Möglichkeit der Energieerzeugung durch kontrollierte Kernfusionsreaktionen in sehr heißen Plasmen mit Temperaturen im Bereich von 100 Millionen Kelvin stark gestiegen. In diesem Zusammenhang sind in den letzten Jahrzehnten sowohl magnetisch eingeschlossene als auch mit Höchstleistungslasern erzeugte Plasmen intensiv untersucht worden.
Bernd Fellmuth, Wolfgang Buck, Joachim Fischer, Christof Gaiser, Joachim Seidel
Die Basiseinheit Kelvin der intensiven thermodynamischen Zustandsgröße Temperatur ist seit 1954 wie folgt definiert: Das Kelvin, die Einheit der thermodynamischen Temperatur, ist der 273,16te Teil der thermodynamischen Temperatur des Tripelpunktes des Wassers [1]. Diese Definition leitet die Temperatureinheit aus einer eher zufällig ausgewählten Materialeigenschaft ab. Bei der praktischen Realisierung der Einheit sind damit Einflüsse der Isotopenzusammensetzung und der Reinheit des verwendeten Wassers von wesentlicher Bedeutung [2]. Hierdurch ist die Langzeitstabilität in Raum und Zeit gefährdet.
Das Comité International des Poids et Mesures (CIPM), das höchste Gremium der Internationalen Meterkonvention zwischen den Sitzungen der Generalkonferenz, hat deshalb im Jahre 2005 den metrologischen Staatsinstituten empfohlen, für das Kelvin, wie auch für das Kilogramm, das Ampere und das Mol, geeignete Vorschläge vorzulegen, damit diese vier Basiseinheiten auf der übernächsten Generalkonferenz im Jahre 2011 gemeinsam neu definiert werden können [3]. Ziel ist es, die Basiseinheiten künftig mit Hilfe von Naturkonstanten zu definieren und sie damit unabhängig von physikalischen Maßverkörperungen, sog. Artefakten, oder speziellen Messvorschriften zu machen. Da die thermodynamische Temperatur T in allen fundamentalen Gesetzen stets in der Kombination kT als "thermische Energie" auftritt, ist die Boltzmann-Konstante k die festzulegende Naturkonstante.
Printview,