Denken Sie, Sie haben Probleme? Dann versuchen Sie mal, einen Präzisions-Temperatursensor zu kalibrieren
Die Herausforderung, Sensoren für reale physikalische Größen zu kalibrieren, ist eine gemischte Situation. Bei einigen Sensoren ist es nicht allzu schwierig, dem Sensor ein bekanntes Anregungssignal zu liefern; bei anderen Sensoren ist dies ein großes Problem.
Schauen wir uns zunächst einen einfacheren an - einen linearen variablen Differenzwandler (LVDT), der die lineare Auslenkung (Position) über einen Bereich von nur einem Zentimeter (cm) bis vielleicht 25 cm genau misst, je nach Modell. Zum Beispiel bietet der LVDT 02560389-000 von TE Connectivity Measurement Specialties eine lineare Wegmessung über zwei Zoll (5,08 Zentimeter) mit 0,25% Linearität über den gesamten Auslenkungsbereich.
Abbildung 1: Der LVDT 02560389-000 von TE Connectivity Measurement Specialties bietet genaue Positionsmessungen über einen Zwei-Zoll-Bereich mit einer Linearität von 0,25 %. (Bildquelle: TE Connectivity Measurement Specialties)
Zur Kalibrierung der zugehörigen Elektronik des analogen Frontends (AFE) können Sie ein präzises Signal von einem Instrument wie z.B. einem Verhältniswandler verwenden, der vor etwa 100 Jahren entwickelt wurde und auch heute noch verwendet wird (Abbildung 2).
Abbildung 2: Dieser klassische Verhältniswandler wird verwendet, um den LVDT-Ausgang in Abhängigkeit von der Position zu simulieren, wenn die Leistung der analogen Schnittstellenschaltung des Sensors kalibriert wird. (Bildquelle: Tegam Inc.)
Bei Verwendung des Verhältniswandlers wird jedoch nicht der LVDT selbst getestet. Dazu können Sie einen Dehnungsmesser mit Dehnungsmessstreifen, einen digital-mechanischen Messschieber oder einen optischen Messschieber an den LVDT anschließen und dann seine Ausgabe bei bestimmten Testpositionseinstellungen messen.
Aber was ist mit der Kalibrierung von Temperatursensoren? Auch hier ist es ziemlich einfach, ein elektrisches Signal zu erzeugen, das den nichtlinearen Ausgang des Temperatursensors genau simuliert, und dessen AFE zu überprüfen, aber wie überprüft man den Temperatursensor selbst, wenn man eine Genauigkeit bis auf den Bruchteil eines Grades benötigt? Die meisten Standard-Temperatursensoren wie Widerstandstemperaturfühler (RTDs), Thermistoren, Halbleiterbauelemente und Thermoelemente sind für bis etwa 1 ⁰C bis 2 ⁰C Genauigkeit ausgelegt, aber wenn man es auf Zehntel Grad absolute Genauigkeit (natürlich nicht dasselbe wie die Auflösung) abgesehen hat, ist das eine andere Geschichte.
Die Realität sieht so aus, dass man nicht einfach ein einfaches Heizgerät einrichten, seine Temperatur mit einem System höherer Genauigkeit messen und dann einfach den Sensor, der gerade im selben System ausgewertet wird, austauschen kann. Es gibt einfach zu viele Möglichkeiten, wie der Vergleich durch die Art und Weise, wie Sie ihn durchführen, verfälscht werden kann. Aus diesem Grund können Anwender von hochpräzisen Temperatursensoren folgendes tun:
1) Entweder senden Sie den Sensor an ein Labor, wie z.B. Ellab A/S, das über die notwendigen Einrichtungen verfügt, oder Sie kaufen eine Testeinrichtung von einem Anbieter, wie z.B. Fluke Corp zur internen Verwendung, oder
2) Sie kaufen einen Temperatursensor, der vollständig kalibriert und mit NIST-rückführbarer Dokumentation geliefert wird, von einem der vielen Anbieter dieser „besseren“ Komponenten.
Was ist, wenn Sie eine absolute Genauigkeit von 0,1 ⁰C oder 0,01 ⁰C oder sogar besser als 0,01 ⁰C erreichen müssen? Vielleicht ist es schwer zu glauben, aber es ist machbar. Forscher des National Institute of Standards and Technology (NIST) haben ein Thermometer für thermische Infrarotstrahlung (TIRT) für den Bereich -50 ⁰C (-58 ⁰F) bis 150 ⁰C (302 ⁰F) entwickelt (entspricht Infrarot-Wellenlängen zwischen acht und vierzehn Mikrometern), das Temperaturen mit einer Genauigkeit von wenigen Tausendstel Grad Celsius messen kann. Noch besser ist, dass es keine Tieftemperaturkühlung benötigt, wie viele andere leistungsstarke Infrarot-Temperatursensoren.
Wie haben sie dieses Leistungsniveau erreicht? Sie verwendeten den Drei-Schichten-Ansatz, der bei analogen und sensorbezogenen Designs üblich ist:
1) Auswahl der besten und leistungsstärksten verfügbaren Komponente und ggf. Ausführung eines „Alterungsprozesses“, um die langfristige Drift zu minimieren.
2) Verwendung einer Topologie, die Fehler nicht nur minimiert, sondern nach Möglichkeit auch selbst auslöscht, wie z.B. die Verwendung angepasster Widerstände mit identischen Temperaturkoeffizienten auf dem gemeinsamen Substrat eines Differenz- oder Instrumentenverstärkers.
3) Minimierung externe Quellen, die Fehler induzieren könnten, wie elektromagnetische (EM) Felder oder Änderungen der Umgebungstemperatur.
Die erste Einführung in dieses Taktik-Trio erhielt ich, als ich 1976 in einer Ausgabe von EDN, den Artikel „This 30-ppm scale proves that analog designs aren't dead yet“ von Jim Williams las, dem späten, legendären Genie für analoges Design. Diese Waage wurde entwickelt, um einige sehr aggressive Ziele zu erreichen: Sie musste tragbar und kostengünstig sein, eine Auflösung von 0,01 Pfund bei einem Skalenendwert von 300,00 (das sind die 30 Teile pro Million) bieten, niemals kalibriert oder justiert werden müssen und eine absolute Genauigkeit innerhalb von 0,02% aufweisen. Trotz des Alters des Artikels (fast 50 Jahre!) und der vielen Veränderungen bei Komponenten und Technologien seit seiner Entstehung sind die zugrunde liegenden Prinzipien immer noch gültig.
Wie haben die Leute am NIST ihr Thermometer, das so genannte Umgebungsstrahlungsthermometer (ART), entwickelt (Abbildung 3)? Das Design wird in ihrem Papier mit dem sehr bescheidenen Titel „Verbesserungen im Design von Thermometern und Sensoren für thermische Infrarotstrahlung“, das in Optics Express von der Optical Society of America veröffentlicht wurde, sowie in dem Artikel „Präzise Temperaturmessungen mit unsichtbarem Licht“, das vom NIST veröffentlicht wurde, ausführlich beschrieben.
Abbildung 3: Beim NIST-Umgebungsstrahlungsthermometer tritt Infrarot(IR)-Licht von einer auf eine feste Temperatur kalibrierten Quelle durch eine Linse (1) in das Thermometergehäuse ein und gelangt zum Detektorausgang (6), der zu einem Verstärker geleitet wird, der die Signalpegel verstärkt. (Bildquelle: NIST)
Fazit
Wenn Sie sich das nächste Mal über die Genauigkeit Ihrer sensorbasierten Messwerte wundern, sollten Sie sich klar machen: Wie viel des Fehlers ist auf den Sensor selbst und wie viel auf die Elektronik zurückzuführen? Wie überprüfen Sie jeden Fehler unabhängig voneinander?
Have questions or comments? Continue the conversation on TechForum, Digi-Key's online community and technical resource.
Visit TechForum

