Pensate di avere un problema? Provate a calibrare un sensore di temperatura di precisione

La sfida di calibrare i sensori per le variabili fisiche del mondo reale ha diverse sfaccettature. Alcuni sensori non sono difficili da simulare, altri invece rappresentano un problema.

Iniziamo da un tipo più semplice: un trasformatore differenziale a variabile lineare (LVDT) che misura con precisione l'allungamento lineare (posizione) in un intervallo che va da appena 1 cm fino ad anche 25 cm, a seconda del modello. Ad esempio, il trasformatore LVDT 02560389-000 di TE Connectivity Measurement Specialties offre la misurazione dello spostamento lineare su 50,8 centimetri con una linearità dello 0,25% sull'intera corsa.

Figura 1: Il modello di LVDT 02560389-000 di TE Connectivity Measurement Specialties fornisce letture accurate della posizione su un intervallo di 50,8 cm con una linearità dello 0,25%. (Immagine per gentile concessione di TE Connectivity Measurement Specialties)

Per calibrare l'elettronica del front-end analogico (AFE) associata è possibile utilizzare un segnale preciso di uno strumento come un trasformatore a rapporto, sviluppato circa 100 anni fa ma utilizzato ancora oggi (Figura 2).

Figura 2: Questo trasformatore a rapporto di tipo classico viene utilizzato per simulare l'uscita LVDT rispetto alla posizione quando si calibrano le prestazioni del circuito di interfaccia analogica del sensore. (Immagine per gentile concessione di Tegam Inc.)

Tuttavia, l'uso del trasformatore a rapporto non testa l'LVDT stesso. Per farlo, si può collegare all'LVDT un estensimetro, un calibro meccanico digitale o un calibro ottico e poi misurarne l'uscita con impostazioni specifiche di posizione di riferimento.

Ma che dire della calibrazione dei sensori di temperatura? Anche in questo caso, è abbastanza facile creare un segnale elettrico che simuli accuratamente l'uscita non lineare del sensore di temperatura e controllarne l'AFE, ma come si fa a controllare il sensore di temperatura stesso se si punta a una precisione anche di una frazione di grado? Nella maggior parte dei casi, i sensori di temperatura standard come le termoresistenze (RTD), i termistori, i dispositivi a stato solido e le termocoppie sono prodotti validi "pronti all'uso" fino a circa 1 °C - 2 °C, ma quando si arriva a decimi di grado di precisione assoluta (non la stessa della risoluzione, ovviamente) le cose cambiano.

La realtà è che non si può semplicemente predisporre un riscaldatore di base, misurarne la temperatura con un sistema di precisione superiore e poi semplicemente sostituire il sensore in fase di valutazione nello stesso sistema. Sono troppe le possibilità che, a seconda delle modalità usate, il confronto dia risultati errati. Per questo motivo, gli utenti di sensori di temperatura ad alta precisione possono:

1) Inviare il sensore a un laboratorio, come Ellab A/S, che dispone delle attrezzature necessarie o acquistare un'attrezzatura di prova da un fornitore come Fluke Corp. per l'uso interno oppure

2) Acquistare un sensore di temperatura completamente calibrato con documentazione tracciabile NIST da uno dei tanti fornitori di queste unità "migliori".

E se avete bisogno di raggiungere una precisione assoluta fino a 0,1 °C o 0,01 °C o addirittura superiore a 0,01 °C? Potrebbe essere difficile da credere, ma si può fare. I ricercatori del National Institute of Standards and Technology (NIST) hanno sviluppato un termometro a radiazione infrarossa termica (TIRT) per l'intervallo da -50 °C a 150 °C (corrispondente a lunghezze d'onda infrarosse tra otto e quattordici micrometri) che può misurare le temperature con la precisione di pochi millesimi di grado Celsius. Meglio ancora, a differenza di molti altri sensori di temperatura a infrarossi ad alte prestazioni non richiede il raffreddamento criogenico.

Come sono riusciti a raggiungere questo livello di prestazioni? Hanno utilizzato l'approccio a tre livelli comune nei progetti analogici e relativi ai sensori:

1) Scegliere il componente migliore e più performante disponibile, incluso il suo "invecchiamento", se necessario per ridurre al minimo la deriva a lungo termine.

2) Impiegare una topologia progettuale che non solo riduca al minimo gli errori ma li annulli automaticamente, ove possibile, usando ad esempio resistori accoppiati con coefficienti di temperatura identici sul substrato condiviso di un amplificatore strumentale o differenziale.

3) Ridurre al minimo le fonti esterne di errori indotti come i campi elettromagnetici (EM) o le variazioni della temperatura ambiente.

Sono venuto per la prima volta a conoscenza di questo trio di tattiche quando lessi un articolo di Jim Williams, il leggendario genio della progettazione analogica, in un numero del 1976 di EDN "This 30-ppm scale proves that analog designs aren't dead yet". Questa bilancia era stata progettata per raggiungere alcuni obiettivi molto ambiziosi: doveva essere portatile, a basso costo, con una risoluzione di 0,01 libbre in un intervallo di fondo scala di 300,00 (cioè 30 parti per milione), non richiedere mai la calibrazione o la regolazione e avere una precisione assoluta entro lo 0,02%. Nonostante l'età dell'articolo (quasi 50 anni!) e i molti cambiamenti nei componenti e nelle tecnologie che si sono succeduti da allora, i principi di base sono ancora validi.

Come hanno fatto in NIST a creare il loro termometro, chiamato ART (Ambient-Radiation Thermometer) (Figura 3)? Il progetto è descritto compiutamente nel loro documento dal titolo molto modesto "Improvements in the design of thermal infrared radiation thermometers and sensors" pubblicato su Optics Express dalla Optical Society of America e in "Precise Temperature Measurements with Invisible Light" pubblicato da NIST.

Figura 3: Nel termometro a radiazione ambientale NIST, la luce infrarossa (IR) proveniente da una sorgente calibrata a temperatura fissa entra nel contenitore del termometro attraverso una lente (1) e si fa strada verso l'uscita del rilevatore (6), quindi viene indirizzata a un amplificatore che aumenta i livelli del segnale. (Immagine per gentile concessione di NIST)

Conclusione

La prossima volta che vi chiedete quale sia la precisione delle vostre letture basate su sensore, chiarite quanto dell'errore è dovuto al sensore stesso e quanto all'elettronica. Come si fa a controllare i due fattori in modo indipendente?

Informazioni su questo autore

Image of Bill Schweber

Bill Schweber è un ingegnere elettronico autore di tre libri di testo sui sistemi di comunicazione elettronica, oltre a centinaia di articoli tecnici, colonne di giornale e caratteristiche del prodotto. In passato ha lavorato come responsabile tecnico di siti Web tematici per EE Times, oltre che come Executive Editor e Analog Editor presso EDN.

In Analog Devices, Inc. (fornitore leader di circuiti analogici e di segnali misti), Bill si occupava di comunicazioni di marketing (pubbliche relazioni); di conseguenza, ha esperienza su entrambi i lati della funzione tecnica PR, come presentatore di prodotti, storie e messaggi aziendali ai media e come parte ricevente.

Prima del ruolo MarCom in Analog, Bill è stato redattore associato della loro rispettata rivista tecnica e ha lavorato anche nei gruppi di product marketing e di ingegneria delle applicazioni. Ancor prima di questi ruoli, Bill lavorava presso Instron Corp., occupandosi di progettazione di circuiti analogici e di potenza e integrazione di sistemi per i controlli delle macchine di prova dei materiali.

Bill ha un MSEE (Univ. of Mass) e un BSEE (Columbia University), è un ingegnere professionista registrato e detiene una licenza da radioamatore di classe avanzata. Bill ha anche pianificato, scritto e presentato corsi online su una varietà di argomenti di ingegneria, compresi i concetti di base su MOSFET, sulla selezione di ADC e sul pilotaggio di LED.

More posts by Bill Schweber
 TechForum

Have questions or comments? Continue the conversation on TechForum, DigiKey's online community and technical resource.

Visit TechForum