Precisão de medição: o que você precisa saber
LarLar > Notícias > Precisão de medição: o que você precisa saber

Precisão de medição: o que você precisa saber

Jun 01, 2023

É um desafio antigo: você é um fabricante cujo cliente precisa que você garanta que a peça que você contratou para fabricar será mantida dentro das tolerâncias especificadas. Então, qual é o melhor método para garantir que a peça esteja dentro das especificações? A questão não é apenas como medir a peça – um apalpador CMM ou um scanner a laser? – mas também como avaliar a qualidade da medição. Para encontrar a maneira mais precisa de medir sua peça, você precisa compreender a incerteza inerente a qualquer sistema de medição.

Felizmente, existem organizações nacionais e internacionais que desenvolvem padrões para ajudar a codificar os níveis de incerteza de medição. A Sociedade Americana de Engenheiros Mecânicos (ASME), de Nova York, e a Organização Internacional de Padronização (ISO), de Genebra, Suíça, por exemplo, oferecem padrões para comunicar níveis de precisão para vários métodos de metrologia. Eles são um recurso importante — mas, como veremos, sozinhos não podem dizer qual método é melhor para uma tarefa específica.

Então, o que um fabricante deve fazer?

Se você é um novato, primeiro certifique-se de entender alguns termos básicos. Por exemplo, Tim Cucchi, gerente de produto de ferramentas manuais de precisão da LS Starrett Co., Athol, Massachusetts, alertou para não confundir precisão com resolução.

“Na instrumentação industrial, a precisão é a tolerância de medição do instrumento. Define os limites dos erros cometidos quando o instrumento é utilizado em condições normais de operação. A resolução é simplesmente a precisão da leitura do instrumento de medição – seja em décimos, centenas, milhares ou qualquer outra coisa.”

A distinção é importante. Você confiaria em um critério de loja de ferragens para medir e cortar um poste de cerca, mas não para verificar um componente aeroespacial ou médico de precisão - e isso acontece mesmo que o critério tivesse marcas de hash com 1 µm de distância. Sua resolução não refletiria realmente sua precisão.

A tolerância de impressão refere-se à quantidade de desvio de dimensão permitida em uma peça, conforme definido pelos projetos ou especificações do cliente. Cucchi destacou que as tolerâncias de impressão não se preocupam com o método de metrologia utilizado para atendê-las, mas apenas com os requisitos da peça. Cabe ao fabricante encontrar um método confiável para verificar a precisão da peça.

“Os profissionais de medição estão cientes de que sempre há erros na medição”, observou Gene Hancz, especialista em produtos CMM, Mitutoyo America Corp., Aurora, Illinois. “Portanto, é fundamental definir o que significa qualidade de medição ‘suficientemente boa’.”

É uma definição que os engenheiros articularam de diferentes maneiras ao longo do tempo, disse Hancz. A questão tem sido: que nível de precisão é necessário para que a medição seja confiável?

“Em 1950, foi lançado um padrão militar dos EUA, MIL-STD-120 Gage Inspection, que afirmava que quando as peças estavam sendo medidas, as tolerâncias de precisão do equipamento de medição não deveriam exceder 10 por cento das tolerâncias das peças sendo verificadas,” Hancz disse. Portanto, se a tolerância de impressão de uma peça for, digamos, de um centímetro, então o sistema de medição precisa ter uma precisão de um décimo disso, ou um milímetro. “Essa regra costuma ser chamada de regra 10:1 ou Regra do Gagemaker”, acrescentou.

Então, como você garante que o sistema usado para medir essa peça tenha precisão de um décimo da tolerância de impressão necessária – neste caso, 1 mm? De acordo com o mesmo padrão, você o calibra para 0,2 mm ainda mais fino: MIL-STD-120 afirmou que a precisão dos padrões de medição usados ​​para calibrar o próprio equipamento de medição não deve exceder 20 por cento das tolerâncias do equipamento de medição sendo calibrado, ou 5:1, segundo Hancz.

“Ambas as regras se transformaram ao longo dos anos no que é frequentemente chamado de TAR, ou taxa de precisão do teste, e os requisitos anteriores de 10:1 ou 5:1 agora são normalmente declarados como um requisito de 4:1, ou 25 por cento de tolerância.

“A avaliação da incerteza de medição invadiu a prática comercial de calibração no final da década de 1990”, continuou Hancz. “À medida que mais e mais laboratórios de calibração começaram a calcular e documentar a incerteza, tanto nos âmbitos de acreditação como nos certificados de calibração, a prática de utilizar cálculos TAR começou a ser substituída pela razão de incerteza do teste, TUR.”