UNIVERSIDADE FEDERAL DA PARAÍBA CENTRO DE TECNOLOGIA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE PRODUÇÃO JOSÉ RENATO MONTEIRO NASCIMENTO DE ALMEIDA METODOLOGIA PARA ANÁLISE DA CONFIABILIDADE DE UM CONJUNTO DE ALTA CRITICIDADE DE UMA PLANTA SIDERÚRGICA INTEGRADA JOÃO PESSOA - PB 2007
183
Embed
METODOLOGIA PARA ANÁLISE DA CONFIABILIDADE DE UM …livros01.livrosgratis.com.br/cp079949.pdf · Tabela 2 – Causas de falhas nas fases da Curva da Banheira.....53 Tabela 3 –
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
UNIVERSIDADE FEDERAL DA PARAÍBA CENTRO DE TECNOLOGIA
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE PRODUÇÃO
JOSÉ RENATO MONTEIRO NASCIMENTO DE ALMEIDA
METODOLOGIA PARA ANÁLISE DA CONFIABILIDADE DE UM CONJUNTO DE
ALTA CRITICIDADE DE UMA PLANTA SIDERÚRGICA INTEGRADA
JOÃO PESSOA - PB 2007
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
JOSÉ RENATO MONTEIRO NASCIMENTO DE ALMEIDA
METODOLOGIA PARA ANÁLISE DA CONFIABILIDADE DE UM CONJUNTO DE
ALTA CRITICIDADE DE UMA PLANTA SIDERÚRGICA INTEGRADA
Projeto de Dissertação a ser submetido à apreciação da banca examinadora do Programa de Pós-Graduação em Engenharia de Produção da Universidade Federal da Paraíba como parte dos requisitos necessários para obtenção do grau de Mestre em Engenharia de Produção. Área de Concentração: Tecnologia, Trabalho e Organizações Professor Orientador: Prof. Dr. Luiz Bueno da Silva
JOÃO PESSOA - PB 2007
A447m Almeida, José Renato Monteiro Nascimento de
Metodologia para análise da confiabilidade de um conjunto de alta criticidade de uma planta siderúrgica integrada / Marcos Antonio dias de Souza - João Pessoa, 2008.
178 f. il.:
Orientador: Prof. Dr. Luiz Bueno da Silva
Dissertação (Mestrado em Engenharia de Produção)
PPGEP / Centro de Tecnologia / Campus I / Universidade Federal da Paraíba – UFPB.
METODOLOGIA PARA ANÁLISE DA CONFIABILIDADE DE UM CONJUNTO DE
ALTA CRITICIDADE DE UMA PLANTA SIDERÚRGICA INTEGRADA
Projeto de Dissertação de Pós-Graduação a ser apresentada à apreciação da banca examinadora do Programa de Pós-graduação em Engenharia de Produção da Universidade Federal da Paraíba como parte dos requisitos necessários para obtenção do grau de Mestre em Engenharia de Produção.
BANCA EXAMINADORA
__________________________________________________ Prof. Dr. Luiz Bueno da Silva Universidade Federal da Paraíba
Profa Dra. Adriana Zenaide Clericuzi Universidade Federal da Paraíba
AGRADECIMENTOS
Agradeço a DEUS, guia espiritual que me deu forças para superar todos os obstáculos
enfrentados ao longo do desenvolvimento deste trabalho;
À toda minha família, particularmente aos meus pais, José Carlos e Nely pelas orações
que fizeram para que eu pudesse chegar até aqui;
A Sílvio José Martins Netto, que abriu caminho em minha empresa para que iniciasse
meus estudos na área da engenharia de produção;
Ao professor Luiz Bueno da Silva, meu orientador, pelo incentivo e confiança em meu
potencial desde o período da especialização em que cursava a disciplina Métodos
Quantitativos. Sou grato também por ter me despertado o interesse no ramo na estatística
multivariada;
A todos os professores e funcionários do PPGEP/UFPB, especialmente o Josemildo
(Duca) por seu apoio e assistência, sempre cordial em todo o momento que foi solicitado;
A Eugênio Schmidt (in memorian), pelo incentivo no estudo no ramo da
confiabilidade e ter me legado, ainda na especialização, minha primeira referência teórica
nesta área;
A Fabrício Coelho Alves por ter sido o meu primeiro colaborador na assistência e
fornecimento dos dados utilizados na pesquisa;
A Luiz Augusto Wasem pela sua colaboração, sobretudo, nas entrevistas gentilmente
cedidas ainda na fase de coleta de dados da pesquisa;
A Ricardo Sodré pelo empréstimo de suas apostilas de confiabilidade e ter me
indicado o primeiro software de confiabilidade tornando-se a principal fonte computacional
da pesquisa;
A Jorge de Carvalho Pires e João Geraldo Pedrini da Penha pelas entrevistas cedidas e
pelo fornecimento de informações tornando possível entender e compreender as atuais
técnicas de controle de falhas utilizadas na empresa;
Por fim, agradeço a todos que diretamente ou indiretamente contribuíram para que este
trabalho se concretizasse.
“SE ENXERGUEI MAIS LONGE, FOI POR
QUE ME APOIEI NOS OMBROS DE
GIGANTES”
(NEWTON)
RESUMO
O conhecimento da Confiabilidade de componentes de alta criticidade influencia diretamente o desempenho dos ativos produtivos das empresas. Seu estudo envolve um tratamento sistematizado de uma grande massa de dados e informações sendo necessário simplificar a base de informações sem, contudo, perder qualidade e precisão dos dados. Isto se dá por meio da redução de dimensionalidade da base original de dados. Esta dissertação tem por objetivo propor uma metodologia para analisar a confiabilidade de um conjunto de alta criticidade utilizando-se técnicas estatísticas multivariadas mediante estudo de seu tempo de vida. A metodologia utilizada envolveu a pesquisa de campo e documentos operacionais. Foram consideradas na pesquisa 10 amostras com 38 variáveis cada uma. Foi utilizada a Análise de Componentes Principais como ferramenta estatística de redução de dimensionalidade que simplificou a análise a apenas 9 Componentes Principais. A Análise de Confiabilidade envolveu a determinação da função Confiabilidade, a Taxa de Falhas e o Tempo Médio entre Falhas do componente crítico. Nestas análises, foi necessário utilizar os tempos de vida apenas do primeiro componente (CP1), pois o mesmo absorveu 40% da variabilidade dos dados, o que se tornou suficiente devido a pouca variabilidade dos demais componentes. A análise envolveu avaliação do primeiro componente (CP1) em cinco distribuições de probabilidade: Normal, Log-normal, Exponencial, Gamma e Weibull. Os testes de ajustes de distribuição e de aderência apontaram a distribuição Log-normal como a mais adequada. Os resultados obtidos pela análise da função Confiabilidade mostraram probabilidades de não ocorrências de falhas de 82,17%, 60,47% e 9,00% para os percentis 10, 50 e 90 respectivamente. A Taxa de Falhas mostrou um pico em 542 dias de operação, ponto de extremo risco operacional por se tratar de um componente altamente crítico. Por fim, o Tempo Médio entre Falhas atingiu 230 dias confirmando a ocorrência de 2 falhas no ano do componente crítico. Os resultados advindos da aplicação da metodologia proposta mostraram-se consistentes e coerentes com os dados históricos do componente crítico. A previsibilidade do tempo ótimo de vida do componente crítico possibilitou a sua substituição no momento certo, reduzindo o risco de paradas não programadas, aumentando a estabilidade operacional e consequentemente reduzindo o risco de interrupções no processo produtivo da unidade industrial estudada. Palavras-chave: Confiabilidade. Métodos estatísticos multivariados. Componentes de alta
criticidade.
ABSTRACT
The knowledge of the critical components reliability has influenced the performance of the productive assets of the productive units. Its study involves a systematized treatment of a great amount of data and information. The diversity of involved variables difficults the comprehension of interrelated information being necessary to simplify the information base without losing quality and precision of the data. This is possible through the dimension reduction of the original data base. The aim of this dissertation is to propose a methodology in order to determine the reliability of the critical components based on multivariate statistics techniques through the study of their life time. The methodology previously demanded on site researches and operational documents studies. It was considered 10 samples with 38 variables each one. Principal Components Analysis was the statistical tool used to reduce the data dimension that simplified the analysis to 9 Principal Components. The Reliability Analysis involved the evaluation of the Reliability Function, Failures Rate Function and MTBF (Mean Time Between Failures) of the critical components. It was necessary to use only the first component (PC1) because it has absorbed 40% of the data variability which it was enough due to the little variability of the other components. The Reliability Analysis of the first component (PC1) was tested and compared with five probability distributions: Normal, Log-normal, Exponential, Gamma and Weibull. The goodness distribution and adherence tests both indicated the Log-normal distribution as the most appropriate. The outcomes obtained by Reliability Function presented non-failures occurrences of 82,17%, 60,47% and 9,00% for the percentis 10, 50 and 90 respectively. The Failures Rate Function showed a extreme point in 542 days of operation, presenting a condition of extreme risk to a critical component. The MTBF reached 230 days ratifying the occurrence of 2 failures of the critical component during one year. The global results estimated by proposed methodology application showed consistent and coherent with the critical component historical data. The previsibility of the critical component optimal time life was able to indicate its substitution in the right time, decreasing non-programmed shutdowns, increasing operational stability and consequently reducing the risk of stoppages in the studied industrial unit. Keywords: Reliabilit. Multivariate Statistical Techniques. Critical Components.
LISTA DE ABREVIATURAS
AAH – Análise de Agrupamento Hierárquico
ABNT – Associação Brasileira de Normas Técnicas
ACP – Análise de Componentes Principais
AF – Análise de Fatores
CP – Componente Principal
CRAAF – Centro de Recirculação de Água do Alto Forno 1
DW – Data Warehouse
df – Degree of freedom
FMEA - Failure Mode Effects Analysis
FTA - Fault Tree Analysis
HCA – Hierarchical Cluster Analysis
MTBF – Mean Time Between Failures
NBR – Norma Brasileira
PCA – Principal Component Analysis
SISMANA – Sistema de Gestão de Ativos
SISCORP – Sistema de Controle de Padrões
LISTA DE FIGURAS
Figura 1 – Seleção da técnica estatística multivariada ............................................................24
Figura 2 – Fluxo para obtenção dos componentes principais...................................................38
Figura 3 – Elipsóide de densidade de probabilidade constante ................................................38
Figura 4 – Gráfico scree-plot dos autovalores .........................................................................46
Figura 5 – Curva da Banheira...................................................................................................52
Figura 6 – Método de classificação das falhas ........................................................................53
Figura 7 – Estrutura para desenvolver uma árvore de falha ....................................................57
Figura 8 – Função probabilidade de falha F(t) .........................................................................62
Figura 9 – Função de confiabilidade R(t) .................................................................................62
Figura 10 – Função densidade de probabilidade Normal para valores de desvio padrão 0,2; 0,5
e 0,8 ........................................................................................................................71
Figura 11 – Função densidade de probabilidade Log-normal para µ=1 e alguns valores de σ 73
Figura 12 – Influência do parâmetro β na função densidade de probabilidade de falha ..........75
Figura 13 – Influência do parâmetro β na função confiabilidade.............................................76
Figura 14 – Influência do parâmetro β na função taxa de falha ...............................................76
Figura 15 – Função densidade de falhas Exponencial monoparamétrica para alguns valores de
CAPÍTULO 1 - INTRODUÇÃO ...........................................................................................15 1.1 CONTEXTUALIZAÇÃO DO PROBLEMA............................................................15 1.2 JUSTIFICATIVA PARA SE ESTUDAR O PROBLEMA.......................................16 1.3 DELIMITAÇÃO DA PESQUISA.............................................................................17 1.4 OBJETIVOS..............................................................................................................18 1.4.1 Objetivo geral ............................................................................................................18 1.4.2 Objetivos Específicos ................................................................................................18 1.5 ESTRUTURAÇÃO DA PESQUISA ........................................................................18 CAPÍTULO 2 - REFERENCIAL TEÓRICO......................................................................21 2.1 ANÁLISE MULTIVARIADA..................................................................................21 2.2 ANÁLISE EXPLORATÓRIA ..................................................................................26 2.3 TEOREMA DA DECOMPOSIÇÃO ESPECTRAL .................................................28 2.4 NORMAS TÉCNICAS BRASILEIRAS UTILIZADAS EM ANÁLISES
ESTATÍSTICAS E DE CONFIABILIDADE ...........................................................29 CAPÍTULO 3 - ANÁLISE DE COMPONENTES PRINCIPAIS (ACP) ..........................31 3.1 DIFERENÇAS ENTRE A ANÁLISE FATORIAL E A ANÁLISE DE
COMPONENTES PRINCIPAIS...............................................................................31 3.2 ALGUNS TESTES ESTATÍSTICAS PARA VERIFICAÇÃO DA
APLICABILIDADE DA ACP ..................................................................................31 3.3 DESCRIÇÃO DA ANÁLISE DE COMPONENTES PRINCIPAIS........................35 3.4 GERAÇÃO DOS COMPONENTES PRINCIPAIS VIA MATRIZ DE
COVARIÂNCIAS.....................................................................................................37 3.5 NÃO CORRELAÇÃO ENTRE OS COMPONENTES PRINCIPAIS .....................39 3.6 SELEÇÃO DO NÚMERO DE COMPONENTES PRINCIPAIS ............................41 3.7 GERAÇÃO DOS COMPONENTES PRINCIPAIS VIA MATRIZ DE
CORRELAÇÃO ........................................................................................................42 3.8 CRITÉRIOS PARA DETERMINAÇÃO DO NÚMERO “K” DE COMPONENTES
PRINCIPAIS .............................................................................................................44 3.8.1 Análise de representatividade em relação à variância total.......................................45 3.8.2 Análise da qualidade de aproximação da matriz de covariâncias ou correlação.......46 3.8.3 Análise prática das componentes...............................................................................47 3.9 ANÁLISES ESTATÍSTICAS ASSOCIADAS À ACP ............................................47 3.10 LIMITAÇÕES DA ACP ...........................................................................................48 CAPÍTULO 4 - ANÁLISE DE CONFIABILIDADE ..........................................................50 4.1 INTRODUÇÃO.........................................................................................................50 4.2 ORIGEM, DEFINIÇÃO E CLASSIFICAÇÃO DAS FALHAS ..............................51
4.3 TÉCNICAS DE ANÁLISES DE CONFIABILIDADE............................................54 4.3.1 Análise do Modo e Efeito da Falha – FMEA (Failure Mode and Effects Analysis).55 4.3.2 Árvore de Falhas – FTA (Fault Tree Analysis) .........................................................56 4.3.3 Testes de Vida Acelerados ........................................................................................57 4.3.4 Análise de Tempos de Falha......................................................................................58 4.4 CONCEITOS BÁSICOS SOBRE CONFIABILIDADE ..........................................58 4.5 FUNÇÕES FUNDAMENTAIS DA CONFIABILIDADE.......................................60 4.6 TIPOS DE DADOS DE VIDA..................................................................................63 4.7 MODELOS DE CONFIABILIDADE NÃO PARAMÉTRICOS .............................65 4.8 MÉTODOS DE CONFIABILIDADE NÃO PARAMÉTRICOS .............................66 4.9 MODELOS DE CONFIABILIDADE PARAMÉTRICOS.......................................69 4.9.1 Distribuição Normal ..................................................................................................70 4.9.2 Distribuição Log-normal ...........................................................................................72 4.9.3 Distribuição Weibull ..................................................................................................74 4.9.4 Distribuição Exponencial mono e bi-paramétrica .....................................................77 4.9.5 Distribuição Gamma bi-paramétrica .........................................................................78 4.10 MÉTODOS DE ESTIMATIVAS DE PARÂMETROS............................................79 4.11 TESTE DE HIPÓTESES DAS ESTIMATIVAS DE PARÂMETROS....................80 4.12 TESTES DE ADERÊNCIA DAS DISTRIBUIÇÕES ..............................................81 4.12.1 Técnica gráfica ..........................................................................................................81 4.12.2 Testes de adequação de ajustes de distribuição.........................................................82 CAPÍTULO 5 - PESQUISAS DESENVOLVIDAS .............................................................87 5.1 APLICAÇÕES EM ENGENHARIA DE PRODUÇÃO...........................................87 5.2 APLICAÇÕES EM OUTRAS ÁREAS ....................................................................90 CAPÍTULO 6 - PROCEDIMENTO ATUAL DE ANÁLISE DE EQUIPAMENTOS
CRÍTICOS ...............................................................................................................93 CAPÍTULO 7 - CONJUNTO DE ALTA CRITICIDADE E COMPONENTE CRÍTICO
...................................................................................................................................97 7.1 DESCRIÇÃO DO FUNCIONAMENTO DO ALTO FORNO 1..............................97 7.2 DESCRIÇÃO DO FUNCIONAMENTO DO CONJUNTO DE ALTA
CRITICIDADE E COMPONENTE CRÍTICO.........................................................99 CAPÍTULO 8 - PROCEDIMENTOS METODOLÓGICOS ...........................................106 CAPÍTULO 9 - RESULTADOS..........................................................................................111 9.1 AVALIAÇÃO DOS DADOS PARA UTILIZAÇÃO DA ACP .............................113 9.2 DETERMINAÇÃO DO NÚMERO DE COMPONENTES PRINCIPAIS ............129 9.4 CORRELAÇÃO ENTRE OS TEMPOS DE VIDA ORIGINAIS E OS
9.5 ANÁLISES DE COMUNALIDADES....................................................................134 9.6 ANÁLISE DOS COMPONENTES PRINCIPAIS CP1 E CP2 ..............................135 9.7 ANÁLISE DE CONFIABILIDADE DO PRIMEIRO COMPONENTE PRINCIPAL
(CP1)........................................................................................................................138 9.8 ANÁLISE DE CONFIABILIDADE DO MODELO DE PROBABILIDADE
LOGNORMAL........................................................................................................141 9.9 SÍNTESE DA ANÁLISE DOS RESULTADOS ....................................................145 910 COMPARATIVO ENTRE A METODOLOGIA PROPOSTA E O SISTEMA
ATUAL....................................................................................................................147 CAPÍTULO 10 - CONCLUSÃO .........................................................................................150 CAPÍTULO 11 - RECOMENDAÇÕES PARA TRABALHOS FUTUROS ...................152 REFERÊNCIAS ...................................................................................................................154 APÊNDICE A – Gráficos de Dispersão do Estimador Kaplan-Meier com os modelos
propostos..................................................................................................................164 APÊNDICE B – Histograma do número de falhas observadas nas Ventaneiras (componentes
críticos) ....................................................................................................................165 APÊNDICE C – Função de Confiabilidade das Ventaneiras (componentes críticos) ...........169 APÊNDICE D – Gráficos de scores do CP1 e CP3/CP2 e CP3 ............................................172 APÊNDICE E – Gráficos de loadings do CP1 e CP3 ............................................................173 APÊNDICE F – Parâmetros e percentis 10, 50 e 90 da Distribuição Lognormal (componentes
críticos) ....................................................................................................................174 APÊNDICE G – Matriz de dados de tempos de vida original dos 38 componentes críticos
coletados nos 10 anos (1994 a 2003) de amostragem .............................................175 APÊNDICE H – Ventaneiras usadas (em fim de vida útil) do Alto Forno 1 .........................176 APÊNDICE I – Ventaneiras novas (disponíveis para uso) do Alto Forno 1..........................177 APÊNDICE J – Vista da área de Processamento de Matérias-primas da Empresa estudada (ao
centro o Alto Forno 1) .............................................................................................178
CAPÍTULO 1 - INTRODUÇÃO
1.1 CONTEXTUALIZAÇÃO DO PROBLEMA
As indústrias de bens e serviços buscam cada vez mais a excelência na qualidade de
fornecimento de bens ou prestação de serviços, fato hoje essencial para a sobrevivência no
mundo de globalização em que vive a economia mundial.
Devido ao aumento da concorrência e às alterações no mercado consumidor nas
últimas décadas, as empresas necessitam gerar esforços cada vez maiores para se manterem
competitivas. A obtenção de prazos e preços competitivos, a flexibilidade produtiva ou ainda
o aumento na qualidade dos produtos, são alguns dos modos de sobrevivência diante dos
competidores.
No caso de uma unidade industrial siderúrgica, como é o caso da empresa focada neste
estudo não é diferente, pois a demanda por produtos com estreitos limites de especificação
está se tornando cada vez maior. Isto implica obrigatoriamente na existência de equipamentos
com altos níveis de confiabilidade.
Segundo Sandberg (1987) a confiabilidade e a qualidade têm muito em comum e as
pessoas pagam para tê-las, mas a confiabilidade apresenta ainda uma dimensão extra: o
tempo. No caso de eventualmente ocorrer uma falha, o tempo de funcionamento e o número
de intervenções relativas a um determinado equipamento ou unidade produtiva são igualmente
tomados como indicativos de qualidade. Assim, para assegurar um bom desempenho e
assegurar a sua função no processo produtivo, as empresas procuram aumentar a
confiabilidade de seus ativos produtivos.
Para poder garantir a confiabilidade de um produto, é necessário que a empresa possua
um método para se avaliar a confiabilidade dos equipamentos críticos ou que sejam
“gargalos” de produção. Um programa de confiabilidade deve ser definido e delineado pela
alta direção, desdobrando-se aos níveis imediatamente inferiores de forma clara, evidenciando
aos envolvidos diretamente ou indiretamente os benefícios e ganhos alcançados pela
implantação nas áreas estratégicas pela empresa.
Segundo Dias (1996, p. 2) a confiabilidade está embasada em quatro elementos
principais:
16
• probabilidade, demostrando que confiabilidade pode ser traduzida em termos
mensuráveis, através da distribuição das falhas;
• desempenho, que é o conjunto de requisitos de uso que definem uma função a ser
executada, de preferência sem falha;
• tempo de operação está vinculado a operar, sem falhas, num período previamente
definido;
• condições de operação são as circunstâncias ambientais e operacionais a qual o
produto é submetido.
Deste modo, defini-se confiabilidade como a probabilidade de um produto, submetido
a condições previamente estabelecidas, desempenhar as funções especificadas no projeto,
durante um período de tempo também especificado.
Logo, para se alcançar uma alta confiabilidade é fundamental conhecer o tempo de
vida dos equipamentos. Essa informação pode ser obtida, por exemplo, através da análise dos
dados de campo, obtidos junto às unidades de produção. Para analisar as informações
proveniente dessas unidades, a empresa precisa implementar um sistema de registro da
confiabilidade, isto é, montar um sistema de coleta de informações tais como: tempo
acumulado de operação, número de falhas, condições apresentadas no momento da ocorrência
de cada falha (BURGESS, 1987).
A proposta desta dissertação é desenvolver uma metodologia com base em estudos de
estatística multivariada para monitorar o tempo de vida, o tempo médio de falhas e a
confiabilidade do conjunto de insuflação de ar com foco nas ventaneiras (componente de alta
criticidade) de uma planta siderúrgica integrada.
1.2 JUSTIFICATIVA PARA SE ESTUDAR O PROBLEMA
O conhecimento prévio da vida útil dos equipamentos da cadeia produtiva é
fundamental, pois a redução do número de falhas destes equipamentos implica em redução de
variabilidades do produto final. Portanto, a busca pela melhoria da confiabilidade dos ativos
produtivos nas empresas é essencial. O alcance de um nível ótimo de confiabilidade permite
maximizar o ciclo de vida dos equipamentos e minimizar os custos de produção tornando o
preço do produto final mais competitivo no mercado.
17
A maioria das empresas não possui de forma estruturada uma função de engenharia de
confiabilidade e nem programas que tratem do assunto de forma sistemática. No caso da
unidade industrial estudada, um planejamento eficiente de produção de todo ciclo produtivo
da planta, pressupõe estabilidade operacional do conjunto principal (Alto Forno) e está
diretamente relacionada à confiabilidade de seus subconjuntos, como é o caso das ventaneiras,
considerado um componente de alta criticidade.
Tornar o subconjunto ventaneiras mais confiável implica em tornar o seu conjunto
principal também mais confiável. Neste contexto, a elaboração de uma proposta metodológica
científica com um adequado tratamento estatístico de dados se torna essencial.
A proposta metodológica utilizando a confiabilidade de componentes de alta
criticidade permitirá o controle e o monitoramento das variáveis que interferem no ciclo de
vida dos mesmos. Isto se torna fundamental, já que, pela própria concepção do equipamento
em estudo não há interferência humana direta em sua operação ao qual as ventaneiras estão
atreladas.
Adicionalmente, esta metodologia servirá de instrumento de apoio à tomada de
decisão, auxiliando no planejamento de manutenção e no levantamento de possíveis ajustes e
oportunidades de melhorias na unidade fabril estudada.
1.3 DELIMITAÇÃO DA PESQUISA
A pesquisa envolverá a análise de componentes de alta criticidade do Alto Forno 1, em
operação desde novembro de 1983, e instalado na área de processamento de matérias-primas
da unidade industrial. A empresa está localizada no Espírito Santo, município da Serra, a 10
km da Capital, Vitória.
O estudo focará a análise das ventaneiras (componentes de alta criticidade) já
fabricadas, em pleno uso, sem entrar na discussão de custos dos mesmos. O tratamento de
dados do modelo enfatizará exclusivamente os dados referentes à operação das ventaneiras. A
avaliação dos dados referentes à operação do componente analisará a influência apenas das
variáveis operacionais.
Sob outro aspecto, a pesquisa constitui-se de uma metodologia que visa avaliar a
confiabilidade das ventaneiras através de técnicas exploratórias multivariadas, mais
especificamente a análise de componentes principais e a análise de agrupamento hierárquico.
18
Portanto, não houve extensão de análise de dados e comparações a outros métodos
estatísticos, mesmo que com objetivos exploratórios ou de simplificação de dados.
1.4 OBJETIVOS
1.4.1 Objetivo geral
Propor uma metodologia para avaliar a confiabilidade de componentes de alta
criticidade de uma planta siderúrgica integrada.
1.4.2 Objetivos Específicos
Estimar a função Confiabilidade, a função Taxa de Falhas e o Tempo Médio Entre
Falhas de componentes críticos;
Conhecer os métodos e técnicas atuais de análise, controle e monitoramento de
falhas dos equipamentos críticos utilizados da empresa estudada;
Realizar estudos de métodos e técnicas estatísticas multivariadas e as técnicas de
análises de Confiabilidade;
Conhecer o sistema de funcionamento do componente crítico pesquisado.
1.5 ESTRUTURAÇÃO DA PESQUISA
Esta dissertação contém além deste capítulo inicial, mais 10 capítulos e 10 anexos.
Neste primeiro capítulo consta a Introdução, onde se apresenta a contextualização do
problema, os Objetivos Propostos, a Justificativa do Estudo que aborda a importância dos
objetivos propostos, a Delimitação da Pesquisa e, por fim, a Estrutura da Pesquisa.
Capítulo 2: Referencial Teórico. Inicia-se por uma abordagem sobre métodos
estatísticos multivariados, a análise exploratória de dados e finaliza mostrando as principais
normas brasileiras para análises estatísticas e de confiabilidade.
19
Capítulo 3: Análise de Componentes Principais. Neste capítulo descreve-se o
equacionamento matemático da análise de componentes principais, o processo de geração dos
componentes principais (via matriz de covariâncias e correlação), os principais métodos de
seleção, os critérios para determinação das componentes, a análise da qualidade das
componentes e suas limitações.
Capítulo 4: Análise de Confiabilidade. O capítulo traz a revisão bibliográfica, onde
são descritos os conceitos de confiabilidade, as principais técnicas, os tipos de dados de vida,
os modelos paramétricos e não-paramétricos, as principais distribuições de probabilidades
utilizadas em confiabilidade, as estimativas de parâmetros para os modelos paramétricos,
finalizando com os testes de aderência para verificação de ajuste de distribuição.
Capítulo 5: Pesquisas desenvolvidas. Contém uma revisão bibliográfica sobre os
trabalhos acadêmicos já desenvolvidos, que tratam da utilização da estatística multivariada,
auxiliando a análise de confiabilidade de componentes ou equipamentos.
Capítulo 6: Procedimento atual de análise e acompanhamento de vida útil dos
equipamentos críticos. São descritas as técnicas de análise e monitoramento de vida útil dos
equipamentos na empresa. São abordadas com maior profundidade as técnicas de análise de
óleo e a análise de vibrações.
Capítulo 7: Conjunto de Alta Criticidade e Componentes Críticos. Neste capítulo
são descritos o funcionamento do Alto Forno 1 e do Conjunto de Alta Criticidade dando
ênfase aos Componentes Críticos.
Capítulo 8: Procedimentos Metodológicos. Neste capítulo são descritos todas as
etapas dos procedimentos metodológicos propostos para o desenvolvimento do estudo em
epígrafe.
Capítulo 9: Resultados. Neste capítulo são apresentados os resultados advindos da
implementação dos procedimentos metodológicos descritos no capítulo anterior, descrevendo
as análises estatísticas de verificação da qualidade e representatividade dos dados coletados,
os testes de ajuste das distribuições de probabilidades, as estimativas dos parâmetros das
distribuições, os testes de hipóteses para estimativas dos parâmetros e os testes de aderência
20
para avaliação do nível de precisão da distribuição adotada de confiabilidade ao conjunto de
dados coletados. Por fim é realizada uma análise comparativa entre a metodologia proposta e
o sistema atual.
Capítulos 10 e 11: Conclusões e recomendações para trabalhos futuros. O capítulo
10 apresenta as considerações finais com base na revisão da literatura e no desenvolvimento
metodológico proposto; a partir das limitações apontam-se sugestões para pesquisas futuras
no capítulo 11.
CAPÍTULO 2 - REFERENCIAL TEÓRICO
2.1 ANÁLISE MULTIVARIADA
Em qualquer decisão que se toma na vida sempre se leva em conta um grande número
de fatores. Obviamente nem todos estes fatores pesam da mesma maneira na hora de uma
escolha. Às vezes, por se tomar uma decisão usando a intuição, não se identifica de maneira
sistemática estes fatores, ou seja, quais as variáveis que afetaram a decisão.
Estabelecer relações, encontrar ou propor leis explicativas é o papel próprio da
ciência. Para isso é necessário controlar, manipular, medir as variáveis que são consideradas
relevantes ao entendimento de algum fenômeno analisado. Muitas são as dificuldades em
traduzir as informações obtidas em conhecimento. Isto implica e condiciona a uma
padronização metodológica. Um aspecto essencial desta padronização é a avaliação estatística
das informações. A maneira própria de fazer ciência, procurando reduzir a poucas variáveis,
desenvolveu muito um ramo da estatística que olha as variáveis de maneira isolada - a
estatística univariada (MOITA NETO, 2004).
Às vezes, analisa-se as variáveis isoladamente e a partir desta análise faz-se
inferências sobre a realidade. Esta simplificação tem vantagens e desvantagens. Quando um
fenômeno depende de muitas variáveis, geralmente este tipo de análise falha, pois não basta
conhecer informações estatísticas isoladas, mas é necessário também conhecer a totalidade
destas informações fornecida pelo conjunto das variáveis. No caso restrito de variáveis
independentes entre si é possível, com razoável segurança, interpretar um fenômeno
complexo usando as informações estatísticas de poucas variáveis.
Segundo Moita Neto (2004), a denominação “Análise Multivariada” corresponde a um
grande número de métodos e técnicas que utilizam simultaneamente todas as variáveis na
interpretação teórica do conjunto de dados obtidos.
Mingoti (2005) define análise multivariada como sendo um conjunto de métodos
estatísticos utilizados em situações nas quais várias variáveis são medidas simultaneamente,
em cada elemento amostral.
Virgillito (2004) define a análise multivariada como sendo um conjunto de técnicas
estatísticas que possibilitam analisar, ao mesmo tempo, varias dimensões (multidimensional)
de cada uma das variáveis em estudo.
22
Os modelos multivariados possuem em geral, um propósito através do qual o
pesquisador pode testar ou inferir a respeito de uma hipótese sobre um determinado
fenômeno. No entanto a sua utilização adequada depende do conhecimento das técnicas e das
suas limitações.
Diante de situações em que há necessidade de se estudar o relacionamento de mais de
duas variáveis simultaneamente, a estatística univariada não é capaz de explicar ou gerar
informações envolvendo várias variáveis ao mesmo tempo. Neste caso, recorre-se aos
métodos quantitativos multivariados com suas técnicas de verificação e quantificação dos
relacionamentos existentes entre as variáveis em estudo.
Em linhas gerais, os métodos de estatística multivariada são utilizados com o propósito de simplificar ou facilitar a interpretação do fenômeno que está sendo estudado através da construção de índices ou variáveis alternativas que sintetizem a informação original dos dados; construir grupos de elementos amostrais que apresentem similaridade entre si, possibilitando a segmentação do conjunto de dados original; investigar as relações de dependência entre as variáveis respostas associadas ao fenômeno e outros fatores (variáveis explicativas), muitas vezes, como objetivo de predição; comparar populações ou validar suposições através de teste de hipóteses (MINGOTTI, 2005, p. 22).
Segundo John e Wichern (1998 apud SCREMIN, 2003, p. 2), a análise multivariada
conduz aos seguintes objetivos:
a) Redução de dados ou simplificação estrutural: o fenômeno estudado deve ser representado da maneira mais simples possível, sem sacrificar valiosas informações;
b) Ordenação e agrupamento: agrupamento de objetos, tratamentos, ou variáveis similares baseados em dados amostrais ou experimentais;
c) Investigação da dependência entre variáveis: o estudo das relações estruturais entre variáveis muitas vezes de interesse do pesquisador;
d) Predição: relações entre variáveis devem ser determinadas para o propósito de predição de uma ou mais variáveis com base na observação de outras variáveis;
e) Construção e testes de hipóteses.
Virgillito (2004, p. 353) divide as técnicas de análise multivariada em:
a) Técnicas preparatórias ou exploratórias: destinam a explorar a natureza dos dados em análise para testar os pressupostos básicos ou pré-requisitos para aplicação dos métodos escolhidos posteriormente pelo observador;
b) Técnicas de dependência: utilizam-se das variáveis estruturadas de maneira que diversas chamadas independentes predizem ou explicam uma ou mais variáveis dependentes;
23
c) Técnicas de interdependência: analisam a estrutura das variáveis em estudo não formulando nenhum tipo de inferência a respeito da contribuição individual das variáveis para o modelo matemático a ser construído pelo analista. A escolha de uma destas técnicas depende dos pressupostos teóricos sobre distribuição de freqüência das variáveis envolvidas. Questões como normalidade das variáveis desempenha um papel fundamental esta escolha.
A Figura 1 mostra um quadro para a seleção da técnica estatística multivariada
conforme as características dos dados e da relação a ser aplicada.
24
Figura 1 – Seleção da técnica estatística multivariada Fonte: Anderson et al (1998 apud VIRGILLITO, 2004, p. 363).
Que tipo de relação esta
sendo examinada?
Quantas variáveis
estão sendo previstas?
A estrutura do relacionamento
esta entre:
Qual a escala da Medida da
Variável Dependente?
Modelo Estrutural de Equações
Qual a escala da Medida da
Variável Dependente?
Análise de Fatores
Como são Medidos
seus Atributos?
Análise de Grupos
Qual a escala da Medida da Variável de previsão?
Análise Canônica de Correlação
Regressão Multipla
Análise Discriminante Multipla ou Modelo de Probabilidade Linear
(LOGIT)
Análise Multidimensional
Análise de Correspondência
Análise Canônica de Correlação
Análise Multivariada da
Variancia
Técnica Multivariada selecionada
Ponto de DecisãoLegenda:
Dependência
Relação Multipla de Dependência e
Variáveis Independentes
Algumas Variáveis
Dependentes com Relação Simples
Uma Variável Dependente com Relação Simples
Métrica Não Métrica
Métrica Não Métrica
Métrica Não Métrica Métrica Não Métrica
Variáveis Casos Objetos
Interdependência
25
Segundo Silva (2005, p.7) as principais técnicas multivariadas e as condições em que
podem ser aplicadas são as seguintes:
a) Regressão Múltipla: método mais usado e conhecido. Relaciona-se com a
dependência de uma única variável, a variável dependente sobre um conjunto de
outras (variáveis preditoras);
b) Análise Discriminante: usado quanto se tem uma variável (ou mais) que está
relacionada com alguma característica da amostra. Por exemplo: idade, sexo, tipo
de investidor, nível de escolaridade. E se quer saber dentro do grupo da variável,
qual é a tendência de expressar alguma discriminação ou não;
c) Análise Logit: é apropriado quando um critério simples de mensuração é discreto e
todas as variáveis preditoras são categóricas na sua natureza;
d) Manova: a análise de variância multivariada é usada quando múltiplos critérios de
mensuração são avaliados e o objetivo é avaliar o impacto de vários níveis de uma
ou mais variáveis experimentais sobre o critério de medida. Assim, o foco primário
da Manova é testar as diferenças significantes de um conjunto de variáveis ou o
perfil destas devido às relações sobre uma ou mais variáveis controladas;
e) Análise de Correlação Canônica: este método busca determinar a associação linear
entre o conjunto de variáveis preditoras e os critérios de mensuração. No processo
busca-se ter duas combinações lineares, uma do conjunto preditor e outra do
critério maximizante.
f) Análise de Componentes Principais (ACP): é uma técnica de redução de dados
onde o objetivo principal é a construção de uma combinação linear das variáveis
principais que representam a totalidade;
g) Análise Fatorial: é uma técnica de redução de dados. Em contraste com o modelo
anterior, este visa apenas a parte da variação total mais robusta do que a totalidade;
h) Análise Escalonada Multidimensional Métrica: é usada para explorar, por
exemplo, como as pessoas formam percepções sobre as (dis) similaridades entre as
preferências de vários objetos. Um aspecto importante deste método é um mapa de
alternativas que representa este comportamento de (dis) similaridades;
i) Análise de Agrupamento Hierárquico (AAH): é uma técnica de conglomerado (ou
cluster) e pode ser considerado um método de redução de dados. O objetivo na
maioria dos estudos que usam esta técnica é identificar um número pequeno de
agrupamentos para um todo, que tem aspectos semelhantes. Em geral o subgrupo
homogêneo é baseado nas (dis) similaridades dos perfis dos respondentes;
26
j) Análise Escalonada Multidimensional Não Métrica: o objetivo deste método é
transformar as (dis) similaridades percebidas no interior de um conjunto de objetos
em distâncias no espaço multidimensional;
k) Modelo Loglinear: este modelo permite ao pesquisador investigar as inter-relações
as variáveis categóricas a partir de uma contingência. Expressa também as
probabilidades multidimensionais em termos dos efeitos principais.
2.2 ANÁLISE EXPLORATÓRIA
Antes de se iniciar um tratamento de dados deve-se primeiramente organizá-los e
proceder a uma avaliação prévia, pois dependendo da natureza dos dados pode ser necessário
um tratamento prévio, ou a transformação dos dados, ou até mesmo para saber o tipo de
método de análise mais adequada (RIBEIRO, 2001).
O objetivo dos métodos de análise exploratória é fazer a avaliação inicial dos dados
para descobrir que tipo de informação é possível extrair deles, e assim definir as diretrizes para
um tratamento mais aprofundado. A necessidade de avaliação é um passo importante para
validação dos resultados, pois se evita o risco de invalidar a pesquisa e de obterem-se
conclusões equivocadas.
Uma adequada organização e avaliação dos dados também são essenciais para que a
análise seja feita de forma correta. Deve-se investigar de que forma os dados foram gerados, os
métodos de medidas utilizados e a fonte que originou tais dados. Outro fator importante é a
representatividade do grupo de amostras que se deseja analisar.
Segundo Ribeiro (2001, p. 4), “de nada adianta um conjunto extenso de dados com
informações interessantes se o grupo de amostras não for representativo o suficiente para
fornecer informações adequadas ao tratamento que se propõe fazer”.
Uma das primeiras etapas é a padronização dos dados que visa tornar as escalas e
unidades de medida equivalentes sem a perda de informações. Esta etapa é denominada de pré-
processamento. Beebe et al (1998 apud RIBEIRO, 2001, p. 7) ressalta que, para esta etapa, há
três métodos mais indicados, a saber:
a) Dados centrados na média: neste caso, a média de cada variável é subtraída de seus
respectivos elementos fazendo com que a origem dos eixos os quais os dados se
encontram, seja deslocada de modo a colocar os dados numa forma mais
conveniente à análise e à visualização.
27
b) Escalonamento pela variância: neste método, cada variável é dividida pelo seu
desvio padrão fazendo com que o peso das variáveis em diferentes escalas seja
considerado equivalente, minimizando o risco de perdas de informações relevantes.
c) Auto-escalonamento: este método aplica ambas as técnicas descritas acima de uma
só vez, de modo que a transformação realizada sobre o conjunto original de dados
permita que cada variável apresente média zero e variância um. Desta forma é dada
a mesma importância para todas as variáveis independente de sua dimensão.
A análise exploratória de dados normalmente é feito através da utilização de algoritmos
matemáticos que permite reduzir a dimensão dos dados, ou organizá-los numa estrutura que
facilite a visualização de todo o conjunto, de forma global.
Segundo Virgillito (2004, p. 354), entre os principais métodos exploratórios, alguns dos
mais utilizados são:
a) Testes de Normalidade: verifica a aderência dos dados e descrição gráfica. Alguns
exemplos são os testes de Shapiro-Wilk, Cramer–von Mises e Kolmogorov-
Smirnov, dentre os mais utilizados;
b) Análise de Variância (ANOVA): testa a igualdade das médias amostrais e verifica
se as amostras foram extraídas de populações de médias iguais;
c) Análise de Fatores: explora as correlações entre as variáveis em estudo e ajuda a
definir a estrutura dos dados para as análises subseqüentes;
d) Análise de Componentes Principais (ACP): que reduz o número de dados e
fornece uma visão estatisticamente privilegiada do conjunto de dado;
e) Análise de Agrupamento Hierárquico (AAH): que identifica agrupamentos de
aspectos semelhantes;
f) Análise de Confiabilidade: que avalia a probabilidade de não ocorrência de falhas
ou defeitos de um sistema ou componentes utilizando de distribuições de
probabilidade de seus respectivos tempos de vida.
A análise exploratória permite ainda avaliar a possibilidade da construção de modelos de
regressão ou de classificação.
28
2.3 TEOREMA DA DECOMPOSIÇÃO ESPECTRAL
Objetivando fornecer subsídios teóricos ao entendimento da Análise de Componentes
Principais a ser apresentada posteriormente, será abordado neste capítulo, o Teorema da
decomposição espectral que relaciona as matrizes de variâncias-covariâncias e de correlação
em seus autovalores e respectivos autovetores (GRAYBILL, 1983 apud MINGOTI, 2005).
Considerando pxpΣ , uma matriz de variâncias-covariâncias, simétrica, não negativa
definida (n.n.d) ou positiva definida (p.d.), então se pode afirmar que existe uma matriz
ortogonal pxpO ,
]...[
....
....
....
21
211
22212
12111
p
pppp
p
p
pxpeee
eee
eeeeee
O =
=ΜΜΜ
tal que, pxpIOOOO =′=′ , onde:
sendo p21λ...λλ ≥≥≥ os autovalores ordenados em ordem decrescente da matriz pxp
Σ , ie o
respectivo autovetor normalizado sendo ]...[21 ipiii
eeee = e pxpI a matriz identidade
correspondente. Neste caso, diz-se que a matriz pxpΣ é similar à matriz pxp
Λ , o que implica:
pxppxppxp
p
iΛ=Σ=Σ=Π
=)det(
1λ
)()(...211 pxppxppi
p
itraçotraço Λ=Σ=+++=Σ
=λλλλ
(1)
Λ=
=Σ′
p
OO
λ
λλ
0
0
2
1
ΜΜΜ(2)
(3)
(4)
29
O produtório i
p
iλ
1=Π é o determinante da matriz de variâncias-covariâncias
pxpΣ também
denominado de variância generalizada. O somatório i
p
iλ
1=Σ é denominado variância total ou
traço da matriz de covariâncias. Ambas as quantidades em valores elevados indicam uma
maior dispersão global das variáveis envolvidas. Ao contrário da variância total, a variância
generalizada é influenciada pelas covariâncias (ou correlações) entre variáveis (MINGOTI,
2005).
Então, a matriz O é dada por ]...[21 p
eeeO = e pelo teorema da decomposição espectral
tem-se que a seguinte igualdade é válida:
iii
p
ipxpeeOO ′Σ=′Λ=Σ
=λ
1
sendo ie um vetor de comprimento unitário com 0=′
jiee , ∀ i # j e 1=′
jiee ∀ i = 1, 2, ...,p
pela propriedade de ortogonalidade da matriz pxpO . Os pressupostos e as propriedades
matemáticas acima expostas são condições necessárias à aplicação da análise de componentes
principais.
2.4 NORMAS TÉCNICAS BRASILEIRAS UTILIZADAS EM ANÁLISES
ESTATÍSTICAS E DE CONFIABILIDADE
Existem diversas normas da Associação Brasileira de Normas Técnicas (ABNT)
empregadas em análises estatísticas e de confiabilidade. Serão comentadas a seguir apenas as
mais utilizadas, das quais algumas poderão ser citadas no decorrer do texto.
NB-11153:1988 - Interpretação estatística de resultados de ensaio. Estimação da
Média - Intervalo de Confiança: é uma norma utilizada para estimação da média e intervalos
de confiança. Estabelece as condições exigíveis para o tratamento estatístico de resultados de
ensaios necessários para se calcular um intervalo de confiança para a média de uma população.
Limita-se à estimação da média de uma população com distribuição normal e trata de casos
onde a variância é desconhecida.
(5)
30
NBR-11154:1989 - Interpretação estatística de dados. Técnicas de estimação e
testes relacionados às médias e variâncias: é uma norma utilizada para estimação da média
ou variâncias de uma população. Examina certas hipóteses no que se refere aos valores destes
parâmetros, a partir de amostras.
NB-11155:1988 - Interpretação estatística de dados. Determinação de intervalo de
tolerância estatístico: especifica métodos para determinação de um intervalo de tolerância
estatístico baseado em uma amostra cujo intervalo exista uma probabilidade de que o mesmo
contenha ao menos uma proporção “p” da população da qual uma amostra é retirada.
NBR-11156:1988 - Interpretações estatísticas de dados. Comparação de duas
médias no caso de observações emparelhadas: fixa um método para comparar a média de
uma população de diferenças entre observações emparelhadas com zero ou outro valor
prefixado.
NBR-11157:1990 - Interpretação estatística de dados. Potência de testes
relacionados às médias e variâncias: especifica as técnicas para determinação da potência de
testes relacionados às médias e variâncias, complementando a norma NBR-11154.
NBR-5462:1994 - Confiabilidade e Mantenabilidade: define os termos relacionados
com a confiabilidade em geral.
NBR-6534:1986 - Cálculos de estimativas por ponto e limites de confiança
resultante de ensaios de determinação da confiabilidade de equipamentos. Procedimento:
define os procedimentos de cálculo de estimativas por ponto e limites de confiança resultante
de ensaios de determinação da confiabilidade de equipamentos.
NBR-6742:1987 - Utilização da distribuição de Weibull para interpretação dos
estágios de durabilidade por fadiga: fixa procedimentos à obtenção e manuseio dos dados
para a interpretação dos ensaios de fadiga de modo a serem representativos do comportamento
da população, com uma confiabilidade prefixada através da aplicação de um tratamento
estatístico, baseado na função de distribuição de probabilidade Weibull, a certo número de
amostras ensaiadas.
CAPÍTULO 3 - ANÁLISE DE COMPONENTES PRINCIPAIS (ACP)
3.1 DIFERENÇAS ENTRE A ANÁLISE FATORIAL E A ANÁLISE DE
COMPONENTES PRINCIPAIS
O objetivo da Análise Fatorial é interpretar a estrutura de um conjunto de dados
multivariado e correlacionado e, a partir da matriz de correlação ou mais especificamente, da
matriz de variâncias-covariâncias, poder agrupar um conjunto de “p” de variáveis no menor
número possível, em novas variáveis chamadas componentes principais. Essa técnica pode ser
utilizada através de dois procedimentos básicos: Análise de Componentes Principais (ACP) e
Análise de Fatores (AF).
A ACP consiste numa combinação linear das “p” variáveis originais em “k” novas
variáveis, de tal modo que o primeiro componente seja responsável pela maior variação
possível no conjunto de dados original; o segundo pelo maior possível restante e assim
sucessivamente até que toda a variação tenha sido explicada. Já a análise de fatores, como já
foi colocada na Análise Discriminante, é utilizada quando se quer, através dos fatores,
formarem grupos homogêneos entre as variáveis originais, chamados de comunalidades
(HARRIS, 2001). Apesar de possuírem muitos aspectos em comum, a análise das componentes
principais não é "sinônima" da análise fatorial e essa confusão terminológica deve ser evitada.
3.2 ALGUNS TESTES ESTATÍSTICAS PARA VERIFICAÇÃO DA
APLICABILIDADE DA ACP
Atendendo a proposta metodológica do estudo deverão ser adotadas técnicas
estatísticas que permitam avaliar os inter-relacionamentos entre as ventaneiras (componente
crítico) cujas falhas tiveram maior freqüência no período em análise.
Devido ao grande volume de variáveis e dados envolvidos, um método indicado para
identificar quais variáveis estariam influenciando na ocorrência ou não de problema com as
ventaneiras é a Análise de Componentes Principais (ACP). Antes, porém, torna-se necessário
certificar-se da validação dos dados para utilização da ACP.
32
Para se aplicar a ACP recomenda-se proceder a uma avaliação inicial do conjunto de
dados mediante análise da correlação entre as variáveis originais, condição necessária para se
utilizar a análise de componentes principais sendo justificável na medida em que as
correlações entre as variáveis sejam significativas. O objetivo é avaliar a “força” da associação
entre cada par de variáveis para se verificar se a mesma é estatisticamente significativa.
Uma alternativa para a avaliação consiste na realização de um teste de hipóteses cuja
configuração é a seguinte:
Hipótese nula (H0): Não há correlação entre as 2 populações amostrais (ρ = 0)
Hipótese alternativa (H1): Há correlação entre as 2 populações amostrais (ρ ≠ 0)
O teste de hipóteses acima está condicionado à assunção de normalidade das
distribuições das amostras estudadas. Segundo Chernick (2003, p. 258), o teste “t” empregado
para o coeficiente de correlação de Pearson é dado pela seguinte expressão:
21 2
−−
= nr
rtdf
onde df = n-2 e n = número de pares de amostras.
Se a estatística tdf não ultrapassar o valor crítico tabelado para o grau de liberdade df
(do inglês degree of freedom) n – 2, haverá evidências para não se rejeitar a hipótese nula.
Caso contrário, ou seja, se a estatística tdf ultrapassar o valor crítico tabelado, haverá
evidências para se aceitar a hipótese alternativa. Há indicações na literatura de uma razoável
quantidade de testes estatísticos que dependem também da suposição de normalidade da
distribuição a ser testada, dentre os mais difundidos destacam-se o teste de Shapiro-Wilk e o
teste de esfericidade de Bartlet.
Como alternativa para distribuições não necessariamente normais, há um teste que
verifica a igualdade da estrutura da correlação de um conjunto de dados originais. O teste
considera uma estrutura de correlação especial com ρσσkkiiki
XXCov =),( ou
ρ=),(ki
XXCorr , para todo i ≠ k onde os autovalores da matriz de covariâncias não são
distintos (JOHN; WICHERN, 1992, p.364).
(6)
33
No teste de hipótese são considerados:
==
1
11
:)(
00
ΛΜΟΜΜ
ΛΛ
ρρ
ρρρρ
ρρpxp
H
01 : ρρ ≠H
Este teste é baseado na estatística da verossimilhança. Lawle (1966 apud JOHN;
WICHERN, 1992, p.365) propõe um teste equivalente que pode ser construído utilizando os
elementos de fora da diagonal da matriz de correlação. O procedimento requer o cálculo prévio
dos seguintes termos:
ikkiik
p
kii
k rpp
rpkrp
r<
−
≠−
−
ΣΣ−
==Σ−
=)1(
2;,...2,11
11
2
22^
)1)(2(])1(1[)1(
−
−
−−−
−−−=
rpprpγ
Sendo,
p, o número de autovalores da matriz de correlação;
kr−
, a média dos elementos de fora da diagonal na k-ésima coluna ou fila da matriz de
correlação e −
r , a média global de todos os elementos de fora da diagonal.
Para uma amostra relativamente grande, o teste de significância α possui a seguinte
forma:
Rejeitar H0 em favor de H1 se,
)(])()([)1(
)1(2/)2)(1(
22
1
^2
2αχγ −+
−−
=
−
<− >−Σ−−ΣΣ−
−= ppk
p
kikkirrrr
r
nT
Onde )(22/)2)(1( αχ −+ pp é avaliado na calda superior do α-ésimo percentil da distribuição qui-
quadrado com (p+1)(p-2)/2 graus de liberdade. Este teste é preferível aos anteriores, pois
(7)
(8)
(9)
(10)
(11)
34
independem da suposição de normalidade da distribuição a ser testada sendo, portanto
utilizável em qualquer distribuição com amostras relativamente grandes.
Por último, há uma técnica exploratória e complementar a ACP cuja principal função é
detectar anomalias ou inconsistências na associação de dados de uma população. Esta técnica
denominada Análise de Agrupamento Hierárquico (AAH) ou (HCA), do inglês Hierarchical
Cluster Analysis, que tem por objetivo observar a formação de agrupamentos naturais a partir
de suas similaridades.
Esta técnica interliga as amostras por suas associações, produzindo um dendrograma
onde a amostras semelhantes, segundo as variáveis escolhidas, são agrupadas entre si.
Dendrogramas ou diagrama de árvores são gráficos bidimensionais que representam a
similaridade entre pares de amostras (ou grupos de amostras) numa escala que vai de um
(identidade) a zero (nenhuma similaridade). Através destes dendogramas é possível observar
as correlações e similaridades entre as amostras (MOITA; MOITA NETO, 1997).
A similaridade entre as amostras é avaliada medindo-se inicialmente as distâncias entre os pares de amostras e colocando num mesmo agrupamento aquelas amostras com menores distâncias entre si. A seguir, a distância entre estes pequenos agrupamentos é medida e estabelece-se então novos agrupamentos e assim por diante até que todas as amostras tenham sido enquadraras neste ou naquele grupo (segundo diferentes graus de similaridade). (RIBEIRO, 2001. p. 18).
A medida da similaridade é calculada numa escala de medida dada conforme a equação
abaixo em que Dab é a distância entre as amostras “a” e “b” e Dmax é a distância máxima entre
todas as amostras consideradas, ou seja:
max1
DDdeSimilarida ab
ab −=
Existem vários métodos para se medir as distâncias entre os pares das amostras e
agrupamentos, entre eles, estão a distância Euclidiana e a distância de Mahalanobis
(RIBEIRO, 2001, p.18). A suposição básica é que quanto menor a distância entre os pontos,
maior a semelhança entre as amostras. A distância Euclidiana é uma medida invariante às
translações, porém assume covariâncias iguais entre as classes e em geral não é invariante às
transformações lineares. É a medida mais utilizada na prática. A distância de Mahalanobis
considera que as superfícies de cada classe são elipsóides centradas na média. No caso especial
em que a covariância é zero e a variância é a mesma para todas as variáveis, as superfícies
serão esferas, e a distância de Mahalanobis fica idêntica a distância Euclidiana. Esta métrica
(12)
35
supre muitas das limitações da distância Euclidiana, porém pode ser bastante difícil determinar
precisamente as matrizes de covariâncias, e o custo computacional cresce muito com o número
de variáveis envolvidas.
Após o cálculo das similaridades, as duas amostras mais próximas são conectadas
formando um agrupamento. Este processo é repetido até que todas as amostras sejam
conectadas formando um único grupo. Uma vez que as amostras são conectadas pela
proximidade entre elas, é necessário definir a distância entre uma amostra e um grupo ou, entre
grupos de amostras. Há várias técnicas para medir a distância. As mais usuais são: conexão
pelo vizinho mais próximo (single linkage ou nearest neighbour); conexão pelo vizinho mais
distante (complete link ou farthest neighbour); conexão pela distância média (average link) e o
método de Ward. O método de Ward é um método de agrupamento de dados que forma grupos
de maneira a atingir sempre o menor erro interno entre os vetores que compõe cada grupo e o
vetor médio do grupo. Isto equivale a buscar o mínimo desvio padrão entre os dados de cada
grupo.
Por ser uma técnica complementar a ACP não serão feitos estudos mais aprofundados,
pois foge ao objetivo deste trabalho. Informações mais detalhadas podem ser encontradas em
Beebe et al, Sharaf et al, Kowalski,(1998; 1996; 1983 apud RIBEIRO, 2001).
3.3 DESCRIÇÃO DA ANÁLISE DE COMPONENTES PRINCIPAIS
A Análise de Componentes Principais é uma técnica de redução de variáveis de vasta
aplicação em dados multivariados. Está diretamente relacionada com a transformação de
variáveis, através do cálculo dos autovalores e correspondentes autovetores da matriz de
variâncias e covariâncias ou da matriz de correlação entre variáveis, de forma a preservar a
variabilidade total. A geração desta estrutura de variâncias-covariâncias, seus autovalores e
respectivos autovetores está fundamentada no teorema da decomposição espectral já abordada
nos capítulos precedentes.
A Análise de Componentes principais tem o objetivo de explicar a estrutura de
variância e covariância de um vetor aleatório composto de “p” variáveis aleatórias através de
combinações lineares das variáveis originais. Estas combinações lineares são chamadas de
componentes principais e são não correlacionadas entre si. Se temos “p” variáveis originais é
possível obter-se “redução do número de variáveis a serem avaliadas e interpretação das
combinações lineares construídas”, ou seja, a informação contida nas “p” variáveis originais é
36
substituída pela informação contida em k (k<p) componentes principais não correlacionadas.
Desta forma, o sistema de variabilidade composto das “p” variáveis originais é aproximado
pelo sistema de variabilidade do vetor aleatório que contém as “k” componentes principais. A
qualidade da aproximação depende do número de componentes mantidas nos sistema e pode
ser medida através da avaliação da proporção de variância total explicada por essas.
Portanto, as componentes principais são novas variáveis geradas através de uma
transformação matemática especial realizada sobre as variáveis originais. Esta operação
matemática está disponível em diversos softwares estatísticos especializados. Há duas
características que as tornam mais efetivas que as variáveis originais para a análise do conjunto
das amostras.
A primeira é que as variáveis podem guardar entre si correlações que são suprimidas
nas componentes principais. Ou seja, as componentes principais são ortogonais entre si. Deste
modo, cada componente principal traz uma informação estatística diferente das outras. A
segunda característica importante é decorrente do processo matemático-estatístico de geração
de cada componente que maximiza a informação estatística para cada uma das coordenadas
que estão sendo criadas. As variáveis originais têm a mesma importância estatística, enquanto
que as componentes principais têm importância estatística decrescente. Ou seja, as primeiras
componentes principais são tão mais importantes que podemos até desprezar as demais.
Destas características podemos compreender como a análise de componentes
principais:
a) podem ser analisadas separadamente devido à ortogonalidade, servindo para
interpretar o peso das variáveis originais na combinação das componentes
principais mais importantes;
b) podem servir para visualizar o conjunto da amostra apenas pelo gráfico das duas ou
três primeiras componentes principais, que detêm maior parte da variabilidade do
conjunto de dados.
Algebricamente o comprimento dos eixos das componentes principais é representado
pelos autovalores que são medidos em unidade de variância. Associados a cada autovalor
existe um vetor de módulo unitário chamado autovetor. A matriz formada por estes vetores
unitários é denomina matriz dos “loadings”. Os autovetores representam as direções dos eixos
das componentes principais. São fatores de ponderação que definem a contribuição de cada
componente principal, numa combinação aditiva e linear.
37
Quando a distribuição de probabilidade amostral é normal, as componentes principais,
além de não correlacionadas, são também independentes. Entretanto, a suposição de
normalidade não é requisito necessário para que a técnica de componentes principais possa ser
realizada. A obtenção das componentes principais envolve a decomposição da matriz de
covariâncias do vetor aleatório de interesse. Caso seja feita alguma transformação deste vetor
aleatório, as componentes deverão ser determinadas utilizando-se a matriz de covariâncias
relativa a vetor transformado. Uma transformação muito usual é a padronização das variáveis
do vetor pelas respectivas médias e desvios padrões, gerando-se novas variáveis centradas em
zero e com variâncias iguais a 1, o que é denominado auto-escalonamento de dados já visto
anteriormente. Neste caso, as componentes principais são determinadas a partir da matriz de
covariâncias das variáveis originais padronizadas, o que é equivalente a extrair-se as
componentes principais utilizando-se a matriz de correlação das variáveis originais.
Uma vez determinadas as componentes principais, os seus valores numéricos,
denominados “scores”, podem ser calculados para cada elemento amostral. Deste modo, os
valores de cada componente principal podem ser analisados, usando-se técnicas usuais, como
análise variâncias e de regressão, dentre outras.
3.4 GERAÇÃO DOS COMPONENTES PRINCIPAIS VIA MATRIZ DE
COVARIÂNCIAS
Algebricamente, componentes principais são combinações lineares particulares das “p”
a relação de um novo sistema de coordenadas obtido por deslocamento e rotação do sistema
original com 1X , 2X ,..., pX como eixos. Os novos eixos representam as direções com
variabilidade máxima e fornecem uma descrição mais simples e mais parcimoniosa da
estrutura de covariância (LOPES, 2001, p.30).
Os componentes principais dependem da matriz de correlação r ou da matriz de
covariâncias Σ de 1X , 2X ,..., pX . O seu desenvolvimento não necessita da suposição de
normalidade. A Figura 2 mostra o processo para obtenção de “p” componentes principais.
38
Figura 2 – Fluxo para obtenção dos componentes principais Fonte: Lopes, (2001, p.31).
Supondo apenas duas variáveis em um sistema 1X e 2X , com distribuição normal
bidimensional, observa-se na Figura 3, a elipsóide de densidade de probabilidade constante.
Figura 3 – Elipsóide de densidade de probabilidade constante Fonte: Lopes, (2001, p.31).
O primeiro componente corresponde ao maior eixo da elipsóide ( 1CP ) e o comprimento
desse eixo é proporcional a 1λ . O eixo de menor variância ( 2CP ) é perpendicular ao eixo
maior. Esse eixo chama-se segundo componente principal e seu comprimento é proporcional a
2λ . Assim, a análise dos componentes principais toma os eixos 1X e 2X e os coloca na
direção da maior variabilidade (JOHNSON; WICHERN, 1992).
39
Ao estudar um conjunto de “n” elementos, mediante “p” variáveis de um sistema é
possível encontrar novos componentes, denominados iCP , i = 1,...,p, que são combinações
lineares das variáveis originais X(p), e impor a esse sistema certas condições que permitam
satisfazer os objetivos da análise de componentes principais.
Isso implica encontrar (p x p) constantes tais que CP(k) pode ser escrito de acordo com
a equação (13):
CP(k) = ∑=
p
jkj
1)(α X(j) , k=1,...,
onde cada )( kjα é uma dessas constantes. Observa-se que devido ao somatório em cada nova
variável CP(k), uma intervenção ocorrerá em todos os valores das variáveis originais X(j). O
valor numérico de )( jα indica o grau de contribuição de cada variável definida pela
transformação linear. É possível que )( jα tenha em algum caso particular, o valor zero, ou
muito próximo de zero, o qual indica que essas variáveis não influem no valor da nova variável
CP(k). O grau de contribuição )( jα de cada variável definida pela transformação linear é dado
pela relação [ ])( iji CPVα , quando os componentes são obtidos a partir da matriz de
correlação (JOHNSON; WICHERN, 1992).
3.5 NÃO CORRELAÇÃO ENTRE OS COMPONENTES PRINCIPAIS
O vetor aleatório ],...,,[ 21 pXXXX =′ com matriz de covariância Σ com os autovalores
1λ > 2λ > pλ > 0, e as seguintes combinações lineares;
1CP = XK .1′ = 111Xk + 221Xk + ...+ pp Xk 1
2CP = XK .2′ = 112 Xk + 222 Xk + ...+ pp Xk 2
ΜΜΜΜΜ
pCP = XK p .′ = 11 Xk p + 22 Xk p + ...+ ppp Xk
(13)
(14)
40
definem a matriz das combinações lineares.
Seja Kpp uma matriz,
=
pppp
p
p
pp
kkk
kkk
kkk
K
ΛΜΟΛΛ
Λ
Λ
21
22212
12111
que nos permite escrever CP = Kpp.X
Observa-se ainda que:
a) Se Z é uma combinação linear de “p” componentes de um sistema Xi, i = 1, 2,...,p. Sendo Z =K.X, então a esperança de Z é dada por E(Z) = E(K'.X) = K'.E(X) e a variância é:
V(Z) = V(K'.X) = K'.V(X).K
b) Se Z' é igual a Z= ],...,,[ 21 qZZZ , e é também um vetor de “q” combinações lineares, então; Z = K.X com Kqq sendo a matriz de combinações lineares. Logo a esperança de Z é dada por:
E(Z) = E(K.X) = K.E(X)
A covariância é dada por
Cov(Z) = Cov(K.X) = K.Cov(X).K' = K.EX .K'
Assim a variância de CPi é V(CPi) = V(Ki'.X) = Ki
'.ΣKi e a covariância é expressa como Cov(CPi , CPk) = Cov(CP) = Cov(K.X) = K∑ K'
Segundo Anderson e Morrison (1958; 1976 apud LOPES, 2001), os componentes
principais são combinações lineares não-correlacionadas 1CP , 2CP ,..., pCP cujas variâncias são
tão grandes quanto possível. Assim, pode-se afirmar as seguintes proposições:
1- O primeiro componente principal é a combinação linear com variância máxima, isto
é, a combinação linear K1'.X que maximiza V(K1
'.X), sujeito a restrição K1'. K1 = 1,
no qual K1 é de comprimento unitário para evitar uma indeterminação;
2- O segundo componente principal é a combinação linear K2'.C que maximiza
V(K2'.C), sujeito a restrição K2
'.K2 = 1;
3- No i-ésimo passo, o i-ésimo componente principal é a combinação linear Ki'.X que
maximiza V(Ki'.X) sujeito a Ki
'.Ki = 1 e Cov(CPi, CPi ) = 0;
(15)
(16)
(17)
(18)
(19)
(20)
41
4- Em todos os casos Cov (Ki'.X.Kj
'.X) = 0; j < i.
As restrições acima garantem que o sistema tenha solução única e que os componentes
principais sejam não-correlacionados e apresentem variâncias decrescentes.
3.6 SELEÇÃO DO NÚMERO DE COMPONENTES PRINCIPAIS
Seja Σ a matriz de covariâncias associada ao vetor aleatório X' = [X1, X2,...,Xp], cujo Σ
tem os pares de (autovalores/autovetores) (λ1, ℓ1), (λ2 ℓ2),...,(λp, ℓp), no qual λ1 > λ2 > ...> λp >
2X,... CPp = ℓ'pX , os componentes principais, então
σ11 + σ12 +...+ σpp = ∑=
p
iXV11
)(
σ11 + σ12 +...+ σpp = 1λ + 2λ + ... + pλ
σ11 + σ12 +...+ σpp = ∑=
p
iCPV11
)(
Conforme Johnson e Wichern (1992), a variância total da população σ11 + σ12 +...+ σpp
é igual à soma dos autovalores 1λ + 2λ + ... + pλ da matriz Σ. Conseqüentemente, a proporção da
variância total explicada devido ao k-ésimo componente principal é p
kλλλ
λ+++ ...21
, k=1,2...p.
(22)
(21)
(23)
(24)
42
Deste modo, as variáveis com maior peso na combinação linear dos primeiros
componentes principais são as mais importantes sob o ponto de vista estatístico.
3.7 GERAÇÃO DOS COMPONENTES PRINCIPAIS VIA MATRIZ DE
CORRELAÇÃO
As componentes principais obtidas a partir da matriz de covariâncias são influenciadas
pelas variáveis de maior variância, sendo, portanto, de pouca utilidade nos casos em que exista
uma discrepância muito acentuada entre estas variâncias. A discrepância muitas vezes é causa
das diferenças nas unidades de medidas das variáveis.
Este problema pode ser amenizado se uma transformação for efetuada nos dados
originais, de modo a equilibrar os valores da variância ou colocar os dados numa mesma escala
de medida. Uma transformação comum é aquela em que cada variável é padronizada pela sua
média e desvio-padrão, sendo a técnica de componentes principais aplicada à matriz de
covariâncias das variáveis padronizadas. Este procedimento é equivalente a obterem-se as
componentes principais através da matriz de correlação r das variáveis originais. Como já
citado anteriormente por Beebe et al (1998 apud RIBEIRO, 2001), este método de
padronização das variáveis denomina-se Auto-escalonamento.
Seja
pp
ppp
xZxZxZ
σµ
σµ
σµ −
=−
=−
= ,,,22
222
11
111 Λ
que em uma notação matricial é:
( )µ−
=
−
XVZ .
1
21
onde,
(25)
(26)
43
=
pp
V
σ
σ
σ
00
00
00
22
11
21
ΜΜΜ
sendo E(Z) = 0 e também é fácil de verificar que
Σ=21
21
VV ρ
é a matriz de covariâncias e, 1
211
21 −−
Σ
= VVρ
é a matriz de correlação. Então, ′
−
=
−− 1
211
21
)cov()cov( VXVZ µ
Logo,
ρ=
′
Σ
=
−− 1
211
21
)cov( VVZ
sendo Σ a matriz de covariâncias de X, e ρ sendo a matriz de correlação de X. Os componentes
principais Z podem ser obtidos pelo par de autovalores e autovetores da matriz Ζ de correlação
de X.
Tem-se que o i-ésimo componente principal das variáveis padronizadas Z' = [Z1, Z2,...,Zp] com
cov(Z') = ρ é dado por:
Yi = ℓi'Z = ℓi
'﴾ V½ ﴿-1 ﴾X − µ﴿
com
ρ=Σ=Σ==
)()(11
i
p
ii
p
iZVCPV
e
(27)
(28)
(29)
(30)
(31)
(32)
(33)
44
ijiZCP jiλρ λ=,
Neste caso (λ1, ℓ1), (λ1, ℓ1), ..,(λp, ℓp) são pares de autovalores e autovetores obtidos de ρ
com λ1 > λ2 > ...> λp > 0.
Assim, pelo exposto, pode-se ver que a proporção da variância populacional
padronizada devido ao j-ésimo componente principal é dada por:
pjp
j ,...,2,1, =λ
onde os λk's são os autovalores de ρ.
Mingoti (2005) ressalta que não ocorrem diferenças significativas nas primeiras
componentes principais entre os métodos de extração pela matriz de covariâncias e matriz de
correlação havendo inclusive consistência, principalmente no tratamento de variáveis com
baixa variância.
Johnson e Wichern (1992) concluem que os componentes principais derivados da
matriz de covariância Σ são diferentes daqueles derivados da matriz de correlação ρ. Além
disto, num conjunto de componentes principais, os componentes não são em função
simplesmente um do outro. Isto sugere que a padronização ou auto-escalonamento não é
incoerente. As variáveis devem ser padronizadas, se elas estão em escalas de medidas
diferentes ou se as unidades de medidas não são a mesma (LOPES, 2001).
3.8 CRITÉRIOS PARA DETERMINAÇÃO DO NÚMERO “K” DE
COMPONENTES PRINCIPAIS
Quando o objetivo é a redução da dimensionalidade do espaço amostral, isto é, a
sumarização da informação das “p” variáveis originais em “k” componentes principais, k<p, é
necessário estabelecer-se critérios de escolha para o valor de componentes, que deverão ser
mantidas no sistema. A seguir, serão apresentados três procedimentos que podem ser
utilizados, sendo dois puramente matemáticos e um terceiro que alia o ponto de vista prático.
(34)
(35)
45
3.8.1 Análise de representatividade em relação à variância total
Sob este critério, deve-se manter no sistema um número de componentes “k” que
conjuntamente representem um percentual γ da variância total que poderá ser pré-determinado
pelo pesquisador. Portanto, na prática, busca-se o valor “k” tal que:
γλ
λ=
Σ
Σ
=
=
jp
j
ik
i^
1
^
1
onde os λ's são os autovalores do sistema.
Não há um limite definido para o valor γ e sua escolha deverá ser feita de acordo com a
natureza do fenômeno investigado. Em algumas situações, é possível obter-se um percentual
de explicação de variância total acima de 90% ou 95% com 1 ou 2 componentes, enquanto que
em outras, é necessário um número muito maior.
A utilidade prática das componentes decresce com o crescimento do número de
componentes necessárias para se chegar ao valor escolhido γ, uma vez que quanto maior o
número de componentes, maior será a dificuldade de interpretação das mesmas. Assim sendo,
em alguns casos torna-se necessário trabalhar com percentuais de explicação abaixo de 90%.
Em geral, quando as componentes principais são extraídas da matriz de correlação,
necessita-se de um número maior de componentes para se alcançar o valor de γ, em
comparação com o número requerido quando as componentes são extraídas da matriz de
covariâncias (MINGOTI, 2005).
No mesmo raciocínio, quando a matriz de correlação é utilizada para a extração das
componentes principais, a variância total é igual ao número de variáveis originais “p”. Assim,
um critério que é utilizado para a escolha das “k” componentes é o de manter no sistema
apenas as componentes relacionadas àqueles autovalores 1^
≥iλ , ou seja, mantêm-se as
combinações lineares que conseguem explicar pelo menos a quantidade de variância de uma
variável padronizada. Este procedimento é conhecido como critério de Kaiser (1958).
Similarmente, quando a análise é feita com a matriz de covariâncias, podem-se manter no
sistema as componentes relacionadas aos autovalores que são maiores ou iguais a ^mλ ,
definido por:
(36)
46
n
jn
jm
^
1^ λλ
Σ==
E que representa a variância média das variáveis originais iX , i=1,2,...,n.
Johnson e Wichern (1992) também recomenda, como regra geral, reter aqueles
componentes principais com variância maior que a unidade ou equivalentemente somente
componentes que individualmente expliquem no mínimo a proporção 1/k da variância total,
sendo “k” o número de componentes principais.
Cattel (1966 apud TINN, 2002) sugere um gráfico denominado scree-plot (Figura 4)
que compara os autovalores estimados com os componentes principais. Basta apenas observar
no gráfico o ponto em que os valores de i
^
λ tendem a se estabilizar, pois esse é ponto a partir
do qual os autovalores i
^
λ se aproximam de zero. Segundo o mesmo autor o ideal é que sejam
necessário apenas duas componentes para se avaliar o conjunto de dados amostrais de um
sistema.
0
2
4
6
8
10
12
1 2 3 4 5 6 7 8 9 10
Número de Autovalores
Aut
oval
ores
Est
imad
os
Figura 4 – Gráfico scree-plot dos autovalores Fonte: Tinn (2002).
3.8.2 Análise da qualidade de aproximação da matriz de covariâncias ou correlação
Quando as componentes são extraídas das matrizes de covariâncias ou de correlação
amostrais, tem-se as seguintes aproximações para as matrizes Σpxp e rpxp, respectivamente:
(37)
47
'^^^
1iii
k
ipxp eeλΣ
=≈Σ
'^^^
1r iii
k
ipxp eeλΣ
=≈
Onde em cada caso, ( i
^
λ , ie^
) representam os respectivos autovalores e autovetores de Σpxp e
rpxp.
Assim, o valor “k” poderia ser escolhido de modo a se ter uma aproximação razoável
para as matrizes Σpxp e rpxp. As parcelas que mais contribuem para a aproximação dessas
matrizes são as correspondentes aos autovalores significativamente maiores que zero. Logo, as
componentes associadas a autovalores pequenos ou próximos a zero poderiam ser eliminadas.
É preciso ser cauteloso na análise da qualidade da aproximação, uma vez que um grau de
exigência elevado está geralmente relacionado com um valor elevado de “k”, o que não é o
desejado.
3.8.3 Análise prática das componentes
Para que as componentes possam ser utilizadas adequadamente o mais indicado é que
sejam passíveis de interpretação. A escolha do valor “k” pode ser pautada pela natureza
prática das componentes encontradas. A situação ideal é aquela em que as componentes
principais de maior interesse do pesquisador são as de maior explicação relativa à da variância
total e levam a um valor pequeno de “k”, mas isto nem sempre ocorre, obrigando ao
pesquisador a eleger uma componente de autovalor de menor peso ou equivalentemente à
variância de menor valor (MINGOTI, 2005).
3.9 ANÁLISES ESTATÍSTICAS ASSOCIADAS À ACP
Os testes estatísticos associados a um modelo utilizando a análise multivariada de
componentes principais são necessários, pois além de auxiliar nas análises estatísticas,
minimizam o risco de invalidação da pesquisa ou de se fazer conclusões equivocadas.
Destacam-se:
a) Análise dos autovalores ou variância dos componentes principais: permitem verificar a porcentagem da variância total que é explicada por cada um dos componentes principais;
(38)
(39)
48
b) Análise dos autovetores correspondentes (“loadinds”) de cada um dos autovalores: permitem identificar em cada um dos componentes principais, quais variáveis têm maior ou menor influência na composição do componente principal;
c) Análise de carga ou correlação de cada componente principal e as variáveis do problema: permite verificar o grau de associação de cada variável do problema nos componentes principais;
d) Análise dos “scores” ou componentes para cada amostra: permite ordenar os elementos amostrais observados com o intuito de identificar aqueles com maiores ou menores valores globais das componentes;
e) Análise de regressão múltipla: permite simplificar a análise, utilizando os “scores” como variável resposta. Neste caso, deve-se primeiramente validar a aplicação do modelo de regressão pelos testes usuais, como por exemplo, a análise de resíduos;
f) Teste de Adequacidade (teste KMO): comparam a magnitude dos coeficientes de correlação simples observados em relação a magnitude dos coeficientes de correlação parcial. Valores KMO entre 0.5 e 1, análise apropriada. Valores KMO inferiores a 0.5, análise inadequada (SILVA, 2005).
g) Teste de Esfericidade de Bartlet: examina a hipótese de que as variáveis não sejam correlacionadas à população;
h) Análise de Comunalidades: porção da variância que uma variável compartilha com todas as outras variáveis consideradas. Ou seja, representa a proporção da variável explicada por fatores comuns;
i) Análise de Resíduos: verifica-se a diferença entre as correlações observadas e as reproduzidas.
j) Teste “t-student”: no caso de padronização das variáveis, verifica-se o p-value da matriz de correlação para se verificar o grau de aproximação ou distanciamento dos elementos amostrais da população. Neste caso, deve-se validar a aplicação do teste “t” verificando as condições das variáveis amostrais, como por exemplo, a suposição de normalidade.
3.10 LIMITAÇÕES DA ACP
Embora a análise de componentes principais seja extensamente utilizada, existem
limitações em relação ao seu uso quando o objetivo é a mera ordenação dos dados amostrais.
Segundo Mingoti (2005), isto se explica porque, em geral, nenhuma medida de
variabilidade que possa traduzir a confiabilidade da classificação final é calculada. A
ordenação é feita levando-se em consideração puramente o valor numérico dos “scores” dos
componentes. Assim, dois elementos amostrais podem ter “scores” muito próximos, mas
ficarem em posições diferentes.
49
Medidas de variabilidade poderiam ser construídas através da metodologia de
reamostragem, como sugerido por Efron e Tibshirni (1993 apud MINGOTI, 2005). Caso o
usuário disponha de uma amostra de tamanho grande, ele poderia tentar validar a solução de
componentes obtida através da divisão da amostra original em dois conjuntos de dados
disjuntos e da aplicação da técnica ACP a cada um dos conjuntos separadamente. Ao final,
comparar-se-ia as duas soluções verificando-se elas se assemelham.
Ainda segundo Mingoti (2005), outra crítica vem do fato de que as componentes
principais se alteram quando transformações são efetuadas nos dados originais, o que,
consequentemente altera a classificação final dos elementos da amostra.
A autora também analisou a extração dos componentes via matriz de covariância e via
matriz de correlação (variável normalizada) de dados relativos de 12 empresas considerando
três variáveis: ganho bruto, ganho líquido e patrimônio num determinado período. Observou-se
que as componentes decompostas pela matriz de correlação apresentaram coeficientes de
ponderação numericamente mais equilibrados que aqueles obtidos quando da decomposição de
matriz de covariâncias amostral. Com a padronização das variáveis, todas ficaram com
variância igual a um, não havendo dominância direta de nenhuma delas. A única fonte
contribuindo para diferença entre os coeficientes é a correlação entre as variáveis. A
porcentagem de explicação pela matriz de covariância foi mais concentrada na primeira
componente, ao contrário do que ocorreu com a matriz de correlação, na qual a concentração é
menor e, portanto, houve uma melhor distribuição da explicação para as outras duas
componentes. As duas análises foram concordantes na indicação das três primeiras empresas
com melhor desempenho global e na empresa com pior desempenho. No entanto, as análises
discordaram em algumas posições, no que se referiram as empresas com desempenhos
moderados. A proporção total de concordância foi de apenas 41,7%, pois se obteve 5
concordância em 12 classificações. Em resumo, a diferença se deveu ao fato de que na análise
pela matriz de correlação, a primeira componente forneceu uma indicação da posição relativa
da empresa em relação às demais, levando-se em conta a média do conjunto de 12 empresas
em cada variável original, o mesmo não ocorrendo na solução obtida pela matriz de
covariância amostral.
Mesmo após estas ponderações, a análise de componentes principais se apresenta como
uma excelente técnica exploratória de dados multivariados, podendo ser utilizada em conjunto
com outras técnicas como análise fatorial, análise de agrupamentos e análise discriminante.
CAPÍTULO 4 - ANÁLISE DE CONFIABILIDADE
4.1 INTRODUÇÃO
Em várias situações de ordem prática, nossa atitude quanto à manutenção de um
equipamento, tanto no ponto de vista econômico quanto no operacional é determinada pela
durabilidade dos componentes utilizados na produção do bem ou serviço. Desta forma, a
confiabilidade está associada com a operação de um produto ou equipamento com sucesso, ou
seja, que este execute as funções para o qual foi projetado, preferencialmente com ausência de
paradas para manutenção ou falhas.
O assunto confiabilidade nas indústrias em geral, ainda se encontra em um estágio
bastante embrionário, pouco entendido e tratado com elevado grau de empirismo, misticismo e
dúvidas, constituindo-se numa verdadeira “caixa preta” (CASTRO, 1998 apud BARROS
FILHO, 2003, p. 34).
A maioria das plantas industriais não possui de forma estruturada uma função de
Engenharia de Confiabilidade e nem programas que tratem do assunto de uma maneira
sistemática. E é de conhecimento que a grande maioria dos problemas relacionados com
confiabilidade não pode ser atribuída exclusivamente à função Manutenção.
Kelly (1997 apud BARROS FILHO, 2003) comenta que estudos e levantamentos
realizados em um grande número de indústrias têm mostrado que a função manutenção é
responsável por somente cerca de 20% dos problemas de confiabilidade dos equipamentos.
Como mostrado na Tabela 1 mesmo na condição ideal de que a manutenção fizesse tudo de
maneira correta, ainda assim 80% dos problemas relativos a confiabilidade, ficariam
dependentes das outras funções.
Tabela 1 -- Impacto na confiabilidade dos equipamentos
ORIGEM PORCENTAGEM (%) Produção (Operação) 39 Manutenção 18 Planejamento e Controle de Produção (PCP) 15 Engenharia de Fábrica 12 Compras 11 Vendas e Marketing 5
Fonte: Adaptado de Kelly (1997 apud BARROS FILHO, 2003).
51
Com raríssimas exceções, a indústria como um todo e a grande maioria dos
profissionais ainda não atentaram para essa realidade. Dessa forma, enquanto os programas de
confiabilidade continuar a serem direcionados e focados exclusivamente na função
manutenção, os seus resultados, na melhor das hipóteses, serão de alcance muito limitados.
A confiabilidade deve ser considerada no planejamento estratégico da organização, podendo a mesma ser aplicada nas áreas de pesquisa e desenvolvimento (engenharia), nas áreas de operação e manutenção e respectivas áreas de planejamento, nas áreas de marketing e compras/vendas e na de pós-vendas. (KELLY, 1997 apud BARROS FILHO, 2003)
Segundo Lafraia (2001 apud HAVIARAS, 2005, p.23) para uma adequada análise de
confiabilidade devem ser considerados os seguintes aspectos:
a) definição das funções para os quais o produto foi projetado;
b) definição do que se entende por desempenho satisfatório (especificação de
desempenho, definição de falha, etc.,);
c) definição das condições de operação (temperatura, vibração, etc,);
d) definição do período de tempo durante o qual o produto ou equipamento deve
funcionar bem (isto é, número de horas, ciclos, etc.).
4.2 ORIGEM, DEFINIÇÃO E CLASSIFICAÇÃO DAS FALHAS
O problema com relação a especificar critérios de falha é que normalmente a
classificação é muito subjetiva, diferentes usuários podem ter expectativas diferentes com
relação ao desempenho do produto. Também pode haver uma diversidade entre usuário e
fabricante em relação ao que é exatamente um desempenho degradado ou falha (BLASHE,
1994 apud VOLLERTT, 1996).
Os métodos de análise de confiabilidade envolvem o tempo que está intimamente
relacionado à falha. Portanto, o primeiro passo é definir precisamente o que é uma falha, ou
seja, quando é que o equipamento deixa de funcionar corretamente (LOPES, 2001).
A análise do comportamento da taxa de falha de um equipamento por um longo
período de tempo pode ser representada por uma curva que possuí a forma de uma banheira.
Por isto, conhecida como Curva da Banheira.
Segundo Castro (2003, p. 18), há três regiões distintas nesta curva.
52
Figura 5 – Curva da Banheira
Região I: corresponde as falhas no início de funcionamento, que surgem devido a
problemas no uso inicial dos equipamentos. Esta fase é conhecida como falhas de juventude.
Região II: representa o tempo de vida útil do componente. Neste período, as falhas
ocorrem de forma aleatória. A taxa de falha constante é uma característica de componentes
eletrônicos;
Região III: caracteriza os processos de fadiga de material e degradação, típicos de
equipamentos mecânicos. Esta fase é conhecida como falhas da velhice ou envelhecimento.
Segundo Lafraia (2001 apud HAVIARAS, 2005, p.29), a Tabela 2 mostra as principais
causas de falhas conforme as etapas da Curva da Banheira.
53
Tabela 2 – Causas de falhas nas fases da Curva da Banheira
Fase da Juventude Fase de vida útil Fase do Envelhecimento Processos de fabricação deficientes
Interferência indevida Envelhecimento
Controle de qualidade deficiente
Fator de Segurança Insuficiente Desgaste/abrasão
Mão-de-obra desqualificada Cargas Aleatórias maiores que as esperadas
Degradação de resistência
Amaciamento insuficiente Resistência menor que a esperada Fadiga Depuração insuficiente Defeitos abaixo do limite de
sensibilidade dos ensaios Fluência
Materiais fora de especificação
Aplicação indevida Deteriorização mecânica, elétrica, química ou hidráulica
Componentes não especificados
Abusos Manutenção insuficiente ou deficiente
Componentes não testados Falhas não detectáveis pelo melhor programa de MP
Vida de projeto muito curta
Componentes que falham devido estocagem e transporte indevido
Falhas não detectáveis durante o melhor debugging
Sobrecarga no primeiro teste Causa inexplicáveis Contaminação Fenômenos naturais imprevistos Erro humano Instalação imprópria
Fonte: Lafraia (2001 apud Haviaras, 2005, p.29)
Um critério de classificação dos tipos de falhas proposto por Blashe (1994 apud
VOLLERTT, 1996, p.9) é mostrado na Figura 6.
Figura 6 – Método de classificação das falhas Fonte: Blashe (1994 apud VOLLERTT, 1996, p.9).
54
A definição de cada tipo de falha é descrita abaixo:
Falha Intermitente: falha que resulta na falta de alguma função do produto, apenas
por um curto período de tempo. O componente volta completamente ao seu estado funcional
imediatamente após a falha.
Falha Extendida: falha que resulta em uma falta de algumas funções, e que
continuarão até que as partes falhadas sejam substituídas ou reparadas. Falhas extendidas se
dividem em dois tipos:
Falha Completa: falha que causa uma falta completa de uma função exigida.
Falha Parcial: falha que conduz a uma falta de algumas funções, mas não como a
falha completa, pois pode-se utilizar redundâncias para contornar oproblema até
que a falha seja corrigida.
Ambas as falhas completa e parcial ainda podem ser classificadas de acordo com a
rapidez com que acontece a falha:
Falha Súbita: falhas que não poderiam ser prevenidas através de testes e inspeção.
Falha Gradual: falha que poderia ser prevista através de teste e inspeção.
As falhas ainda podem ser combinadas conforme a seguinte classificação:
Falhas Catastróficas: falhas que são ambas Súbita e Completa.
Falha de Degradação: falhas que são ambas Parcial e Gradual
4.3 TÉCNICAS DE ANÁLISES DE CONFIABILIDADE
Para garantir a confiabilidade de um equipamento deve-se primeiramente saber se
existem dados para análise estatística ou não. Quando há dados estatísticos disponíveis, ou
seja, quando há um histórico de falhas, com dados suficientes para determinar a confiabilidade,
pode-se usar um dos dois caminhos: métodos para medir e prever falha; métodos para
acomodar falhas. Se não existir dados estatísticos, recomenda-se utilizar os métodos para
prevenir falhas (DIAS, 1996).
Os métodos para medir e prever falhas são adequados para estimativas de falhas no
tempo através de representações analíticas. Esse enfoque, normalmente, se concentra em
estudar cada componente que constitui o sistema, processando as informações através de
distribuições de probabilidade, determinando parâmetros como taxa de falha e tempo médio
entre falha.
55
Os métodos para acomodar falhas apresentam um enfoque intermediário entre os
métodos para medir e prever falhas e os métodos para prevenir as falhas. São assim
caracterizados por que, em princípio, admite-se a ocorrência das falhas de alguns itens, mas
procura-se diminuir o efeito dos mesmos sobre a função. Nesse caso é recomendável utilizar
algumas ferramentas ou processos de análise como: modelos confiabilísticos, critérios de
redundância, análise dos modos de falhas e efeitos (FMEA - Failure Mode Effects Analysis),
árvore de falha (FTA - Fault Tree Analysis) (DIAS, 1996, p.7).
Os métodos para prevenir falhas são utilizados quando não existem dados estatísticos.
Nesse método várias ações podem ser necessárias para garantir confiabilidade do equipamento.
Em nível de sistema, deve-se utilizar ferramentas de análise que identifiquem o caminho
crítico da falha como; relações causa-efeito e diagrama de Ishikawa. Para utilizar os métodos
para prevenir a falha é recomendável conhecer todos os itens do sistema, o ambiente de
operação, a função de cada item no sistema de forma a identificar os possíveis modos e
mecanismos de falha.
A seguir serão apresentados as 4 principais técnicas utilizadas em análises de
confiabilidade, a saber: Análise do Modo e Efeito de Falha; Análise de Árvore de Falhas,
Teste de Vida Acelerados e Análise de Tempos de Falha.
4.3.1 Análise do Modo e Efeito da Falha – FMEA (Failure Mode and Effects Analysis)
Esta análise começou a ser utilizada no final dos anos 50 e tem como finalidade a
análise crítica de projetos de produtos e processo. O objetivo de um FMEA é identificar todos
os modos de falha em potencial dentro de um projeto (de produto ou processo), todas as
probabilidades de falhas catastróficas e críticas de tal maneira que elas possam ser eliminadas
ou minimizadas através da correção do projeto, o mais cedo possível (FREITAS; COLOSIMO,
1997, p.32).
A FMEA tem as seguintes características gerais:
a) Pode ser implementada tanto para o projeto de um produto como de um processo;
b) Tem como ponto de partida a definição precisa da função do componente ou da
etapa do processo;
c) Relaciona os tipos (modos) de falha com os efeitos, as causas do tipo de falha, os
rsicos de ocorrerem falhas e os mecanismos atuais para prevenção da ocorrência;
56
d) Na análise de cada tipo (modo) de falha em potencial no tempo, assume-se que todas
as demais características estão conforme especificado no projeto. Consequentemente, a FMEA
é restrita à consideração de falhas simultâneas no produto (ou processo), não fornecendo
elementos para a quantificação da confiabilidade do produto ou processo.
Algumas críticas, feitas por praticantes, quanto ao método FMEA são:
o tempo e o custo para aplicar o método são grandes;
a técnica é percebida como difícil, demorada e monótona;
o tempo para conduzir a análise é insuficiente;
há uma falta de incentivo da gerência para aplicar o método.
4.3.2 Árvore de Falhas – FTA (Fault Tree Analysis)
Segundo Hellman e Andery (1995 apud VOLLERTT, 1996), a FTA é um método
sistemático e padronizado, capaz de fornecer bases objetivas para funções diversas tais como
análise de modos comuns de falhas em sistemas, justificação de alterações em sistemas, e
demonstração de atendimentos a requisitos regulamentares ou contratuais. É uma
representação gráfica, associada ao desenvolvimento de uma falha particular do sistema
(efeito), chamada de evento de topo (top event), e às falhas básicas (causas), denominadas de
eventos principais (primary events). Os benefícios de uma árvore de falha segundo Henley e
Kumamoto (1981 apud VOLLERTT, 1996, p.26), são:
- auxiliar a identificação dos modos de falha;
- pontuar os aspectos importantes do sistema para a falha de interesse;
- fornecer auxílio gráfico para dar visibilidade às mudanças necessárias;
- fornecer opções para análise de confiabilidade quantitativa e qualitativa;
- permitir ao analista se concentrar em uma falha do sistema por vez.
57
A estrutura para aplicar uma árvore de falhas é mostrada na Figura 7.
Encontrar o evento de topo do sistema
Identificar a sequência de eventos do sistema que levaria o sistema a
falhar
Verificar a sequência de eventos que poderia causar uma falha ou acidente são construídas por símbolos lógicos ou “gates”
Figura 7 – Estrutura para desenvolver uma árvore de falha Fonte: Henley e Kumamoto (1981 apud VOLLERTT, 1996, p. 27)
4.3.3 Testes de Vida Acelerados
Uma forma utilizada para obter dados de falha em condições mais severas e extrapolá-
la para as condições de uso nominal é o que se denomina testes de vida acelerados. Em
termos práticos, isto significa que as informações referentes à confiabilidade dos produtos
necessitam ser obtidas em um curto período de tempo para que possam ser utilizadas em novos
projetos e na melhoria dos já existentes. Em geral, as informações obtidas sob altos níveis de
estresse (ex: taxa de uso, temperatura, voltagem) é extrapolada através de um modelo
estatístico-físico razoável para se conseguir estimativas, por exemplo, do tempo médio ou
mediano de vida nas condições de uso.
Os testes acelerados podem ser divididos em dois tipos:
a) Testes de vida acelerados: são aqueles onde a resposta de interesse é o tempo até a
ocorrência da falha.
b) Testes de degradação acelerados: quando a resposta de interesse é alguma medida
de performance do produto ou componente, por ex:, resistência à tração, oxidação, obtida ao
longo do tempo.
58
4.3.4 Análise de Tempos de Falha
De maneira geral, a Análise de Tempos de Falhas é definida como o conjunto de
técnicas estatísticas para a análise de dados de durabilidade provenientes tanto de dados de
campo quanto de testes de vida. A Análise de Tempos de Falhas se propõe a estimar com base
nestas duas fontes de informações, quantidades de interesse como, por exemplo, o tempo
médio até a falha e a taxa de falhas.
A Tabela 3 fornece resumidamente uma visão geral das técnicas clássicas descritas
anteriormente.
Tabela 3 – Visão geral das técnicas para Estudos de Confiabilidade
TÉCNICA FINALIDADE 1. Análise do Modo e Efeito de Falhas - FMEA (Failure Mode and Effect Analysis)
- Identificação das falhas críticas em cada componente, suas causas e conseqüências no sistema e no produto como um todo. - Hierarquizar as falhas.
2. Análise de Árvore de Falhas – FTA (Fault-Tree Analysis)
- Verificação das possíveis causas primárias das falhas. - Elaboração de uma relação lógica entre falhas primárias e falha final do produto.
3. Testes de vida acelerados
- Acelerar o aparecimento de falhas em testes de vida realizados com produtos (ou componentes). Os resultados obtidos do teste conduzido em condições estressantes são utilizados pata estimar figuras de mérito nas condições de projeto.
4. Análise de tempos de falha
- Utiliza dados amostrais referentes a tempos de falha do produto (ou componentes) e os modela segundo algumas das distribuições estatísticas, como Weibull, Log-normal, etc. A distribuição que “melhor explicar ” o comportamento do tempo de falha do produto (ou componente) será utilizada para estimar percentis, frações de falhas, taxas de falhas, etc.
Fonte: Freitas e Colosimo (1997, p.32, 46, 65 ;149).
4.4 CONCEITOS BÁSICOS SOBRE CONFIABILIDADE
Segundo O’Connor (1988 apud VOLLERTT, 1996, p.7), Confiabilidade é o estudo
sobre as falhas que podem ocorrer com o produto ou componente durante o seu ciclo de vida,
ou seja, não é um simples cálculo da taxa de falha ou da probabilidade de um componente ou
sistema falhar, mas sim a procura, análise, avaliação e correção de todas as falhas que podem
ocorrer com o produto ou componente, em todo o seu ciclo de vida. Embora existam várias
59
definições sobre confiabilidade, a mais utilizada é: “confiabilidade é a probabilidade de que
um item desempenhe a sua função pretendida sem falhar, sob determinadas condições
especificadas e por um determinado período de tempo especificado”. Por exemplo, um
produto pode possuir uma confiabilidade de 99,9% durante algumas horas e em determinadas
condições como estar sob temperatura ambiente, pressão atmosférica, isento de poeiras e
umidade, baixas vibrações e com uso correto por parte do usuário. Mas, se qualquer uma
destas condições variarem, normalmente a confiabilidade também variará. Portanto
confiabilidade não é apenas a probabilidade de um item não falhar, mas também o estudo de
todos os fatores que contribuem para a ocorrência da falha.
O termo confiabilidade pode ser empregado nos vários ramos de atividades da ciência e
da engenharia. Em uma indústria todos os sistemas, do mais simples ao mais complexo, podem
se beneficiar com a implementação dos conceitos de avaliação da confiabilidade, nas diversas
fases de planejamento, desenvolvimento, projeto, operação, manutenção, marketing e vendas.
A engenharia da confiabilidade e todo o desenvolvimento da mesma constituem um importante
degrau na escalada da manufatura de classe mundial.
O grande problema que a Teoria da Confiabilidade deve encarar é a predição da
confiabilidade e a avaliação da mesma. A predição consiste na criação de modelos
matemáticos que permitem predizer a confiabilidade de um sistema, sugerir métodos para
melhorá-la, desenvolver princípios de projetos de sistemas e componentes, novos materiais e
tecnologias de processo. A avaliação da confiabilidade consiste na utilização de técnicas, que
permitem medir os valores reais de confiabilidade, verificar as predições efetuadas com base
nos modelos e controlar a manutenção de um nível exigido de confiabilidade.
A confiabilidade é também definida ou representada por uma expressão matemática. A expressão matemática é uma codificação, cujo objetivo é sintetizar um conjunto ou histórico de informações, num percentual, visando facilitar decisão de projeto e/ou gerencial. Evidentemente, muitas são as possibilidades de cálculo quando se dispõe de dados estatísticos, mas exige também um formalismo matemático para representá-la (DIAS, 1996, p. 3).
Haviaras (2005, p.23) define confiabilidade como a possibilidade de um componente,
equipamento, ou sistema executar sua função, sob condições de operação estabelecidas, por
um período de tempo específico, sem apresentar falhas.
Ou “a probabilidade de um produto desempenhar sua função prevista por um período
de tempo especificado e sob condições específicas” (DIAS, 1996, p.2).
60
Esta probabilidade usualmente representa a probabilidade de falha, obedecendo a
critérios bem definidos. Isto possibilita determinar a partir de que momento o produto ou
equipamento sob análise é considerado com desempenho abaixo daquele apontado como
aceitável.
A noção de confiabilidade de um equipamento está associada à sua capacidade de
funcionar de maneira satisfatória durante um período de tempo considerado longo o suficiente
para não comprometer a função a qual foi concebido. Percebe-se que neste contexto, o termo
capacidade soa um tanto abstrata. Consequentemente, para que se possa estabelecer metas
relacionadas a confiabilidade de qualquer equipamento é necessário encontrar uma maneira de
mensurar esta capacidade (ou equivalentemente, mensurar a sua confiabilidade ou taxa de
falhas).
A probabilidade de falha é o complementar da confiabilidade. Portanto, é definida
como sendo a probabilidade de que um dispositivo, ou sistema, falhe, ou deixe de
desempenhar suas funções de projeto, em um período temporal definido, sob certas condições
operacionais.
Sendo a confiabilidade, para um período de tempo t, representada pela função R(t), a
probabilidade de falha pela função F(t) é dada por:
F(t) = 1 – R(t)
4.5 FUNÇÕES FUNDAMENTAIS DA CONFIABILIDADE
Segundo Sotslov (1972 et al apud BARROS FILHO, 2003), as quatro principais
funções fundamentais, por estarem relacionadas com termos como probabilidade e o tempo,
que são as principais características para a análise da confiabilidade são: Função da
confiabilidade R(t), a função Probabilidade de falha F(t), a função densidade probabilidade de
falha f(t) e a função taxa de falha λ(t).
Dado um conjunto de condições operacionais, a confiabilidade de um componente ou
sistema é a probabilidade que o sistema não venha a falhar (sobreviva) durante um período
especificado de tempo. Isto pode ser expresso em termos de uma variável aleatória T (o tempo
decorrido até o sistema falhar).
(40)
61
A representação matemática do tempo de falha T é caracterizada por funções de
distribuições concentradas em R+ (reais não-negativos), correspondendo à hipótese de que o
tempo de vida é uma variável aleatória não-negativa (BORGES, 1979 apud LOPES, 2001).
A função densidade de probabilidade (fdp) ou do inglês pdf (probability density
function) representada por f(t), correspondente tem o seguinte significado: é a probabilidade
que a falha venha a ocorrer no tempo entre t e t + ∆t. A densidade de probabilidade de falha
f(t) é um poderoso instrumento de visualização de como ocorrem as falhas e como elas estão
estatisticamente distribuídas.
Segundo Pagés e Gondran (1980 apud BARROS FILHO, 2003), considerando:
=∆+≤≤ )( ttTtP ttf ∆).(
Seja a função de distribuição da variável aleatória T, a probabilidade que a falha venha
a ocorrer no tempo T ≤ t, denotada por:
)()( ttTPtF ∆+≤=
Definindo a função de confiabilidade R(t), como a probabilidade que o sistema não
venha a falhar num instante inferior a t, denotada por:
)()( tTPtR >=
Da definição de função de distribuição acumulada, tem-se:
∫−=t
dttftR0
)(1)(
As Figuras 8 e 9 ilustram as definições acima.
(41)
(42)
(43)
(44)
62
Figura 8 - probabilidade de falha F(t) Figura 9 - Função de confiabilidade R(t)
Figura 8 – Função probabilidade de falha F(t)
Figura 9 – Função de confiabilidade R(t)
A função de confiabilidade é definida como o complemento da função de distribuição
da variável aleatória T. Conseqüentemente, por ser F(t), a probabilidade que o sistema venha a
falhar antes de T = t, ela é comumente referenciada como função de não-confiabilidade
(desconfiabilidade), denotada também por Q(t) (PAGÉS; GONDRAN, 1980 apud BARROS
FILHO, 2003), isto é,
)(1)( tRtF −=
A equação acima, depois de diferenciada dá origem à função densidade de falha,
representada por f(t) e é dada pela seguinte expressão:
)()()( tQdtdtR
dtdtf =−=
A taxa de falha )(tλ relaciona-se com a confiabilidade R(t) e a função densidade de
falha f(t) pela seguinte expressão:
)()()(
tRtft =λ
(46)
(47)
(45)
63
Esta função em teoria da confiabilidade também é conhecida como função de risco ou
taxa de falhas instantânea.
Outro parâmetro muito usado na caracterização da confiabilidade é o tempo médio
entre falhas, do inglês Mean Time Between Failures (MTBF). Analiticamente, o tempo médio
entre falhas ou valor esperado de uma variável aleatória contínua T é dado por:
∫∞
=0
).( dttRMTBF
Esse parâmetro geralmente é utilizado para produtos reparáveis, medindo o tempo
médio decorrido entre falhas sucessivas.
4.6 TIPOS DE DADOS DE VIDA
Em algumas situações, há necessidade de realização de testes devido à
indisponibilidade de dados ou impossibilidade de obtenção dos mesmos pelos meios
mensuráveis. Por serem demorados, usualmente os testes são terminados antes que todos os
itens falharam ou os dados disponibilizados possuem informações incompletas ou parciais. São
chamadas de observações censuradas (LOPES, 2001).
Neste caso, quando ocorrem estas limitações, deve-se avaliar e adotar com cautela um
tratamento estatístico diferenciado e adequado para tais tipos de dados. Por exemplo, se não
houver censuras, pode-se usar para o tratamento estatístico as técnicas clássicas de estatística,
como análise de regressão e análise de variância. Se houver censuras, tais técnicas não poderão
ser utilizadas. Nestes casos, devem-se adotar técnicas estatísticas especiais que permitam
incorporar as informações parciais contidas nas observações censuradas (FREITAS;
COLOSIMO, 1997).
Mesmo que se tenham encontrado observações censuradas, todos os resultados
provenientes do teste devem ser utilizados na análise estatística. Existem duas razões que
justificam tal procedimento: a primeira é que os dados censurados também fornecem
informações sobre o tempo de vida do componente em questão; e a segunda é que com as
observações das censuras, pode-se obter o efeito da omissão das censuras no cálculo das
medidas de confiabilidade.
(48)
64
Como cada componente apresenta uma particular condição de teste, o procedimento de
análise deve considerar os seguintes tipos principais (PALLEROSI, 2000 apud BARROS
FILHO, 2003):
a) Tempo até falha (ou recolocação), sem suspensão (censura): todos os itens
completam o ensaio;
b) Tempo até falha (ou recolocação), com suspensão (censura à direita): nem todos os
itens completam o ensaio;
c) Tempo até falha (ou recolocação), com intervalos (intervalo e censura à esquerda):
os itens são inspecionados em dados intervalos, com itens falhos (ou recolocados) após a
última inspeção;
d) Tempo até falha (ou recolocação), com intervalos e suspensões (intervalo, censura à
esquerda ou à direita): os itens são inspecionados em dados intervalos, com itens falhos (ou
recolocados) após a última inspeção, com ocorrência também de itens com ou sem suspensões,
e censura múltipla.
Borges (1979 apud LOPES, 2001), classifica os mecanismos de censura em três tipos:
a) Censura Tipo I: é aquela cujo teste será terminado após um tempo pré-estabelecido;
b) Censura Tipo II: é aquela cujo teste será terminado quando certo número de
produtos pré-estabelecidos falharem;
c) Censura Tipo Aleatória: é a que ocorre quando, por força maior, tira-se um produto
do teste sem ter ocorrido uma falha. Geralmente esse tipo de censura está associada a outro
tipo de falha qualquer, fora daquelas que estavam sendo analisadas.
Na prática, o tratamento estatístico usado para os três tipos de censura é o mesmo, mas
existem algumas vantagens em usar um determinado tipo de censura, principalmente quando
tivermos informações históricas sobre o produto em estudo.
Outra forma de realizar um teste é utilizar uma amostra completa, ou seja, dados sem
censura, supondo que todos os elementos amostrais tenham falhado.
Para analisar o tempo de falha num conjunto de dados sem censura, em primeiro lugar
deve-se distribuir o tempo de falha em intervalos contínuos e, logo em seguida distribuir o
número de equipamento que falharam dentro de cada intervalo; assim teremos uma
distribuição do tempo de falha. Uma forma de representar um conjunto de dados sem censura é
através de um histograma ou um gráfico de barra, em que fica fácil visualizar os intervalos
com as suas respectivas falhas.
65
Quando ocorre censura, não se aconselha construir um histograma, pois não se sabe a
freqüência exata associada ao intervalo. Por esse motivo, é que existem técnicas paramétricas e
não-paramétricas para analisar dados de tempo de falha na presença de censuras (LEITCH,
1995 apud LOPES, 2001).
Em resumo, os tipos de dados de vida podem ser classificados como completos ou
censurados e os censurados podem ser censurados à direita, censurados em intervalos e
censurados à esquerda (BARROS FILHO, 2003).
4.7 MODELOS DE CONFIABILIDADE NÃO PARAMÉTRICOS
A análise de confiabilidade segundo (HAVIARAS, 2005, p. 35): [...] possibilita caracterizar através de estimativas, os comportamentos da confiabilidade, da probabilidade de falha e da taxa de falha em relação ao tempo de um componente, equipamento, ou sistema e podem ser classificadas em duas categorias: paramétrica e não paramétricas [...]
Independente de qual método de análise for eleito, o estudo deve ser realizado a partir
da coleta experimental do fenômeno estudado. Caso se prossiga com a análise utilizando
métodos estatísticos que permitam ajustar a distribuição que melhor representa a função de
densidade de probabilidade dos tempos de falha f(t), e respectivas funções de confiabilidade
R(t) e taxa de falha λ(t), o método denomina-se paramétrico. Quando estas funções são estimadas, mas sem a utilização de técnicas estatísticas de
ajuste de uma distribuição específica ao fenômeno de interesse, e a respectiva determinação de
seus parâmetros, esta análise é denominada não-paramétrica. Segundo Haviaras (2005),
diversos fatores podem influenciar na escolha de qual tipo de análise utilizar para a estimativa
da função confiabilidade R(t) e demais funções pertinentes em relação ao tempo. Mas é
recomendável iniciar o experimento realizando a análise não-paramétrica, já que a análise
paramétrica requer, normalmente, maior disponibilidade de tempo e recursos para sua
realização. Deste modo, a análise não-paramétrica fornecerá uma estimativa relativamente
rápida e de menor custo para as funções de interesse, com resultados bastante significativos e
muitas vezes suficientes para o objetivo que se deseja atingir.
Quando o objetivo do experimento é definir a variação temporal da confiabilidade de
um componente, equipamento ou produto ao longo de sua vida recomenda-se obter-se o
máximo de informações sobre o comportamento das unidades que compõem a amostra, e para
66
tanto é necessária a execução do ensaio até o instante em que ocorram as falhas em todas as
unidades empregadas no experimento. As análises não-paramétricas podem ser realizadas
considerando-se duas formas de coleta de dados: agrupada ou não-agrupada. Considerou-se na
análise corrente, testes completos de confiabilidade onde todos os componentes analisados
falharam.
Dodson (1994 apud BARROS FILHO, 2003, p.54) classifica os dados das amostras em
três tipos, conforme o arranjo dos itens a serem avaliados ou testados:
a) Não-agrupados (itens testados ou avaliados individualmente);
b) Agrupados (itens testados ou avaliados em grupos selecionados);
c) Na forma livre (dados admitidos).
No caso de dados agrupados, as quantidades de elementos que falharam estão
agrupadas em intervalos de tempo correspondentes e não há informação do exato instante em
que ocorreu a falha de um elemento específico, visto o teste considerar intervalos de tempo de
falha nos quais são registradas as quantidades respectivas de elementos que falharam em cada
um desses períodos. Já nos testes utilizando dados não agrupados, a partir da observação da
seqüência de falha dos elementos da amostra são obtidos os tempos de falha para cada um dos
seus componentes. Os dados admitidos na forma livre simplesmente são coletados sem
nenhuma restrição de procedimento.
4.8 MÉTODOS DE CONFIABILIDADE NÃO PARAMÉTRICOS
Tabelas de Vida
Estimador Kaplan-Meier
A tabela de vida ou método atuarial é uma das mais antigas técnicas estatísticas
utilizadas para estimar características associadas à distribuição dos tempos de falha. A sua
construção é simples e consiste em incorporar censuras no cálculo da função confiabilidade.
67
A construção de uma tabela de vida considera que existam “n” equipamentos (ou
componentes) sob teste e “k” falhas distintas nos pontos de corte t1 < t2 < ... < tk, para k < n,
dividido em k+1 intervalos e t0 = 0. Para cada um dos intervalos, estima-se a seguinte
probabilidade:
[ ) )/,( 11 −− ≥∈= iiii tTttTPq
Isto é, iq é a probabilidade de um item falhar no intervalo [ )ii tt ,1− sabendo-se que ele
não falhou até 1−it . A partir destes valores obtêm-se a função confiabilidade. Desta forma,
uma estimativa para iq no intervalo [ )ii tt ,1− pode ser escrita como:
[ )[ )( ) 2/,
,
11
1^
iio
io
iio
i ttemcensuradontemriscosobitensdenttemfalharamqueitensdenq
−−
−
−=
A explicação para o segundo termo do denominador da expressão acima é que produtos
ou equipamentos para os quais a censura ocorreu no intervalo [ )ii tt ,1− são tratados como se
estivessem sob risco durante a metade do intervalo considerado (FREITAS; COLOSIMO,
1997).
Pode-se observar que, dado que o item não falhou até 1−it , a sua probabilidade de
falhar no intervalo [ )ii tt ,1− é iq , e consequentemente a probabilidade de não falhar é 1- iq . A
função de confiabilidade é a probabilidade de um item não falhar até o tempo it , i=1,...,k. Isto
é dado em termos dos q`s como:
)1)...(1()( 1 ii qqtR −−=
Uma estimativa gráfica para a função de confiabilidade é uma escada, com valor
constante para cada intervalo de tempo. A função de confiabilidade estimada no primeiro
intervalo, [ )1,0 t , é naturalmente a unidade. A função de confiabilidade estimada no último
intervalo, [ )∞,kt , é zero se o maior tempo observado for uma falha, e não atingirá o zero se
for uma censura.
(49)
(50)
(51)
68
O segundo método, o estimador Kaplan-Meier ou limite-produto é mais difundido e
utilizado que o primeiro. O estimador de Kaplan-Meier nada mais é que uma função escada
com degraus dos tempos observados de falha.
Suponha que existam “n” equipamentos (ou componentes) sob teste e “k” falhas
distintas nos tempos t1 < t2 < ... < tk, para k < n, podendo ocorrer mais de uma falha num
mesmo tempo, ou seja, simultaneamente, o que é chamado de empate. Para solucionar esse
problema, admite-se que os tempos de censura ocorreram imediatamente após o tempo de
falha. Assim, tem-se que:
id : número de falhas no instante it ;
in : número de equipamentos sob risco, isto é, que não falharam e não foram
censurados no tempo i ( it ). Assim a função de confiabilidade é dada por:
−
−
−=
o
oo
t
tti n
dnn
dnn
dntR .....)(2
22
1
11
cujo ot é o maior tempo de falha menor que t .
A principal diferença entre os dois métodos está no número de intervalos usados para o
cálculo de cada um deles. O estimador de Kaplan-Meier é sempre baseado em um número de
intervalos igual ao número de tempos de falha distintos enquanto na tabela de vida os tempos
de falha são agrupados em intervalos de forma arbitrária. Isto faz com que a estimativa obtida
pelo estimador de Kaplan-Meier seja baseada frequentemente em um número de intervalos
maior que a obtida através da tabela de vida. O uso do estimador da tabela de vida não é
recomendável em conjunto de dados com poucas observações. Por outro lado, ajusta-se bem às
situações em que os tempos de falha exatos são desconhecidos, mas sabe-se que ocorreram em
certo intervalo de tempo.
Deste modo, o estimador de Kaplan-Meier torna-se mais eficiente, por ser um
estimador não-viciado para a função de confiabilidade, tanto para grandes como para pequenas
amostras (KAPLAN; MEIER, 1958 apud LOPES, 2001).
(52)
69
4.9 MODELOS DE CONFIABILIDADE PARAMÉTRICOS
Conforme já visto anteriormente a análise paramétrica utiliza distribuições estatísticas
para estimativa do tempo de falha e suas respectivas funções de confiabilidade e taxa de falhas.
Portanto, a utilização de estimadores paramétricos requer a estimação de parâmetros da
distribuição escolhida.
Por exemplo, os modelos probabilísticos de Weibull e Log-normal são caracterizados
por até três e dois parâmetros respectivamente. Há distribuições de probabilidade que exigem
um número maior de parâmetros para aderência de dados o que requer um maior esforço
matemático no tratamento estatístico da distribuição escolhida.
Uma vez escolhida a distribuição de probabilidade que melhor se ajustou ao
comportamento do tempo de falha do produto ou componentes, é possível estimar as medidas
de confiabilidade. Se a distribuição de probabilidade for corretamente especificada, as técnicas
paramétricas serão mais eficientes que as não-paramétricas. A essas distribuições de
probabilidade dá-se o nome de modelos probabilísticos para o tempo de falha (BORGES et al,
1996 apud LOPES, 2001).
Cavalca (1998 apud BARROS FILHO, 2003) ressalta que são várias as funções que
podem modelar a distribuição probabilística de uma variável aleatória. E que a escolha de um
modelo matemático estatístico a ser utilizado está diretamente relacionada aos tipos de testes
de falhas realizados, bem como ao tipo e tamanho de amostragem analisada.
Lipson e Sheth e Moras (1973; 2002 apud BARROS FILHO, 2003, p.45) apresentam
as principais aplicações práticas das distribuições mais utilizadas no estudo da Confiabilidade,
as quais se encontram resumidas na Tabela 4.
70
Tabela 4 – Principais distribuições de probabilidade utilizada em Confiabilidade e suas aplicações
DISTRIBUIÇÕES ESTATÍSTICAS APLICAÇÕES
Distribuição Binomial Aplicada para número elevado de amostras no controle de qualidade. Modela o número de falhas em relação ao tamanho inicial da amostra.
Distribuição de Poisson Aplicada no controle de qualidade e modela o número de falhas em relação ao tempo de produção.
Distribuição Exponencial Modela o número de falhas durante o período de vida útil de componentes eletrônicos.
Distribuição Retangular Aplicações restritas, caso em que a densidade é constante num intervalo de tempo.
Distribuição de Rayleigh
Modela as regiões da curva da banheira para o caso de falhas iniciais e por desgaste, por uma progressão linear.
Distribuição Normal Analisa produtos durante o início de vida e na fase de degradação natural. Modela falha por fadiga ou desgaste.
Distribuição de Weibull Modela falha aleatória.
Distribuição Gamma Modela tempo de falhas em componentes com reparo ideal.
Distribuição Lognormal Caracteriza o tempo de reparo para uma manutenção normal de falhas de desgaste.
Distribuição Beta Aplicações Especiais
Distribuição de Valores Extremos Normalmente utilizadas em situações em que o número de variáveis, dos quais os dados são obtidos, são muito grandes.
Fonte: Lipson e Sheth e Moras (1973; 2002 apud BARROS FILHO, 2003, p. 45).
Pallerosi (2000 apud BARROS FILHO, 2003, p.46), menciona os cinco tipos principais
de distribuições estatísticas utilizadas no estudo da confiabilidade, sendo as mesmas:
- Weibull (com 1,2 e 3 parâmetros);
- Weibull - Mista (Bi-Weibull, Tri-Weibull) ou Multimodal;
- Exponencial (com 1 ou 2 parâmetros);
- Lognormal (com 2 parâmetros);
- Normal (com 2 parâmetros).
4.9.1 Distribuição Normal
Utiliza-se a distribuição Normal tipicamente para representar erros de medição,
variabilidade dimensional e propriedades mecânicas de materiais. A função de densidade para
uma distribuição Normal é dada por:
71
+∞<<∞−
−−
∏= ∫
∞−TdTTTf
t
T
T
T
2
21exp
21)(
σµ
σ
A distribuição Normal é caracterizada por dois parâmetros: a média µ e o desvio-
padrão σ da população. Considerando as dificuldades envolvidas na integração na função
densidade de probabilidade, a função distribuição acumulada é dada em forma de tabela.
Buscando a padronização desta tabela, apresenta-se a função distribuição acumulada a partir da
denominada distribuição normal reduzida para o qual tem-se 0=t
µ e 1=t
σ . A distribuição
Normal reduzida é encontrada em tabelas de publicações diversas, relacionadas a conceitos de
probabilidade, estatística, controle de qualidade e confiabilidade, embora possa haver alguma
variação na forma de apresentação dos dados.
A distribuição é simétrica, centrada na média da população, sendo coincidentes os
valores da moda, mediana e média. Desta forma, 50% da distribuição encontram-se à direita da
média e, os outros 50%, à esquerda desse parâmetro. As caldas da distribuição são abertas em
ambas as extremidades, ou seja, para as situações em que as regiões de interesse para análise
de confiabilidade localizam-se próximas às caudas; qualquer variação nas condições dos dados
experimentais implica em alterações sensíveis de probabilidade, o que influencia sobremaneira
a análise de confiabilidade.
O achatamento da distribuição de probabilidade é determinado pela variância, sendo
que quanto maior este valor, maior será a dispersão da distribuição e mais achatada será a
curva da função densidade de probabilidade.
A Figura 10 ilustra uma função Normal para valores de desvio-padrão 0,2; 0,5 e 0,8.
f(t)
41 2 3 30
3
1
2
Des
d.p.=0,8
d.p.=0,5
d.p.=0,2
4
Figura 10 – Função densidade de probabilidade Normal para valores de desvio padrão 0,2; 0,5 e 0,8
(53)
72
4.9.2 Distribuição Log-normal
A distribuição Log-normal é muito utilizada para caracterizar tempo de vida de
equipamentos ou componentes. A função de densidade para uma distribuição Log-normal é
dada por:
[ ]
−
−
=22
2)ln(
21)( σ
µ
πσ
T
eT
Tf
sendo,
µ : a média do logaritmo do tempo de falha,
σ : o desvio-padrão no domínio logaritmo.
seguindo as mesmas condições de uma distribuição Normal. Os dados provenientes de uma
distribuição Log-normal podem ser analisados segundo uma distribuição Normal, trabalhando-
se com o logaritmo dos dados ao invés dos valores originais.
A distribuição Log-normal é a que melhor descreve os tempos de vida de componentes
semicondutores cujos mecanismos de falha envolvem interações químicas, como as
encontradas em processos de corrosão, acúmulo superficial de cargas elétricas e degradação de
contatos, sendo “a que melhor descreve dos mecanismos de falha por fadiga em materiais”
(HAVIARAS, 2005).
As principais aplicações da distribuição Log-normal correspondem a falhas em
rolamentos, motores e geradores, fadiga em metais, componentes do estado sólido
(semicondutores, diodos e outros), isolantes elétricos e resistências elétricas (LIPSON;
SHETH, 1973 apud BARROS FILHO, 2003). Esta distribuição possui as seguintes
características:
a) É assimétrica;
b) É bi-paramétrica, onde o valor médio (µ) corresponde ao parâmetro de escala e o
desvio-padrão (σ) ao parâmetro de forma.
A função Confiabilidade R(T) de uma distribuição Lognormal é dada por:
[ ]
∫∞
−
−
=)ln(
22
2)ln(
21)(
T
T
dTeT
TR σ
µ
πσ
(54)
(55)
73
ou, segundo Haviaras (2005),
[ ]{ }σµ /)ln()( −−Φ= TTR
sendo ( ).Φ , a função acumulada de uma distribuição Normal padrão, ou seja, de uma Normal
com média igual a zero e desvio-padrão igual a um.
A função taxa de falhas )(Tλ é dado por:
[ ]
[ ]
∫∞
−
−
−
−
=
)ln(
22
2)ln(
22
2)ln(
21
21
)(
T
T
T
dTeT
eTT
σ
µ
σ
µ
πσ
πσλ
O MTBF é dado por:
[ ]
∫∞
−
−
=0
22
2)ln(
21 dTe
TMTBF
T
σ
µ
πσ
A Figura 11 ilustra uma função Log-normal com µ = 1 e alguns valores de σ.
Figura 11 – Função densidade de probabilidade Log-normal para µ=1 e alguns valores de σ
(56)
(57)
(58)
74
4.9.3 Distribuição Weibull
A distribuição Weibull foi proposta por Weibull (1954) em estudos relacionados ao
tempo de falha devido à fadiga de metais. Ela é muito utilizada para descrever o tempo de
falha para produtos industrializados, pois é um tipo de distribuição com uma grande
variabilidade de formas. A função de densidade de probabilidade da distribuição de Weibull é
dada por:
γηγ
ηγβ β
β
β≥
−−
−=
−TTTTf ,exp)()(
1
sendo;
γ (gama): parâmetro de localização ou vida mínima 0 < γ < ∞
η (eta): parâmetro de escala ou vida característica 0 < η < ∞
β (beta): parâmetro de forma 0 < β < ∞
Vale salientar que se,
γ > 0 → produto ou equipamento recondicionado; ou,
γ < 0 → produto ou equipamento passível de falha antes de entrar em operação, ex.;
produtos perecíveis.
O parâmetro η permite obter informações relativas aos intervalos de tempo que em
média ocorrerão as falhas; sendo β o parâmetro mais importante, pois define a forma da
distribuição.
O modelo físico que ajusta a distribuição Weibull origina-se da teoria dos valores
extremos, mais especificamente as distribuições de Gumbell. Segundo Meyer (1982 apud
LOPES, 2001), a distribuição Weibull representa um modelo adequado para o estudo das leis
de falhas, sempre que o equipamento for composto de vários componentes, e a falha tenha
acontecido devido “à mais grave” irregularidade dentre muitas existentes no equipamento.
Esta distribuição é a mais representativa dentre todas as outras possíveis distribuições
utilizadas no estudo da Confiabilidade. Ela pode englobar, com suficiente precisão, a maioria
dos casos práticos. Isto é possível devido a influência do parâmetro de forma beta (β).
A distribuição geral Weibull apresenta as seguintes características:
a) Permite uma aplicação à maioria dos casos práticos, com boa precisão, motivo de
seu largo emprego;
(59)
75
b) A distribuição Exponencial resulta como um caso particular, e as do tipo Normal,
Log-normal, Rayleigh, ou do Valor Extremo, como uma razoável aproximação, suficiente em
grande número de aplicações práticas;
c) Permite caracterizar as falhas durante a juventude, vida útil e velhice (senilidade)
dos componentes;
d) Na sua forma simplificada (bi-paramétrica) resulta aplicável a muitos casos práticos,
por sua maior simplicidade e facilidade de entendimento;
e) Na sua forma tri-paramétrica permite a análise dos casos onde o início da operação
do produto não coincide com o início da análise, por exemplo, quando um componente
apresenta uma dada quantidade de horas trabalhadas antes do início do registro de falhas.
- Influência dos parâmetros de forma de Weibull nas principais Funções de
Confiabilidade
A distribuição Weibull é muito flexível e pode representar outras distribuições segundo
os valores do parâmetro de forma β. As Figuras 12, 13 e14 apresentam a influência deste
parâmetro variando de 0,5 a 5 nas funções densidade de probabilidade f(t), confiabilidade R(t)
e taxa de falhas λ(t) respectivamente.
Figura 12 – Influência do parâmetro β na função densidade de probabilidade de falha
76
Figura 13 – Influência do parâmetro β na função confiabilidade
Figura 14 – Influência do parâmetro β na função taxa de falha
77
4.9.4 Distribuição Exponencial mono e bi-paramétrica
É uma distribuição de probabilidade que se caracteriza por ter uma função de taxa de
falha constante. A forma geral da função de densidade para um tempo de falha T com dois
parâmetros é dada por:
( )γλλ −−= TeTf )( , γλ ≥>≥ TTf ,0,0)(
onde,
µλ 1=
sendo,
λ : taxa de falhas e, µ a média entre ou até a falha
γ : parâmetro de localização ou vida mínima
Quando γ é igual a zero, a distribuição torna-se monoparamétrica e toma a seguinte
forma: ( )TeTf λλ −=)( , 0,0)( >≥ λTf
A Figura 15 ilustra a função densidade de falhas monoparamétrica para alguns valores
de λ .
Figura 15 – Função densidade de falhas Exponencial monoparamétrica para alguns valores de λ
(60)
(61)
78
Por ser a função taxa de falha constante, uma unidade de amostra mais antiga que ainda
não falhou possui a mesma probabilidade de falhar em um intervalo futuro que uma unidade
amostral nova (HAVIARAS, 2005).
É um caso particular da distribuição de Weibull, com parâmetro de forma β = 1. Sua
grande aplicação prática ocorre nos sistemas com significativa quantidade de componentes em
série, caso típico de equipamentos eletrônicos, onde a taxa de falha do sistema é constante.
4.9.5 Distribuição Gamma bi-paramétrica
A função Gamma é uma distribuição muito usada para descrever variáveis aleatórias
limitadas à esquerda. Um sistema apresentará essa distribuição se a falha do mesmo associar-
se a ocorrência de “n” sub-falhas a uma taxa exponencial constante λ. A função de densidade
de probabilidade da distribuição Gamma é dada por:
0,0,)(
)(1
>≥Γ
=
−−
δαδα
αδ
δetettf
t
Defini-se α como um parâmetro de escala e δ um parâmetro de forma. Γ(x) representa a
função Gamma. Esta função é muito flexível, mudando sua forma de acordo com a variação de
δ. A Figura 16 ilustra a função Gamma para alguns valores de δ.
Figura 16– Função de densidade de probabilidade Gamma para alguns valores de δ
(62)
79
4.10 MÉTODOS DE ESTIMATIVAS DE PARÂMETROS
Os modelos probabilísticos são caracterizados por quantidades desconhecidas,
denominadas parâmetros. Estas quantidades conferem uma forma geral aos modelos
probabilísticos. Entretanto, em cada estudo de confiabilidade, tais parâmetros devem ser
estimados a partir de observações amostrais, de tal forma que o modelo fique determinado e
possibilite responder as perguntas de interesse. Existem alguns métodos conhecido na
literatura clássica.
Um dos mais conhecidos é o método dos mínimos quadrados, bastante limitado pela
incapacidade de incorporar censuras no seu processo de aquisição. É completamente adequado
a funções que possam ser linearizadas. Seus cálculos são fáceis e diretos, utilizando o
coeficiente de correlação para avaliar se a distribuição escolhida se adequa aos dados
amostrais. Porém sua utilização se torna complicada para algumas combinações de dados e
distribuições e, em alguns casos, extremamente difícil ou impossível de ser implementada.
Surge como alternativa mais adequada, o método de máxima verossimilhança, pois
permite a incorporação de censuras além possuir propriedades que permite construir intervalos
de confiança para as quantidades de interesse. Este método só poderá ser utilizado após ter
sido definido um modelo probabilístico adequado para os dados.
Um estimador de máxima verossimilhança tem por finalidade determinar quais são os
parâmetros para a distribuição de probabilidade em estudo, que mais provavelmente se
aplicariam a uma dada amostra. No caso da distribuição de Weibull, o estimador de máxima
verossimilhança tem a finalidade de escolher qual dos parâmetros α e δ “melhor explica” a
amostra observada. Para representar o método de máxima verossimilhança, necessita-se de
algumas definições:
A função de verossimilhança para um parâmetro genérico “θ”, dados os valores de t1,
t2,..., tn, é:
( ) ( ) ( )θθθ ;,...,,/1
21 in
in tfLtttL
=Π==
Para a função acima, tem-se a seguinte pergunta: “Qual o melhor valor θ que maximiza
a função L(θ)?” Busca-se, então, “quais são os parâmetros da distribuição que melhor
explicam a amostra em questão?” (HARTER; MOORE, 1969 apud LOPES, 2001, p. 20).
(63)
80
Como as observações não-censuradas são relacionadas à função de densidade de
probabilidade e as censuradas não o são, essas observações somente informam que o tempo de
falha é maior que o tempo de censura, observando, portanto, que a contribuição para L(θ) é
dada pela sua função de confiabilidade R(t);
Assim, segundo Lawless (1983 apud LOPES, 2001), a função de verossimilhança é
dada por:
( ) ( ) ( )θθθ ;;11
in
rii
r
itRtfL
+==ΠΠ=
em que as “r” primeiras observações são as não-censuradas e as “n – r” seguintes são as
censuradas.
( ) ( ) ( )θθθ ;;11
ir
ii
n
itZtRL
==ΠΠ=
As expressões acima são equivalentes, ressaltando que esta última se aplica a casos de
amostras censuradas.
É sempre conveniente trabalhar com o logaritmo da função de verossimilhança, em que
os estimadores de θ que maximizam L(θ) são equivalentes aos que maximizam log [L(θ)].
Os estimadores de máxima verossimilhança são encontrados, resolvendo-se o sistema
de equações a seguir:
( ) ( )[ ] 0log=
∂∂
=θθθ LU
4.11 TESTE DE HIPÓTESES DAS ESTIMATIVAS DE PARÂMETROS
Dentre os principais métodos de se avaliar os intervalos de confiança para os
parâmetros, destacam-se os três mais utilizados: o método da relação verossimilhança (LR), os
limites de confiança beta binomial e a utilização da matriz de Fisher (FM).
A matriz de Fisher é recomendada quando se utiliza dados censurados na amostra.
Estes limites são utilizados em muitas estatísticas e pacotes de análise de vida. Em geral,
tendem a ser mais rígidos do que os limites da binomial não paramétrica ou da relação
verossimilhança.
(64)
(65)
(66)
81
Os limites de confiança da relação verossimilhança tende a serem mais conservadores
do que o método da matriz de Fisher.
Conceitualmente o método da relação verossimilhança (LR) é mais simples do que o
método da matriz de Fisher (FM), mas exige muito mais cálculos computacionais. Quando se
trabalha com amostras pequenas, o método LR é mais adequado do que o método da FM. As
justificativas matemáticas de ambas as metodologias são bastante complexas e podem ser
melhor estudadas em Cox e Hinkley e Cordeiro (1974; 1992 apud FREITAS; COLOSIMO,
1997).
4.12 TESTES DE ADERÊNCIA DAS DISTRIBUIÇÕES
Os testes de aderência ou de precisão de ajuste de distribuição são testes de hipóteses
não paramétricos que dizem respeito a formas da distribuição populacional, ou seja, testam
como os dados de uma amostra “aderem” ou não a uma distribuição.
Os modelos paramétricos somente deverão ser usados após se ter cuidadosamente
certificado de sua adequação. Portanto é necessária a verificação da distribuição que “melhor”
adere e explica os dados amostrais. Isto é feito com auxílio de testes não paramétricos.
Existem duas formas de discriminar tais modelos: através de técnicas gráficas e dos
testes de adequação (FREITAS; COLOSIMO, 1997).
4.12.1 Técnica gráfica
A técnica gráfica mais indicada para avaliação do ajuste de distribuições é o método de
comparação direta da função de confiabilidade do modelo proposto com o estimador de
Kaplan-Meier.
Neste procedimento, ajustam-se os modelos propostos ao conjunto de dados e a partir
das estimativas dos parâmetros de cada modelo, a função de confiabilidade é estimada.
Considerando, por exemplo, as distribuições estimadas Gamma, Weibull, Exponencial,
Normal e Log-normal, representados por )(^
tGaR , )(
^tWR ,
)(^
tER , )(
^tNR ,
)(^
tLNR ,
respectivamente, determina-se a estimativa de Kaplan-Meier para a função de confiabilidade
)(^
tMKR − para o mesmo conjunto de dados. Ao comparar cada modelo paramétrico com a
82
estimativa de Kaplan-Meier, o modelo mais adequado ao conjunto de dados é aquele cuja
curva se aproxima do estimador de Kaplan-Meier, ou seja, é aquele cujos pontos estarão mais
próximos da curva x = y,em que, x = RK-M e y = RMC , sendo “MC” o modelo de confiabilidade
testado (LOPES, 2001).
Esta técnica utiliza para análise quantitativa, o coeficiente de correlação R ou o
coeficiente de determinação R2 do método dos mínimos quadrados da estatística univariada
sendo este último mais freqüentemente utilizado por apresentar uma indicação mais precisa
particularmente na inserção probabilística de dados (HAVIARAS, 2005; LOPES, 2001).
4.12.2 Testes de adequação de ajustes de distribuição
Para o caso univariado, os testes de adequação são amplamente explorados. O mesmo
não ocorre para o caso multivariado, onde poucas referências sobre o assunto podem ser
encontradas.
Estes testes consistem em se calcular uma estatística-teste sob a hipótese de que
modelo é adequado em obter uma probabilidade que reflita a plausibilidade desta hipótese. Se
a probabilidade for pequena (usualmente menor que 0,05) não se aceita o modelo. Caso
contrário, o modelo não é rejeitado (FREITAS; COLÓSIMO, 1997).
Os testes de adequação de ajuste que serão explorados neste estudo são os seguintes:
- Teste analítico de Qui-quadrado (Estatística 2χ );
- Teste analítico de Kolmogorov-Smirnov (Estatística K-S);
- Teste analítico Anderson-Darling (Estatística A2).
Método analítico de Qui-quadrado - Estatística teste2χ
Este teste foi idealizado por Karl Person (1857) que o interpretava como um teste de
significância estatística. O método de qui-quadrado baseia-se na comparação das freqüências
observadas e esperadas (ou cálculos usando a distribuição do ajuste).
Para isso é necessário agrupar as observações em intervalos, obtendo-se xii e xis como
limite inferior e superior do intervalo “i”. Para cada intervalo, determina-se:
83
ie
2ieio
12
f)f(f −
Σ==
k
icχ
cujo foi vem a ser a freqüência observada no intervalo “i” e fei a freqüência esperada no
mesmo intervalo “i” e k é o número de intervalos. O valor fei é determinado através da função
de probabilidade acumulada, obtida da seguinte forma:
[ ]n))F(xF(xf isiiie −=
O qui-quadrado calculado é comparado com o qui-quadrado tabelado ou crítico2critχ e,
logo após, conclui-se quanto ao ajuste ou não do modelo aos dados.
Para extrair este valor das tabelas estatísticas é necessário conhecer previamente o nível
de significância adotado e o número de graus de liberdade. Este último é dado pelo número de
classes observadas subtraído do número de parâmetros populacionais que devem ser estimados
do modelo de confiabilidade (VIRGILLITO, 2004).
A prova do 2χ deve ser usada quando o número de observações for grande, acima de
30 observações. É comum usá-la em amostras pequenas, porém aconselha-se muita cautela ao
fazê-lo (LOPES, 2001).
Quando se obtém um valor de 2χ significativo, mas nota-se que a amostra é pequena
e/ou que a freqüência esperada em uma das classes é pequena (tipicamente, quando for menor
que 5) a fórmula de obtenção de 2χ poderá produzir um valor maior que o real. Segundo Viali
(2006) é recomendado observar a seguinte restrição: utilizar o teste 2χ somente se o número
de observações em cada classe ou agrupamento da tabela for maior ou igual a 5 e a menor
freqüência esperada for maior ou igual a 5. Caso contrário, em cada classe deve ser utilizada a
correção de Yates (correção de continuidade) dada pela seguinte expressão:
ie
2ieio
12
f)5,0f(f −−
Σ==
k
icχ
Evidentemente, não é preciso usar a correção de Yates se o valor de 2χ for menor que
2tabχ , pois o novo valor será menor que o primeiro, continuando a não ser significativo. De
modo geral, usa-se a correção de Yates quando:
O valor de qui-quadrado obtido é maior que o crítico;
(68)
(69)
(67)
84
O tamanho da amostra é menor que 40;
Há pelo menos uma classe com número de valor esperado menor que 5.
Método analítico de Kolmogorov-Smirnov - Estatística teste K-S
A estatística teste K-S avalia se duas ou mais amostras foram extraídas da mesma
população (ou de populações com a mesma distribuição).
O método Kolmogorov-Smirnov consiste na comparação das freqüências acumuladas
observadas com as estimativas para a distribuição do ajuste diferentemente do método de qui-
quadrado que utiliza freqüências agrupadas.
Se as amostras foram extraídas da mesma população, então é de esperar que as
distribuições acumuladas das amostras sejam muito próximas uma da outra, acusando apenas
desvios causais em relação à distribuição da população. Se as distribuições acumuladas são
“diferentes” ou “distantes” uma da outra em qualquer ponto, então as amostras provêem de
populações também distintas.
Assim para cada índice “i” de x: i = 1 a n, determina-se:
a freqüência acumulada observada para o valor ordenado xi, a qual é dada por
)( in xS = 100ni ;
a freqüência acumulada teórica, usando a F( ix ) da distribuição teórica;
o máximo das distâncias entre )( in xS e F( ix ), isto é:
{ })x(F)x(SMaxDM iin −=
Se a distância é suficientemente pequena (com p value < 0,05), conclui-se que o
modelo escolhido para o ajuste dos dados deve ser aceito.
Este método possui a vantagem de não depender de uma classificação arbitrária dos
dados em intervalos, o que pode influenciar os resultados do ajuste. Outra vantagem é que
pode ser usada para valores de amostras pequenas (n < 4).
(70)
85
Método analítico Anderson-Darling – Estatística teste A2
O método Anderson-Darling é um teste geral para comparar a distribuição de uma
distribuição observada acumulada com uma distribuição esperada acumulada. O teste é
aplicado somente a conjuntos de dados completos (sem censuras).
A estatística teste A2 tem vantagens em relação aos métodos apresentados
anteriormente, especificamente o Kolmogorov-Smirnov (K-S), pois é mais sensível a desvios
ou variações nas caldas das distribuições sendo, portanto, mais indicada nos casos em que há
maior rigor ou equivalentemente menores níveis de significância para a distribuição adotada
(ANNIS, 2007).
Pode ser aplicada a qualquer distribuição, sendo as tabelas dos valores críticos não tão
fáceis de serem encontradas.
Segundo D’agostinho e Stephens (1986 apud ANNIS, 2007), o cálculo dos valores
críticos para as distribuições Normal, Log-normal, Gamma, Weibull, Gumbel e Exponencial
são dadas conforme a seguir.
Para as distribuições Normal e Lognormal, a estatística teste A2 é calculada por meio
da seguinte expressão:
[ ])1ln()ln()12()/1( 11
2+−
=−+−−−= Σ ini
n
iwwinnA
Onde n representa o tamanho da amostra e w é a distribuição acumulada normal
padrão, [ ]σµ)/-(xΦ .
No caso de amostras pequenas, a expressão acima precisa ser corrigida pela seguinte
expressão:
++= 2
22 25.275.01nn
AAm
Os valores calculados devem ser comparados com o valor crítico apropriado dado em
função do nível de significância α; 0.1, 0.05, 0.025 e 0.01 mostrados na Tabela 5 abaixo:
(71)
(72)
86
Tabela 5 – Valores críticos da estatística teste A2 para as funções Normal e Lognormal
Técnicas de Análises de Controle de Vida (controle sistemático)
Qde de pontos monitorados
Qde de equiptos monitorados
96
Mesmo com esta estrutura de acompanhamento ainda existem equipamentos críticos
que não são monitorados, ou por que não dispõem de instrumentos específicos de controle e
medição, ou por que não estão sujeitos a inspeções devido à concepção do próprio
equipamento, como é o caso das ventaneiras. Nestes casos, a freqüência e complexidade das
intervenções são diretamente ligadas às condições do próprio equipamento e do local onde se
encontra o equipamento instalado.
Ressalta-se que a empresa não utiliza sistematicamente nenhuma técnica ou
metodologia que leva em consideração a influência dos tempos de vida associada ao nível de
degradação ou envelhecimento de seus equipamentos. Há apenas o acompanhamento de
determinados parâmetros de controle através de gráficos de tendência. Neste caso nem todos
os equipamentos são monitorados e, a avaliação, na maioria das vezes, é executada de maneira
pontual e com freqüência irregular. Alguns dos equipamentos mais críticos são monitorados,
mas não associam a análise estatística de confiabilidade em suas avaliações.
De maneira geral, observa-se não haver uma metodologia sistematizada de verificação
e controle baseada na confiabilidade dos equipamentos. Todo o processo de aquisição de
ativos ainda não se fundamenta em controle estatístico de confiabilidade que compreende
desde a fase de projeto ou identificação da necessidade de novos equipamentos até a fase de
colocação em operação ou produção com monitoramento de dados.
CAPÍTULO 7 - CONJUNTO DE ALTA CRITICIDADE E COMPONENTE
CRÍTICO
Este capítulo descreve o funcionamento do conjunto de insuflação de ar (conjunto de
alta criticidade) dando ênfase às ventaneiras (componente crítico) por se tratar da origem e ter
motivado o desenvolvimento da pesquisa.
7.1 DESCRIÇÃO DO FUNCIONAMENTO DO ALTO FORNO 1
O Alto Forno 1 é a unidade responsável pela produção do da principal matéria-prima
da produção de aço: o ferro gusa. Entrou em operação em novembro de 1983. Sua produção
nominal é de 10.000 ton/dia de ferro gusa. Atualmente é o mais antigo em operação em todo o
mundo com uma produção acumulada próxima de 80 milhões de toneladas de ferro gusa. A
Tabela 11 mostra as características técnicas do Alto Forno 1.
Tabela 11 – Características técnicas do Alto Forno 1
Projeto/Fornecedor KSC/IHI Produção 10.000 ton/dia
Volume de sopro 6.800 Nm3/min Temperatura de sopro 1.250 oC
Pressão de sopro 4,4 kgf/cm2 Volume interno 4.415 m3
Volume útil 3.707 m3 Diâmetro do cadinho 14 m
Furos de gusa 4 No de ventaneiras 38
Sistema de refrigeração Stave cooler
A Figura 18 e 19 mostram respectivamente o Alto Forno 1 e de forma simplificada, o
fluxo de produção do ferro gusa .
98
Figura 18 – Alto Forno 1
Figura 19 – Fluxo de produção do ferro gusa no Alto Forno 1
As unidades a montante consistem dos Silos de Minérios que abastecem o Alto Forno
com carga metálica em ligas de ferro e carbono, como exemplos, pelotas de minério de ferro,
coque mineral ou vegetal e sinter; Regeneradores que fornecem oxigênio aquecido e sob alta
pressão e, de uma unidade de fornecimento de carvão pulverizado – Pulverized Coal Injection
(PCI) que juntamente com o coque adicionado na parte superior do Alto Forno promovem a
combustão (redução) do elemento ferro da carga metálica. A jusante está a unidade de limpeza
CRAAF
ALTO FORNO 1
SISTEMA DE LIMPEZA
TRT
FERRO GUSA
REGENERADORES
PCI
SILOS DE MINÉRIOS
99
de gases; uma turbina geradora de energia acionada por esses mesmos gases e uma unidade de
tratamento de água – Centro de Recirculação de Água do Alto Forno (CRAAF) responsável
pela recirculação de água e pelo tratamento dos subprodutos gerados no processo de produção
de ferro gusa.
O processo de produção do ferro gusa ou, em linguagem técnica, o processo de
elaboração do ferro gusa é descrito a seguir: o oxigênio a alta temperatura e carvão
pulverizado são injetados sob alta pressão no interior do Alto Forno através do conjunto de
insuflação de ar, especificamente através das ventaneiras. A reação de redução promovida pelo
oxigênio a alta temperatura com a carga metálica adicionada na parte superior do Alto Forno
gera o ferro gusa. Este processo se dá continuamente com a extração do ferro gusa produzido
em certos intervalos de tempo que são determinados conforme o rendimento de transformação
da carga metálica e perfil térmico do Alto Forno, dentre outras variáveis.
7.2 DESCRIÇÃO DO FUNCIONAMENTO DO CONJUNTO DE ALTA
CRITICIDADE E COMPONENTE CRÍTICO
O conjunto de insuflação de ar (conjunto crítico) é o subconjunto responsável pela
injeção de oxigênio e carvão pulverizado que têm a função de promover a redução da carga
metálica do Alto Forno e consequentemente produzir o ferro gusa. No caso do Alto Forno 1 há
38 destes conjuntos. A Figura 20 mostra um desenho esquemático de um conjunto de
insuflação de ar. A Figura 21 mostra o conjunto de insuflação de ar do Alto Forno 1.
Figura 20 – Desenho esquemático de um conjunto de insuflação de ar de um Alto Forno
100
Figura 21 – Conjunto de insuflação de ar do Alto Forno1
Cada conjunto de insuflação de ar é formado pelos seguintes subconjuntos: junta de
expansão, joelho, algaraviz, caixa de refrigeração e ventaneiras. As suas funções são as
seguintes:
a) Junta de expansão: faz ligação estrutural do anel de ar quente ao algaraviz e atua
como compensador térmico;
b) Joelho: faz a ligação estrutural da junta de expansão ao algaraviz;
c) Algaraviz: recebe o oxigênio aquecido e o carvão pulverizado a alta temperatura e
pressão e direciona para as ventaneiras;
d) Caixa de refrigeração: aloja a ventaneira e auxilia na sua refrigeração;
e) Ventaneira: possibilita a injeção da mistura oxigênio e carvão pulverizado no interior
do Alto Forno.
As ventaneiras, denominada neste estudo de componente crítico, estão localizadas na
Casa de Corridas, local de onde se faz a extração do ferro gusa produzido. A Figura 22 mostra
a Casa de Corridas do Alto Forno 1.
101
Figura 22 – Casa de Corridas do Alto Forno 1
As ventaneiras são peças de cobre, em formato de tronco de cone, refrigeradas
internamente com água. São fabricadas nas próprias Oficinas da empresa e pesam
aproximadamente 200 Kg. As Figuras 23 e 24 mostram o desenho de uma ventaneira em CAD
e uma ventaneira do Alto Forno 1 respectivamente.
Figura 23 – Desenho em CAD em uma ventaneira
Figura 24 – Ventaneira do alto forno 1 Figura 23 – Desenho em CAD de uma ventaneira Figura 24 – Ventaneira do Alto Forno 1
102
As Figuras 25 e 26 mostram respectivamente um lote de ventaneiras retiradas de
operação pelo fim de vida útil e um lote de duas peças recém fabricadas nas oficinas.
Figura 25 – Lote de ventaneiras em fim de vida útil
Figura 26 – Ventaneiras novas (recém fabricadas)
As ventaneiras quando em operação estão sujeitas aos diversos tipos de falha, sejam
ligadas a fatores externos ou internos ao funcionamento do Alto Forno. Tais falhas, além de
comprometer a sua vida útil, conduzem instabilidade ao processo produtivo afetando
103
diretamente todo ciclo produtivo do aço, haja vista que, o ferro-gusa é origem de todo o
processo de fabricação do aço.
Em função desta instabilidade é necessário manter-se estoques de segurança caso haja
falhas no conjunto de insuflação de ar decorrente de falhas relacionadas a si mesmo, ou
motivados por outros problemas operacionais. Dentre os itens estocados do conjunto de
insuflação de ar, o de ventaneiras se sobressai, pois é o subconjunto de maior desgaste.
Conforme o padrão técnico de produção (PT-PRO-AF01-01-0028, 2006), o número
total de ventaneiras montadas no Alto Forno 1 é 38, com vida útil prevista de 270 dias. De
acordo com os procedimentos operacionais descritos no padrão, deve-se manter em estoque
uma quantidade correspondente a uma vez e meia do total de um conjunto montado, ou seja,
cinqüenta e sete peças além de oito disponibilizadas estrategicamente na área operacional
como reserva emergencial.
Este procedimento demanda um planejamento de fabricação que deve levar em
consideração também as trocas de ventaneiras efetuadas nas paradas programadas para
manutenção preventiva do Alto Forno 1.
Conforme o plano de manutenção do Alto Forno 1 no Sistema de Gestão de Ativos
(SISMANA), há quatro paradas do Alto Forno 1 previstas por ano. Nestas paradas são
trocadas, em média, catorze ventaneiras ou cinqüenta e seis ventaneiras por ano, que é
confirmado pelas inspeções “in loco” realizadas pelas equipes de manutenção e operação, a
avaliação do perfil térmico do Alto Forno 1 e outras variáveis operacionais.
A Tabela 12 mostra a quantidade de ventaneiras fabricadas nas Oficinas da empresa
entre 2001 e 2005.
Tabela 12 – Quantidade de ventaneiras fabricadas nas Oficinas entre 2001 e 2005
Ano de fabricação 2001 2002 2003 2004 2005 No Ventaneiras fabricadas 107 104 123 105 97 Reserva estratégica de estoque 57 57 57 57 57
No Ventaneiras trocadas em manutenção preventiva 56 56 56 56 56
Verifica-se que há cerca de 57% de ventaneiras a mais em estoque devido ao
desconhecimento da vida útil real atingida por cada ventaneira em uma campanha operacional.
Segundo o banco de dados da manutenção DW (Data Warehouse), a unidade
operacional Alto Forno 1 é subdividida em 10 áreas operacionais: carregamento, topo do
forno, forno próprio, casa de corridas, regeneradores, limpeza de gases, granulador de escória,
104
CRAAF, sistema elétrico/controle e áreas auxiliares. Estas áreas possuem um total de 311
equipamentos, sendo 117 de baixa criticidade, 91 de média criticidade e 103 de alta criticidade.
O conjunto de insuflação de ar, o qual as ventaneiras (componente crítico) estão atreladas está
contido na área operacional Forno Próprio. A Tabela 13 mostra as 10 áreas operacionais que
compõem o Alto Forno 1 com detalhamento do grau de criticidade dos respectivos
equipamentos.
Tabela 13 – Áreas Operacionais do Alto Forno 1 agrupadas por grau de criticidade
Fonte: Banco de Dados da Manutenção DW (Data Warehouse) (2007).
Considerando a área operacional Forno Próprio, constata-se que há 11 equipamentos
no total, sendo que 7 de criticidade alta, o que representa cerca de 70% do total da unidade
operacional. A Tabela 14 mostra os equipamentos de criticidade alta, destacando o sistema de
insuflação de ar como o 3o mais crítico no ranking, que leva em consideração para
estabelecimento da pontuação, o grau de influência e importância no processo produtivo do
Alto Forno 1.
Tabela 14 – Equipamentos de Criticidade Alta do Forno Próprio (Alto Forno 1) agrupados em função do grau de priorização dentro da unidade operacional
Equipamento de Criticidade Alta Pontuação RankingCarcaça do Alto Forno 262 1°Cadinho/Subcadinho 262 1°Sistema de Refrigeração das Ventaneiras 242 2°Sistema de Refrigeração dos Staves e Refrigeração de Emergência 242 2°
Sistema de Insuflação de Ar 220 3°Sistema de Ar Frio 216 4°Stave Coolers 188 5°
ÁREA OPERACIONAL - Forno Próprio
Fonte: Banco de Dados da Manutenção DW (Data Warehouse) (2007).
BAIXA MÉDIA ALTA TOTALCarregamento 66 35 14 115Topo do Forno 7 4 14 25Forno Próprio 2 2 7 11Casa de Corrida 13 5 19 37Regeneradores 4 11 7 22Limpeza de Gás 3 3 5 11Granulador de Escória 9 12 12 33CRAAF 4 12 15 31Sist. Elétrico/Controle 0 4 9 13Áreas Auxiliares 9 3 1 13TOTAL 117 91 103 311
CRITICIDADEÁREA OPERACIONAL
105
Analisando os dados e informações expostas, percebe-se que há necessidade de um
controle rigoroso da vida útil das ventaneiras, no sentido de maximizá-la, pois a mesma possui
a menor vida útil prevista dentre todos os subconjuntos, sendo um gargalo do conjunto de
insuflação de ar.
CAPÍTULO 8 - PROCEDIMENTOS METODOLÓGICOS
As etapas propostas para atender os objetivos desta dissertação estão discriminadas a
seguir:
1a Etapa - Compreensão do sistema de funcionamento do conjunto de insuflação de
ar do Alto Forno 1
Nesta etapa foi necessário conhecer o sistema de funcionamento do conjunto de
insuflação de ar, especificamente as ventaneiras (subconjunto crítico), caracterizando-se como
o ponto de partida para embasar todo o planejamento para desenvolvimento da dissertação.
2a Etapa - Estudos e aplicações de métodos e técnicas multivariadas
A segunda etapa objetivou o levantamento de todo o referencial teórico necessário ao
desenvolvimento da pesquisa, constituindo-se na realização de estudos de métodos e técnicas
multivariadas e pesquisas de trabalhos correlatos já desenvolvidos em Engenharia de Produção
e outras áreas;
3a Etapa - Levantamento de pesquisas na área de confiabilidade
Na revisão da teoria de confiabilidade foram explorados os principais modelos de
probabilidade utilizados, ou seja, as distribuições Normal, Lognormal, Weibull, Exponencial e
Gamma. Foi abordado as técnicas estatísticas para validação dos modelos bem como uma
revisão de trabalhos acadêmicos aplicados em conjunto com a análise exploratória de dados.
Foi dado um tratamento aprofundado na Análise de Tempos de Falhas, pois as demais
abordadas não tiveram relevância na pesquisa. Realizou-se também um levantamento de
softwares para cálculo de confiabilidade existente no mercado e difundido na academia com
aplicações em estudos de caso. Foram pré-selecionados os seguintes softwares: Weibull++7,
Minitab 15 e o Statistica 6.0. Os dados de confiabilidade processados pelo programa de
confiabilidade seguiu o fluxo sugerido por Pallerosi 2000 (apud BARROS FILHO, 2003, p.67)
conforme mostrado na Figura 27 a seguir.
107
1. AMOSTRA
Dados AgrupadosDados Não Agrupados Forma Livre
2. DADOS
Sem Suspensãos (Completos)
Com Suspensão (Censuras)
Com Intervalos e SuspensõesCom Intervalos
UnicensuradosCensura Múltipla
IntervalosCensura à Esquerda
Censura à Direita
Censura à Esquerda
3. DISTRIBUIÇÃO
WEIBULL2 parâmetros3 parâmetros
Mista
EXPONENCIAL1 parâmetro2 parâmetros
GAMMA2 parâmetros
LOGNORMAL2 parâmetros
NORMAL2 parâmetros
4. REGRESSÃO LINEAR
MÁXIMA VEROSSIMILHANÇATodos (Intervalos e Suspensões)
CATEGORIA MEDIANARegressão em YRegressão em X
Especial (Intervalos e Suspensões)
5. PARÂMETROS
WEIBULLparâmetro de posiçãoparâmetro de formavida característica
EXPONENCIALparâmetro de posição
vida característica
GAMMAparâmetro de escalaparâmetro de forma
LOGNORMALmédia
desvio padrão
NORMALmédia
desvio padrão
6. PRECISÃO
INTERVALO DE CONFIANÇAUnilateral (inferior e superior)
Bilateral
COEFICIENTE DE CORRELAÇÃO
7. COMPARAÇÃO
Outras distribuições?
8. SELEÇÃO,
Tipo da amostra, dadosTipo da distribuição, regressão, correlação
Valores dos parâmetrosValores e gráficos da Confiabilidade
Intervalos de Confiança
Pior?
Melhor?
Figura 27 – Fluxograma para Análise de Confiabilidade Fonte: Pallerosi (2000 apud BARROS FILHO, 2003, p.67).
108
4a Etapa - Definição das variáveis da pesquisa
Nesta etapa foram definidas as variáveis da pesquisa. Os tempos de vida das 38
ventaneiras foram as variáveis consideradas com a unidade de medida em dias.
5a Etapa - Coleta de dados
Nesta etapa desenvolveu-se a pesquisa exploratória de campo, tendo sido realizado o
reconhecimento e levantamento de dados de campo, além de ter sido o ponto de partida das
observações. Estas se deram focadas na obtenção de dados para a análise dos tempos de vida
do conjunto de insuflação de ar. Para avaliar e analisar o desempenho da vida útil das
ventaneiras foram previamente verificados: número de ventaneiras do sistema, número de
trocas, tipos de falhas em operação, vida útil atual, etc.
Uma pesquisa de dados envolve a solicitação de informações verbais de pessoas a respeito das sensações delas mesmas. A meta final da pesquisa é permitir que os pesquisadores generalizem a respeito de uma população, estudando somente uma pequena parcela da mesma. Uma generalização precisa provém somente da aplicação do conjunto de procedimentos sistemáticos, científicos e metódicos conhecidos como pesquisa por amostragem. Esses procedimentos especificam que informações devem ser obtidas, como serão coletadas e de quem serão solicitadas (SILVA, 2006. p.4).
Baseado neste autor coletou-se os dados através de pesquisas de campo mediante
avaliações, entrevistas com profissionais da área e, pesquisa em banco de dados como, por
exemplo, o DataWarehouse (banco de dados da Manutenção). A pesquisa documental também
foi contemplada pela utilização de documentos internos da área operacional. Adicionalmente
foram utilizados fluxogramas e mapofluxogramas de processo.
6a Etapa - Avaliação exploratória dos dados
Nesta fase foi efetuado o tratamento dos dados, ordenamento, estudo da relação entre
eles através da aplicação de técnicas preparatórias (média, desvio-padrão, mediana, análise de
correlação, variância e covariância, etc.) e exclusão de dados discrepantes ou não significativos
através de métodos estatísticos apropriados. Na análise exploratória foi necessário remover
outliers do conjunto de dados. Para a realização de um teste estatístico o conjunto inicial de
dados foi padronizado. Os dados foram avaliados segundo sua função dentro do conjunto, sua
109
importância e representatividade. As ferramentas computacionais pré-selecionadas para fazer
estas análises foram o MatLab 5.3, SPSS 15, Minitab 15 e Statistica 6.0.
A partir do conhecimento dos subsídios discorridos anteriormente, apresenta-se nesta
última etapa, as fases que formaram a proposta metodológica para o estudo em epígrafe. Estas
fases podem ser visualizadas na Figura 28.
De forma simplificada, o diagrama mostra além das quatro principais fases da análise, as
principais ações, os recursos necessários, os resultados a serem alcançados e o objetivo
principal.
110
FASES
Coletar dados e informações do
conjunto de insuflação de ar do
Alto Forno 1
Análises paramétricas e não
paramétricas
Banco de dados, pesquisa
documental, entrevistas, visitas de
campo, etc.
Quantidade de registros mínima de
380 (tamanho da amostra)
Coleta e Tratamento de Dados
AÇÕES
RECURSOS NECESSÁRIOS
RESULTADOS
Análise de Confiabilidade
Avaliar a técnica multivariada
adequada ao tipo de dado coletado
Consultar o modelo proposto por Anderson
et al (1998)
Definição da técnica estatística multivariada
Obtenção dos dados estatísticos das
ventaneiras
Consultar o modelo proposto Palerosi
(2000)
Estimativa da função de
confiabilidade
Extrair os dados estatísticos da
amostra
Suporte computacional
(STATÍSTICA e outros)
Extrair os dados de confiabilidade na função adotada
Suporte computacional (WEIBULL++,
STATISTICA e outros)
Discussões Finais/ConclusãoAnálise Estatística
Estimar os parâmetros da
função e fazer os testes de aderência
Utilizar as técnicas gráficas e testes
analíticos
Obtençaõ da função de confiabilidade
Avaliar e tratar os dados amostrais
Aluno candidato do projeto de pesquisa
e suporte computacional
Organização dos dados de vida das
ventaneiras
Utilizar técnicas clássicas de
estatística descritiva para analisar a
variabilidade dos dados
Conclusão da Análise Estatístitica
Multivariada
Metodologia para análise de
confiabilidade do cj de insuflação de ar
(ventaneiras) do Alto Forno 1
Obtenção dos dados de confiabilidade das
ventaneiras
Obtenção de modelo não paramétrico
Figura 28 - Diagrama da metodologia para desenvolvimento da Dissertação
CAPÍTULO 9 - RESULTADOS
Levando-se em consideração as etapas delineadas nos procedimentos metodológicos
propostos, explicita-se a seguir, os resultados obtidos a partir da aplicação da metodologia
proposta.
Os dados utilizados nesta dissertação referem-se ao tempo de vida das ventaneiras do
conjunto de insuflação de ar (conjunto crítico) da unidade de produção de ferro gusa de uma
unidade produtora de aço, localizada na cidade de Serra, ES. Os tempos de vida desses
componentes foram considerados completos (sem censuras), pois não foram levantados os
tempos de vida anteriores à data inicial (1994) de aquisição dos dados amostrados. Esses
dados foram obtidos no setor operacional da empresa através de consulta aos bancos de dados
de controle de vida útil dos equipamentos de alta criticidade da área operacional. Recorreu-se
também à entrevista técnica de campo, especificamente ao Sr. Luis Augusto Wasem,
supervisor da unidade produtiva a quem nos auxiliou para dirimir dúvidas e prestar os
esclarecimentos sobre o funcionamento dos componentes críticos ora em avaliação.
É importante salientar que os componentes envolvidos nesta pesquisa foram
fabricados nas Oficinas da própria empresa e passaram por um rigoroso controle de qualidade
antes de serem liberados para verificação da integridade estrutural, como testes de
estanqueidade, hidrostático e de vazão de água necessários à garantia de qualidade de
fabricação pelas Oficinas.
A pesquisa foi desenvolvida com a coleta de informações a respeito das quantidades
de trocas das 38 ventaneiras refletindo consequentemente na quantidade de falhas das mesmas
durante o período avaliado. Adicionalmente foi consultado o banco de dados do setor de
manutenção DW (Data Warehouse), o SISMANA (Sistema de Gestão de Ativos) e
informações do SISCORP (Sistema de Controle de Padrões) servindo de instrumentos de
apoio dos quesitos de identificação e rastreabilidade de cada uma das ventaneiras pesquisadas.
Os dois primeiros sistemas armazenam informações de todos os equipamentos da unidade
industrial pesquisada.
A pesquisa teve início no dia 2 de outubro de 2005. Primeiramente foi elaborado um
plano de ação para realização dos estudos, extração e tratamento de dados. Entre o conjunto
de ações elaboradas, destacaram-se como as principais:
112
Visita a área operacional para conhecer o equipamento sobre o qual as ventaneiras são
montadas bem como o funcionamento do conjunto de insuflação de ar do qual fazem
parte;
Entrevistas com o pessoal dos setores operacional e de manutenção;
Identificação das fontes de pesquisa para extração dos dados de vida, seja através da
pesquisa de campo (pesquisa documental) ou digital (SISMANA, SISCORP e DW);
Coleta física de dados;
Identificação de datas de trocas e medições do tempo de vida útil das ventaneiras;
Triagem para expurgo de causas não relacionadas às efetivamente relacionadas a
atividade operacional em si das ventaneiras.
Verificação de metodologia similar com reprodução de todos os dados de uma tese de
doutorado (LOPES, 2001).
Dentre estas ações, a que demandou maior disponibilidade de tempo foi a que
envolveu a consulta e identificação das datas de trocas e realização de medições em cada uma
das 38 ventaneiras que foi retirada de operação, o que obrigou a execução de
aproximadamente 760 intervenções entre 1994 e 2003. Estas informações foram “cruzadas”
com as informações disponíveis nos bancos de dados digitais a fim de garantir a precisão na
extração dos dados e a aquisição de dados não tendenciosos. A pesquisa foi finalizada no dia
2 de março de 2007.
Os conjuntos de alta criticidade foram organizados e ordenados conforme
identificação e estrutura de codificação corporativa dos equipamentos de toda a unidade
produtiva. As ventaneiras, parte deste conjunto e objeto de avaliação neste estudo passarão a
denominar-se daqui por diante, simplesmente componentes críticos para simplificação de
análise e direcionamento ao objetivo principal do trabalho.
A Tabela 15 mostra a quantidade de falhas em cada uma dos 38 componentes críticos
ao longo de 10 anos de operação, iniciando em 1994 e terminando em 2003.
113
Tabela 15 - Componentes críticos com as respectivas quantidades de trocas
CP1 - Valores em na cor azul: correlação altamente significativa (p < 0,01) Valores em na cor vermelho: correlação significativa (p < 0,05) Valores em na cor preta: correlação pouco significativa (p < 0,15)
Analisando a Tabela 22 observa-se que o primeiro componente principal (CP1) possui
correlação altamente significativa (p < 0,01) com 12 (31,57%) dos componentes críticos,
correlação significativa (p < 0,05) com 5 (13,15%) componentes críticos, correlação pouco
significativa (p < 0,15) com 5 (13,15%) e correlação não significativa (p > 0,15) com o
restante (42,13%), mostrando razoável equilíbrio na representação dos tempos de vida dos
componentes críticos. Os componentes críticos VA29 e VA37 praticamente não se
134
correlacionaram com o CP1, fato este que não chegou a preocupar, por estarem em posições
distantes uma da outra e representarem apenas 5% do total. Isso reforça o princípio de que,
para analisar o tempo de vida do componente crítico, basta analisar o 1o componente principal
(CP1), pois o mesmo foi relativamente expressivo na sua absorção da variabilidade (40,86%)
com resultados relativamente satisfatórios de sua correlação com o tempo de vida dos
componentes críticos.
9.5 ANÁLISES DE COMUNALIDADES
Tabela 23 – Comunalidades dos 38 componentes críticos
3- Realizar testes de aderência para ajustes de distribuição
Para certificar-se da utilização do melhor modelo a ser adotado para análise de
confiabilidade foi necessário verificar o quanto os modelos propostos “aderem” a distribuição
dos tempos de vida do primeiro componente principal. Desta forma, foi feita uma avaliação
entre todas estas distribuições com objetivo de se definir o modelo que melhor se ajusta à
distribuição de falhas dos tempos de vida dos componentes críticos.
Primeiramente foi utilizado o estimador não paramétrico Kaplan-Meier aos dados
comparando-o aos modelos propostos já citados conforme mostrado na Tabela 26.
Tabela 26 – Valores da função de confiabilidade R(t) para os tempos de vida do 1o componente principal dos modelos propostos e o estimador Kaplan-Meier
Tempo de Vida (dias) Exp. Weibull Gamma Lognormal Normal Kaplan Meier
VA25, VA28, VA30 e VA31. Isto reforça o emprego desta componente na análise geral, pois
apresentou média e desvio-padrão próximo ao verificado do conjunto de dados sendo 230 e
21 dias respectivamente. Idêntico comportamento também foi reforçado quando se observou
as comunalidades das variáveis, havendo correspondência semelhante entre as correlações e a
carga de variância entre cada variável e o primeiro componente principal.
Neste ponto cabe uma importante observação: algumas aplicações da utilização da
análise de componentes principais requerem exclusão de variáveis pouco relacionadas ou
equivalentemente com baixos valores de comunalidades. Este procedimento visa antes de
tudo garantir a geração de poucos componentes principais que é o objetivo maior da ACP. No
presente trabalho esta recomendação não poderia ser adotada haja vista que um dos objetivos
específicos foi buscar identificar e mapear todos os 38 componentes críticos visando conhecer
o comportamento de cada um em todo o sistema. Mesmo diante desta situação, a estrutura de
variância e covariância da matriz dos dados de tempo de vida forneceu apenas 9 componentes
principais evidenciando não ter havido influência significativa das variáveis pouco
relacionadas ou de baixa comunalidades.
Adotou-se apenas o primeiro componente principal na análise de confiabilidade, pois
o mesmo representou sozinho aproximadamente 40% da variância total acumulada, o mesmo
critério adotado por Lopes (2001). Para a escolha da distribuição de confiabilidade que
melhor descrevesse o comportamento dos dados do primeiro componente principal
inicialmente foi construído um gráfico de barras tomando os dados de tempo de vida com o
número de suas respectivas ocorrências.
Utilizou-se o teste não paramétrico de Kaplan-Meier na pré-seleção das distribuições
analíticas (ou paramétricas) a serem adotadas. Este procedimento é recomendado em função
de que numa avaliação preliminar não se dispõe de informações a respeito da distribuição de
dados e de ser o passo inicial recomendado em análises de confiabilidade. Ao término da pré-
147
seleção das possíveis distribuições foram determinados os respectivos parâmetros e efetuados
testes de aderência para verificar e se definir a distribuição mais adequada aos dados de tempo
de vida do 1o componente principal. Segundo os testes adotados de adequação de ajuste de
adequação, a distribuição Lognormal foi a que melhor representou o conjunto de dados
através do primeiro principal. O estudo foi finalizado com o levantamento da função
densidade de falhas, a função confiabilidade e o tempo médio entre falhas.
Os resultados obtidos pela análise da função Confiabilidade mostraram probabilidades
de não ocorrências de falhas de 82,17%, 60,47% e 9,00% para os percentis 10, 50 e 90
respectivamente. A Taxa de Falhas mostrou um pico em 542 dias de operação, ponto de
extremo risco operacional por se tratar de um componente altamente crítico. Por fim, o
Tempo Médio entre Falhas atingiu 230 dias confirmando a ocorrência de 2 falhas no ano do
componente crítico. Os resultados advindos da aplicação da metodologia proposta mostraram-
se consistentes e coerentes com os dados históricos do componente crítico. A previsibilidade
do tempo ótimo de vida do componente crítico possibilitou a sua substituição no momento
certo, reduzindo o risco de paradas não programadas, aumentando a estabilidade operacional e
consequentemente reduzindo o risco de interrupções no processo produtivo da unidade
industrial estudada.
9.10 COMPARATIVO ENTRE A METODOLOGIA PROPOSTA E O SISTEMA
ATUAL
A fim de se avaliar a eficiência dos resultados alcançados pela aplicação da
metodologia proposta nos equipamentos críticos da empresa estudada foi feito um
levantamento de informações comparativas entre os dois cenários: metodologia proposta e
sistema atual de controle de vida, a saber:
1- Número de equipamentos críticos abrangidos:
Atualmente existem 1.300 pontos monitorados pela técnica de análise de óleos e 2.100
equipamentos monitorados pela análise de vibrações, sendo que deste último cerca de 200
apenas são considerados de alta criticidade. A nova metodologia poderá ser adotada para
equipamentos não rotativos, que é uma limitação da técnica de análise de vibrações
aumentando o universo de equipamentos monitorados.
148
2- A metodologia utilizando a análise de confiabilidade não requer parada de equipamentos
para análise. Isto é uma limitação da análise de óleo já que neste caso há necessidade de
parada do equipamento para a extração da amostra de óleo. A principal vantagem é que a
análise é realizada sem interferência com os equipamentos não afetando a disponibilidade dos
mesmos para operação.
3- A previsibilidade de quebra ou defeitos gerada pelo conhecimento prévio da vida útil dos
equipamentos auxilia as equipes de manutenção na decisão de antecipar ou postergar paradas
para reparo ou substituição otimizando consequentemente o tempo de uso. Isto se torna um
diferencial quando comparado a análise de óleo que requer tempos de coleta e análise,
gerando um atraso entre a identificação da falha e a ação para restabelecimento do
equipamento com defeito.
4- A metodologia poderá ser implementada utilizando a própria estrutura existente de
informação (sistemas informatizados de análises de vibrações, de gerenciamento de
manutenção e análise de óleo) de forma a complementar as atuais análises.
5- Os dados existentes nos bancos de dados atuais (digitais) poderão ser utilizados fazendo-se
simplesmente uma seleção dos demais equipamentos críticos a serem inseridos na
metodologia proposta de forma gradativa e sem gerar recursos adicionais tanto materiais
quanto humanos.
6- A análise de confiabilidade permite acumular no tempo todos os eventos de intervenção
nos pontos analisados, característica que não se enquadra a análise de óleo, pois o histórico
das análises de contaminantes avaliado a cada troca de óleo somente auxilia a análise de
defeitos até a sua substituição.
7- A metodologia proposta se mostra complementar as técnicas existentes, pois enquanto a
avaliação atual possibilita enxergar os motivos (causas) de geração de falhas, a metodologia
proposta fornecerá como resultados, informações tais como taxa de falhas e tempo médio
entre falhas propiciando uma visão global dos tipos de falhas. Esta avaliação poderás ser
complementada com auxílio de outras técnicas de confiabilidade, como análise do modo e
efeito de falhas e árvore de falhas.
149
8- A metodologia proposta permitirá maior rapidez nas análises de informações devido à
mesma ser baseada apenas no tempo de vida dos equipamentos, o que aumentará a quantidade
de pontos monitorados.
9- A implementação da nova metodologia não necessitará de mão-de-obra adicional e
altamente qualificada, pois poderá ser absorvida pela própria equipe do setor de engenharia.
10- Por último, cabe ressaltar que a adoção deste novo modelo de análise não requer
investimento ou recursos informatizados para a efetiva implementação, necessitando apenas
de um sistema confiável de coleta de dados já existente.
CAPÍTULO 10 - CONCLUSÃO
O objetivo deste trabalho foi desenvolver uma metodologia alternativa para determinar
a confiabilidade de um equipamento cujo sistema de funcionamento é complexo e com
variáveis de tempos de vida correlacionados. Inicialmente foi feito uma avaliação dos
primeiros dados coletados com o auxílio de um supervisor da unidade produtiva e técnicas
estatísticas apropriadas onde foi possível descartar variáveis sem importância no processo,
principalmente aquelas que raramente falhariam e que teriam o mesmo tempo de falha que
outras dentro das mesmas condições operacionais. Com a nova metodologia, além de
determinar o grau de confiabilidade do componente crítico como, por exemplo, o tempo
médio entre falhas através do uso de modelos probabilísticos, demonstra-se o quanto é
importante o uso de técnicas multivariadas para o desenvolvimento de novas metodologias de
análise de dados.
Como o interesse foi verificar como as amostras se relacionavam, ou seja, o quanto
estas são semelhantes segundo as variáveis utilizadas no trabalho foi utilizado a análise de
componentes principais. No entanto, previamente foram realizados alguns testes estatísticos
como a Análise de Agrupamento Hierárquico que não detectou discrepâncias (outliers) entre
os dados originais confirmando não haver nenhuma restrição quanto ao emprego da Análise
de Componentes principais aos tempos de vida coletados. A utilização da análise de
componentes principais (ACP) teve por finalidade determinar novas variáveis, capazes de
medir a confiabilidade do equipamento. Esta transformação de dados em informação útil
envolveu a redução de dimensionalidade dos dados originais. A ACP permitiu fazer uma
seleção adequada do número de componentes. Mediante ferramentas estatísticas apropriadas
foi possível analisar a estrutura de covariâncias e correlações baseada nas raízes
características e nos vetores gerados a partir delas em matrizes simétricas positivas definidas.
Neste ponto cabe avaliar os resultados alcançados pela aplicação da metodologia
proposta com objetivos estabelecidos da pesquisa, a saber:
A análise de componentes principais utilizada na pesquisa como técnica
multivariada de redução de dados atendeu ao objetivo a que foi proposta, pois permitiu definir
o primeiro componente principal (CP1) como elemento que representasse a totalidade dos
dados coletados pela excelente absorção de variabilidade. É evidente que o comportamento
dos dados em sua maioria pouco relacionados contribui para o alcance do objetivo proposto.
151
As funções Confiabilidade, Taxas de Falhas e o Tempo Médio entre Falhas obtidas
do conjunto crítico foram estimadas em intervalo de confiança (nível de significância α = 5%)
compatível ao nível de exigência (confiabilidade) esperada na prática. A modelo de
confiabilidade adotado utilizando a função Lognormal forneceu resultados com boa precisão
constatados pelos valores de confiabilidade obtidos do décimo, qüinquagésimo e nonagésimo
percentis;
Ao se conhecer as técnicas de análise, controle e monitoramento de evolução de
falhas dos equipamentos críticos constatou-se não haver uma sistemática integrada com as
áreas responsáveis pela operação e manutenção dos equipamentos críticos. Isto sugere que a
metodologia proposta servirá de alternativa já que pode ser inserida no Sistema de Gestão de
Ativos (SISMANA) aproveitando os tempos de vida útil (ou falhas) dos equipamentos críticos
já disponíveis no bando de dados. A metodologia poderá, inclusive, aumentar a gama de
equipamentos atualmente monitorados.
Adicionalmente o conhecimento do funcionamento do conjunto crítico
(especificamente do componente crítico) bem como a realização de estudos e pesquisas na
área de estatística multivariada e confiabilidade auxiliaram todo o desenvolvimento da
pesquisa.
Constata-se que a metodologia adotada permitiu sistematizar um conjunto de ações
pertinentes ao planejamento de trocas em futuras paradas programadas. Conclui-se por isso,
que os requisitos de confiabilidade poderão ser facilmente incorporados aos parâmetros
operacionais e as etapas do ciclo de vida, porque foram evidenciados na forma de dados
quantificáveis. O conhecimento da confiabilidade, taxa de falha e o tempo médio entre falhas
do componente crítico (ventaneiras) contribuirá para o aumento da confiabilidade do conjunto
principal (Alto Forno) e facilitará o planejamento de ações corretas de manutenção pela
previsibilidade da ocorrências de falhas, maximizando a vida útil do componente crítico e
consequentemente aumentado a estabilidade de todo processo de produção do aço.
CAPÍTULO 11 - RECOMENDAÇÕES PARA TRABALHOS FUTUROS
Recomenda-se que sejam testadas outras técnicas de estatística exploratórias,
buscando aprofundar ainda mais a análise. Sugere-se também verificar a aderência das
amostras analisadas a modelos probabilísticos com mais parâmetros, como a Exponencial de
dois parâmetros e a distribuição Weibull de três parâmetros o que, possivelmente podem
permitir uma melhor aderência dos dados das amostras ao modelo adotado. Estas distribuições
poderiam ter melhor comportamento que a distribuição Lognormal adotada.
No caso estudado, o desenvolvimento da metodologia considerou um nível de
confiabilidade p-value fixo de 5% na calda superior. Simulações com p-values com ligeiras
oscilações acima e abaixo (por ex. 7,5% e 2,5%) deste valor poderiam fornecer informações
novas sobre o comportamento do conjunto de dados coletados nos 10 anos de amostragem.
Consideração semelhante é aplicável a simulações comparando os resultados entre os três
métodos de avaliação dos intervalos de confiança abordados: matriz de Fisher (FM), relação
de verossimilhança (LR) e intervalo de confiança beta binomial. No presente estudo foi
utilizada apenas a matriz de Fisher.
Em relação aos testes de aderência dos parâmetros para verificação do ajuste a
distribuição de probabilidade a ser adotada, cabe relatar que a adoção de referências para
valores críticos seriam mais realistas, caso fosse feita a simulação de Monte Carlo aos dados
coletados, o que até foi sugerido em uma consulta a um especialista do instituto de estatística
norte-americano. No caso estudado foram utilizadas as tabelas com valores críticos
recomendado largamente pela literatura.
Cabe mencionar também a possibilidade de ampliação deste estudo realizando
simulações de amostras multivariadas, com diversas distribuições de probabilidade para
verificar a existência de diferenças significativas nos limites dos intervalos das funções de
pertinência. Estas simulações poderiam, inclusive, contemplar maior quantidade de amostras
pesquisadas além do período avaliado (10 anos).
É importante reforçar a necessidade de ampliação da análise aos demais subconjuntos,
composto do conjunto avaliado, estendendo inclusive ao conjunto principal (Alto Forno) o
qual contribuiria de sobremaneira para avaliação da eficiência global do conjunto de
insuflação de ar.
153
Como contribuição futura a empresa estudada, o estudo poderia auxiliar no
dimensionamento das equipes de manutenção e do tempo ótimo em operação dos
componentes críticos através de estimativas do número de quebras (taxa de falhas) e do tempo
médio de utilização entre as substituições definidas neste estudo.
REFERÊNCIAS
AYRES Jr., Frank. Schaum’s Outline of Theory and Problems of Matrices. USA: McGraw-Hill, Inc, 1962. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 5462: Confiabilidade e Mantenabilidade. Rio de Janeiro, 1994. 37 p. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 6534: Cálculos de estimativas por ponto e limites de confiança resultante de ensaios de determinação da confiabilidade de equipamentos - Procedimento. Rio de Janeiro, 1986. 33p. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 6742: Utilização da distribuição de Weibull para interpretação dos estágios de durabilidade por fadiga. Rio de Janeiro, 1987. 18p. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 11153: Interpretação estatística de resultados de ensaio - Estimação da Média - Intervalo de Confiança. Rio de Janeiro, 1988. 7p. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 11154: Interpretação estatística de dados - Técnicas de estimação e testes relacionados às médias e variâncias. Rio de Janeiro, 1989. 53p. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 11155: Interpretação estatística de dados - Determinação de intervalo de tolerância estatístico. Rio de Janeiro, 1988. 15p. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 11156: Interpretações estatísticas de dados - Comparação de duas médias no caso de observações emparelhadas. Rio de Janeiro, 1988. 7p. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 11157: Interpretação estatística de dados - Potência de testes relacionados às médias e variâncias. Rio de Janeiro, 1990. 41p. AFONSO, César. Aplicação da análise multivariada para classificação e previsão de avaliação do desempenho acadêmico dos alunos de Engenharia Mecânica do CEFET-PR. Florianópolis: UFSC, 2001. (Dissertação de Mestrado)
155
ALMEIDA, J.C. de. Uma metodologia de projeto baseada na confiabilidade: aplicação a redes de distribuição de gás canalizado. Florianópolis: UFSC, 1999. (Dissertação de Mestrado) ANTONOV, A.V. Review and development of nonparametric methods for verification of trend hypothesis. Chepurko: Obninsk State Technical University of Nuclear Power Engineering. BARBACHAN, José S. F. et al. Goodness-of-fit Tests focuses on VaR Estimation. IBMEC Business School. São Paulo, August. 2003. BARBACHAN, José S. F. et al. Goodness-of-Fit Test focuses on Conditional Value at Risk: An Empirical Analysis of Exchange Rates. IBMEC Business School. São Paulo, 2004. BARROS FILHO, Adail. Utilização de ferramentas de confiabilidade em um ambiente de manufatura de classe mundial. Campinas: Faculdade de Engenharia Mecânica, UNICAMP, 2003. (Dissertação de Mestrado) BAXTER, M. J. Standartization and transformation in principal component analysis with application to Archaeometry. Applied Statistic, v.44. n.4. p.13-527, 1995. BEM, Amilton Barreto de. Confiabilidade e validade estatísticas da avaliação docente pelo discente: proposta metodológica e estudo de caso. Florianópolis: UFSC, 2004. (Tese de Doutorado) BERNARDES, Elaine M. Desenvolvimento do vale do rio tietê-paraná: um enfoque de estoques de capitais. Piracicaba: USP, 2002. (Tese de Doutorado) BOLDRINI, José L. et al. Álgebra linear. São Paulo: Harper & Row do Brasil, 1980. BRITO, Luiza T. de L. et al. Uso de análise multivariada na classificação das fontes hídricas superficiais da bacia hidrográfica do Rio Salitre-Bahia. Disponível em:<http://www.scielo.br/scielo.php>. Acesso em: 08 set 2005. BURGESS, J.A. Improving product reliability. Quality progress. dez. p.47-54, 1987.. CALZADA, Maria E., LOYOLA, Stephen M. S. Visual EDF (Empirical Distribution Function) Software to Check the Normality Assumption. New Orleans: University New Orleans.
156
CALZADA, Maria E., LOYOLA, Stephen M. S. EDF (Empirical Distribution Function) Tests and Visual Enhancements to Complement Probability Plotting. New Orleans: University New Orleans. CASTRO, Hélio Fiori de. Otimização da confiabilidade e disponibilidade em sistemas redundantes. Campinas: FEM/UNICAMP, 2003. (Dissertação de Mestrado). CHERNOBAI, Anna et al. Composite Goodness-of-Fit Tests for Left-Truncated: Loss Samples. Santa Barbara: University of California, June 4, 2005. CHERNICK, Michael R.; FRIIS, Robert H. Chapter 12. In:____. Introductory Biostatistics for the Health Sciences. Wiley-Interscience, 2003, p.251. COSTA NETO, Pedro L. de Oliveira. Estatística. São Paulo: Edgard Blücher, 1977. CULLEN, Simon. Detecting Deviations From Normality in Truncated Populations. Dublin: University of Dublin, july 16, 2004. D’AGOSTINHO and STEPHENS. Goodness-of-Fit Techniques. New York: Marcel Dekker, Table 4.7, p. 123, 1986. All of chapter 4, p. 97-193. Disponível em:<www.statisticalengineering.com/goodness.htm>. Acesso em: 10 maio 2007. DECOURSEY, W.J. Statistics and Probability for Engineering Applications with Microsoft® Excel. Saskatoon: Elsevier Science, 2003. DIAS, Acires. Metodologia para análise da confiabilidade em freios pneumáticos automotivos. Campinas: FEM/UNICAMP, 1996. (Tese de Doutorado). DIAS, Acires. Projeto para a confiabilidade aplicado ao processo de implantação de uma rede de gás. Florianópolis: UFSC, [s.d.]. DODSON, Bryan. The Weibull Analysis Handbook. 2. ed. Milwaukee: Quality Press, 2006. DUTRA, Ronyê Mitchell O. et al. O método ward de agrupamento de dados e sua aplicação em associação com os mapas auto-organizáveis de Kohonen. Florianópolis: UFSC. [s.d.].
157
ELIASSI-RAD, Tina et al. Statistical Modeling of Large-Scale Simulation Data. Livermore: Center for Applied Scientific Computing. [s.d.]. FREITAS, Marta Afonso; COLOSIMO, Enrico Antonio. Confiabilidade: Análise de tempo de falha e testes de vida acelerados. Belo Horizonte: Fundação Christiano Ottoni, 1997. (Série Ferramentas da Qualidade, v.12). GEISSER, Seymour. Modes of Parametric Statistical Inference. Wiley-Interscience, Minneapolis: Department of Statistics. University of Minnesota, 2005. INSTITUTE OF ELECTRICAL AND ELETRONICS ENGINERS. Reliability Allocation and Optimization for Complex Systems. In: 2000 PROCEEDINGS ANNUAL . RELIABILITY AND MAINTAINABILITY SYMPOSIUM. California: 2000. [CD-ROM] INSTITUTE OF ELECTRICAL AND ELETRONICS ENGINERS. Modeling & Analysis for Multiple Stress-Type Accelerated Life Data . In: 2000 PROCEEDINGS ANNUAL . RELIABILITY AND MAINTAINABILITY SYMPOSIUM. California: 2000. [CD-ROM]. HARRIS, Richard J. A Primer of Multivariate Statistics. 3. ed. Mahwah: Lawrence Erlbaum Associates, 2001. HÄRDLE, Wolfgang; SIMAR Léopold. Applied Multivariate Statistical Analysis. Tech: Method and Data Technologies. 29. ed. Version. 2003. HAVIARAS, Gilberto J. Metodologia para análise de pneus em frotas de caminhões de longa distância. São Paulo: USP, 2005. (Dissertação de Mestrado). HARMAN, Harry H. Modern Factor Analysis. 3. ed. Chicago and London: The University of Chicago Press, 1976. JOHNSON, R.A.; WICHERN, D.W. Applied Multivariate Statistical Analysis. 3. ed. New Jersey: Prentice Hall, 1992. KOCH, Gerda. Basic Allied Health Statistics and Analysis. Thomson Learning, 1999.
158
KUBRUSLY, L. S. Aplicação de análise multivariada a um problema de dosagem de fósforo para ovinos. Revista Brasileira de Estatística. Rio de Janeiro, v.49, n.191, p.47-53, 1988. KUBRUSLY, L. S. Um procedimento para calcular índices a partir de uma base de dados multivariados. Instituto de Economia, UFRJ, Rio de Janeiro, v.1, n.21, p.107-117, 2001. KUYPERS, Walter. Advance Principal Components Analysis: A Real-Life Application Using STATISTICA 6. Statsoft Inc., October 30. ed. ,2001. Disponível em:<www.statsoft.com.br/imagens/downloads/arquivos.advanced_principal_components_reallife. pdf>. Acesso em: 16 maio 2007. LAFRAIA, João Ricardo Barusso. Manual de confiabilidade, mantenabilidade e disponibilidade. Rio de Janeiro: Qualitymark, 2001. LEVINE, David M., BERENSON, Mark L., STEPHAN, David. Estatística: teoria e aplicações utilizando o microsoft excel em português. rio de janeiro: ltc, 2000. LIPSCHUTZ, Seymour. Schaum’s Outline of Theory and Problems of Linear Algebra. USA: McGraw-Hill, Inc, 1968. LITTLE. R.E. Mechanical Reliability Improvement: Probability and Statistics for Experimental Testing. New York: Marcel Dekker, 2001. LOPES, Luis F. Dias. Análise de componentes principais aplicada à confiabilidade de sistemas complexos. Florianópolis: UFSC, 2001. (Tese de Doutorado) MATH WORKS, INC. Software MATLAB – The Language of Technical Computing. Version 5.3.0.10183. License Number: 134521. January, 21, 1999. [CD-ROM] MALHEIROS, R. de C. da C. As principais barreiras ao empreendimento de novos negócios: Um modelo que considera as condições do empreendedor na configuração dessa percepção. Florianópolis: UFSC, 2001. (Tese de Doutorado) MARTINELLO, Gilmar Efrem et al. Divergência genética em acessos de quiabeiro com base em marcadores morfológicos. Horticultura Brasileira. Brasília, v.20, n.1, 2002. MASON, Robert L.; YOUNG, John C. Construction of Historical Data Set, chapter 4. In:____. Multivariate Statistical Process Control with Industrial Applications. Philadelphia: SIAM, 1946. p.53-80.
159
MICROSOFT OFFICE EXCEL. Versão 7. [s.l.]: Microsoft Corporation, 2003. MINGOTI, Sueli Aparecida. Análise de dados através de métodos de estatística multivariada: Uma abordagem aplicada. Belo Horizonte: UFMG Ed., 2005. MOITA, Graziella Ciaramella; José Machado, MOITA NETO. Uma introdução à análise exploratória de dados multivariados. Química Nova. Teresina, v.21, n.4, ago. 1998. MOITA NETO, José Machado. Estatística multivariada: uma visão didática-metodológica. Filosofia da Ciência, maio 2004. Disponível em:<www.criticanarede.com/cien_estatistica.html>. Acesso em: 03 abr. 2007. MORAS, F.C. Metodologia para implementação do modelo markoviano em análise confiabilística de sistemas. Campinas: FEM/UNICAMP, 2002. (Dissertação de Mestrado). MORGANO, Marcelo Antônio et al. Aplicação da análise exploratória na diferenciação de vegetais. Brazilian Journal of Food Technology. Campinas, v.2, n. 12, p. 73-79, 1999. MORRISON, D.F. Multivariate statistical methods. New York: McGraw Hill, 1976. MOUBRAY, John. Reliability-centred Maintenance. England: Butterworth-Heinemann, 1997. MÜLLER, Rolf; SCHWARZ, Erich. Confiabilidade: Tabelas e nomogramas para uso prático. São Paulo: Nobel, 1987. NETER, John et al. Applied linear statistical models. 3. ed. Boston: Irwin, 1990. PALLEROSI, C.A., Confiabilidade: conceitos básicos e método de cálculo. São Paulo: 2000. PEREIRA. J.C.R. Análise de dados qualitativos: estratégias metodológicas para as ciências da saúde, humanas e sociais. São Paulo: USP, 1999. PETERS, W. S.; SUMMERS, G. W. Análise estatística e processo decisório. Tradução por Nathanael C. Caixeiro. Rio de Janeiro: Edusp, 1973. Tradução de: Statistical Analysis for Business Decisions.
160
PINTO, Wilza da S. et al. Caracterização física, físico-química e química de frutos de genótipos de cajazeiras. Pesquisa Agropecuária Brasileira. Brasília, v.38, n.9, p. 1059-1066, set. 2003. PONTES, Antonio C. F. Análise de variância multivariada com a utilização de testes não-paramétricos e componentes principais baseados em matrizes de postos. Piracicaba: Escola Superior de Agricultura, USP, 2005. (Tese de Doutorado) PT-PRO-AF01-01-0028. Controle de vida útil do sistema de insuflação de ar para o Alto Forno 1. Serra, ES: SISCORP, 2006. 2p. RAGSDALE, Cliff T. Spreadsheet modeling and decision analysis. 3. ed. Cincinnati: Thonson Learning, 2001. p. 407-458. RELIASOFT BRASIL. Resumo teórico. engenharia da confiabilidade. São Paulo, 2001. [CD-ROM]. RENCHER, Alvin C. Methods of Multivariate Analysis. 2. ed. Wiley-Interscience, 2001. Brigham Young University. RIBEIRO, Fabiana A. de Lima. Aplicação de métodos de análise multivariada no estudo de hidrocarbonetos policíclicos aromáticos. Campinas: UNICAMP, 2001 (Dissertação de Mestrado) ROCHA, Ana C. B. da. A geoestatística aplicada à avaliação e caracterização de reservatórios petrolíferos. Campina Grande: Universidade Federal de Campina Grande, 2005. (Dissertação de Mestrado) ROSS, Sheldon M. Introduction to probability Models. 8. ed. Berkeley: Academic Press, 1997. SAKURADA, Eduardo Yuji. As técnicas de análises de modos de falha e seus efeitos e análise da árvore de falhas no desenvolvimento e na avaliação de produtos. Florianópolis: UFSC, 2001. (Dissertação de Mestrado) SANDBERG, JOEL B. Reliability for profit not just regulation. Quality Progress. p.51-54, august, 1987..
161
SANTOS, M. de Q.C. Sistematização para aplicar o projeto de experimentos na melhoria da confiabilidade de produtos. Florianópolis: UFSC, 2001. (Dissertação de Mestrado). SCREMIN, M. A. A. Método para seleção do número de componentes principais com base na lógica difusa. Florianópolis: UFSC, 2003. (Tese de Doutorado). SCREMIN, M. A. A.; BASTOS, R.C. Caracterização de grupos homogêneos de propriedades rurais do estado de Santa Catarina utilizando redes neurais artificiais. In: CONGRESSO E MOSTRA DE AGROINFORMÁTICA, 2000, Ponta Grossa,. Anais... Ponta Grossa, 2000. SIEGEL, Sidney. Nonparametric Statistics for the Behavior Sciences. Pennsylvania: The Pennsylvania State University. Disponível em:<http://www.psych.ufl.edu/~white/K-S_oneSample.pdf>. Acesso em: 05 mar. 2007. SILVA, Luiz Bueno da. Tópicos de estatística na pesquisa em engenharia de produção. Notas de aula. João Pessoa: Curso de Pós-graduação em Engenharia de Produção, UFPB, 2005. SILVA, Luiz Bueno da. Precisão científica no processo de pesquisa em engenharia de produção. Notas de aula. João Pessoa: Curso de Pós-graduação em Engenharia de Produção. UFPB, Agosto, 2006. SILVA, Nilza N. da. Amostragem probabilística: um curso introdutório. São Paulo: Edusp, 1998. SILVEIRA, Sidnéia S.; ANDRADE, Eunice M. Análise de componentes principais na investigação da estrutura multivariada da evapotranspiração. Engenharia Agrícola. Jaboticabal, v. 22, p. 171-177, maio 2002. SILVEIRA, Z. de C. Análise estatística e otimização de parâmetros de projeto em componentes de sistemas mecânicos. Campinas: Faculdade de Engenharia Mecânica, UNICAMP, 2003. Tese (Doutorado). SOFTWARE TRAINING GUIDE WEIBULL++6. Tucson, USA. Reliasoft Corporation, [s.d.] [CD-ROM]. SOFTWARE WEIBULL++7. Tucson, USA: Reliasoft Corporation, 1992-2007. Disponível em:<http://weibull.reliasoft.com>. Acesso em: 19 mar. 2007. (versão de demonstração).
162
SOUZA, A. M. Monitoração e ajuste de realimentação em processos produtivos multivariados. Florianópolis: UFSC, 2000. (Tese de Doutorado). SOUZA NETO, J.; BAKER G.A.; SOUZA F.B. de. Análise socioeconômica da exploração de caprinos e ovinos no estado do Piauí. Pesquisa Agropecuária Brasileira. Brasília, v.30, n.8, p. 1017-1030, ago. 1995. SPANÓ, CLÁUDIO CAIANI. Estudo de confiabilidade das pastilhas de freio dos veículos LS 1938. In: COLLOQUIUM INTERNACIONAL DE FREIOS DA SAE, 4, 1999, Gramado, RS. Anais... Gramado RS, 1999. SOFTWARE STATISTICA (Data Analysis Software System), Version 6. Tulsa, USA: Statsoft Inc., 2001. [CD-ROM]. SUBRAMANIAN, Anand et al. Application of Linear Regression and Discriminant Analysis for Predicting Thermo-environmental and Perceptive Variables. João Pessoa, PB, Brazil: Department of Production Engineering, Federal University of Paraíba. TABACHNICK, Bárbara G. Principal Components and Factor Analysis, chapter 12. In:____. Using Multivariate Statistics. New York: Donnelley & Sons, 1989. p.597-677. TADINI et al. Aplicação da análise de componentes principais na elaboração de cartas de controle de curvas de calibração na determinação do teor de glicose por espectrofotometria. São Paulo: USP, [s.d.]. TIMM, Neil, H. Applied Multivariate Analysis. Pittsburgh: University of Pittsburgh, Springer-Verlag, 2002. TONG, Y. L. The Engineering Handbook. Chapter 207 (Probability and Statistics). Georgia: Richard C. Dorf, 2000. TROSSET, Michael W. An Introduction to Statistical Inference and Its Applications. Department of Mathematics College of William & Mary. January 5, 2005. VEDANA, Edi L. Zulian. Análise multivariada e fronteira eficiente para diagnóstico do desempenho de fundos de pensão. Florianópolis: UFSC, 1999. (Dissertação de Mestrado). VIALI, Lori. Estatística não-paramétrica. Enfoque Sociais. Texto S1. (Série Tópicos Especiais). Disponível em:<www.pucrs.br/famat/viali/posgradua/man/mq2/material/apostilas/Noparame.pdf>. Acesso em: 17 fev. 2007.
163
VILLELA, José Roque Alves. Validação de processos num modelo utilizando ferramentas de qualidade e estatísticas. Campinas: FEM/UNICAMP, 2004. (Dissertação de Mestrado). VIRGILLITO, Salvatore Benito. Uma abordagem estatística estruturada na construção de modelos para análise do risco de crédito e previsão de insolvência de empresas. São Paulo: FEA-PUC, 2001. (Dissertação de Mestrado). VIRGILLITO, Salvatore Benito. Estatística aplicada: Técnicas básicas e avançadas para todas as áreas do conhecimento. São Paulo: Alfa-Omega, 2004. VOLLERTT Jr., João Rosaldo. Confiabilidade e falhas de campo: um estudo de caso para melhoria da confiabilidade de um produto e do reparo através de um procedimento sistemático de coleta de dados. Florianópolis: UFSC, 1996. (Dissertação de Mestrado). WERKEMA, M. C. C. Introdução ao software estatística. São Paulo: Werkema Consultores, 2004. WERNER, Liane. Modelagem dos tempos de falhas ao longo do calendário. Porto Alegre: UFRGS, 1996. (Dissertação de Mestrado).
164
APÊNDICE A – Gráficos de Dispersão do Estimador Kaplan-Meier com os
modelos propostos
0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Estimador Kaplan-Meier
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
Dis
tribu
ição
Wei
bull
0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Estimador Kaplan-Meier
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
Dis
tribu
ição
Gam
ma
0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Estimador Kaplan-Meier
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
Dis
tribu
ição
Log
norm
al
0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Estimador Kaplan-Meier
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
Dis
tribu
ição
Nor
mal
0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Estimador Kaplan-Meier
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
Dis
tribu
ição
Exp
onen
cial
165
APÊNDICE B – Histograma do número de falhas observadas nas Ventaneiras (componentes críticos)
Componente Crítico VA1Kolmogorov-Smirnov d = 0,17825, p = n.s.
Chi-Square test = 8,68286, df = 7, p = 0,27623
42 84 126 168 210 252 294 336 378 420 462
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
No.
de
Obs
erva
ções
Componente Crítico VA2Kolmogorov-Smirnov d = 0,19372, p = n.s.
Chi-Square test = 9,82075, df = 7, p = 0,19896
169 182 195 208 221 234 247 260 273 286 299
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
No.
de
Obs
erva
ções
Componente Crítico VA3Kolmogorov-Smirnov d = 0,15329, p = n.s.
Chi-Square test = 6,64160, df = 7, p = 0,46712
108 144 180 216 252 288 324 360 396 432 468
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente Crítico VA4Kolmogorov-Smirnov d = 0,11939, p = n.s.
Chi-Square test = 4,43528, df = 7, p = 0,72850
135 150 165 180 195 210 225 240 255 270 285
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
Componente Crítico VA5Kolmogorov-Smirnov d = 0,19608, p = n.s.
Chi-Square test = 15,07692, df = 7, p = 0,03503
90 120 150 180 210 240 270 300 330 360 390
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
5,0
5,5
No.
de
Obs
erva
ções
Componente Crítico VA6Kolmogorov-Smirnov d = 0,14126, p = n.s.
Chi-Square test = 5,17268, df = 7, p = 0,63890
110 132 154 176 198 220 242 264 286 308 330
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
Componente Crítico VA7Kolmogorov-Smirnov d = 0,17044, p = n.s.
Chi-Square test = 7,58891, df = 7, p = 0,37023
72 90 108 126 144 162 180 198 216 234 252
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
Componente Crítico VA8Kolmogorov-Smirnov d = 0,15843, p = n.s.
Chi-Square test = 8,33330, df = 7, p = 0,30412
114 133 152 171 190 209 228 247 266 285 304
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
Componente Crítico VA9Kolmogorov-Smirnov d = 0,20438, p = n.s.
Chi-Square test = 7,94740, df = 7, p = 0,33726
36 72 108 144 180 216 252 288 324 360 396
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
No.
de
Obs
erva
ções
Componente Crítico VA10Kolmogorov-Smirnov d = 0,14236, p = n.s.
Chi-Square test = 5,25841, df = 7, p = 0,62846
105 126 147 168 189 210 231 252 273 294 315
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
Componente Crítico VA11Kolmogorov-Smirnov d = 0,12908, p = n.s.
Chi-Square test = 5,32722, df = 7, p = 0,62010
128 160 192 224 256 288 320 352 384 416 448
Category (upper limits)
0,0
0,5
1,0
1,5
2,0
2,5
No.
of o
bser
vatio
ns
Componente Crítico VA12Kolmogorov-Smirnov d = 0,21391, p = n.s.
Chi-Square test = 9,88708, df = 7, p = 0,19506
128 160 192 224 256 288 320 352 384 416 448
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
166
APÊNDICE B – Histograma do número de falhas observadas nas Ventaneiras (continuação)
Componente Crítico VA13Kolmogorov-Smirnov d = 0,13807, p = n.s.
Chi-Square test = 9,92659, df = 7, p = 0,19277
140 160 180 200 220 240 260 280 300 320 340
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente Crítico VA14Kolmogorov-Smirnov d = 0,28054, p = n.s.
Chi-Square test = 11,74552, df = 7, p = 0,10924
72 108 144 180 216 252 288 324 360 396 432
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
No.
de
Obs
erva
ções
Componente Crítico VA15Kolmogorov-Smirnov d = 0,17610, p = n.s.
Chi-Square test = 8,60497, df = 7, p = 0,28227
76 114 152 190 228 266 304 342 380 418 456
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente Crítico VA16Kolmogorov-Smirnov d = 0,22080, p = n.s.
Chi-Square test = 9,58818, df = 7, p = 0,21314
130 156 182 208 234 260 286 312 338 364 390
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
No.
de
Obs
erva
ções
Componente VA17Kolmogorov-Smirnov d = 0,20732, p = n.s.
Chi-Square test = 12,03120, df = 7, p = 0,09954
120 140 160 180 200 220 240 260 280 300 320 340
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente Crítico VA18Kolmogorov-Smirnov d = 0,13976, p = n.s.
Chi-Square test = 6,40766, df = 7, p = 0,49303
76 114 152 190 228 266 304 342 380 418 456
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA19Kolmogorov-Smirnov d = 0,19118, p = n.s.
Chi-Square test = 11,83494, df = 7, p = 0,10612
176 192 208 224 240 256 272 288 304 320 336
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA20Kolmogorov-Smirnov d = 0,19865, p = n.s.
Chi-Square test = 8,34152, df = 7, p = 0,30344
90 135 180 225 270 315 360 405 450 495 540
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA21Kolmogorov-Smirnov d = 0,28265, p = n.s.
Chi-Square test = 10,28343, df = 7, p = 0,17307
0 34 68 102 136 170 204 238 272 306 340
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA22Kolmogorov-Smirnov d = 0,16160, p = n.s.
Chi-Square test = 3,54010, df = 7, p = 0,83096
76 114 152 190 228 266 304 342 380 418 456
Category (upper limits)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
Componente VA23Kolmogorov-Smirnov d = 0,18246, p = n.s.
Chi-Square test = 9,37379, df = 7, p = 0,22692
102 136 170 204 238 272 306 340 374 408 442
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA24Kolmogorov-Smirnov d = 0,16822, p = n.s.
Chi-Square test = 5,37298, df = 7, p = 0,61455
120 150 180 210 240 270 300 330 360 390 420
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
167
APÊNDICE B – Histograma do número de falhas observadas nas Ventaneiras (continuação)
Componente VA25Kolmogorov-Smirnov d = 0,17523, p = n.s.
Chi-Square test = 10,06586, df = 7, p = 0,18487
90 120 150 180 210 240 270 300 330 360 390
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA26Kolmogorov-Smirnov d = 0,30522, p = n.s.
Chi-Square test = 18,96866, df = 7, p = 0,00829
85 102 119 136 153 170 187 204 221 238 255
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
5,0
5,5
No.
de
Obs
erva
ções
Componente VA27Kolmogorov-Smirnov d = 0,14801, p = n.s.
Chi-Square test = 6,55451, df = 7, p = 0,47669
96 128 160 192 224 256 288 320 352 384 416
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA28Kolmogorov-Smirnov d = 0,21071, p = n.s.
Chi-Square test = 8,04873, df = 7, p = 0,32832
112 140 168 196 224 252 280 308 336 364 392
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA29Kolmogorov-Smirnov d = 0,15027, p = n.s.
Chi-Square test = 6,27591, df = 7, p = 0,50793
132 154 176 198 220 242 264 286 308 330 352
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA30Kolmogorov-Smirnov d = 0,14798, p = n.s.
Chi-Square test = 14,26509, df = 7, p = 0,04666
34 68 102 136 170 204 238 272 306 340 374
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5N
o. d
e O
bser
vaçõ
es
Componente VA31Kolmogorov-Smirnov d = 0,18659, p = n.s.
Chi-Square test = 5,65192, df = 7, p = 0,58093
64 96 128 160 192 224 256 288 320 352 384 416
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA32Kolmogorov-Smirnov d = 0,14022, p = n.s.
Chi-Square test = 6,63743, df = 7, p = 0,46758
126 144 162 180 198 216 234 252 270 288 306
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
Componente VA33Kolmogorov-Smirnov d = 0,32561, p < 0,20
Chi-Square test = 25,05987, df = 7, p = 0,00074
48 72 96 120 144 168 192 216 240 264 288 312
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
No.
de
Obs
erva
ções
Componente VA34Kolmogorov-Smirnov d = 0,18907, p = n.s.
Chi-Square test = 12,23349, df = 7, p = 0,09314
133 152 171 190 209 228 247 266 285 304 323
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA35Kolmogorov-Smirnov d = 0,18870, p = n.s.
Chi-Square test = 12,42303, df = 7, p = 0,08748
112 140 168 196 224 252 280 308 336 364 392
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
No.
de
Obs
erva
ções
Componente VA36Kolmogorov-Smirnov d = 0,16262, p = n.s.
Chi-Square test = 8,40379, df = 7, p = 0,29834
110 132 154 176 198 220 242 264 286 308 330
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
168
APÊNDICE B – Histograma do número de falhas observadas nas Ventaneiras (continuação)
Componente VA37Kolmogorov-Smirnov d = 0,25262, p = n.s.
Chi-Square test = 7,54338, df = 7, p = 0,37457
130 156 182 208 234 260 286 312 338 364 390
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
No.
de
Obs
erva
ções
Componente VA38Kolmogorov-Smirnov d = 0,14397, p = n.s.
Chi-Square test = 8,17429, df = 7, p = 0,31748
40 80 120 160 200 240 280 320 360 400 440
Tempo de Vida (dias)
0,0
0,5
1,0
1,5
2,0
2,5
No.
de
Obs
erva
ções
169
APÊNDICE C – Função de Confiabilidade das Ventaneiras (componentes críticos) Função de Confiabilidade Lognormal - Componente VA1
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
41 745182 323 463 6040,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA2
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
151 320185 219 253 2870,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA3
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
87 704210 334 457 5810,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA4
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
128 339170 212 254 2970,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA5
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
79 493162 245 327 4100,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA6
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
79 418147 215 282 3500,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA7
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
64 423136 207 279 3510,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA8
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
89 435158 227 297 3660,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA9
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
47 687175 303 431 5590,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA10
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
93 470168 244 319 3950,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA11
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
109 592205 302 399 4950,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA12
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
91 566186 281 376 4710,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA13
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
108 435173 239 304 3700,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA14
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
59 609169 279 389 4990,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA15
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
53 681178 304 429 5550,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA16
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
103 539191 278 365 4520,000
1,000
0,200
0,400
0,600
0,800
170
APÊNDICE C – Função de Confiabilidade das Ventaneiras (componentes críticos) (continuação) Função de Confiabilidade Lognormal - Componente VA17
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
111 489187 262 338 4130,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA18
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
59 737195 331 466 6020,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA19
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
144 449205 266 327 3880,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA20
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
94 686212 331 449 5680,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA21
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
26 1338289 551 813 10760,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA22
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
65 726197 330 462 5940,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA23
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
86 639197 307 418 5280,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA24
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
91 646202 313 424 5350,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA25
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
77 663194 312 429 5460,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA26
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
78 412145 212 278 3450,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA27
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
78 553173 268 363 4580,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA28
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
75 566173 271 370 4680,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA29
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
107 435173 238 304 3690,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA30
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
40 851202 364 526 6880,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA31
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
59 677183 306 430 5530,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA32
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
114 425176 238 301 3630,000
1,000
0,200
0,400
0,600
0,800
171
APÊNDICE C – Função de Confiabilidade das Ventaneiras (componentes críticos) (continuação) Função de Confiabilidade Lognormal - Componente VA33
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
69 548164 260 356 4520,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA34
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
98 480174 251 327 4040,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA35
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
107 511188 269 350 4310,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA36
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
88 463163 238 313 3880,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA37
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
99 508181 263 344 4260,000
1,000
0,200
0,400
0,600
0,800
Função de Confiabilidade Lognormal - Componente VA38
Tempo (dias)
Conf
iabi
lidad
e, R
(t)=
1-F(
t)
49 1012242 435 627 8200,000
1,000
0,200
0,400
0,600
0,800
172
APÊNDICE D – Gráficos de scores do CP1 e CP3/CP2 e CP3
VA1 VA2
VA3
VA4
VA5 VA6 VA7
VA8 VA9
VA10 VA11
VA12 VA13
VA14
VA15
VA16
VA17
VA18
VA19
VA20
VA21
VA22 VA23
VA24 VA25
VA26 VA27
VA28 VA29
VA30
VA31
VA32
VA33
VA34 VA35
VA36
VA37
VA38
-50 0 50 100
CP1
-100
-50
0
50
100C
P3
VA1 VA2
VA3
VA4
VA5 VA6 VA7
VA8 VA9
VA10 VA11
VA12 VA13
VA14
VA15
VA16
VA17
VA18
VA19
VA20
VA21
VA22 VA23
VA24 VA25
VA26 VA27
VA28 VA29
VA30
VA31
VA32
VA33
VA34 VA35
VA36
VA37
VA38
-100 -50 0 50 100
CP2
-100
-50
0
50
100
CP
3
173
APÊNDICE E – Gráficos de loadings do CP1 e CP3
1994
19951996
19971998 1999
2000
20012002
2003
-500 -250 0 250 500 750 1000
CP1
-500
-250
0
250
500
CP
3
1994
19951996
19971998 1999
2000
20012002
2003
-750 -500 -250 0 250 500
CP2
-500
-250
0
250
500
CP
3
174
APÊNDICE F – Parâmetros e percentis 10, 50 e 90 da Distribuição Lognormal
APÊNDICE H – Ventaneiras usadas (em fim de vida útil) do Alto Forno 1
177
APÊNDICE I – Ventaneiras novas (disponíveis para uso) do Alto Forno 1
178
APÊNDICE J – Vista da área de Processamento de Matérias-primas da
Empresa estudada (ao centro o Alto Forno 1)
Livros Grátis( http://www.livrosgratis.com.br )
Milhares de Livros para Download: Baixar livros de AdministraçãoBaixar livros de AgronomiaBaixar livros de ArquiteturaBaixar livros de ArtesBaixar livros de AstronomiaBaixar livros de Biologia GeralBaixar livros de Ciência da ComputaçãoBaixar livros de Ciência da InformaçãoBaixar livros de Ciência PolíticaBaixar livros de Ciências da SaúdeBaixar livros de ComunicaçãoBaixar livros do Conselho Nacional de Educação - CNEBaixar livros de Defesa civilBaixar livros de DireitoBaixar livros de Direitos humanosBaixar livros de EconomiaBaixar livros de Economia DomésticaBaixar livros de EducaçãoBaixar livros de Educação - TrânsitoBaixar livros de Educação FísicaBaixar livros de Engenharia AeroespacialBaixar livros de FarmáciaBaixar livros de FilosofiaBaixar livros de FísicaBaixar livros de GeociênciasBaixar livros de GeografiaBaixar livros de HistóriaBaixar livros de Línguas
Baixar livros de LiteraturaBaixar livros de Literatura de CordelBaixar livros de Literatura InfantilBaixar livros de MatemáticaBaixar livros de MedicinaBaixar livros de Medicina VeterináriaBaixar livros de Meio AmbienteBaixar livros de MeteorologiaBaixar Monografias e TCCBaixar livros MultidisciplinarBaixar livros de MúsicaBaixar livros de PsicologiaBaixar livros de QuímicaBaixar livros de Saúde ColetivaBaixar livros de Serviço SocialBaixar livros de SociologiaBaixar livros de TeologiaBaixar livros de TrabalhoBaixar livros de Turismo