Articoli correlati

Compasso thumbnail
tach
motore
immagine
allocation

Reliability allocation

Nell’industria è estremamente comune che il proprio prodotto debba soddisfare degli specifici requisiti imposti dal cliente finale. In ambito affidabilistico, sovente viene richiesto che un prodotto offra un’affidabilità il più possibile vicina al 99% dopo un certo numero di ore. Se il prodotto in questione fosse un elemento unico e semplice, come una guarnizione, il lavoro di adeguamento ai requisiti risulterebbe semplificato: occorrerebbe concentrare le proprie energie sull’eventuale miglioramento di una sola componente.

Una gran parte dei prodotti in commercio, tuttavia, non è una componente indivisibile, ma un insieme di parti combinate in assemblaggi, tali da formare un sistema complesso. Sorge dunque un quesito importante, ovvero come individuare gli assemblaggi critici del sistema, e su quali di questi è necessario concentrare maggiormente gli sforzi per migliorarne l’affidabilità.

La Reliability allocation è un valido metodo per lo studio e la risoluzione di queste problematiche. Essa offre metodi razionali e data-driven che determinano gli obiettivi affidabilistici per ciascun elemento. Il fine ultimo di quest’analisi è concentrare le proprie risorse sulle componenti critiche del sistema, e dunque ottimizzare i processi di sviluppo e miglioramento del prodotto.

In questo articolo viene mostrato un esempio pratico di Reliability allocation svolto utilizzando il programma Lambda Predict di ReliaSoft.

Inoltre, il sistema in esame verrà considerato non riparabile e composto da componenti assemblate in serie.

LP

Figura 1: Interfaccia del programma Lambda Predict

Perché praticare Reliability allocation?

Dimitri Kececioglu, importante riferimento dell’ingegneria dell’affidabilità, propone 6 vantaggi chiave offerti dalla Reliability allocation:

  1. Transizione da un approccio affidabilistico best effort a uno quantitativo, grazie al quale gli obiettivi di affidabilità sono definiti in termini numerici e fino al livello di singola unità operativa.
  2. Miglioramento sostanziale dei processi di design, approvvigionamento delle materie prime, manifattura e test, a seguito della definizione di chiari obiettivi di affidabilità.
  3. Maggiore comprensione dei problemi di affidabilità che possono affliggere un particolare design, grazie allo studio delle relazioni tra componenti, assemblaggi, e sistema.
  4. Requisiti determinati in base a valutazioni razionali ed economicamente sostenibili, piuttosto che metodi soggettivi o sviluppati a seguito di sfortunate esperienze sul campo.
  5. Raggiungimento dell’affidabilità del sistema ottimale, grazie alla gestione di fattori quali la complessità degli assemblaggi, lo stato dell’arte, l’ambiente operativo, costi, manutenzioni, ecc.
  6. Riduzione dei costi dovuti agli aggiustamenti di design fallimentari. Grazie alla ripartizione di affidabilità, è possibile individuare i sottosistemi critici sui quali concentrare gli sforzi ingegneristici.

Quando svolgere una Allocation analysis?

Le analisi di ripartizione vengono generalmente svolte in risposta a specifiche richieste di affidabilità da parte del cliente finale. Dunque, una prima analisi deve essere svolta durante le fasi iniziali del progetto, sebbene le caratteristiche del sistema e la sua interazione con l’ambiente siano poco conosciute.

Parallelamente allo sviluppo e al testing del prodotto, vengono messe in luce le sue caratteristiche peculiari e le sue criticità. Alcuni assemblaggi sono più complessi di altri, e di conseguenza più impegnativi in termini di manutenzione. Altri ancora possono richiedere interventi più frequenti, a causa della fragilità delle componenti stesse o a causa di condizioni di lavoro estreme. In risposta a queste problematiche, occorre aggiornare periodicamente l’analisi di ripartizione, cosicché questa possa offrire risultati più attendibili, tenuto conto dei nuovi parametri che caratterizzano il sistema. Alcune fasi del progetto in cui compiere nuove analisi sono:

  • La conclusione della fase di test durante lo sviluppo dei sottosistemi.
  • In seguito ai test di qualifica delle componenti funzionali del sistema.
  • All’inizio di ogni revisione significativa del sistema.

Una allocation analysis può essere svolta secondo varie metodologie, scelte a seconda della fase di progetto in cui viene svolta e in base ai dati disponibili riguardo al sistema e alle sue componenti.

Alcuni approcci di ripartizione

In termini matematici, l’obiettivo dell’allocation analysis è determinare le soluzioni della disequazione

$$f(R_1^*, R_2^*,\ldots, R_n^*) \geq R_S^*$$
con
  • $f(\cdot)$ la relazione funzionale tra affidabilità dei sottosistemi e del sistema.
  • $R_i^*$ affidabilità del sottosistema i-esimo.
  • $R_S^*$ affidabilità del sistema

Ciascun approccio tiene conto di diversi parametri relativi ai sottosistemi, ma in generale tutti permettono di manipolare i seguenti parametri:

  • Obiettivo affidabilistico, il valore di affidabilità desiderato dal sistema dopo una data quantità di tempo.
  • Tempo operativo, tempo in ore in cui il sistema è in funzione.
  • Sottosistemi da analizzare.

Gli approcci di ripartizione si dividono in

  • Equal, per cui gli obiettivi affidabilistici sono ripartiti equamente tra i sottosistemi.
  • Weighted (pesati), per cui la ripartizione avviene a seguito di analisi di parametri riguardanti il sottosistema e l’ambiente operativo.

In seguito verranno mostrate immagini provenienti dallo strumento Allocation presente nel programma Lambda Predict di ReliaSoft. I valori resi in corsivo indicano i risultati calcolati dallo strumento. Inoltre, poiché lo studio avviene in un contesto di analisi di predizione, si presume che il tasso di guasto delle componenti, e di conseguenza dei sottosistemi, sia costante.

Equal

L’approccio equal distribuisce in maniera equa gli obiettivi di affidabilità tra i vari assemblaggi del sistema, senza tenere conto della complessità o della criticità del singolo assemblaggio. Come mostrato in fig. 2, ad ogni sottosistema incluso viene allocato un certo valore di affidabilità necessaria al raggiungimento dell’obiettivo affidabilistico di sistema.

equal

Figura 2: Ripartizione con metodo equal in Lambda Predict

L’approccio Equal è estremamente grossolano, e ignora fattori quali la criticità degli assemblaggi. Questa metodologia è valida nelle fasi iniziali dello sviluppo, quando le conoscenze in merito al sistema e all’ambiente operativo sono scarse, ma andrebbe sostituita con altre più avanzate nelle fasi di progettazione successive.

Advisory Group on Reliability of Electronic Equipment (AGREE)

Il metodo AGREE è più avanzato del metodo equal, poiché tiene conto di fattori che caratterizzano la complessità e la criticità dei sottosistemi. Essi sono:

  • Fattore di importanza, la probabilità che un guasto all’assemblaggio causi un guasto generale del sistema. Un’importanza pari a 0 indica che il sistema continua a funzionare a discapito del guasto del sottosistema, mentre un’importanza pari a 1 indica che un guasto al sottosistema causa sempre un guasto generale.
  • Numero di elementi che compongono il sottosistema, adottato come misura della sua complessità.
agree

Figura 3: Ripartizione con metodo AGREE in Lambda Predict

La fig. 3 mostra una peculiarità del metodo AGREE: è ammesso che ciascun sottosistema operi in tempi di missione diversi.

La debolezza più significativa del metodo AGREE è la grande distorsione causata da elementi con scarsa importanza. Qualora tali sottosistemi siano presenti, è consigliabile scegliere un diverso metodo di ripartizione.

distortion

Figura 4: Distorsione causata dalla scarsa importanza del sottosistema “Inductors”

Dalla fig. 4 si nota un esempio di questa distorsione nel sottosistema “Inductors”, la cui importanza è prossima allo 0: i valori di Current Failure Rate e Allocated Failure Rate sono assolutamente non paragonabili in termini di ordini di grandezza.

Feasibility-Of-Objectives (FOO)

Questo metodo determina i valori di affidabilità allocata sulla base dei seguenti fattori, con un intervallo da 1 a 10:

  • Complessità del sottosistema, valutata in base al numero di componenti presenti e alla complessità dell’assemblaggio. Un valore di 1 indica un sistema semplice, mentre 10 indica un sistema estremamente complesso.
  • Stato dell’arte, per cui si confronta la sofisticazione della soluzione adottata con lo stato dell’arte ingegneristico nel campo di applicazione. Un 10 indica una soluzione estremamente primitiva, mentre 1 indica una soluzione molto sofisticata.
  • Tempo di performance, per cui a un sottosistema che opera per tutto il tempo di missione viene assegnato un valore di 10, mentre per un sottosistema che opera per intervalli molto brevi viene assegnato un valore di 1.
  • Ambiente, secondo cui il valore 10 indica un ambiente ostile, mentre il valore 1 indica un ambiente controllato.

I valori di ogni fattore sono assegnati dall’ingegnere secondo stime derivanti dalla propria esperienza sul campo e dal proprio know-how riguardo al sistema. In alternativa, un gruppo di ingegneri può determinare i valori utilizzando la tecnica di votazione Delphi. Il metodo FOO risulta dunque efficace quando il team di sviluppo è formato da uno o più esperti con molta esperienza sul campo.

Tuttavia, questa metodologia può portare a divergenze marcate e discussioni all’interno del gruppo di lavoro a causa di differenti opinioni riguardo ai punteggi da assegnare. Problematiche simili si riscontrano anche nell’assegnazione dei punteggi nelle analisi FMEA. Spunti per la risoluzione delle divergenze sono presentati nell’articolo La gestione delle divergenze nei punteggi FMEA.

foo

Figura 5: Ripartizione tramite metodo Feasibility-of-Objectives in Lambda Predict

La fig. 5 mostra ulteriori parametri associati al metodo FOO:

  • Weighting Factor (Wf), il prodotto dei fattori indicati precedentemente per il sottosistema.
  • Percent Ck, il Weighting Factor normalizzato tenendo conto dei Wf degli altri sottosistemi.
  • Composite Rating (Wfk), la sommatoria di tutti i Wf.

Aeronautical Radio Inc. (ARINC)

Questo metodo è meno impegnativo rispetto ad AGREE o FOO. Esso si basa sulla definizione di coefficienti di peso derivati dal confronto tra tasso di guasto attuale del sottosistema e tasso di guasto richiesto dalle specifiche.

arinc

Figura 6: Ripartizione con metodo ARINC in Lambda Predict

Di norma, il metodo ARINC di ripartizione ignora fattori di criticità e complessità dei sottosistemi. Questi, tuttavia, influenzano significativamente la stima del tasso di guasto del sottosistema, dalla quale poi viene eseguita l’analisi di ripartizione.

Le varie metodologie in breve

Metodo Vantaggi Principali Svantaggi Principali Quando Utilizzarlo
Equal Semplice e rapido da applicare. Grossolano, ignora le differenze tra sottosistemi, può portare a obiettivi irrealistici. Nelle primissime fasi di un progetto, quando i dati disponibili sono minimi o nulli.
AGREE Considera la complessità e l’importanza dei sottosistemi. Produce risultati distorti se l’importanza di un sottosistema è bassa. Quando le caratteristiche del prodotto sono ben conosciute.
FOO Considera molteplici fattori qualitativi; utile se i dati storici sono assenti o di bassa qualità. Altamente soggettivo, dipende dall’esperienza del team e può generare disaccordi. Quando l’esperienza del team di progettazione è più affidabile dei dati storici disponibili.
ARINC Basato su dati di guasto esistenti; complessità intermedia. L’accuratezza dipende dalla qualità dei dati iniziali. Quando l’unico dato misurabile e affidabile è il tasso di guasto di ciascun sottosistema.

Risultati grafici

Lambda Predict permette di generare grafici per confrontare requisiti e valori attuali di affidabilità dei sottosistemi in esame.

Il diagramma Allocated vs. current confronta, per ciascun sottosistema, il tasso di guasto attuale e il tasso di guasto richiesto dalle specifiche (fig. 7).

plot1

Figura 7: Diagramma Allocated vs. current basato sul metodo FOO

Il diagramma Difference, invece, mostra la differenza tra i due valori sopra descritti. Una differenza positiva indica che il sottosistema allo stato attuale soddisfa o supera i requisiti affidabilistici. Al contrario, una differenza negativa indica che è necessario agire sul sottosistema affinché questo soddisfi i requisiti (fig. 8).

plot3

Figura 8: Diagramma Difference basato su metodo FOO

In fig. 9 si può apprezzare la differenza tra i metodi equal e AGREE: il sottosistema “Diodes” soddisfa i requisiti secondo il metodo equal, ma altrettanto non si può dire per il metodo AGREE.

Figura 9: Differenze nella ripartizione di affidabilità nei metodi equal e AGREE

Conclusione

In conclusione, l’articolo descrive la Reliability Allocation come un processo fondamentale per scomporre un requisito di affidabilità generale di sistema in obiettivi specifici e misurabili per ciascun sottosistema. Vengono illustrati diversi metodi, da quelli più semplici (equal) a quelli più complessi (AGREE, FOO), la cui scelta dipende dalla fase del progetto e dai dati disponibili.

Vantaggi

  • Traduzione di un requisito generale in obiettivi quantitativi: trasforma un’esigenza astratta del cliente in target ingegneristici concreti per ogni team di progettazione.
  • Ottimizzazione delle risorse: permette di concentrare gli sforzi economici e progettuali sui componenti che hanno il maggiore impatto sull’affidabilità complessiva, evitando sprechi su parti meno critiche.
  • Approccio data-driven: promuove un processo decisionale basato su dati e analisi razionali, superando approcci soggettivi o basati solo sull’esperienza passata (metodo AGREE).

Svantaggi e limitazioni

  • Dipendenza dalla qualità dei dati: l’accuratezza dell’analisi è direttamente legata alla precisione dei dati di input. Stime errate o dati scarsi, soprattutto nelle fasi iniziali, possono portare a conclusioni fuorvianti.
  • Soggettività in alcuni metodi: approcci come il FOO si basano su valutazioni qualitative (es. complessità, ambiente) che dipendono fortemente dall’esperienza e dal giudizio soggettivo degli ingegneri.
  • Necessità di un processo iterativo: l’analisi non è un’attività da svolgere una sola volta. Deve essere periodicamente aggiornata man mano che il progetto evolve e si raccolgono nuovi dati dai test, richiedendo un impegno continuo.

Perché scegliere Lambda Predict?

Lambda Predict è lo strumento ideale per compiere analisi di affidabilità in mancanza di tempo e risorse necessari per effettuare analisi più complesse, quali analisi Weibull o test accelerati.

Dal programma è possibile accedere a una vasta libreria di componenti elettroniche, compilata da esperti del settore, dalla quale estrapolare caratteristiche di affidabilità.

Grazie al supporto a standard di predizione internazionali, Lambda Predict permette di ottenere predizioni affidabilistiche in linea con i requisiti dei settori aerospazio e difesa, ferroviario, elettronico, ecc.

Tecram e analisi di predizione

Tecram vanta esperienza pluriennale nelle analisi di predizione. Queste conoscenze sono fruibili gratuitamente attraverso numerosi video tutorial e articoli pubblicati alla pagina risorse.

Di particolare rilievo è il nostro webinar WBS05 (in inglese), il quale confronta tre dei più famosi standard di predizione: MIL-HDBK-217F, Telcordia SR-332, e FIDES. La trattazione teorica è poi arricchita da uno studio di caso pratico.

Per ottenere maggiori informazioni o richiedere una consulenza in ambito affidabilistico, contattateci alla nostra pagina contatti.

Riferimenti

  • Dimitri Kececioglu. Reliability Engineering Handbook, Volume 2. 1991.
  • United States Department of Defense. MIL-HDBK-338B.
  • Jose A. Cruz. Applicability and Limitations of Reliability Allocation Methods. 2016.

Parts
Gage thumbnail
tach
scheda
immagine