Articoli correlati
Divergenze nei punteggi FMEA
Nello sviluppo delle analisi FMEA (Failure Mode and Effects Analysis), indipendentemente dalla tipologia adottata o dallo standard di riferimento, emerge frequentemente la difficoltà di armonizzare i punteggi proposti dai partecipanti in merito a severità, occorrenza e rilevabilità dei guasti o problemi individuati.
Queste divergenze di valutazione possono generare ritardi operativi, incrementi di costo e, non di rado, un clima di insoddisfazione tra i partecipanti, che possono percepire una mancata valorizzazione del proprio contributo.
L’analisi FMEA rappresenta una delle rare attività aziendali che riunisce attorno allo stesso tavolo professionisti provenienti da differenti aree e competenze, con l’obiettivo di analizzare in profondità le criticità di un prodotto o di un processo.
Questa eterogeneità, se da un lato costituisce una ricchezza, dall’altro porta inevitabilmente a confrontare personalità e approcci molto diversi, che spaziano dal profilo assertivo e dominante al contributore più riservato.
In questo contesto, la presenza di un facilitatore esperto assume un’importanza cruciale. Il suo ruolo è quello di gestire le dinamiche di gruppo, favorire uno scambio costruttivo di idee ed esperienze e mantenere il focus sugli obiettivi tecnici dell’analisi, evitando che le differenze caratteriali ostacolino il progresso dei lavori.
Questo articolo propone alcuni suggerimenti catturati da discussioni con addetti ai lavori dal web e brainstorming interni a Tecram.
Le scale di valutazione FMEA e la variabilità interpretativa
Le scale di severità, occorrenza (figura sopra) e rilevabilità utilizzate nell’analisi FMEA sono generalmente strutturate su 10 livelli numerici.
La prima colonna della tabella riporta i valori numerici che verranno impiegati nel calcolo dell’indice di rischio (RPN o AP). In questo caso, i valori di occorrenza.
La seconda colonna fornisce una descrizione qualitativa sintetica del livello corrispondente, tipicamente articolata in categorie come:
- Very Low
- Low
- Moderate
- High
- Very High
La distribuzione di queste categorie non è uniforme. Ad esempio, solo un punteggio può essere associato a Very Low e Very High, mentre più valori intermedi (tre, nel caso illustrato) vengono ricondotti alle classi Moderate e High.
La terza colonna, infine, riporta un criterio descrittivo più dettagliato, utilizzato come riferimento per la selezione del valore numerico più appropriato. È proprio su questa colonna che si concentrano spesso le discussioni tra i partecipanti alle sessioni FMEA, poiché le definizioni in essa contenute sono intrinsecamente soggettive e possono essere interpretate in modi differenti.
Ad esempio, considerando la scala dell’occorrenza:
- Punteggio 3: Only isolated failure associated with almost identical design or in design simulation and testing
- Punteggio 4: Isolated failure associated with similar design or in design simulation and testing
- Punteggio 5: Occasional failure associated with similar design or in design simulation and testing
Come si può osservare, le differenze tra queste definizioni sono sottili e di natura qualitativa; di conseguenza, la loro interpretazione può variare sensibilmente da persona a persona, generando disaccordi nella fase di attribuzione dei punteggi.
Una gestione strutturata di queste discrepanze, ad esempio tramite il supporto di guide aziendali interne o di un facilitatore esperto, risulta fondamentale per garantire uniformità di giudizio e coerenza metodologica all’interno del team di analisi.
Strategie per ridurre le divergenze interpretative
Semplificazione delle scale di valutazione
Una delle soluzioni più efficaci per mitigare le differenze di interpretazione tra i partecipanti alle sessioni FMEA consiste nella semplificazione delle scale di valutazione.
In alcune realtà industriali con cui abbiamo collaborato, è stata adottata una riduzione del numero di livelli numerici: anziché utilizzare l’intera scala tradizionale da 1 a 10, sono stati impiegati solo quattro valori rappresentativi, ottenuti raggruppando gli intervalli adiacenti.
Ad esempio:
- I punteggi 1, 2 e 3 vengono ricondotti al valore sintetico 2
- I punteggi 4, 5 e 6 vengono accorpati al valore 5
- E così via per i livelli successivi
Questo approccio permette di ottenere categorie di valutazione più chiare e distinte, riducendo la probabilità di discussioni prolungate sulla scelta del punteggio “più corretto” e favorendo una maggiore coerenza decisionale all’interno del team.
Oltre a velocizzare il processo di compilazione, la semplificazione contribuisce anche a focalizzare l’attenzione sull’analisi dei rischi reali, piuttosto che sulla definizione fine dei valori numerici, migliorando così l’efficienza complessiva delle sessioni FMEA.
P
unto fondamentale – E’ importante focalizzare l’attenzione sui rischi reali piuttosto che sui punteggi. Se può aiutare a risolvere le differenze, adottare una scala ridotta anche solo per la causa in questione.
Chiedere una prova o evidenza
Un proverbio americano dice “un’oncia di prova vale una tonnellata di affermazioni”. Quando qualcuno suggerisce un valore, è opportuo chiedere:
- “Quali dati o esperienze supportano questa valutazione?”
- “Abbiamo osservato questo tipo di fallimento in produzione o nei test?”
- “Quanto spesso si è verificato storicamente?”
- “Qual è il tasso di fallimento previsto per N opportunità?”
P
unto fondamentale – Incoraggiare i partecipanti a basare il loro punteggio su dati, esperienza sul campo o risultati dei test piuttosto che sull’intuito.
Esaminare le ragioni delle differenze
Quando durante una sessione FMEA emergono valutazioni significativamente diverse, ad esempio, un partecipante assegna un punteggio di 8 all’occorrenza e un altro 5, è importante non limitarsi al confronto dei numeri, ma indagare le motivazioni sottostanti.
Tra le possibili cause di disallineamento:
- I partecipanti considerano condizioni operative differenti (uso normale rispetto a condizioni di stress o limite);
- Prendono in esame cause di guasto diverse, anche se riferite allo stesso modo di guasto;
- Assumono livelli di controllo differenti, ad esempio uno presuppone che le azioni correttive siano già implementate, mentre l’altro no.
P
unto fondamentale – chiarire in modo esplicito le assunzioni di base ed i confini dell’analisi. Spesso, una volta definito con precisione il contesto operativo e progettuale, le divergenze di valutazione si riducono o scompaiono completamente.
Utilizzare dati e registri storici
Laddove possibile, le valutazioni dovrebbero basarsi su dati oggettivi anziché su opinioni o percezioni personali. È quindi utile fare riferimento a:
- Tassi di guasto sul campo;
- Dati di garanzia o assistenza post-vendita;
- Statistiche sui difetti fornitori;
- Risultati di test di validazione o modellazioni di affidabilità.
P
unto fondamentale – privilegiare sempre una valutazione supportata da evidenze quantitative. L’utilizzo di dati storici e misurabili consente di ridurre la soggettività, aumentare la ripetibilità delle analisi e migliorare la credibilità tecnica del processo FMEA.
Facilitare il consenso
Dopo aver chiarito definizioni, assunzioni e dati:
- E’ importante incoraggiare il gruppo a convergere su un unico numero.
- Nel caso ci siano ancora punti non convergenti, si può optare per un valore mediano meno soggetto a distorsioni o una valutazione più conservativa.
P
unto fondamentale – Documentare le motivazioni nelle note FMEA e laddove le condizioni cambiano, aggiornare i risultati. Per esempio, inserimento di un controllo, risultati di un’azione, nuovi dati dal campo…
Rinviare se necessario
Qualora il consenso risulti impossibile:
- Assegnare un’azione volta a raccogliere i dati mancanti (ad esempio, test di affidabilità, feedback del fornitore, studio, DOE…).
- Utilizzare una valutazione provvisoria e contrassegnarla per la revisione nella prossima sessione.
P
unto fondamentale – Non restare bloccati; prendere una decisione anche provvisoria ma pianificare di riesaminarla con dati migliori.
Risorse a disposizione
Le analisi FMEA (Failure Mode and Effects Analysis) costituiscono il fondamento metodologico di ogni strategia orientata all’affidabilità, sicurezza e qualità del prodotto.
Rappresentano il punto di partenza di un percorso strutturato che consente di progettare e sviluppare soluzioni robuste, sicure, facilmente manutenibili e capaci di minimizzare i tempi di fermo (downtime).
Questo approccio, cuore della filosofia del Design for Reliability (DfR), è oggi una componente imprescindibile per le aziende che puntano all’eccellenza operativa.
Investire in affidabilità fin dalle prime fasi di progettazione significa prevenire costosi richiami, ridurre i rischi di non conformità e proteggere la reputazione aziendale, garantendo al contempo maggiori ritorni sugli investimenti futuri.
Tecram supporta i propri clienti in questo percorso mettendo a disposizione un ecosistema completo di risorse dedicate agli strumenti ReliaSoft per l’ingegneria dell’affidabilità e, nel contesto di quest’articolo, al programma XFMEA.
Attraverso video formativi, articoli tecnici di approfondimento e guide aggiornate, Tecram offre conoscenza, metodo e strumenti pratici per implementare analisi FMEA efficaci e pienamente integrate nei processi di progettazione.
Questo patrimonio informativo, in costante evoluzione e aggiornamento, riflette l’impegno continuo di Tecram nel promuovere una cultura dell’affidabilità come leva strategica per la competitività e l’innovazione industriale.
Conclusione
La riuscita di un’analisi FMEA non dipende unicamente dalla padronanza tecnica dei partecipanti, ma anche dalla qualità del processo di confronto e di decisione collettiva.
Le divergenze nella valutazione dei punteggi di severità, occorrenza e rilevabilità sono inevitabili, ma possono essere gestite in modo strutturato attraverso la semplificazione delle scale, l’analisi delle cause di disaccordo, l’utilizzo di dati oggettivi e la standardizzazione dei criteri interni.
In questo contesto, il ruolo del facilitatore risulta determinante: la sua capacità di guidare la discussione, chiarire le assunzioni e mantenere il gruppo focalizzato sugli obiettivi tecnici consente di trasformare il confronto in un momento di crescita condivisa piuttosto che di conflitto.
Infine, il supporto di strumenti digitali integrati (vedasi XFMEA) e la creazione di basi dati aziendali strutturate (vedasi XFRACAS) rappresentano un investimento strategico per consolidare la coerenza, la tracciabilità e l’efficacia delle analisi FMEA nel tempo.












