Wskaźniki Jakości w automotive – które KPI mierzyć i jak je dobrze interpretować

Wskaźniki jakości to jeden z tych tematów, które w teorii wyglądają prosto. Masz tabelę, kilka liczb, zielone i czerwone pola, trend miesiąc do miesiąca — i niby wszystko wiadomo.

Tyle że w automotive bardzo szybko wychodzi, czy za tymi liczbami stoi realna kontrola nad procesem, czy tylko raport przygotowany na spotkanie. Można mieć „ładny” dashboard, a jednocześnie gasić pożary na produkcji, odpowiadać na reklamacje klienta i tłumaczyć się z problemów, które miały być wychwycone dużo wcześniej. W sumie nie przez przypadek mówi się że „papier wszystko przyjmie”.

Właśnie dlatego temat wskaźników jakości regularnie wraca w każdej firmie produkcyjnej. Na przeglądach zarządzania. Na miesięcznych spotkaniach z kierownictwem. Przy audytach, reklamacjach, rozmowach z klientem. Przy ocenie dostawców. Wszędzie tam, gdzie pada proste pytanie: czy my naprawdę mamy ten obszar pod kontrolą?

Problem zwykle nie polega na tym, że firma nic nie mierzy. Częściej jest odwrotnie – mierzy się dużo, tylko nie zawsze to, co pomaga podejmować decyzje. Czasem wskaźnik jest źle zdefiniowany lu nikt nie wie, co dokładnie oznacza. Czasem wynik jest raportowany co miesiąc, ale nikt nie ma ustalonej reakcji, gdy trend zaczyna iść w złą stronę. A czasem wszystko się zgadza w Excelu, tylko problem i tak wychodzi u klienta.

Z tego artykułu dowiesz się:

  • jak rozumieć wskaźniki jakości w automotive,
  • jak je dobierać do konkretnego obszaru,
  • które KPI najczęściej pojawiają się w jakości klienta, jakości procesowej, systemach zarządzania jakością i supplier quality,
    oraz jak czytać wyniki tak, żeby coś z nich wynikało.

Bo sam wskaźnik niczego jeszcze nie naprawia. Pokazuje tylko, gdzie trzeba zajrzeć głębiej.

Czym są wskaźniki jakości i po co mierzy się je w automotive?

Najprościej mówiąc, wskaźnik jakości to liczba, która ma powiedzieć, czy dany obszar działa tak, jak powinien. Brzmi niewinnie. W praktyce ta liczba ma spory ciężar, bo na jej podstawie idą pytania, decyzje, eskalacje i działania korygujące.

W branży motoryzacyjnej wskaźnik jakości nie może być „liczbą dla samej liczby”. Ma odpowiadać na konkretne pytanie. Na przykład:

  • czy klient dostaje wyrób zgodny z wymaganiami,

  • czy proces wykrywa problem odpowiednio wcześnie,

  • czy system audytów działa zgodnie z planem,

  • czy dostawca utrzymuje poziom jakości, którego od niego oczekujesz.

Jakie wskaźniki jakości powinniśmy monitorować
Rys. Jakie wskaźniki jakości powinniśmy monitorować.

Tu pojawia się pierwsza rzecz, która często rozjeżdża temat w firmach. Sam pomiar jeszcze nie oznacza zarządzania. Możesz co miesiąc raportować PPM, liczbę reklamacji albo terminowość kalibracji, a i tak nie mieć realnej kontroli nad sytuacją, jeśli nikt nie analizuje przyczyn, nie pilnuje trendów i nie uruchamia reakcji wtedy, gdy wynik zaczyna siadać.

Wskaźnik jakości ma dawać sygnał do działania

Dobry wskaźnik działa jak kontrolka w samochodzie. Nie rozwiązuje problemu sam z siebie, ale daje sygnał, że trzeba sprawdzić, co dzieje się w środku. Jeśli lampka się świeci, a Ty zaklejasz ją taśmą, to samochód od tego nie zacznie jeździć lepiej. Z KPI w jakości jest dokładnie tak samo.

Jeżeli liczba reklamacji rośnie, to nie chodzi o samo wpisanie wyższego wyniku do raportu. Trzeba zadać kilka prostych pytań:

  • czy problem dotyczy jednego wyrobu czy kilku grup produktowych,
  • czy reklamacje pochodzą od jednego klienta czy od kilku,
  • czy problem wynika z procesu, pomiaru, organizacji reakcji, a może z dostawcy.

Wskaźnik jest więc punktem startowym. Pokazuje, gdzie patrzeć. Nie zastępuje analizy.

W automotive liczby muszą mieć właściciela i reakcję

Druga sprawa: wskaźnik bez właściciela bardzo szybko staje się ozdobą slajdu. Niby jest, niby ktoś go prezentuje, ale gdy wynik robi się słaby, zaczyna się klasyczne „to nie do końca nasz temat”.

Dlatego sensowny KPI powinien mieć cztery elementy:

  • jasną definicję,
  • sposób liczenia,
  • właściciela,
  • reakcję na odchylenie.
Elementy właściwie zdefiniowanego wskaźnika
Rys. 2. Elementy właściwie zdefiniowanego wskaźnika.

Bez tego pojawia się dysfunkcja. Jedna osoba liczy PPM tak, druga inaczej. Jedna wrzuca reklamację do miesiąca zgłoszenia, druga do miesiąca zamknięcia. Jedna traktuje opóźnioną kalibrację jako problem, druga uważa, że „jeszcze się mieści”. A potem wszyscy siedzą na spotkaniu i dyskutują nie o jakości, tylko o tym, która tabelka jest właściwa.

Dobrą praktyką jest umieszczenie wskaźnika w karcie procesu, która może być opracowana na podstawie diagramu żółwia lub SIPOC.

Nie każdy wskaźnik pokazuje to samo

To też jest ważne, bo w praktyce ludzie często wrzucają wszystko do jednego worka pod nazwą „wskaźniki jakości”. A tymczasem one pokazują różne rzeczy.

Jedne mówią o wyniku końcowym, jak reklamacje klienta czy PPM. Inne pokazują, czy system działa zgodnie z planem, jak realizacja audytów wewnętrznych. Jeszcze inne informują, czy proces ma podstawy do stabilnej pracy, jak terminowość kalibracji albo terminowość pomiarów laboratoryjnych.

Sam niski PPM nie mówi jeszcze, czy masz uporządkowane reakcje na hali. Sama realizacja planu audytów nie mówi, czy audyty faktycznie są wynikiem realnych problemów. Sam procent kalibracji na czas nie odpowiada na pytanie, czy metoda pomiaru działa dobrze w praktyce.

Po co firmy mierzą wskaźniki jakości?

Powód jest prosty: żeby wcześniej zobaczyć problem, ocenić skalę ryzyka i nie podejmować decyzji na wyczucie.

W dobrze poukładanym środowisku wskaźniki pomagają:

  • wyłapać pogarszający się trend,
  • porównać wyniki miesiąc do miesiąca,
  • ustawić priorytety dla działań jakościowych,
  • pokazać klientowi albo kierownictwu, co dzieje się w procesie,
  • ocenić skuteczność działań po reklamacjach, audytach albo problemach od dostawców.
Cechy prawidłowo zdefiniowanych wskaźników
Rys. 3. Cechy prawidłowo zdefiniowanych wskaźników.

To ma znaczenie szczególnie w automotive, gdzie wymagania klienta, presja terminów i oczekiwanie szybkiej reakcji idą razem. Gdy nie masz dobrego obrazu sytuacji, zaczynasz działać po fakcie. Najpierw problem wychodzi na produkcji albo u klienta, a dopiero później firma próbuje zrozumieć, co wcześniej przeoczyła.

Gdzie firmy najczęściej się wykładają?

Najczęściej nie na samym pomiarze. Wykładają się na interpretacji.

Przykład? Firma raportuje 100% realizacji audytów według planu. Wygląda dobrze – prawda? Tylko że po chwili wychodzi, że działania poaudytowe stoją od trzech miesięcy, a te same niezgodności wracają na innych liniach produkcyjnych.

Albo inna sytuacja: niski poziom reklamacji oficjalnych od klienta. Super. Tylko w tym samym czasie rośnie liczba tematów „nieformalnych”, przyspieszonych selekcji i maili z pytaniem „please explain”. W tabeli jest spokój, w relacji z klientem już niekoniecznie.

Dlatego przy wskaźnikach jakości zawsze trzeba patrzeć szerzej niż na sam wynik. Liczba ma sens dopiero wtedy, gdy widzisz jej tło, trend i konsekwencje.

O co naprawdę chodzi w KPI jakościowych?

Nie o to, żeby raport „się zgadzał”. Chodzi o to, żeby wiedzieć:

  • czy proces działa stabilnie,
  • czy system wykrywa problem odpowiednio wcześnie,
  • czy klient zaczyna tracić cierpliwość,
  • czy dostawcy utrzymują poziom, którego oczekujesz,
  • czy dział jakości panuje nad tym, co powinien nadzorować.

Jeśli wskaźnik pomaga odpowiedzieć na te pytania, ma sens. Jeśli istnieje tylko dlatego, że „zawsze był w raporcie”, to prędzej czy później zacznie zajmować miejsce zamiast pomagać.

Najpierw proces, potem wskaźnik

Dobry wskaźnik nie bierze się z sufitu. Powinien wynikać z procesu, za który ktoś odpowiada.

Jeśli nadzorujesz jakość klienta, naturalnie patrzysz na:

  • ilość oficjalnych reklamacji,
  • PPM,
  • satysfakcję klienta.

Gdy odpowiadasz za system zarządzania jakością, logiczne będą:

  • realizacja planu audytów systemowych,
  • realizacja planu audytów procesu,
  • terminowość zamykania działań poaudytowych.

Jeśli siedzisz bliżej hali i jakości procesowej, dochodzą:

  • kalibracje na czas,
  • terminowość pomiarów laboratoryjnych,
  • realizacja audytów wyrobu gotowego,
  • terminowość przeglądów planów kontroli.

A jeśli mówimy o supplier quality, to od razu wchodzą:

  • reklamacje do dostawców,
  • PPM dostawców,
  • % cost recovery – czyli ile kosztów procentowo udało się nam odzyskać z reklamacji wystawionych na poddostawców.

To podejście porządkuje temat. Najpierw ustalasz, jaki obszar ma być pod kontrolą, a dopiero potem dobierasz liczbę, która ma dać sygnał, czy ten obszar działa dobrze, czy zaczyna się rozjeżdżać.

Jeden wskaźnik = jedno pytanie

To jest moment, w którym dużo firm zaczyna sobie komplikować życie. Wskaźnik powinien odpowiadać na jedno konkretne pytanie. Na przykład:

  • czy klient zgłasza do nas coraz więcej oficjalnych problemów?
  • czy nasze środki pomiarowe są kalibrowane na czas?
  • czy audyty wewnętrzne są realizowane zgodnie z planem?

Jeśli jeden KPI próbuje odpowiedzieć na trzy rzeczy naraz, to po miesiącu nikt nie wie, o czym on tak naprawdę mówi.

Drobny test: jeśli po odczytaniu nazwy wskaźnika trzeba jeszcze przez pięć minut tłumaczyć, co dokładnie oznacza, to znaczy, że coś jest źle ustawione.

Wskaźnik musi mieć właściciela

Bez właściciela KPI bardzo szybko zamienia się w liczbę „do wiadomości”. Na papierze wszystko wygląda porządnie. Mamy wynik i trend. Tylko gdy pojawia się pytanie „kto ma z tym coś zrobić?”, zaczyna się rozchodzenie odpowiedzialności po kątach.

Dlatego przy każdym wskaźniku trzeba od razu ustalić:

  • kto za niego odpowiada,
  • kto go liczy,
  • kto analizuje trend,
  • kto uruchamia reakcję, gdy wynik nie jest w celu (targecie).

To wcale nie musi być jedna osoba. Ale odpowiedzialność ma być nazwana jasno. Bez tego na przeglądzie KPI wszyscy widzą czerwone pole, a nikt nie czuje, że temat jest po jego stronie.

Sam wynik to za mało — potrzebna jest reakcja

To jest chyba najczęściej pomijany element. Firmy potrafią bardzo dokładnie opisać, jak liczyć wskaźnik. Potrafią ustawić target. Potrafią zrobić wykres. A potem nie mają ustalonego, co się dzieje, gdy wynik siada.

I wtedy KPI zaczyna działać jak termometr bez lekarza. Pokazuje problem, ale nic dalej się nie dzieje. Przy każdym wskaźniku powinny być ustalone co najmniej trzy poziomy:

  • poziom oczekiwany,

  • poziom ostrzegawczy (stosowany opcjonalnie),

  • poziom, przy którym uruchamiasz eskalację albo konkretne działania.

Przykład z życia: jeśli terminowość kalibracji spada poniżej ustalonego poziomu, to co robisz?

Sprawdzasz pojedyncze przyrządy? Blokujesz użycie tych bez ważnej kalibracji? Robisz przegląd systemu zarządzania wyposażeniem pomiarowym? Angażujesz laboratorium i produkcję?

Jeśli tego nie ma, wskaźnik staje się tylko informacją historyczną.

Nie każdy wskaźnik musi być raportowany tak samo często

Tu też łatwo przesadzić. Niektóre KPI mają sens w układzie miesięcznym. Inne lepiej czytać tygodniowo. Jeszcze inne wystarczy przeglądać kwartalnie, o ile nie ma sygnału, że coś zaczyna się psuć.

Na przykład:

  • reklamacje klienta i PPM zwykle mają sens w cyklu miesięcznym z obserwacją trendu,
  • terminowość pomiarów laboratoryjnych albo kalibracji można śledzić częściej,
  • realizację planu audytów często analizuje się miesięcznie lub kwartalnie,
  • cost recovery od dostawców zwykle potrzebuje trochę dłuższego horyzontu, bo sam proces odzyskiwania kosztów trwa.

Jeśli wszystko wrzucisz do jednego czasookresu raportowania, część wskaźników będzie odświeżana za często, a część za późno.

Dobry KPI da się policzyć bez dyskusji, co autor miał na myśli

Brzmi banalnie, ale właśnie tu zaczynają się schody. Weźmy prosty przykład: „ilość reklamacji od klienta”. I od razu pojawiają się pytania:

  • liczymy tylko reklamacje oficjalne, czy też zgłoszenia od rezydenta?
  • liczymy według daty zgłoszenia czy daty potwierdzenia?
  • jeśli reklamacja została cofnięta po analizie, zostaje w KPI czy nie? I co jeśli klient ma 3 miesiące na decyzje, a wynik roczny musimy zaraportować za dwa tygodnie.

To samo dotyczy PPM, audytów, cost recovery, terminowości przeglądów planów kontroli.

Dlatego definicja wskaźnika powinna być zapisana normalnym, zrozumiałym językiem. Tak, żeby nowa osoba w dziale mogła ją przeczytać i policzyć wynik tak samo jak reszta.

Lepiej mieć mniej wskaźników, ale wiedzieć, co z nich wynika

W praktyce dużo lepiej działa zestaw kilku dobrze ustawionych KPI niż kilkanaście liczb, których nikt potem nie analizuje.

Jeśli masz dla danego obszaru:

  • sensowną definicję,
  • właściciela,
  • częstotliwość przeglądu,
  • reakcję na odchylenie,
  • trend,

to taki wskaźnik zaczyna żyć. Da się z nim pracować. Da się na jego podstawie rozmawiać z produkcją, z dostawcą, z klientem albo z kierownictwem. Jeżeli wskaźniki jakości istnieją tylko po to, żeby „były w raporcie”, to wcześniej czy później staną się tłem. Wszyscy je widzą, ale nikt nie traktuje ich poważnie.

Dariusz Kowalczyk

#main-content .dfd-content-wrap {margin: 0px;} #main-content .dfd-content-wrap > article {padding: 0px;}@media only screen and (min-width: 1101px) {#layout.dfd-portfolio-loop > .row.full-width > .blog-section.no-sidebars,#layout.dfd-gallery-loop > .row.full-width > .blog-section.no-sidebars {padding: 0 0px;}#layout.dfd-portfolio-loop > .row.full-width > .blog-section.no-sidebars > #main-content > .dfd-content-wrap:first-child,#layout.dfd-gallery-loop > .row.full-width > .blog-section.no-sidebars > #main-content > .dfd-content-wrap:first-child {border-top: 0px solid transparent; border-bottom: 0px solid transparent;}#layout.dfd-portfolio-loop > .row.full-width #right-sidebar,#layout.dfd-gallery-loop > .row.full-width #right-sidebar {padding-top: 0px;padding-bottom: 0px;}#layout.dfd-portfolio-loop > .row.full-width > .blog-section.no-sidebars .sort-panel,#layout.dfd-gallery-loop > .row.full-width > .blog-section.no-sidebars .sort-panel {margin-left: -0px;margin-right: -0px;}}#layout .dfd-content-wrap.layout-side-image,#layout > .row.full-width .dfd-content-wrap.layout-side-image {margin-left: 0;margin-right: 0;}

Pobierz BEZPŁATNIE nasze E-BOOKI

X