32,43 zł
Dekalog współczesnego zarządzania to książka, która wyznacza nowe trendy w nauczaniu koncepcji i metod zarządzania. Autorzy celowo pomijają w niej powszechnie znane podejścia, które można byłoby już zaliczyć do historii nauk o zarządzaniu, akcentując jednocześnie nowoczesne aspekty problematyki.
Praca zawiera szczegółową charakterystykę rożnorodnych metod i technik zarządzania, które zostały uporządkowane wokół dziesięciu wyodrębnionych nurtów badawczych. To cenny materiał źródłowy dla pracowników naukowo-dydaktycznych, doktorantów, studentów, przedstawicieli praktyki gospodarczej oraz administracji publicznej.
Ebooka przeczytasz w aplikacjach Legimi lub dowolnej aplikacji obsługującej format:
Liczba stron: 386
Copyright © by Difin SA
Warszawa 2013
Wszelkie prawa zastrzeżone. Kopiowanie, przedrukowywanie i rozpowszechnianie całości lub fragmentów niniejszej pracy bez zgody wydawcy zabronione.
Książka ta jest dziełem twórcy i wydawcy. Prosimy, abyś przestrzegał praw, jakie im przysługują. Jej zawartość możesz udostępnić nieodpłatnie osobom bliskim lub osobiście znanym, ale nie publikuj jej w internecie. Jeśli cytujesz jej fragmenty, nie zmieniaj ich treści i koniecznie zaznacz, czyje to dzieło. A kopiując jej część, rób to jedynie na użytek osobisty. Szanujmy cudzą własność i prawo.
Wydanie pierwsze
Recenzja wydawnicza:
prof. dr hab. Marek Bugdol oraz prof. dr hab. Marek Prymon
Redaktor prowadzący:
Tomasz Serafin
Korekta:
Monika Baranowska
Projekt okładki:
Edit sp. z o.o.
ISBN 978-83-7641- 930-5
Difin SA
Warszawa 2013
00-768 Warszawa, ul. F. Kostrzewskiego 1
tel. 22 851 45 61, 22 851 45 62, fax 22 841 98 91
Księgarnie internetowe Difin: www.ksiegarnia.difin.pl, www.ksiegarniasgh.pl
Skład i łamanie: Edit sp. z o.o., www.edit.net.pl
Skład wersji elektronicznej:
Virtualo Sp. z o.o.
Podejście sytuacyjne może być uznane w naukach o zarządzaniu za ostatni czytelny i spójny kierunek badawczy, po którym rozpoczyna się aktywność naukowa na obecnym etapie trudna do określenia jako konkretna szkoła czy podejście, aktywność eklektyczna i wielowątkowa. Domaga się ona jednak, dla przejrzystości prezentacji różnych treści, pewnego rodzaju uporządkowania. Wydaje się, że można wysunąć w tym względzie propozycję wyodrębnienia pewnych nurtów badawczych, w których możemy umieszczać prace różnych autorów. Ich przyporządkowanie jest w znacznej mierze umowne i bazuje na subiektywnej ocenie swoistego, merytorycznego punktu ciężkości poszczególnych podejść. W przekonaniu autorów rysują się we współczesnych naukach o zarządzaniu następujące nurty badawcze:
1. Poszukiwanie doskonałości działania (excellence).
2. Akcentowanie wyników działania.
3. Współpraca, wyszczuplanie i wirtualizacja.
4. Niematerialne determinanty konkurencyjności.
5. Wewnętrzna przedsiębiorczość, humanizowanie, zaangażowanie.
6. Diversity management, przeciwieństwa.
7. SCR iCorporate Governance.
8. Elastyczność i zmiana.
9. Koncentracja na priorytetach.
10. Koncentracja na kompetencjach (ludzkich i przedsiębiorstw).
Pomimo że publikacja ta poświęcona jest koncepcjom, metodom i technikom współczesnego zarządzania, autorzy pragną podkreślić, że obserwowane w praktyce ich autonomizowanie się i funkcjonowanie w oderwaniu od mierników oceny sprawności działania przedsiębiorstwa stanowi przykład swoistej patologii organizacyjnej. W wielu przypadkach bowiem do rangi samodzielnych wartości urastają te atrybuty działania przedsiębiorstw, które są związane z funkcjonowaniem wnętrza organizacji. Przykładem mogą służyć kompetencje przedsiębiorstwa, jego kultura organizacyjna, system komunikacyjny, elastyczność działania, lecz także metody i techniki zarządzania. Otóż w przekonaniu autorów owe wartości należą do wartości drugorzędnych, które aby „udowodnić” swe znaczenie muszą przekładać się na efekty bezpośrednio warunkujące efektywność ekonomiczną (szybkość działania, oszczędność, wartości cenione przez rynek). Jeśli takiego związku brak, bądź jest on wątpliwy, słabo uchwytny, wówczas koncentrowanie uwagi kierownictwa na ich budowaniu nie jest racjonalne z punktu widzenia optymalizowania efektywności ekonomicznej. Wiele przedsiębiorstw tak dalece uwikłało się na przykład we wdrażanie BSC czy reengineeringu, że ich kadry kierownicze zapominają, jaki był cel jego zastosowania i koncentrują się na metodzie a nie efektach. Podejście takie musi generować straty a nie wartość dodaną.
Rysunek 1. Schemat przekładania się różnych rodzajów wartości związanych z działaniami przedsiębiorstwa na efektywność ekonomiczną i behawioralną oraz ich swoista „odległość” od efektywności
Źródło: Opracowanie własne.
Wszystkie działania podejmowane w organizacjach są źródłami kosztów. Nie są oczywiście wyjątkiem także działania na rzecz budowania wartości. Wybór wartości niecenionych w danej branży przez odbiorców, budowanie wartości mało wyrazistych, nieoddziałujących na decyzje zakupowe a kosztownych, trudnych do zakomunikowania odbiorcom, spowoduje zamiast wzrostu efektywności działania przedsiębiorstwa jej obniżenie. Wybór priorytetów w tym zakresie jest więc ważną decyzją kierunkową.
Rozwiązania i podsystemy w obszarze zarządzania przedsiębiorstwem mają znaczenie wtórne z punktu widzenia wartości pożądanych przez rynek i kadrę kierowniczą. Jednak jak najbardziej słuszne wydaje się być pytanie, jak powinny być one ukształtowane, aby w możliwie najpełniejszym stopniu wspierały nadrzędny cel osiągania wysokiej efektywności ekonomicznej. Wymienione składowe systemów zarządzania mają charakter jakościowy. Wpływają więc one bezpośrednio na czynniki efektywności behawioralnej (wartości, oszczędność, szybkość działania), zaś pośrednio na efektywność ekonomiczną mierzoną za pomocą wskaźników o charakterze typowo finansowym. Można zatem zaprezentować pewną hierarchię znaczenia czynników biorących udział w procesie uzyskiwania efektywności ekonomicznej. Strzałka na rysunku oznacza dominujący kierunek wpływu poszczególnych kategorii na siebie, a więc pokazuje system ich wzajemnego zdeterminowania.
Rysunek 2. Hierarchia czynników biorących udział w procesie uzyskiwania efektywności ekonomicznej
Źródło: Opracowanie własne.
Odpowiedź na pytanie, jaki powinien być system zarządzania przedsiębiorstwa powinna być de facto odpowiedzią na pytanie, jakie powinny być składowe tego systemu i całość, aby przyczyniał się on do budowania wartości pożądanych przez rynek oraz założonych do realizacji przez kadrę zarządzającą. Powinien również przyczyniać się do szybkości i oszczędności działania. Taka konfiguracja systemu powinna znaleźć swą logiczną konsekwencję w postaci efektywności ekonomicznej, odzwierciedlanej przez jej typowo finansowe miary. Podajmy przykład swoistej reinterpretacji takiej niegdyś często „autonomizowanej” względem efektywności kategorii zarządzania, jaką jest struktura organizacyjna. Otóż struktura organizacyjna ma po prostu koncentrować uwagę zatrudnionych na najważniejszych celach biznesowych. Zatem budowanie struktury w oparciu o jednostki całościowo realizujące zadania, będące priorytetami strategicznymi jest realizacją takiego postulatu. Przykładem działania zmierzającego w tym kierunku są prace restrukturyzacyjne podjęte w firmie Xerox po 2000 roku1. Jego nowy profil biznesowy określono bardzo klarownie. Składają się nań trzy podstawowe obszary: urządzenia biurowe, systemy produkcyjne do druku cyfrowego oraz usługi (outsourcing). Powstały więc odpowiednio trzy elementy biznesowe: grupa Office, grupa PSG, grupa usługi (outsourcing). Organizacja przedsiębiorstwa została dostosowana do generalnej struktury celów biznesowych. W tym względzie powinna istnieć pełna izomorfia. Taka prosta zasada kształtowania organizacji jest podporządkowana wymogom efektywności ekonomicznej, bowiem nadaje działaniom kadry kierowniczej jasny kierunek – doskonalenie własnego obszaru działalności. Powoduje ponadto, że motywacja do działania jest silna – jasno określona została odpowiedzialność za realizację strategicznych celów biznesowych. Aby jednak ukształtować w ten sposób organizację przedsiębiorstwa, cele biznesowe powinny być klarownie wyspecyfikowane. Sprzyja temu, jak widać, motywacja do skonkretyzowania profilu biznesu. Zasadę organizowania przedsiębiorstwa wokół priorytetów biznesowych można przenosić w dół hierarchii organizacyjnej, na kolejne poziomy zarządzania. Wydaje się, że podobnie w naukach o zarządzaniu powinno się rozpatrywać konfigurację pozostałych elementów systemów zarządzania, np. strategie, kulturę organizacyjną, techniki zarządcze, system informacyjny etc. Należy poszukiwać klarownej więzi między ich postacią a efektywnością działania przedsiębiorstwa. Strategia w tej optyce ma być określeniem priorytetów działania, kultura organizacyjna ma integrować zatrudnionych wokół celów ważnych dla wyników, system informacyjny musi udrażniać i optymalizować przede wszystkim te kanały informacyjne, którymi biegną informacje zasadnicze dla podjęcia decyzji wpływających na podstawowe obszary wyników, zaś metody i techniki zarządzania powinny być ukierunkowane na te aspekty działania przedsiębiorstwa, które doskonalone, będą stanowić kluczową kompetencję i decydować o przewadze konkurencyjnej. Rzecz jasna, nie ma tutaj ogólnie obowiązujących recept, jednak możliwe jest zastosowanie wyżej opisanego podejścia w każdej szczegółowej sytuacji i określenie, jaka konfiguracja sprzyja wynikom, a jaka je niweczy.
Za pioniera tego nurtu należy bez wątpienia uznać T. Petersa, wpływowego konsultanta firmy McKinsey, współautora systemowego modelu organizacji 7S. Razem z R. Watermanem publikuje on w 1982 roku In Search of Excellence, książkę będącą bazą wielu debat o biznesie i źródłem inspiracji praktyków, lecz i wielu kontrowersji. Jak bowiem można w ośmiu punktach zawrzeć uniwersalną receptę na sukces przedsiębiorstwa, gdy przecież już wcześniejsze ustalenia szkoły sytuacyjnej negują możliwość formułowania uniwersalnych wniosków dla wszystkich organizacji. Autorzy książki, bazując na analizie przypadków firm osiągających sukcesy rynkowe, proponują następujący zestaw wspólnych dla nich cech działania:
1. Obsesja aktywności – wyróżniające się firmy nie krępują swoich pracowników biurokracją i procedurami administracyjnymi, lecz zachęcają do działania.
2. Bycie blisko klienta – w sensie czasu dotarcia, dostępności, reakcji na problemy, doradztwa i innych wymiarach kontaktów z klientami.
3. Autonomia i przedsiębiorczość – cechą ponadprzeciętnych organizacji jest tworzenie przestrzeni swobody dla przedsiębiorczych działań kadry i pracowników, stwierdzenie to można uznać za zbieżne z postulatami tzw. przedsiębiorczości korporacyjnej (corporate enterpreneurship).
4. Wydajność poprzez ludzi – zdaniem autorów osiąganie wysokiej produktywności przestaje być domeną wielkich firm inwestujących intensywnie w technologie umożliwiające osiąganie korzyści skali. Dzięki innowacyjności i przedsiębiorczości zatrudnionych także te mniejsze mogą osiągać wysoką wartość sprzedaży przypadającą na określoną kategorię nakładów (np. fundusz płac czy wartość środków trwałych).
5. Kierowanie się wartościami – istotne są jako spoiwo firmy wspólne wartości (shared values) z modelu „7S”, wartości podzielane przez pracowników i cenione przez menedżerów, którzy „nie boją się ubrudzić rąk”.
6. Koncentracja na kluczowym biznesie – firmy powinny opierać się na swoich kluczowych kompetencjach i nie wprowadzać dywersyfikacji „na siłę”, co jest rozwijane szerzej w ramach koncepcji kluczowych kompetencji (core competence).
7. Prosta struktura, niewielki sztab – firmy, które odnoszą sukcesy, starają się zachować prostotę budowy i funkcjonowania; obecnie redukcja sfery sztabowej jest uznawana za pewien trend organizacyjny. W praktyce oznacza redukowanie do minimum służb organizacji „niewystawionych” na kontakt z klientem, co bywa określane także jako organizacja służąca otoczeniu (OSO); sfera operacyjna „wchłania” sztabową lub przyczynia się do jej „urynkowienia” przez zakup jej usług, bądź rezygnację z niego. Zdarzają się także przypadki przejmowania przez sferę sztabową odpowiedzialności za konkretne projekty, co również zmienia jej charakter na bardziej operacyjny i nieodizolowany od rynku.
8. Jednoczesna „sztywność” i „elastyczność” – stabilność i regularność łączona ze zręcznością, na przykład przez zmianę priorytetów w kolejnych okresach (związanych ze stabilną działalnością lub też z nowymi projektami), co występuje w późniejszych koncepcjach dynamicznego zaangażowania (dynamic engagement) orazorganizacji bimodalnej (bimodal organization).
Pomimo że część organizacji, na bazie których formułowano wnioski dotyczące doskonałego zarządzania, nie przetrwała kryzysu z 1987 roku, który wybuchł na giełdach na Wall Street, w Londynie i Tokio, to być może nawet tym bardziej postulaty orientacji działań na klienta oraz bycia elastycznym zyskały na aktualności i nie wydają się być obecnie przestarzałe.
Jednym z najważniejszych efektów wzrostu konkurencji i przyspieszania zmian na rynkach jest zjawisko tzw. migracji wartości (value migration)2. Wyraża się ono nie tylko tym, że zmienia się struktura wartości dodanej w danym łańcuchu wartości (np. usługach IT, rolnictwie, opiece zdrowotnej), przez co jedni z jego uczestników przejmują marże innych, lecz także wartość migruje pomiędzy różnymi łańcuchami wartości. W efekcie drugiego z procesów niektóre branże „gasną”, a inne stają się branżami „wschodzącymi”. Firmy i branże zyskujące na zmianach przemieszczają się w tzw. strefę zysku (profit zone). Nowa równowaga ma jednak charakter temporalny i jest najczęściej stabilna w krótkim okresie czasu. Konieczne jest więc bądź to modyfikowanie własnego modelu biznesu i ucieczka wprzód, bądź też kopiowanie sprawdzających się modeli biznesowych wdrożonych przez konkurencję3. Z tego powodu koncepcja modeli biznesu jest ważna w czasach uogólnionej niepewności i wpisuje się w logikę ciągłego poszukiwania doskonałości.
Model biznesu to konstrukt teoretyczny będący de facto planem, który koncentruje się na mechanizmie eksploatowania zasobów otoczenia (realizowania przychodu). Jest to plan pozbawiony szczegółowej enumeracji celów, terminów, zasobów, metod i wykonawców, za to prezentuje opis, jak przedsięwzięcie ma funkcjonować i dlaczego właśnie klienci mają wybierać naszą ofertę rynkową. Model biznesu w pewnym sensie zastępuje strategię, pokrywa sie z nią częściowo i z zarządzania strategicznego się wywodzi. K. Obłój, analizując zakres pojęciowy modeli biznesu, dochodzi do wniosku, że powinien on zawierać odpowiedzi na następujące pytania:
1. Co firma będzie robić?
2. Jakie są jej podstawowe zasoby i kompetencje?
3. W jaki sposób zasoby i kompetencje są konfigurowane w praktyce codziennego działania?
Można jednak również z powodzeniem stwierdzić, że model biznesu odpowiada na pytania:
1. Jaki szczególny mechanizm funkcjonowania odpowiada za to, że klienci będą wybierać właśnie nasze przedsięwzięcie, jaką realną potrzebę ono zaspokaja?
2. Na jaką cechę działania stawia się w firmie szczególny akcent, co jest uświadomione przez każdego pracownika i konsekwentnie wdrażane w życie w codziennym działaniu?
3. Jaka jest statyczna i dynamiczna organizacja działania przedsiębiorstwa?
4. Jakie warunki materialne i niematerialne musi spełniać każdy oddział biznesu?
5. W jakim kierunku ewoluuje codzienna praktyka działania? Jakie ważne dla klienta cechy oferty doskonalimy?
Modele biznesu są ważne dlatego, że skłaniają przedsiębiorców oraz kadrę kierowniczą do opracowania wyrazistej, klarownej i logicznej koncepcji funkcjonowania własnego przedsiębiorstwa. Wyraziste koncepcje rynkowe są natomiast adresowane do konkretnej grupy docelowej. „Nijakość” zaś jest narażona w większym stopniu na obojętność odbiorców, bowiem niczyich potrzeb nie spełnia w większym stopniu niż oferty pozostałe.
Koncepcja organizacji budującej potencjał (capability creating organization) jest próbą odpowiedzi na pytanie, co zrobić, aby być zdolnym do częstej rekonfiguracji własnego modelu biznesowego. Kierując się jego wskazaniami, powinno się w sposób świadomy i aktywny poszukiwać dysproporcji i różnic w zakresie zasobów i sposobów działania pomiędzy naszym przedsięwzięciem oraz konkurencją. Owe dysproporcje mogą być swoistą nową „dźwignią” w branży i stać się centralnym elementem nowego modelu biznesu. Oczywiście różnice mogą też mieć, i w praktyce często mają, charakter potencjalny. Dostrzeżona zostaje wówczas możliwa różnica. Podejmowane są w konsekwencji działania na rzecz zbudowania np. systemu obsługi klientów odróżniającego nas od konkurencji. Przykładem mogłaby służyć pewna firma sprzedająca wykładziny podłogowe, która po okresie ich użytkowania zwalnia nabywcę z czynności utylizacyjnych, co odróżnia ją od wszystkich innych oferentów. Drugą wskazówką jest kreowanie raczej systemu kompetencji i zasobów niż koncentracja na wybranych spośród nich. Określenie system wskazuje dodatkowo na to, iż powinny się one logicznie dopełniać. Z tej dyrektywy korzystają często specjaliści łączący wiedzę na przykład lekarską i menedżerską, co w określonej sytuacji daje im przewagę konkurencyjną, trudną do szybkiego skopiowania. Podobnie jest w przypadku przedsiębiorstw. W praktyce łączy się w system zasoby, kompetencje ludzkie, doświadczenie, lokalizację, koncesje etc. Trudno jednak rozstrzygnąć, czy większe możliwości w zakresie budowy nowych modeli biznesowych daje taki system budowany z pewną myślą przewodnią czy też zupełnie intuicyjnie, a czasami nawet przypadkowo. Ostatnią wytyczną jest aktywne poszukiwanie w otoczeniu szans, które mogą być wykorzystane dzięki zbudowanemu systemowi kompetencji i zasobów. Taką szansą może być na przykład pojawiający się nowy segment odbiorców o pewnej spójnej i odpowiadającej nam charakterystyce i implikacja w postaci możliwości dotarcia doń ze swoją ofertą. Koncepcja powstała w oparciu o badania McKinsey w 22 wiodących firmach europejskich i amerykańskich4.
Doskonałość w obszarze decyzyjnym zarządzania jest w centrum uwagi koncepcji, której oryginalną nazwę: evidence-based managament – EBM można tłumaczyć jako zarządzanie oparte na przesłankach empirycznych. EBM jest określane jako metoda skoncentrowana na podejmowaniu decyzji w oparciu o konsekwentne, bazujące na jasnych zasadach i rozważne posługiwanie się czterema źródłami informacji: doświadczeniem i ocenami praktyków w danym obszarze decyzyjnym, danymi dotyczącymi konkretnego, „lokalnego” kontekstu decyzji, wyselekcjonowanymi pod kątem wiarygodności danymi pochodzącymi z zewnętrznych badań naukowych nad problemem oraz wiedzą i opiniami podmiotów, na które decyzja ma wpływ5. W takim określeniu EBM odnajdujemy oczywiście pogłos dawnych postulatów ugruntowania poznawczego działania, a także młodszego uwzględniania w procesie decyzyjnym interesów stakeholders. Także postulat uwzględniania w procesie decyzyjnym konkretnych, „lokalnych” uwarunkowań pojawiał się w teorii zarządzania w najbardziej wyrazisty sposób już w podejściu sytuacyjnym. Składowe nie są więc nowe, lecz przypominanie menedżerom o konieczności racjonalizowania procesu decyzyjnego wydaje się zasadne. Różne grupy decydentów preferują bowiem wybiórczo różne typy danych, na podstawie których podejmują decyzje. Preferowane mogą być wyłącznie znane, tzw. najlepsze praktyki (best practices) i wcześniejsze doświadczenia, dane z badań naukowych bądź inne źródła. Umiejętność równoważenia czterech różnych obszarów wydaje się natomiast praktyką zdecydowanie rzadszą. Oryginalnie rutyna uwzględniania w decyzji analogicznych do wymienionych wyżej obszarów danych pochodzi z nauk medycznych i dotyczy decyzji o sposobie leczenia. Kluczowym narzędziem w ramach EBM jest tzw. systematyczny przegląd źródeł wiedzy (systematic review). Ma on doprowadzić do wyselekcjonowania tylko tych źródeł, które są istotne dla problemu decyzyjnego, a jednocześnie reprezentują, zgodnie z tym, co powiedziano, różne ich klasy. W naukach medycznych systematyczny przegląd źródeł przybrał formę procedury PICO. P to określenie, czy dane mają dotyczyć określonej grupy pacjentów czy problemu (patient or problem), I (intervention) stanowi odpowiedź na pytanie, efekty jakiego zdarzenia, działania czy aktywności są przedmiotem studiowanego problemu, C to rozważenie różnych, alternatywnych możliwości interwencji i działania (comparison), zaś O (outcomes) określa efekty interwencji. Jak twierdzą zwolennicy podejścia, i nie bez słuszności, tylko obraz problemu wyłaniający się na bazie analizy odpowiednio (systematycznie) dobranych, zróżnicowanych źródeł jest bliski rzeczywistości. Tendencyjnie, przypadkowo dobrane źródła wiedzy generują obraz wypaczony. Dobrym przykładem są tutaj przeglądy wcześniejszych prac badawczych na potrzeby nowych tekstów naukowych. Obraz problemu jest intersubiektywnie prawdziwy wyłącznie w oparciu o przegląd rozległego spektrum źródeł. Jest tak również w przypadku problemów decyzyjnych w przedsiębiorstwach. Dla nauk społecznych zaproponowano inną, niż w przypadku medycyny, procedurę systematycznego przeglądu. Nazwano ją CIMO6. C (context) jest odpowiedzią na pytanie o podmiot decyzji (określona grupa jednostek, określone relacje, rozwiązania instytucjonalne, szersze systemy etc.), I (intervention) konkretyzuje pole zainteresowania w zakresie efektów zdarzeń, działań bądź aktywności, M (mechanisms) wyjaśniane są logiczne zależności pomiędzy interesującymi nas działaniami oraz wynikami, a także warunki sytuacyjne występowania zależności, zaś O (outcomes) określa pole rozważań w zakresie zamierzonych i niezamierzonych, interesujących efektów oraz definiuje sposoby pomiaru tych efektów. Przegląd systematyczny nie dostarcza odpowiedzi, lecz raczej pozwala na ustalenie tego, co wiemy w badanym obszarze a czego nie. Chodzi więc raczej o przedstawienie gremium decyzyjnemu aktualnego stanu wiedzy i tym samym umożliwienie podjęcia właściwej decyzji, niż sugerowanie rozwiązania.
Trudno jest wyobrazić sobie budowanie „doskonałości” operacyjnej bez odpowiedniego zaplecza technicznego. W tym obszarze dokonuje się niebywały postęp, który musi być przedmiotem zainteresowania nauk o zarządzaniu, gdyż nowe rozwiązania techniczne mają swój wymiar zarządczy bądź zarządcze implikacje. Specjaliści – inżynierowie muszą stawać się poniekąd specjalistami od zarządzania, lecz także odwrotnie, wielkim zaniechaniem byłaby ignorancja w kwestiach technicznych, choćby na poziomie znajomości idei i potencjału techniki.
W przedsiębiorstwach typowo produkcyjnych w ostatnich latach rozpowszechniają się nowe formy funkcjonowania produkcji – tzw. komórki produkcyjne (manufacturing cells). Są one w literaturze dotyczącej zarządzania operacyjnego wymieniane jako narzędzie osiągania celów kosztowych, związanych z elastyczną odpowiedzią na potrzeby rynku czy wyższymi normami jakościowymi. Komórki mogą reprezentować różne „domeny” działania i obejmować wytwarzanie poszczególnych komponentów, całych produktów bądź realizację części procesu produkcyjnego. Uważa się, że ich stosowanie przynosi efekty w postaci: redukcji wartości produkcji w toku, skrócenia cyklu produkcyjnego i wzrostu poziomu jakości7. Komórki produkcyjne są rozwiązaniem stosowanym często, lecz głównie przez duże przedsiębiorstwa, które mają odpowiedni potencjał intelektualny i materialny, aby zrealizować proces wdrożeniowy. W 1994 roku aż piąta część spośród 1042 badanych przedsiębiorstw w USA używało tej formy organizowania i zarządzania produkcją. Duże przedsiębiorstwa stosowały ją dwa razy częściej niż małe8. W najprostszym rozumieniu komórki produkcyjne są małymi klastrami składającymi się z grup robotników, pracowników biurowych i maszyn. Kryterium grupowania ma charakter ściśle techniczny, związany z podobieństwem stosowanych technologii, tokiem produkcji, podobieństwem wykonywanych detali. W fabryce maszyn rolniczych New Holland, należącej do koncernu Fiata w północnych Włoszech, całościowa przestrzeń fabryki została podzielona na oddzielone od siebie obszary o różnych barwach. Każda komórka posiada swoje własne maszyny i urządzenia oraz przestrzenie biurowe. Robotnicy oraz pracownicy biurowi są zlokalizowani tuż obok siebie, wskutek czego komunikacja jest bezpośrednia i szybka. Nie istnieją fizyczne, rozdzielające te dwie grupy zatrudnionych bariery. Maszyny są oddzielone zabezpieczeniami w postaci kabin. Pracownicy biurowi danej komórki mają wspólne telefony, komputery i przestrzeń pracy. Na tablicach informacyjnych wywieszane są łatwo dostępne dla wszystkich, istotne informacje, w tym o wykonaniu i zadaniach. Zgłaszane są na nich także sugestie pracowników, które zawsze są później dyskutowane. Każda komórka dysponuje miejscem do organizowania szybkich zebrań. Uczestniczą w nich często dostawcy danej komórki, którzy są zainteresowani wypracowaniem rozwiązań bieżących problemów korzystnym dla obydwu stron. Komórki są uprawnione do poszukiwania dostawców zewnętrznych i ich wyboru. W ramach komórek podejmowane są wszystkie decyzje dotyczące problemów operacyjnych, na przykład jak zarządzać dostępnymi zasobami, aby osiągnąć efektywnie założone cele oraz jak rozdzielać środki na wynagrodzenia. Promowana jest autonomia i samodzielność. Kiedy zachodzi potrzeba, pracownicy zewnętrzni są wprowadzani do komórki i współpracują ze stabilną częścią jej załogi. Oczywiście podejmowane są też decyzje finansowe dotyczące alokacji budżetowanych środków. Cztery podstawowe grupy decyzji podejmowanych w komórkach to: decyzje techniczne, związane z dostawami i dostawcami, dotyczące zasobów ludzkich oraz wydatkowania środków z budżetów. Podobne rozwiązania opisano z fabryk Lexmark i Biesse również z Włoch9. Zarówno menedżerowie w Lexmarku, jak i w New Holland przyznawali, że głównym motywem zastosowania komórek produkcyjnych była konieczność szybszej reakcji na zmieniające się potrzeby rynku i zwiększenie efektywności ekonomicznej w stosunku do konkurencji dysponującej właściwie identyczną bazą techniczną (maszyny, technologie). Jedną z konsekwencji przyjęcia komórkowej organizacji produkcji była redukcja zatrudnienia w sferze centralnej, sztabowej, w której stało się ono potrzebne w mniejszym niż dotąd stopniu. W New Holland zanotowano dodatkowo 30-procentowy spadek absencji, radykalne skrócenie czasu trwania cyklu produkcyjnego z 7 dni do 4 godzin (!) oraz wzrost produktywności zatrudnionych. Warto dodać, że właściwie nie istnieją dolne granice wielkości komórek mierzone liczbą zatrudnionych, lecz w dużych zakładach nie przekracza się wielkości 100 zatrudnionych w ramach komórki.
Doskonalenia sfery technicznej dotyczy także głównie koncepcja przedsiębiorstwa działającego w czasie rzeczywistym (real-time enterprise). Jej realizacja bazuje na zintegrowanym wykorzystaniu sfery IT, w każdym z obszarów funkcjonalnych przedsiębiorstwa. Przedsiębiorstwo działające w czasie rzeczywistym realizuje korzyści dzięki automatyzacji, przyspieszeniu realizacji procesów w przedsiębiorstwie i ich wielowymiarowym monitorowaniu. Koncepcja wykazuje silne związki z ideą zarządzania w oparciu oczynnik czasu (time-based management, time-based competition) oraz ideą organizacji zwinnej (agile organization).
Funkcjonowanie przedsiębiorstwa działającego w czasie rzeczywistym jest koncepcyjnie oparte na procesach. Przedsiębiorstwo to wiązka procesów. Należy je zidentyfikować, modelować (budować i doskonalić) oraz integrować z innymi procesami. W obecnej dobie jest jednak niedopuszczalne, aby podmioty odpowiedzialne za konstrukcję procesów biznesowych swoje czynności realizowały autonomicznie w stosunku do informatyków, tworzących narzędzia do ich późniejszej obsługi. W koncepcji postuluje się więc silną współpracę obydwu sfer i wykorzystywanie tych samych narzędzi. Obecnie popularne jest stosowanie tzw. graficznych notacji, np. standardu BPMN do projektowania procesów. Narzędzia tego typu pozwalają na symulacje procesów uwzględniające niezbędne do realizacji kompetencje, czas i koszty. Nie zawsze narzędzia informatyczne, obsługujące poszczególne sfery funkcjonowania przedsiębiorstwa, są projektowane przez tych samych producentów z wykorzystaniem tych samych technologii informatycznych. Obecnie realizowalny jest już jednak od dawna podnoszony postulat możliwości integrowania różnych narzędzi informatycznych w oparciu o tzw. architekturę SOA (Service Oriented Architecture). Rozwinięte są także informatyczne techniki monitorowania procesów w oparciu o dane zapisane w systemie. Są one określane jako process mining czydata/workflow mining. Pozwalają na uzyskanie odpowiedzi na złożone pytania dotyczące realizowanych procesów biznesowych. Przedsiębiorstwo działające w czasie rzeczywistym projektuje więc procesy w standardzie umożliwiającym później ich szybkie oprzyrządowanie informatyczne, modyfikację, dostosowanie oraz integruje i nadzoruje informatycznie system realizacji procesów biznesowych.
Cały system opisany wyżej uzupełnia postulat automatyzacji tam, gdzie jest to możliwe i wskazane z uwagi na sprawność realizacji procesów biznesowych. W literaturze podawany jest przykład chilijskiej spółki Spevi specjalizującej się w aparaturze nagłaśniającej. Spółka realizuje duże zlecenia, na przykład systemy dla budynków biurowych. Zgodnie z filozofią przedsiębiorstwa działającego w czasie rzeczywistym obsługę klienta, zazwyczaj zdefragmentowaną, zaprojektowano w postaci zintegrowanego, zautomatyzowanego systemu, który przyspieszył i uprościł obsługę i realizację usługi, zwiększając jednocześnie wolumen wykonanych prac. Klient składa zapytanie w zestandaryzowanej, elektronicznej postaci, która umożliwia systemowi automatyczną ocenę możliwości realizacji10. System jest kolejno zintegrowany z częścią projektową, materiałową, wykonawczą, finansową itd. Ingerencja obsługi realizującej wyspecjalizowane, wyodrębnione zadania została zminimalizowana, a czas realizacji, kompleksowość i jakość ocenia się jako zdecydowanie bardziej konkurencyjne.
Jak wspomniano, z ideą przedsiębiorstwa działającego w czasie rzeczywistym związane jest zarządzanie w oparciu oczynnik czasu (time-based management). Znajduje ono zastosowanie we wszystkich obszarach działania przedsiębiorstwa. Odnosi się także do relacji między nim a otoczeniem. Czasem nie da się zarządzać, jednak można używać go jako jednego z najważniejszych kryteriów podejmowania decyzji w różnych sferach funkcjonowania. Upraszczając, można byłoby stwierdzić, że wprowadzona zostaje, w konsekwencji zastosowania tej metody w praktyce, prosta reguła decyzyjna: te rozwiązania są lepsze, które przy podobnych efektach są mniej czasochłonne. Przedsiębiorstwo staje się obiektem optymalizacji pod kątem długości trwania poszczególnych operacji a w efekcie także kluczowych procesów. Wprawdzie czas nie może być w każdym przypadku kryterium uniwersalnym i jedynym, to jednak w wielu sytuacjach przekłada się wprost na koszty działania, co uzasadnia jego znaczenie z punktu widzenia rachunku ekonomicznego. Szybciej znaczy taniej. Czas jest jednym z najważniejszych czynników generujących koszty (time as executional cost driver). Do tego szybciej może oznaczać także przewagę w relacji do konkurencji. Kto szybciej dociera na rynek, zbiera premię za nowość (first mover advantage). Firmy produkujące programy komputerowe wdrażają nowe produkty na rynek nawet wówczas, gdy nie są one całkowicie dopracowane. Strata czasu w stosunku do konkurencji oznacza stratę klientów na jej rzecz, a więc i utratę części przychodów. Również najlepsi (najbardziej rentowni) klienci nie mogą czekać. Chcąc ich pozyskać, firma powinna posiadać przewagę czasu dostawy.
Przedmiotem optymalizacji z punktu widzenia czasu są nie tylko operacje stricte produkcyjne, ale także: rozwój produktu (product development), relacje z klientami (customer-relations) oraz, co niezwykle istotne, proces decyzyjny (decision making process) na wszystkich szczeblach organizacji.
Oprócz znanych z literatury przedmiotu technik optymalizacji przebiegu produkcji11, warto jest wspomnieć o dwóch rozwiązaniach, które mają wymiar organizacyjno-zarządczy. Pierwsze z nich to scalanie wszystkich działań produkcyjnych w efekcie funkcjonowania służb optymalizacyjnych, których głównym zadaniem jest synchronizacja poszczególnych etapów produkcji. System produkcji musi działać jako całość tak, aby uniknąć przetargów i gier „lokalnych menedżerów”. W niektórych firmach stosujących tę metodę były tworzone centralne jednostki planowania (central planning departament), a funkcje planowania zostały do nich przesunięte z poziomu poszczególnych wydziałów czy zakładów połączonych więzią kooperacyjną. System może więc w pewnych obszarach wymagających optymalizacji pozbawiać kadrę kierowniczą niektórych uprawnień decyzyjnych. Z drugiej strony, pozwala jej na koncentrację na wywiązaniu się z realizacji zadań w napiętych terminach. Drugie interesujące rozwiązanie to wprowadzenie podziału wszystkich pracowników produkcyjnych na dwie grupy: zatrudnionych w oparciu o tradycyjne umowy pracowników wykwalifikowanych w określonym obszarze i wynagradzanych miesięcznie za realizację zadań na danym stanowisku oraz grupę pracowników wysoko mobilnych, wynagradzanych za godziny pracy, którzy realizują czynności wymagające niższych kwalifikacji, pomocnicze, w sytuacji, gdy którykolwiek z wydziałów czy zakładów posiada nadmierne obciążenie zagrażające nie wywiązaniem się z przyjętych terminów. Jest to grupa wysoce mobilna i przemieszczana w zależności od potrzeb w różne obszary organizacji.
W zakresie działań produkcyjnych i wszystkich o wymiarze realnym, ważnym zaleceniem jest także standaryzacja czasów realizacji operacji. Zazwyczaj czasy te są dosyć rozbieżne w zależności od sytuacji produkcyjnej, zmiany, obsady osobowej itd. W ramach TBM dąży się więc nie tylko do zmniejszenia średniego czasu trwania operacji, ale i do ograniczenia wariancji w tym zakresie. Jeśli miara rozbieżności czasów realizacji tych samych operacji w całej firmie przyjmuje małe wartości, to możliwe staje się ścisłe i precyzyjne harmonogramowanie i planowanie pracy. Wówczas nie tylko przebiegi są krótkie, ale również zazębiają się ze sobą, a poszczególne prace zaczynają się i kończą punktualnie. Przydatne w tym zakresie są statystyczne narzędzia kontroli jakości, na przykład karty kontrolne12.
W zakresie rozwoju produktu w ostatnich latach wypracowano technikę zwaną BET (Break-Even-Time). Wiąże ona zmienną czasu opracowywania i wdrażania produktu na rynek z kosztami i przychodami związanymi z tym produktem. Może ona być z powodzeniem wykorzystywana w ramach opisywanej tutaj metody TBM, jako technika pomocnicza redukcji czasu działania zespołów interdyscyplinarnych. Podobna uwaga dotyczy zresztą techniki ECR (Efficient Customer Response) w zakresie relacji: producent – hurtownik – detalista.
W zakresie relacji z otoczeniem rynkowym obowiązuje ważna zasada bycia blisko klienta. Uzupełniają ją elastyczność oraz upełnomocnienie. Bycie blisko klienta może być egzemplifikowane przez lokowanie niewielkich przedstawicielstw firmy czy biur obsługi na rynkach lokalnych, co ułatwia kontakty z pracownikami firmy odpowiedzialnymi za obsługę klienta. Rozwiązanie takie bywa notowane w firmach usługowych, na przykład w zakresie doradztwa czy technologii informatycznych. Dodatkowo przedstawicielstwa takie prowadzą aktywną politykę pozyskiwania nowych klientów, przez co wdrażana może być w życie strategia rozwoju rynku. Podobnie powinno być w organizacji – ściśle współpracujące komórki organizacyjne czy stanowiska pracy powinny być lokowane w przestrzennej bliskości. To działanie organizacyjne byłoby nieskuteczne, gdyby zatrudnieni w nich pracownicy nie posiadali uprawnień do podejmowania decyzji odnośnie obsługi klienta i rozwiązywania podstawowych problemów, na przykład związanych z reklamacjami. W firmach typowo produkcyjnych bywa przyjmowany inny model „bycia blisko klienta”. Duże firmy tego typu często stosują zasadę ograniczenia własnych działań do wycinka łańcucha wartości. Dlatego nawiązują współpracę z niewielką liczbą dużych, silnych dystrybutorów, którzy koncentrują się na sprawnej obsłudze odbiorców mniejszych. Same zaś firmy wdrażają politykę obsługi klienta w stosunku do wąskiej grupy dużych dystrybutorów. Kontakty z tą grupą są bardzo ścisłe. Firmę produkcyjną i silnego dystrybutora łączą nierzadko otwarte dla obydwu stron systemy informatyczne (w zakresie tematów współpracy), a zamówiona produkcja trafia bezpośrednio z linii produkcyjnych do dystrybutorów z pominięciem magazynowania i składów. Działania takie są możliwe znowu tylko wówczas, gdy grupa dystrybutorów jest zawężona. Egzemplifikują one podejście stosowane w ramach TBM. Bardzo podobne rozwiązania obowiązują w kontaktach z dostawcami. Niewielka grupa dostawców może realizować większe dostawy na zasadzie just in time, przejmując koszty magazynowania na siebie. Przy współpracy w dłuższym horyzoncie czasowym stosuje się tutaj dodatkowo politykę współdziałania opartą na przejrzystości marż dostawcy. Takie rozwiązania powodują nie tylko ograniczanie działań niedodających wartości – składowanie, przemieszczanie, ale też korzyści kosztowe. Z punktu widzenia dostawcy zwiększają zaś stabilność i przewidywalność działania.
Redukcja czasu realizacji zadań organizacji wymaga spojrzenia na nie z punktu widzenia wartości dodanej (VA). Jednym ze sposobów skrócenia cyklu realizacji ważnych procesów jest bowiem eliminowanie zadań, które nie dodają wartości. Takie zadania są obojętne z punktu widzenia klienta lub inaczej – nie zmieniają formy produktu czy usługi bądź nie powodują, że jest on bliżej odbiorcy13. Management każdej firmy powinien się więc przyglądać szczególnie uważnie miejscom w organizacji, w których występują: kolejki, oczekiwania na decyzje, składy czy przestoje spowodowane przestawieniami bądź przygotowaniami. Na ogół możliwa jest wówczas zmiana organizacji pracy w tych miejscach, a w efekcie eliminacja czynności niedodających wartości. Przykładem może być lokalizacja składów narzędzi w bezpośrednim sąsiedztwie stanowisk pracy bądź lokalizacji służb sprzedażowych wprost w pomieszczeniach magazynowych.
Z punktu widzenia szybkości podejmowania decyzji kilka zmiennych wydaje się mieć w firmach szczególne znaczenie. Pierwsza z nich to horyzontalne struktury organizacyjne pozbawione szczebli kierowania, które nie mają jasno określonych uprawnień decyzyjnych, a wszystkie sprawy kierują w górę hierarchii i oczekują na decyzję, aby ją przekazać swoim podwładnym. Drugi czynnik to intensywne stosowanie technik informatycznych nie tylko w celu usprawnienia łączności, lecz także w sensie posiadania bazy informacyjnej do podjęcia jasno określonej decyzji zgodnie z jasnymi przesłankami. Pozbycie się pośrednich szczebli zarządzania, jasne określenie decyzji oraz kryteriów ich podjęcia oraz intensywne stosowanie IT jest warunkiem sprawności decyzyjnej firmy z punktu widzenia nie tylko czasu, ale też jakości samej decyzji.
W zakresie zadań produkcyjnych, lecz także i tych związanych z działalnością niematerialną wprowadzana bywa w życie zasada kolejności i nie zmieniania priorytetów w trakcie działania14. Okazuje się, że prowadzenie wielu spraw jednocześnie powoduje wydłużenie łącznego czasu przygotowawczo-zakończeniowego i powracanie do tych samych spraw wielokrotnie. Wynika stąd, że tak w zakresie produkcji, jak i innych czynności warto jest rozpoczynać następną pracę (zlecenie, zadanie) dopiero po sfinalizowaniu poprzedniej. Zasada prowadzenia spraw do końca powoduje też, że nie występuje dylemat zmiany priorytetów w trakcie działania, zaś efekty ujawniają się szybciej.
Jedną z istotnych przesłanek stosowania TBM, oprócz polityki kosztowej jest wciąż rosnące tempo zmian upodobań klientów i potrzeba spełniania życzeń rynku bez zwłoki a nawet z wyprzedzeniem. Czas dostawy czy realizacji jest jednym z ważnych i uniwersalnych kryteriów oceny każdej usługi (responsiveness)15. Czas dostawy czy realizacji może być ważnym kryterium wyboru oferty konkretnej firmy. Najlepsi klienci są skłonni płacić za elastyczność dostawcy.
Wydaje się, że TBM może być stosowany w większości firm, jednak w szczególności zaleca się rozważenie tej metody jako wiodącej w firmach, które podejmują rywalizację konkurencyjną o zasięgu globalnym, produkujących lub świadczących usługi wysokiej jakości w rynkach niszowych16.
Dla wielu przedsiębiorstw produkcyjnych wyzwaniem współczesności jest oferowanie produktów, które posiadają wpisaną w ich koncepcję możliwość indywidualizacji. Powodują to zmienne i wysoce zindywidualizowane gusta i potrzeby dzisiejszego nabywcy. Indywidualizacja oferty rynkowej jest skomplikowanym problemem technicznym i zarządczym. Przedsiębiorstwa zmuszone są odpowiadać na pytanie, jak w ryzach trzymać koszty produkcji, która zakłada różnorodność oraz jak zarządzać produktami, które są tak różnorodne. Między innymi te problemy są przedmiotem zarządzania konfiguracją oferty rynkowej (configuration management). Badania praktyk przedsiębiorstw zmagających się z wyzwaniami konfiguracji oferty rynkowej wskazują, że najczęstszym z błędów jest wprowadzanie możliwości indywidualizacji oferty w odniesieniu do konkretnego produktu w oparciu o podejście oddolne (bottom-up), zaś potem przenoszenie pomysłu na całe linie produktowe bądź inne produkty. Dobrą praktyką w tej mierze jest ustalenie sformalizowanej strategii, idei indywidualizowania dla całej grupy produktów. Jeśli strategia różnicowania nie jest jasno określona, prowadzi to do innego rozumienia możliwości w tej mierze przez służby marketingowo-sprzedażowe oraz techniczne zajmujące się projektowaniem, technologią i produkcją. Sytuacja taka może skutkować zjawiskiem opisywanym jako rozmyta oferta (fuzzy offering) oraz dezinformacją klienta prowadzącą do utraty wiarygodności rynkowej. Potrzebna jest więc systemowa logika konfiguracji poszczególnych grup produktów konstytuujących portfolio rynkowe firmy. Należy też pamiętać, że indywidualizacja musi uwzględniać nie tylko sam produkt, lecz także serwis oraz składową niematerialną oferty (np. software). Absolutnym wymogiem wdrażania zarządzania konfiguracją oferty rynkowej jest dodatkowo: modułowe projektowanie wyrobów, dysponowanie wspierającym oprogramowaniem oraz silna koordynacja między służbami sprzedażowymi, technicznymi oraz informatycznymi.
Elementem doskonałości w prowadzeniu procesów biznesowych jest zdolność do identyfikowania prawdopodobnych sytuacji mogących stanowić zagrożenie dla bytu organizacji i przygotowanie na nie stosownych scenariuszy reakcji. Część zmian ma dla przedsiębiorstw niewątpliwie niekorzystny charakter. Mogą one rujnować efektywność ekonomiczną, równowagę społeczną czy zasoby niematerialne (np. reputację). Uznaje się więc, że niezwykle ważnym obszarem aktywności kadry zarządzającej powinno być zarządzanie ryzykiem (risk management).
W literaturze przedmiotu występują dwa alternatywne podejścia terminologiczne do ryzyka17:
1. Ryzyko jako możliwość poniesienia straty, bądź osiągnięcia korzyści mniejszej od oczekiwanej.
2. Ryzyko jako możliwość wystąpienia efektu działania niezgodnego z oczekiwaniami, co sprawia, że rezultat może być gorszy, ale także lepszy od zakładanego.
Ryzyko jest nieodłącznym elementem każdej decyzji podejmowanej w przedsiębiorstwie, zaś jego źródła mogą mieć charakter wewnętrzny i zewnętrzny18. Przesłanki wewnętrzne pochodzą z samego przedsiębiorstwa i mogą wynikać np. z: (1) kompetencji menedżerów, (2) jakości oferowanych produktów, (3) wykorzystywanych systemów motywacyjnych, (4) przyjętej strategii finansowej, głównie poziomu dźwigni operacyjnej i finansowej, która zależy od wielkość kapitału obcego zaangażowanego w przedsiębiorstwie.
Przesłanki zewnętrzne pochodzą natomiast z otoczenia przedsiębiorstwa i można do nich zaliczyć przykładowo ryzyka: polityczne, makroekonomiczne, rynkowe, płynności itp.
Systematyzując grupy ryzyka występujące w przedsiębiorstwie, W. Tarczyński i M. Mojskiewicz, wyróżnili ryzyko19: rynkowe (kursowe, stóp procentowych, płynności instrumentów finansowych, cen towarów, wycofania kapitału, bankructwa), kredytowe (kraju, upadłości, płynności finansowej, koncentracji, drugiej strony transakcji), operacyjne (organizacyjne, kontroli, systemowe, defraudacji, katastroficzne, utraty reputacji, regulacyjne, administracyjne) oraz biznesowe (sprzedaży, reputacji, nowego produktu, konkurencji, jakości produktów, środowiska geograficznego).
Generalnie zarządzanie ryzykiem można utożsamiać z aktywnością w zakresie identyfikowania oczywistych i trudnych do przewidzenia typów ryzyka, jego pomiaru, a także opracowywania sposobów postępowania w sytuacjach kryzysowych. Uszczegóławiając ten proces można w nim wyróżnić następujące etapy20:
1. Identyfikacja ryzyka, na jakie jest narażone przedsiębiorstwo – polega na określeniu źródeł i rodzajów ryzyka oraz czynników powodujących ich aktywizację, a także na wskazaniu potencjalnych (bezpośrednich i pośrednich) następstw realizacji ryzyka. W praktyce bardzo często odbywa się to poprzez rozpoznanie szans i zagrożeń w otoczeniu, mogących oddziaływać na zdolność podmiotu do realizacji wyznaczonych kierunków rozwoju, z uwzględnieniem mocnych i słabych stron firmy. Do identyfikacji ryzyka stosuje się niekiedy metody analizy strategicznej, np. analizę SWOT oraz metody heurystyczne, np. metodę delficką oraz burzę mózgów. W praktyce gospodarczej coraz częściej stosuje się jednak o wiele bardziej wyrafinowane i niekonwencjonalne sposoby identyfikowania, analizy i oceny ryzyka, na przykład grupę metod opartych na teorii zbiorów rozmytych (fuzzy logic)21. Korzystanie z coraz bardziej wyrafinowanych podejść do zarządzania ryzykiem wynika z cech otoczenia przedsiębiorstwa, z których najważniejsze wydają się być: rosnąca złożoność procesów technologicznych, internacjonalizacja oraz liczne powiązania koncentracyjne i kooperacyjne wielu przedsiębiorstw (sieciowość) czy zagrożenia związane z terroryzmem.
W procesie identyfikacji ryzyka działalności przedsiębiorstwa można wyróżnić22:
a) Ryzyko niezależne (systematyczne) – nie podlega kontroli podmiotu, którego dotyczy i nie może być przez ów podmiot wyeliminowane. Ten rodzaj ryzyka związany jest z czynnikami pochodzącymi z makrootoczenia, np.: zmianą preferencji konsumentów, gwałtowną zmianą koniunktury rynkowej, destabilizacją polityczną, kataklizmem, wprowadzeniem nowych rozwiązań technologicznych, zmianą regulacji prawnych i administracyjnych.
b) Ryzyko zależne (specyficzne) – podlega przynajmniej częściowej kontroli podmiotu, którego dotyczy i może być przez firmę częściowo lub w całości wyeliminowane, gdyż obejmuje obszar jej funkcjonowania. Jego źródłem są czynniki pochodzące z mikrootoczenia przedsiębiorstwa, np.: kłopoty z pozyskaniem pracowników o odpowiednich kwalifikacjach, problemy z pozyskaniem środków finansowych na sfinansowanie projektu inwestycyjnego, zmiany warunków współpracy z kooperantami, nasilenie walki konkurencyjnej.
2. Analiza ryzyka – to ustalenie stopnia, w jakim zidentyfikowane rodzaje ryzyka zagrażają przedsiębiorstwu i siły ich oddziaływania. Na tym etapie tworzy się również pewną ogólną procedurę dotyczącą rodzaju wykorzystywanych metod analizy ryzyka (jakościowe lub/i ilościowe) oraz narzędzi zarządzania ryzykiem.
3. Sformułowanie wariantów zarządzania ryzykiem – polega na ustaleniu możliwych wariantów zarządzania ryzykiem oraz analizie kosztów i korzyści wynikających z ich realizacji.
4. Ocena potencjalnego wpływu ryzyka na efekty działalności – polega na ocenie, wyodrębnionych na etapie identyfikacji, rodzajów ryzyka. Tego rodzaju ocena może mieć dwojaki charakter:
a) Ocena jakościowa – polega na przypisywaniu odpowiednich klas poszczególnym rodzajom ryzyka. Do oceny jakościowej można wykorzystać skalę porządkową (np. od 1 do 5). Analizie poddaje się dwa aspekty:
– możliwość zaistnienia zdarzenia,
– konsekwencja zaistnienia zdarzenia w postaci jego wpływu na sytuację przedsiębiorstwa.
b) Ocena ilościowa – polega na wykorzystaniu miar ryzyka, takich jak23:
– miary zmienności – dotyczą następstw realizacji ryzyka i pokazują możliwy zakres kształtowania się wybranych kryteriów oceny opłacalności (efektywności) inwestycji na podstawie rozproszenia ich rozkładu; w obrębie miar zmienności wykorzystuje się najczęściej: wariancje, odchylenie standardowe, współczynnik zmienności, odchylenie przeciętne, czy rozstęp; wykorzystując odchylenie standardowe można zbadać rozproszenie NPV wokół jej wartości oczekiwanej:
(1.1)
gdzie:
pi – prawdopodobieństwo realizacji i-tego scenariusza,
E – wartość oczekiwana.
Wartość oczekiwaną oblicza się według wzoru:
(1.2)
– miary zagrożenia – związane są z niekorzystnymi następstwami realizacji ryzyka; wykorzystywane są tutaj na przykład: semiwariancja, semiodchylenie standardowe, współczynniki semizmienności (analizowanie wyłącznie ujemnych odchyleń od wartości oczekiwanych); semiodchylenie standardowe wyliczyć można na podstawie wzoru:
(1.3)
gdzie:
hi – negatywne odchylenie między wartością prognozowaną wi-tym scenariuszu a wartością oczekiwaną.
– miary wrażliwości – służą do oceny rozpiętości ryzyka i odzwierciedlają wpływ zmian pewnych czynników na zmiany analizowanej kategorii; kwantyfikacja ryzyka projektów inwestycyjnych polega tutaj na badaniu elastyczności wybranego miernika efektywności inwestycji (głównie NPV lubIRR) pod względem najważniejszych czynników wpływających na efektywność (np. wielkość przepływów pieniężnych, okres eksploatacji, stopa dyskontowa); ich stosowanie polega na znalezieniu zależności funkcyjnych między analizowanymi elementami na podstawie następującego modelu:
(1.4)
gdzie:
R – rezultat realizacji określonego przedsięwzięcia inwestycyjnego,
xi – i-ty czynnik determinujący osiągnięcie danego rezultatu.
5. Wybór i wdrożenie metod kontroli oraz monitorowania ryzyka (sterowanie ryzykiem). Kontrola ryzyka realizowana jest na szczeblu strategicznym przedsiębiorstwa, a przedmiotem jej zainteresowania są tylko te rodzaje ryzyka, na które można oddziaływać zgodnie z celami organizacji i przy posiadanych przez nią zasobach. Wybór i wdrożenie metod kontroli winny być uzupełnione o ocenę skuteczności działań oraz ciągłą aktualizację informacji o zjawiskach zachodzących w przedsiębiorstwie i jego otoczeniu, w odniesieniu do przyjętych wcześniej granic dopuszczalnego ryzyka. Wyróżnić można następujące strategie reagowania na ryzyko24:
a) Strategia impasywna – polega na unikaniu zagrożeń z otoczenia, tak długo jak jest to możliwe. Może prowadzić do utraty potencjalnych szans i zmarnowania zasobów.
b) Strategia zachowawcza (defensywna) – polega na ostrożnym podejmowaniu ryzyka; koncentracji na identyfikacji zagrożeń, przeciwdziałanie niekorzystnym konsekwencjom zmian w otoczeniu, niwelowanie słabych stron i potencjalnych strat organizacji.
c) Strategia ekspansywna (ofensywna) – polega na aktywnym podejmowaniu ryzyka. Przedsiębiorstwo zarówno przewiduje niekorzystne zmiany w otoczeniu i przeciwdziała zagrożeniom, jak i identyfikuje i wykorzystuje szanse.
W ramach powyższych strategii stosowane są różne metody kontroli ryzyka, które można podzielić na25:
a) Metody kontroli fizycznej – oddziaływanie na źródła ryzyka albo na warunki ich aktywizacji w celu ograniczenia możliwości realizacji i skutków ryzyka:
– unikanie ryzyka – niepodejmowanie określonych form działalności w obawie przed ryzykiem (np. zaniechanie rozbudowy linii produkcyjnej czy zakupu maszyny produkcyjnej),
– redukcja ryzyka – polega na ograniczeniu możliwości wystąpienia niekorzystnych zjawisk lub minimalizowania ich następstw za pomocą metod prewencyjnych (oddziaływanie na źródła ryzyka i okoliczności tak, aby negatywne zdarzenie nie miało miejsca) oraz represyjnych (przeciwdziałanie rozprzestrzenianiu się negatywnych następstw, w przypadku gdy nie można było zapobiec negatywnej sytuacji); działania podejmowane w ramach redukcji ryzyka obejmują często dywersyfikację, opracowanie procedur ochronnych itp.,
– transfer ryzyka – polega na jego przenoszeniu go na inny podmiot i może przybierać formy:
• przeniesienia działalności, z którą jest związane ryzyko, np. outsourcing niektórych obszarów działalności przedsiębiorstwa, korzystanie z obcej sieci dystrybucji itp.,
• przeniesienia odpowiedzialności finansowej za następstwa realizacji ryzyka – zaliczane jest do metod kontroli finansowej.
b) Metody kontroli finansowej – nie są ukierunkowane na eliminację czy minimalizację ryzyka, lecz polegają na zabezpieczeniu źródeł finansowania następstw jego realizacji poprzez:
– transfer odpowiedzialności – polega na tym, że jeden podmiot gospodarczy doświadcza skutków realizacji ryzyka (inwestor), a inny ponosi ich ciężar; tego rodzaju transfer może być zrealizowany zarówno na zakład ubezpieczeń na podstawie umowy ubezpieczenia, jak i na kontrahentów na podstawie odpowiednich zapisów w umowach,
– retencja – polega na tym, że podmiot doświadczający skutków ryzyka ponosi ich konsekwencje; może przybierać dwie formy26:
• pasywną – nieświadome zatrzymanie ryzyka z powodu obojętności, czy niewiedzy,
• aktywną – świadome zatrzymanie ryzyka i gotowość do zabezpieczenia źródeł, z których będą finansowane jego skutki, dzięki czemu ewentualne skutki ryzyka nie będą przekładać się na kondycję finansową przedsiębiorstwa, np. wykorzystanie technik finansowania retrospektywnego (kredyty bankowe) lubprospektywnego (rezerwy), pozwalają na rozłożenie strat w czasie,
– repartycja (dystrybucja, atomizacja) – polega na rozłożeniu skutków finansowych realizacji ryzyka na grupę, np. prowadzenie przedsiębiorstwa w formie spółki, kooperacja w realizacji przedsięwzięć gospodarczych (np. konsorcjum).
6. Kontrola, monitoring i ocena podjętych działań – wiąże się z oceną skutków podjętych działań ex post, dalsze korzystanie z metod i narzędzi, które zapewniły sukces w procesie zarządzania ryzykiem oraz nowe ich ukształtowanie w przypadku podjęcia błędnej decyzji.
Część przedsiębiorstw zarządza ryzykiem w sposób fragmentaryczny, na przykład firma z sektora finansowego identyfikuje ryzyka w obszarach kredytowym, płynności, operacyjnym i rynkowym i czyni to niezależnie od siebie. Jednak odmienne podejście postuluje się w koncepcji zwanej jako zarządzanie ryzykiem korporacyjnym (enterprise risk management, ERM). ERM jest więc systemowym i holistycznym spojrzeniem na ryzyko. Już sama nazwa sugeruje, że podejście to w większym stopniu ukierunkowane jest na potrzeby dużych przedsiębiorstw, prowadzących rozległą działalność, często na wielu rynkach. W ujęciu M. Beasleya, M. Bradforda i D. Pagacha generalnym efektem poprawnie prowadzonego ERM jest kreowanie i zabezpieczenie wartości przedsiębiorstwa27. W ramach koncepcji bierze się pod uwagę obszary ryzyka, które są wzajemnie powiązane i w takim związku powinny być przedmiotem zarządzania nimi: naturalne (materialne), finansowe, strategiczne i operacyjne28. Proces zarządzania ryzykiem opiera się na sześciu zasadach29:
1. Zarządzanie ryzykiem w przedsiębiorstwie powinno obejmować wszystkie jego rodzaje, gdyż zarządzanie każdym z ryzyk oddzielnie jest nieefektywne i sprzeczne z zasadami racjonalnego działania.
2. W procesie zarządzania ryzykiem musi być zaangażowane naczelne kierownictwo, gdyż decyduje ono o stabilności funkcjonowania przedsiębiorstwa i jego odpowiedzialności wobec interesariuszy.
3. Poszczególne rodzaje ryzyk w przedsiębiorstwie powinny być traktowane jako portfel ryzyka, ponieważ:
a) Całościowe ryzyko nie jest prostą sumą jego poszczególnych rodzajów.
b) Niezbędne jest zrozumienie poszczególnych elementów ryzyka oraz związków zachodzących między nimi.
c) Zarządzanie ryzykiem powinno odbywać się na bazie celów i procesów całej organizacji.
4. Do pomiaru ryzyka należy wykorzystywać również metody ilościowe.
5. Wykorzystywane procedury i narzędzia zarządzania ryzykiem są wspólne dla wszystkich rodzajów przedsiębiorstw.
6. Należy odchodzić od rozumienia ryzyka jako sytuacji jednoznacznie negatywnej na rzecz traktowania go jako możliwość wystąpienia efektu działania niezgodnego z oczekiwaniami (gorszego, ale i lepszego). Tak rozumiane ryzyko jest więc nie tylko zagrożeniem, ale także szansą na doskonalenie przedsiębiorstwa. Nie można zatem mówić o jego minimalizacji, lecz optymalizacji, czyli podejmowaniu decyzji i realizacji działań prowadzących do osiągnięcia akceptowalnego poziomu ryzyka.
Koncepcja ERM, zwana także COSO II, to unikalny model zintegrowanego systemu zarządzania ryzykiem oparty na systemie kontroli wewnętrznej, który jest implementowany przez wiele instytucji i przedsiębiorstw na świecie. Proces zarządzania ryzykiem opiera się tutaj na trzech filarach, do których należą: (1) ryzyko biznesowe, (2) kontrola wewnętrzna, (3) kreowanie wartości organizacji. Model opiera się na realizacji ośmiu etapów zarządzania ryzykiem w przedsiębiorstwie (rysunek 3).
Rysunek 3. Proces zarządzania ryzykiem według modelu ERM
Źródło: Opracowanie własne na podstawie Enterprise-Wide Risk Management (ERM), www.interactivesolutionsllc.com.
Elementy systemu ERM funkcjonują w czterech perspektywach, związanych z celami działalności organizacji, tj. w perspektywie: strategicznej, operacyjnej, finansowej oraz zgodności działalności gospodarczej z przepisami prawa. System ten powinien zatem łączyć wszystkie poziomy organizacji, od poziomu operacyjnego, poprzez strategiczny, do poziomu nadzoru korporacyjnego nad działalnością jednostki i podmiotami zależnymi. Strukturę kontroli wewnętrznej tworzy pięć elementów, tj: środowisko wewnętrzne, oszacowanie ryzyka, czynności i działania kontrolne, informacja i komunikacja oraz monitoring30.
Szczegółową charakterystykę systemu ERM przedstawia tabela 1.
Tabela 1. Charakterystyka komponentów koncepcji zarządzania ryzykiem korporacyjnym (ERM)
Elementy systemu ERM
Charakterystyka
Środowisko wewnętrzne
Stanowi ono rdzeń systemu, wokół którego działają jego pozostałe elementy. Środowisko wewnętrzne kształtowane jest przez postawy zarządu, rady nadzorczej w stosunku do ryzyka w firmie. Następnie tego rodzaju postawy stają się wyznacznikiem dla postrzegania i reagowania na ryzyko przez pracowników. Do elementów środowiska wewnętrznego należą również: uczciwość i wartości wyznaczane, wdrażane i egzekwowane w organizacji, kompetencje i indywidualne cechy pracowników, świadomość działań w zakresie zarządzania ryzykiem i kontroli wewnętrznej, kształtowanie osobowości organizacji i struktury organizacyjnej i wynikający z niej podział odpowiedzialności i uprawnień, politykę kadrową, a także sposób ustalania i komunikowania polityk, procedur kontrolnych oraz ich egzekwowania
Ustalanie celów organizacji
Ważne w przypadku ERM jest ustalenie celów strategicznych i operacyjnych organizacji, na których muszą opierać się założenia systemu oraz identyfikowane czynniki ryzyka
Identyfikacja zdarzeń
Identyfikacja wewnętrznych i zewnętrznych czynników ryzyka, wpływających na osiąganie celów przedsiębiorstwa. Realizuje się ją z rozróżnieniem głównych zagrożeń (oraz szans) dla realizacji celów, ich dalszego ustalania oraz doskonalenia strategii. Częstość identyfikowania czynników ryzyka zależy od wielu zmiennych, np. specyfiki organizacji, dynamiki zmian organizacyjnych oraz regulacji wewnętrznych i zewnętrznych
Ocena ryzyka
Ocena ryzyka, obejmująca analizę i oszacowanie prawdopodobieństwa wystąpienia danego ryzyka, powinna dotyczyć wszystkich obszarów funkcjonowania firmy. Od prawidłowości przeprowadzenia tego etapu zależy skuteczność zarządzania ryzykiem
Reakcja na wystąpienie ryzyka
Reakcja na zidentyfikowane i oszacowane ryzyko obejmuje zwykle: redukcję ryzyka (np. działania kontrolne), jego transfer (np. ubezpieczenia czy outsourcing), akceptacja ryzyka (pod warunkiem, że jego skutki będą na niższym poziomie, niż osiągane korzyści z kontynuowania działalności w danym obszarze) albo unikanie ryzyka (np. reorganizacja procesów)
Działania i mechanizmy kontrolne
W ramach tego etapu określony zostaje akceptowalny poziom poszczególnych ryzyk, a działania kontrolne wbudowuje się w dany proces. Umożliwia to porównanie stanu rzeczywistego z przyjętymi normami. Działania i mechanizmy kontrolne mogą mieć postać: zarządzeń, regulaminów, polityk, procedur, instrukcji, podziału kompetencji, obowiązków i odpowiedzialności wynikających ze struktury organizacyjnej. Należy je ustanawiać i realizować wszędzie tam, gdzie zidentyfikowano i oszacowano ryzyko
System obiegu informacji i komunikacji
System informacji i komunikacji, od którego w dużej mierze zależy skuteczność ERM, musi pomagać kierownictwu i pracownikom uzyskiwać dane, konieczne do funkcjonowania systemów i procesów wewnętrznych, a także do ich kontroli. Właściwe dane i informacje muszą być zbierane i przekazywane w odpowiedniej formie i terminach ich użytkownikom. Pomocne są tutaj systemy komputerowe, w tym zintegrowane systemy wspomagające zarządzanie przedsiębiorstwem
Monitoring
Polega na ciągłej ocenie poprawności funkcjonowania procesów w przedsiębiorstwie, głównie tych, które dotyczą kontroli wewnętrznej z zarządzania ryzykiem. Monitorowanie jest realizowane poprzez bieżące czynności zarządcze wykonywane przez kierownictwo, czynności sprawdzające, podejmowane przez pracowników przy wykonywaniu obowiązków, a także działanie automatycznych mechanizmów kontroli. W zakres monitoringu wchodzą również niezależne okresowe oceny przeprowadzane przez audytorów wewnętrznych i zewnętrznych. Regularne monitorowanie systemu umożliwia szybkie wykrycie potencjalnych słabości i wprowadzenie niezbędnych modyfikacji
Źródło: Opracowanie własne na podstawie Enterprise-Wide Risk Management (ERM), www.interactivesolutionsllc.com; E. Szczepankiewicz, Zintegrowane zarządzanie ryzykiem (ERM) w przedsiębiorstwie, „Ekonomika i Organizacja Przedsiębiorstwa” 2010, nr 11, s. 37–45.
Według E. Szczepankiewicz zaprojektowanie i wdrożenie systemu ERM w przedsiębiorstwie powinno obejmować następujące etapy31:
1. Analiza bieżącej sytuacji przedsiębiorstwa w zakresie celów, strategii, struktury organizacyjnej, podziału uprawnień i odpowiedzialności.
2. Określenie akceptowalnego poziomu ryzyka w stosunku do każdego celu, procesu i działania.
3. Ocena skuteczności dotychczas stosowanych mechanizmów zarządzania ryzykiem.
4. Identyfikacja punktów krytycznych i czynników ryzyka mogących wpływać na realizację założonych celów.
5. Ocena prawdopodobieństwa i skutków realizacji ryzyka.
6. Opracowanie sposobów reakcji na ryzyko o nieakceptowalnym poziomie, tj. polityk i procedur kontrolnych.
7. Określenie bieżących i okresowych sposobów monitorowania systemu kontroli wewnętrznej oraz zarządzania ryzykiem.
Właściwe zarządzanie ryzykiem w przedsiębiorstwie jest jednym z elementarnych warunków jego przetrwania. Stanowi także ważną podstawę do realizacji działań ukierunkowanych na rozwój organizacji.
Obecnie w procesie doskonalenia organizacji, oprócz powszechnie wykorzystywanych koncepcji, metod czy technik zarządzania, takich jak chociażby: outsourcing, lean management czyreengineering, coraz częściej stosuje się także: kompleksowe zarządzanie jakością, kaizen, six sigmę, hoshin kanri, program poprawy produktywności zorientowany na ludzi, teorię ograniczeń, system obsługi bezawaryjnej, wysoko zintegrowany system zarządzania zasobami przedsiębiorstwa czy zarządzanie dynamiczne.
Koncepcją o największym stopniu ogólności jest bez wątpienia kompleksowe zarządzanie jakością (Total Quality Management). Według B. Goranczewskiego TQM jest swoistą filozofią działania oraz punktem odniesienia dla organizacji, który porównać można z gwiazdą polarną wskazującą karawanom drogę na pustyni. Kompleksowe zarządzanie jakością nie stanowi zatem dla organizacji celu samego w sobie, lecz wyznacza właściwy kierunek dochodzenia do doskonałości, której osiągnięcie jest niemożliwe. Chodzi raczej o realizacje takich działań, które umożliwią przybliżenie się do modelu doskonałości32. Ważną rolę w TQM odgrywa więc benchmarking, polegający na porównywaniu się do pewnej idealnej, a więc stanowiącej pewien teoretyczny konstrukt, organizacji. Kompleksowe zarządzanie jakością to permanentne doskonalenie organizacji, uzyskiwane na drodze coraz pełniejszego zaspokajania potrzeb klienta, a w konsekwencji wzrostu sprawności, efektywności i identyfikowalności przedsiębiorstwa. Poprawa efektywności zasobów przedsiębiorstw wykorzystujących TQM znajduje odzwierciedlenie w wynikach badań empirycznych33. Jest ona jednak możliwa wyłącznie w firmach, w których występuje dojrzała kultura organizacyjna, przejawiająca się głównie w szerokiej partycypacji pracowników w procesie doskonalenia organizacji oraz ich wynagradzaniu za skuteczne podejmowanie tego rodzaju działań34. Aspekty te są wyraźnie eksponowane w normach regulujących sformalizowane systemy zarządzania jakością, np. z rodziny ISO, które są dziś powszechnie implementowane w wielu firmach35. Przedsiębiorstwo, podążające ścieżką doskonalenia opartą na TQM, ma szanse przyjmować dynamiczną i elastyczną postawę względem turbulentnego obecnie otoczenia.
Filozofia TQM jest od lat przekładana na praktykę gospodarczą i zdaniem Royal Mail może dotyczyć36:
1. Sposobu działania organizacji, który wymusza najbardziej satysfakcjonujące zaspokojenie potrzeb klientów przez wszystkich zatrudnionych, którzy działają w sposób indywidualny, ale przede wszystkim zespołowy.
2. Permanentnej edukacji zatrudnionych w organizacji, realizowanej głównie w formie szkoleń i kursów.
3. Procesu ciągłych zmian i usprawnień ukierunkowanych na klienta.
4. Identyfikacji potrzeb klientów (wewnętrznego i zewnętrznego) oraz pozostałych interesariuszy firmy (np. dostawców), a także sposobów ich zaspokojenia.
5. Działania skutecznego (dostarczenie odpowiedniego produktu do właściwego segmentu rynku), jak i wydajnego (proefektywne realizowanie wszelkich procesów w firmie).
Ważnym, w kontekście wdrażania TQM, problemem aplikacyjnym jest kształtowanie kultury organizacyjnej ukierunkowanej na jakość. W fazie inicjowania tego procesu niezwykle ważny jest dobór wyłącznie takich pracowników, którzy posiadają odpowiednie kompetencje. Niezbędne jest również przydzielanie im nowych zadań i przenoszenie do innych komórek organizacyjnych, co umożliwi przełamanie dotychczasowej kultury i rutyny. Pracownicy powinni być również bardzo intensywnie szkoleni w zakresie nowych umiejętności formujących ich postawy, a w działaniach tych powinno uczestniczyć najwyższe kierownictwo manifestujące swoje zaangażowanie w proces zmian. W procesie zarządzania należy natomiast dążyć do modyfikacji środowiska pracy, zwiększenia zainteresowania kapitałem ludzkim oraz implementacji stylów zarządzania stymulujących samorozwój pracowników37.
Rosnąca złożoność wielu procesów realizowanych w przedsiębiorstwach ogranicza możliwość ich wykonania przez pojedynczych pracowników. Dlatego w ramach kompleksowego zarządzania jakością dużą wagę przywiązuje się także to pracy zespołowej38. R. Karaszewski wskazuje na dwa rodzaje zespołów związanych z zarządzaniem jakością: zespoły usprawniające jakość oraz koła jakości39. Główne zadania zespołów usprawniających jakość (quality improvement team) związane są z podejmowaniem i rozwiązywaniem problemów pojawiających się w związku z projakościową działalnością przedsiębiorstwa. W ramach tego rodzaju zespołów powszechnie wykorzystuje się zarządzanie projektem (project management), przy założeniu, że funkcją celu jest zawsze jakość. Proces ten polega zatem na: (1) określeniu celów i zadań projektu, (2) planowaniu jego przebiegu, (3) organizowaniu realizacji projektu, (4) motywowaniu uczestników projektu, do jego skutecznej i efektywnej realizacji, (5) kontrolowaniu przebiegu projektu, (6) koordynowaniu, reagowaniu na zakłócenia oraz wdrażaniu działań zapobiegawczych i korygujących. O ile udział w zespołach usprawniających jakość wynika z nakazu przełożonych, o tyle uczestnictwo w kołach jakości (quality circles) ma