Zarządzanie danymi w organizacji - Beata Gontar, - ebook

Zarządzanie danymi w organizacji ebook

Beata Gontar,

0,0
29,90 zł

lub
Opis

W dobie Big Data, Internetu Rzeczy i sztucznej inteligencji zrozumienie znaczenia danych oraz zapoznanie się z możliwościami ich efektywnego przetwarzania decyduje o przyszłości większości przedsiębiorstw na rynku. Zmienia się sposób, w jaki dane są postrzegane w środowisku biznesowym, dlatego warto na bieżąco śledzić trendy odnoszące się do istotnych danych dla biznesu. Analityka biznesowa pozwala podejmować bardziej świadome decyzje, ważne w osiąganiu przewagi konkurencyjnej i prowadzeniu biznesu.

Celem publikacji jest przybliżenie Czytelnikom, w jaki sposób technologie informatyczne i telekomunikacyjne wspierają zarządzanie. Omówiono takie zagadnienia, jak architektura danych, teoria baz danych, a w szczególności projektowanie bazy danych oraz wykorzystanie języka SQL do ich tworzenia i formułowania zapytań. Wiele uwagi poświęcono systemowi Business Intelligence, hurtowniom danych, wizualizacjom i sposobom przedstawiania danych, a także informacji, bezpieczeństwu oraz nowym technologiom (Internet of Things).

Książka stanowi kompendium wprowadzające w tematykę związaną z systemami informacyjnymi szeroko rozumianego zarządzania. Jest przeznaczona dla odbiorców zainteresowanych efektywną transformacją cyfrową biznesu i praktyką biznesową zarządzania przez dane.

Ebooka przeczytasz w aplikacjach Legimi lub dowolnej aplikacji obsługującej format:

EPUB
MOBI
PDF

Liczba stron: 267




Wstęp

Rozwój technologii nie jest kwestią wyboru – trzeba się do niego dostosować1. Współczesna technologia, oparta na automatyce, robotyce isztucznej inteligencji, jest modularna idoskonale mobilna2, posiada łatwość generowania danych ipracy znimi. Dane dostępne worganizacjach liczone są już nie wpetabajtach, aw eksabajtach iwyżej. Rozwiązywanie problemów wtakich organizacjach, wzmacniające zdolność organizacji do dostosowywania się do nowych warunków, zdolność do podnoszenia się zkryzysów, konfliktów izapaści oraz zdolność do zrównoważonego rozwoju3, wymaga sporych inwestycji wzarządzanie oparte na danych izainteresowanie aplikacjami inarzędziami data mining (DM) idata warehousing (DW). Przyczyn tego stanu rzeczy należy szukać we wzroście dynamiki zdarzeń biznesowych wymuszającym zwiększenie elastyczności działania organizacji oraz jednoczesne wykorzystanie danych online idanych archiwalnych4, gwałtownym postępie wtransformacji cyfrowej organizacji wymuszającym wykorzystanie nowych modeli biznesowych bazujących na danych5 oraz szybkim postępiecywilizacyjnym wzakresie nauki itechniki wynikającym zglobalizacji dającej szybką amortyzację kosztów, rozwijającego się środowiska smart, umożliwiającego śledzenie, zapisywanie, analizowanie ikontrolowanie każdego zdarzenia wprocesie biznesowym, zmian demograficznych wymuszających rozwój nowych rozwiązań pozwalających na zaadaptowanie się społeczeństw do nowych warunków środowiskowych wynikających zwyczerpywania się zasobów paliw kopalnych.

Książka jest wynikiem wieloletnich doświadczeń autorów wpracy naukowej idydaktycznej na Uniwersytecie Łódzkim. Stanowi ona zbiór materiałów, które mogą być wykorzystywane podczas nauki zagadnień związanych zpracą zdanymi wróżnego typu systemach informatycznych, ich strukturą ibezpieczeństwem, zarówno na zajęciach dydaktycznych, jak iw pracy indywidualnej. Publikacja może być zatem traktowana jako podręcznik do przedmiotów związanych ztechnologiami informacyjnymi isystemami informatycznymi, które od kilku lat są wminimach programowych większości kierunków studiów Istopnia.

Celem niniejszego opracowania jest przybliżenie czytelnikom, wjaki sposób technologie informatyczne itelekomunikacyjne wspierają zarządzanie. Wposzczególnych rozdziałach omówiono zagadnienia związane ztakimi zagadnieniami, jak:

•architektura danych, gdzie znajdziemy definicję danych iich miejsce wrozwijającej się organizacji; przedstawiony zostanie model Zachmana oraz architektura korporacyjna TOGAF;

•teoria baz danych, aw szczególności zagadnienia związane zprojektowaniem bazy danych oraz wykorzystaniem języka SQL do ich tworzenia iformułowania zapytań;

•systemy Business Intelligence ihurtownie danych;

•wizualizacja isposoby przedstawiania danych oraz informacji;

•bezpieczeństwo danych;

oraz nowe technologie, jak Internet of Things, które coraz częściej są wykorzystywane worganizacjach.

Układ publikacji został tak pomyślany, aby mogła ona stanowić kompendium wiedzy do właściwego zrozumienia omawianych tematów, stanowiąc opracowanie wprowadzające wzagadnienia związane zsystemami informacyjnymi szeroko rozumianego zarządzania.

Struktura poszczególnych rozdziałów jest jednakowa. Każda część rozpoczyna się od Wprowadzenia, gdzie skrótowo zaprezentowano tematy, które zostaną szerzej omówione, oraz cel, jaki dana część książki realizuje. Rozdziały zakończone są krótkim Podsumowaniem, Pytaniami kontrolnymi iprzypadkami do rozważenia zaprezentowanymi wformie Studium przypadku.

1 A.K. Koźmiński, Czwarta fala globalizacji, „Rzeczpospolita”, 8.05.2017.

2Ibidem. „Procesy tworzenia wartości mogą być realizowane wnajróżniejszych konfiguracjach organizacyjnych iterytorialnych. Zarządzanie tymi procesami polega na wyodrębnieniu modułów realizowanych za pomocą konkretnych konfiguracji zasobów (ludzkich, materialnych, technologicznych, wiedzy), na posadowieniu każdego zmodułów woptymalnym dla niego środowisku ina koordynacji procesu, czyli na zarządzaniu łańcuchem dostaw”.

3D. Helbing, Projekt FututICT, https://futurict.inn.ac [dostęp: 3.04.2018].

4 Skrócenie cyklu życia organizacji, ale też technologii iwytwarzanych przy ich użyciu produktów iusług, czasu realizacji zamówienia etc.

5 Tworzenie isprzedaż danych (np. Thomson Reuters sprzedaje dane finansowe, dane obadaniach naukowych, dane dotyczące medycyny oraz newsy, Twitter sprzedaje tweety poprzez np. DataSift), zbieranie danych isprzedaż reklam (np. Facebook, Google, Twitter), zbieranie danych isprzedaż usług wzakresie analityki biznesowej, dodawanie danych do produktu (Babolat specjalizujący się wprodukcji rakiet tenisowych oferuje model Babolat Play Pure Drive zszeregiem czujników, które pozwalają na pozyskanie ianalizę danych zebranych podczas gry tą rakietą), dodawanie danych do usług (np. holenderskie linie lotnicze KLM wusłudze Meet & Sit, korzystając zdanych pochodzących zFacebooka iLinkedIn, proponują miejsca wsamolocie obok osoby, której profil wynikający zanalizy danych pochodzących ze wspomnianych źródeł odpowiada naszemu profilowi, który powstał również na podstawie analizy tych danych), tworzenie nowych usług będących rezultatem analiz typu eksploracja danych (np. platformy typu MOOC wedukacji czy Uber wprzewozach osobowych); por. C. Levallois, Six Business Models Based on Data, https://www.slideshare.net/seinecle/six-business-models-based-on-data [dostęp: 18.08.2017]; inaczej klasyfikuje to J. Lokitz, podając trzy modele: Data as aService (DaaS), Information as aService (IaaS), Answers as aService (AaaS), Exploring Big Data Business Models & The Winning Value Propositions Behind Them, https://www.linkedin.com/pulse/exploring-big-data-business-models-winning-value-behind-justin-lokitz [dostęp: 18.08.2017].

Rozdział 1

Architektura danych

1.1. Wprowadzenie

Dane, informacja, wiedza imądrość to bardzo silnie powiązane pojęcia, które pozwalają opisywać izrozumieć otaczającą nas rzeczywistość. Mogą być one intuicyjnie kojarzone ze światem nauki iprowadzeniem badań naukowych. Badacze dokonują pomiarów, zbierają dane, anastępnie je analizują. Naukowcy posiadają wiedzę, która pozwala teoretycznie lub praktycznie zrozumieć określone zagadnienia. Dzięki mądrości potrafią myśleć idziałać, wykorzystując wiedzę, doświadczenie, zdrowy rozsądek iprzeczucie. Dzielą się danymi iwiedzą, informując różnymi kanałami oswoich odkryciach. Nie są to jednak pojęcia hermetyczne izamknięte wyłącznie dla świata nauki.

Jeżeli przez dane rozumiemy zbiór wartości ilościowych lub jakościowych, to nawet odkładając na bok ich naukowy lub informatyczny charakter, oznacza to, że wnaszym otoczeniu znajduje się mnóstwo danych. Mogą one występować zarówno wpostaci analogowej, jak icyfrowej. Mogą mieć postać ciągu znaków zapisanych na kartce papieru lub sekwencji impulsów elektrycznych wysyłanych przez czujnik zamontowany na ścianie naszego pokoju. Faktura, wiadomość e-mail, lokalizacja nadajnika GPS, numer telefonu wkalendarzu – wszystko to są dane, które można składować, zbierać, przetwarzać ianalizować. Dane mogą być zbierane przez indywidualnych ludzi, korporacje, rządy.

Celem rozdziału jest zapoznanie czytelnika zproblemem dotyczącym zarządzania danymi, znaczeniem tego zagadnienia dla funkcjonowania irozwoju organizacji oraz ogólnymi założeniami projektowania architektury danych iarchitektury korporacyjnej.

1.2. Dane irozwój organizacji

Funkcjonowanie we współczesnym świecie jest związane zkoniecznością przetwarzania gigantycznych ilości danych, które nieustannie napływają znaszego otoczenia. Rozwój technologii informacyjnych sprawił, że przez cały czas zwiększa się liczba potencjalnych źródeł danych, różnorodność form transmisji oraz łatwość, zjaką można się przyłączyć do globalnego „potoku informacyjnego”. Lawinowy wzrost ilości danych oznacza również wzmożoną potrzebę ich przetwarzania, identyfikacji iabsorbowania lub odrzucania. Wygodny iefektywny dostęp do precyzyjnych danych umożliwia podejmowanie najszybszych decyzji przy jednoczesnym minimalizowaniu negatywnych ich skutków. Dla organizacji, której sukces jest uzależniony od efektywności procesów wniej zachodzących ikoordynacji pracy jej uczestników, konieczność adaptacji do zmieniającego się otoczenia imożliwość usprawniania procesów przetwarzania danych może być nie lada problemem.

Istnieje bardzo wiele czynników, które skutecznie utrudniają szeroko rozumianą efektywną pracę zdanymi worganizacji iadaptację procesów wykorzystujących dane do zmieniającego się otoczenia organizacji.

Jednym ztakich czynników może być wzrost złożoności danych iprocesów ich przetwarzania, związany zewolucją irozwojem organizacji. Wprzypadku małego – nawet jednoosobowego – przedsiębiorstwa właściciel posiada bardzo dużą wiedzę na temat swojego biznesu. Może nie wykorzystywać wszystkich szans, ale wie, jak jego firma funkcjonuje, atakże zna przyczyny sukcesów iporażek. Wsytuacji, kiedy organizacja się rozwija, zadania, które do tej pory wykonywał jeden człowiek, trzeba delegować pomiędzy wielu pracowników. Odpowiedzialność za procesy jest przekazywana do wyspecjalizowanych podmiotów (pracowników lub jednostek organizacyjnych), awiedza na temat organizacji zostaje rozproszona. Wtakiej sytuacji może dochodzić do powstawania problemów komunikacyjnych iniewykorzystania maksymalnego potencjału przedsiębiorstwa. Potrzebne dane mogą znajdować się worganizacji, ale mogą być niedostępne, niekompletne, może być problem zich szybkim odnalezieniem lub mogą być wnieprzydatnej postaci.

Rozwój organizacji iseparacja funkcji worganizacji mogą również przejawiać się eskalacją typowego problemu dotyczącego danych – nadmiarowości (data redundancy) treści worganizacji. Taka sytuacja ma miejsce, gdy pracownicy uzyskują dostęp do danych ztego samego lub zróżnych źródeł iwielokrotnie wprowadzają je do systemu informacyjnego organizacji, np. pracownicy działu marketingu korzystają zsystemu CRM (Customer Relationship Management) iwprowadzają do niego dane adresowe klientów, apracownicy odpowiedzialni za sprzedaż utrzymują wniepowiązanym programie służącym do wystawiania faktur oddzielną kopię danych identyfikujących klienta.

Problem zdostępem do danych może być również wynikiem błędnego procesu projektowania systemu informacyjnego organizacji. Projekt iwykonanie komponentów systemu informacyjnego mogą być prowadzone bez pełnej znajomości procesów ibez współpracy zwszystkimi interesariuszami. Można sobie łatwo wyobrazić sytuację, kiedy worganizacji powstaje wiele aplikacji, których tworzenie jest koordynowane przez różne działy. Wzałożeniu aplikacje te powinny dzielić się danymi pomiędzy sobą, ale wwyniku złej współpracy ibłędnego projektu do prawidłowej wymiany nie dochodzi. Takie niedziałające systemy nie są rzadkością inawet posiadają branżowe określenie – „system, który gra itańczy” (stovepipe system).

Z pewnością kwestia adaptacji procesów związanych zprzetwarzaniem danych może stanowić kłopot dla starszych organizacji, które są wposiadaniu długodziałających iniemodyfikowanych od dłuższego czasu elementów systemu informacyjnego. Mowa okomponentach, które mogą mieć kilkanaście, anawet kilkadziesiąt lat, które trwale zagnieździły się worganizacji iz różnych powodów nie mogą być wyeliminowane lub zastąpione. Mogą to być bardzo wyspecjalizowane składniki, jak np. oprogramowanie sterujące pracą maszyn bez dalszego wsparcia producenta lub programy, których aktualizacja jest kosztowna, asam proces nie przyniósłby wyraźnych korzyści (np. stary system obsługi studentów przechowujący archiwalne dane). Wtakim wypadku dostęp do danych może być utrudniony (np. opóźniony) ze względów technicznych lub zbraku odpowiednich kwalifikacji pracowników organizacji (rozwiązanie jest tak stare, że tylko kilka osób je zna iwspiera).

Kłopotliwe dla organizacji może być utrzymywanie starych składników systemu, ale niefortunnie mogą się też zakończyć ich aktualizacja irozwój. Technologie informacyjne rozwijają się wostatnich latach wyjątkowo dynamicznie imenedżerowie dostają do dyspozycji bardzo szeroki wachlarz rozwiązań projektowych, nowych usług, modeli wdrożenia, technik tworzenia aplikacji irozwiązań sprzętowych. Zróżnicowana gama możliwości iwariantów ich doboru oznacza również znaczny wzrost złożoności systemów icoraz większe wymogi związane zkwalifikacjami po stronie ich projektantów iwykonawców. Wprzypadku zmiany technologicznej stworzenie lub modernizacja systemu mogą zakończyć się pełnym lub częściowym niepowodzeniem wwyniku złego dobrania technologii, nietrafionego projektu architektury lub np. niewystarczających kompetencji do prawidłowego wykonania systemu. Nowe technologie oferują często obiecujące funkcjonalności, ale ich niedojrzałość może powodować konieczność radzenia sobie na etapie wdrażania zniespodziewanymi problemami, które zostały ujawnione na bardzo późnym etapie projektu (np. późno wykryta niepełna zgodność zaimplementowanych worganizacji mechanizmów uwierzytelniania zobsługiwanymi przez środowisko wykonawcze nowymi aplikacjami; ujawniona wkońcowym etapie wdrożenia aplikacji niezadowalająca wydajność iawarie systemu baz danych wpełnym obciążeniu produkcyjnym). Może to, oczywiście, znacząco utrudnić iopóźnić budowę systemu informacyjnego.

Możliwość wystąpienia opisanych wyżej problemów iumiejętność radzenia sobie znimi jest uzależniona m.in. od etapu rozwoju technologii informacyjnych worganizacji. Richard L. Nolan [Nolan, 1979] zaproponował model teoretyczny opisujący ten proces wsześciu etapach:

•wprowadzenie (Initiation),

•rozwój (Contagion),

•kontrola (Control),

•integracja (Integration),

•administracja danymi (Data administration),

•dojrzałość (Maturity).

W pierwszym etapie modelu Nolana IT wprowadza się do organizacji. Zostają wdrożone pierwsze aplikacje (zwłaszcza redukujące koszty), jak system płacowy, fakturowanie, magazyn, księgowość. Wraz zuruchamianiem aplikacji użytkownicy imenedżerowie zaczynają identyfikować zapotrzebowanie na dodatkowe funkcjonalności, które mają zaspokoić ich potrzeby biznesowe. Dział IT jest mały iwykonuje zlecone zadania.

Drugi etap charakteryzuje się wzmożonym zapotrzebowaniem na nowe aplikacje. Są one tworzone często bez planu ibez odwoływania się do innych aplikacji. Potrzeba zaspokojenia podaży na dane prowadzi do proliferacji powielanych danych iprocesów. Etap ten, pomimo wzrostu znaczenia IT, nie oznacza wzrostu jakości rozwiązań – charakteryzuje się brakiem wspólnej wizji iplanowania. Wynikiem braku planowania jest konieczność tworzenia nadmiarowych rozwiązań, które pozwalają łączyć iuzupełniać źle przygotowane aplikacje.

W etapie trzecim organizacja odczuwa konieczność wzmożonej kontroli nad IT. Bałagan wynikający zwdrożenia nieefektywnego systemu przekłada się na niezadowolenie jego użytkowników. Próbując zapanować nad sytuacją, IT mniejszy nacisk kładzie na tworzenie nowego oprogramowania, akieruje wysiłki wstronę restrukturyzacji istniejących aplikacji, powołania grupy administrującej bazami danych isformalizowania procesów projektowania iwdrażania oprogramowania.

Na etapie integracji istniejące aplikacje zostają zmodernizowane, awykorzystywanie modeli staje się głównym elementem metodyki tworzenia oprogramowania. Użytkownicy otrzymują coraz więcej informacji poprzez dostęp do danych, aprzez to zwiększa się ich świadomość, czego ijak powinni oczekiwać od technologii informacyjnych. Dział IT dla zaspokojenia rosnącego zapotrzebowania musi się rozrastać. Nie wyeliminowano jednak wszystkich potencjalnych problemów. Brak analizy danych na poziomie korporacji iwystępująca przez cały czas redundancja danych uniemożliwia uzyskanie pełnej kontroli nad procesem tworzenia systemu informacyjnego. Na tym etapie osoby odpowiedzialne za rozwój IT worganizacji uświadamiają sobie, jak istotną (kluczową) rolę wprocesie modernizacji iunowocześniania procesów pełnią dane. Zmienia to również filozofię podejścia do tworzenia aplikacji zprostego automatyzowania procedur do badania ikonsolidowania danych wcelu ich przetwarzania.

W etapie piątym jest wdrażane planowanie strategiczne na poziomie organizacji oraz zostaje podkreślona rola zarządzania zasobami informacyjnymi. Dział IT wprowadza zorientowaną na dane (data-centric) metodologię top-down do projektowania systemu informacyjnego, która zostaje oparta na uznanych istabilnych modelach. Zostają wprowadzone znaczne usprawnienia wistniejącym systemie, aposiadane aplikacje zostają całkowicie zmodernizowane.

W etapie szóstym organizacja posiada wdrożone procesy analizy imodelowania danych na poziomie organizacji, uruchomione aplikacje odzwierciedlają procesy wniej zachodzące, astruktura organizacyjna zostaje dostosowana tak, by usprawnić proces projektowania architektury.

1.3. Architektura korporacyjna iarchitektura danych

Działy IT są tylko jednym zelementów struktury organizacyjnej typowej organizacji, ale ze względu na dostarczane funkcjonalności zazwyczaj są elementem niezwykle istotnym. Poprawne zaprojektowanie systemu informacyjnego wymaga nie tylko odpowiedniej wiedzy informatycznej, ale również ścisłej współpracy zróżnymi przedstawicielami organizacji, zapewnienia odpowiednich kanałów komunikacyjnych izdolności przedstawienia odpowiednich celów. Wymagana jest jak najpełniejsza wiedza na temat organizacji iprocesów wniej zachodzących. Konieczność zaangażowania wielu interesariuszy wopisanie organizacji wymaga wykorzystania sformalizowanych ijak najbardziej uniwersalnych mechanizmów współpracy. Powinno to umożliwić pozyskanie większej grupy podmiotów wnoszących wartościowy wkład do opisu organizacji oraz łatwiejsze wprowadzenie do zespołu nowych członków na późniejszym etapie projektu.

Aby sprostać przedstawionym wyzwaniom, opracowano wiele standardów, modeli ipojęć, które mają wtym pomóc. Należą do nich m.in. architektura korporacyjna (enterprise architecture) iarchitektura danych (data architecture). Architektura korporacyjna to zbiór właściwości danej korporacji (włącznie ze strukturą), które stanowią ozdolności do realizacji jej misji – czyli dokładny jej opis [Graves, 2016].

Podwaliny pod dziedzinę badań nad architekturą korporacyjną zostały położone poprzez pracę J.A. Zachmana, opublikowaną w1987 roku [Zachman, 1987]. Jej głównym celem była próba sprostania złożoności zarządzania coraz bardziej rozproszonymi systemami. Według Zachmana najlepszym sposobem na uświadomienie sobie prawdziwej wartości biznesowej drzemiącej worganizacji isposobem na osiągnięcie odpowiedniego poziomu zwinności wopisywaniu, projektowaniu imodyfikowaniu zachodzących wniej procesów jest holistyczne podejście do całej architektury systemowej, które bierze pod uwagę każde ważne zagadnienie worganizacji zkażdej istotnej perspektywy. Takie spojrzenie na architekturę systemu zostało przez niego opisane jako Model Architektury Systemów Informacyjnych (Information Systems Architectural Framework), który został później przemianowany na Model Architektury Korporacyjnej (Enterprise Architecture Framework).

System informacyjny wspierający nowoczesną organizację może być bardzo skomplikowany ijego zaprojektowanie oraz obsługa wymagają współpracy wielu wyspecjalizowanych interesariuszy. Wzależności od posiadanej wiedzy izakresu obowiązków spojrzenie na ten sam proces może oznaczać wykorzystanie innych narzędzi ikompetencji do jego opisania izaprojektowania. Menedżer, projektant baz danych iinżynier sieciowy będą mieli zupełnie inny punkt widzenia iwymagania np. na proces komunikacji zklientem, ale każda ztych perspektyw (pomimo innego poziomu szczegółowości, narzędzi czy języka służącego do jego opisania) będzie istotna do osiągnięcia sukcesu organizacji iwymaga szczegółowego projektu. Wten sposób powstaje wiele dokumentów opisujących architekturę systemu (artefaktów), które są porządkowane przez Model Zachmana (Zachman’s Enterprise Framework).

Model Zachmana jest szablonem służącym do organizowania artefaktów architektury (dokumentów projektowych, specyfikacji, modeli), które biorą pod uwagę zarówno ich odbiorców (np. właścicieli, projektantów), jak iposzczególne zagadnienia, które wymagają opisania izaprojektowania (np. dane ifunkcjonalności). Wprzedstawionej na rysunku 1.1 strukturze Zachmana wymiar wierszy organizuje poziom artefaktów według interesariuszy. Zachman zaproponował sześć poziomów – planistę, właściciela, projektanta, budowniczego, podwykonawcę ikorporację. Wymiar kolumn koncentruje się na opisie celu artefaktu wprojekcie: co (dane), jak (funkcje), gdzie (sieci), kto (ludzie), kiedy, dlaczego.

Zarówno właściciel, jak iprojektant muszą znać odpowiedzi na te same pytania, ale odpowiedzi na nie będą wzależności od pytającego inne.

Bardziej rozbudowane podejście do zagadnienia architektury korporacyjnej zostało zaproponowane wmodelu TOGAF (The Open Group Architecture Framework) [Open Group, 2011]. Open Group wswoim modelu definiuje architekturę korporacyjną jako spójny model organizacji (rozumianej zarówno jako jednostki administracji publicznej, jak iprzedsiębiorstwa) integrującej: cele izadania strategiczne organizacji, procesy biznesowe oraz systemy informacyjne itechnologiczne niezbędne do realizacji jej celów [Goikoetxea, 2014].

Architektura korporacyjna TOGAF składa się znastępujących elementów [Open Group, 2005]:

•pryncypia architektury korporacyjnej – zbiór trwałych zasad bazujących na strategii rozwoju organizacji, które stanowią reprezentację całościowych potrzeb organizacji wzakresie tworzenia rozwiązań informatycznych,

•architektura biznesowa – określa strategię biznesową isposoby zarządzania organizacją, jej strukturę organizacyjną oraz główne procesy biznesowe, atakże relacje pomiędzy tymi elementami,

•architektura danych,

•architektura aplikacji – opisuje poszczególne systemy oprogramowania, ich rozlokowanie, wzajemne współdziałanie oraz relacje pomiędzy tymi systemami agłównymi procesami biznesowymi,

•architektura technologiczna – opisuje infrastrukturę techniczną, która stanowi podstawę funkcjonowania kluczowych systemów oprogramowania (obejmuje ona m.in.: systemy operacyjne, systemy zarządzania bazami danych, serwery aplikacyjne, sprzęt komputerowy oraz infrastrukturę komunikacyjną).

Źródło: [Sobczak, 2013].

Najważniejszym komponentem standardu TOGAF jest proces tworzenia architektury – ADM (Architecture Development Method), który opisuje metodę konstruowania izarządzania architekturą korporacyjną. Określa ona wustandaryzowany sposób cele, założenia, zbiór niezbędnych danych wejściowych, poszczególne kroki projektowe idane wyjściowe niezbędne do opisania opracowywanej architektury. Struktura Zachmana pozwalała określić miejsce artefaktów niezbędnych dla architektury korporacyjnej, aADM jest narzędziem do ich tworzenia.

Jednym zobszarów zainteresowań, które wchodzą wskład architektury korporacyjnej, jest architektura danych. Według definicji TOGAF jest to opis struktury iinterakcji podstawowych typów iźródeł danych przedsiębiorstwa, logicznych ifizycznych zasobów danych oraz mechanizmów zarządzających danymi [Harrison, 2013]. Razem zarchitekturą aplikacyjną (application architecture) tworzą one kluczową dla organizacji architekturę systemów informacyjnych. Zgodnie zzałożeniami ADM architektura danych jest przedmiotem ciągłego procesu projektowego, uzależnionego od ewolucji pozostałych elementów architektury korporacyjnej izmian wymuszających dostosowanie projektu architektury.

W dziedzinie technologii informacyjnych architektura danych jest zbiorem modeli, polityk, reguł istandardów, które są stosowane wprocesie zarządzania sposobem zbierania, składowania, integracji iużywania danych wprzedsiębiorstwie [Sobczak, 2013].

Jak podkreślono we wstępie rozdziału, dane, którymi powinna zarządzać organizacja, mogą mieć różne źródła icharakter. Przykładem danych użytecznych dla organizacji mogą być:

•stany magazynowe przechowywane wbazach danych programów ERP,

•dane kontaktowe klientów składowane wplikach Excela,

•poczta elektroniczna użytkowników organizacji,

•zapis lokalizacji pojazdów organizacji znadajnikami GPS,

•zapisy wideo zkamer monitoringu,

•skany faktur,

•dane dotyczące organizacji lub klientów zamieszczane na portalach społecznościowych,

•wiadomości na branżowych portalach internetowych,

•wpisy zwypełnionych przez klientów formularzy kontaktowych,

•systemy przechowujące dane opoświadczeniach, pozwalające na uwierzytelnienie iautoryzację użytkowników.

Różnorodność danych, które są wposiadaniu organizacji lub wzasięgu jej zainteresowania, może być bardzo duża, aw sytuacji specjalistycznych organizacji może mieć charakter unikatowy. Część danych będzie jednak miała charakter uniwersalny, np. dane zsystemów obsługujących dział zasobów ludzkich (Human Resources). Pomimo uniwersalnego charakteru system zarządzania danymi może być jednak zupełnie inaczej zaimplementowany, np. oferować inny interface użytkownika, zapewniać różny poziom szczegółowości danych lub przechowywać dane wróżnych systemach bazodanowych (Database Management System).

Do poprawnego zdefiniowania architektury danych istotne jest nie tylko zdefiniowanie oczekiwań interesariuszy systemu. Wprzypadku systemu informacyjnego to dane są jego kluczowym elementem inależy również zperspektywy danych określić ich cechy, wymagania wstosunku do nich iwłaściwości środowiska, wktórym będą składowane iprzetwarzane.

Według modelu TOGAF można wymienić sześć pryncypiów kluczowych dla danych:

•dane są wartościowym zasobem,

•dane są udostępniane,

•dane mają być dostępne,

•dane wymagają powiernika (data trustee),

•dane wymagają zdefiniowania iwspólnego słownika pojęć,

•dane muszą być bezpieczne.

Celem danych jest wspomaganie procesów decyzyjnych. Dokładne, aktualne dane mają kluczowe znaczenie dla dokładnych, terminowych decyzji. Większość aktywów firmy jest starannie zarządzana, adane nie są wyjątkiem. Dane są podstawą procesu decyzyjnego, dlatego też należy starannie nimi zarządzać, aby upewnić się co do ich lokalizacji, wiarygodności idokładności oraz możliwości uzyskania do nich dostępu wsytuacji, kiedy jest to potrzebne.

Według TOGAF zagwarantowanie jakości danych iwłaściwe zarządzanie danymi wymaga od organizacji spełnienia następujących wymogów:

•dzięki odpowiedniej edukacji wszystkie organizacje wkorporacji rozumieją relacje pomiędzy wartością danych, ich udostępnianiem idostępem do nich;

•należy odejść od myślenia wkategoriach właściciela danych (Data ownership) na rzecz zarządcy danych (Data stewardship);

•zarządcy muszą mieć władzę iśrodki do zarządzania danymi, za które są odpowiedzialni;

•rola zarządcy danych jest krytyczna, ponieważ wwyniku jego nieprawidłowej pracy może dojść do przekazania personelowi przedsiębiorstwa przestarzałych, nieprawidłowych lub niespójnych danych, co może mieć negatywny wpływ na proces podejmowania decyzji wprzedsiębiorstwie;

•zadaniem zarządcy danych jest zapewnienie jakości danych; należy opracowywać iwykorzystywać procedury wcelu zapobiegania występowaniu błędów winformacjach iich korygowania oraz usprawnienia tych procesów, które są źródłem błędnych informacji; wymagane jest opracowanie iwdrożenie polityk iprocedur pozwalających na pomiar jakości danych ipodejmowanie kroków wcelu poprawy ich jakości;

•o zmianach procesów proponowanych przez zarządcę danych powinno decydować forum zszeroką reprezentacją wskali całego przedsiębiorstwa;

•ponieważ dane są wartością dla całego przedsiębiorstwa, odpowiedzialni za prawidłowe zarządzanie danymi muszą być asygnowani na szczeblu przedsiębiorstwa.

Szybki dostęp do dokładnych danych ma podstawowe znaczenie dla poprawy jakości iskuteczności podejmowania decyzji przez przedsiębiorstwa. Łatwiej itaniej jest utrzymywać aktualne, dokładne dane wpojedynczej aplikacji, anastępnie dzielić się nimi, niż utrzymywać duplikaty danych wwielu aplikacjach. Przedsiębiorstwa posiadają duże ilości danych, ale są one często przechowywane wsetkach niezgodnych baz danych. Prędkość gromadzenia danych, ich tworzenia, przekazywania iasymilacji zależy od zdolności organizacji do efektywnego współużytkowania tych wysp danych wramach całej organizacji.

Według TOGAF do zagwarantowania możliwości udostępniania danych, aco za tym idzie ich wymiany pomiędzy różnymi systemami, istotne jest wdrożenie następujących wytycznych:

•aby umożliwić wymianę danych, należy opracować iprzestrzegać wspólnych zasad, procedur istandardów dotyczących zarządzania danymi idostępu do nich zarówno wkrótkim, jak iw długim okresie;

•w perspektywie krótkoterminowej, aby nie zaprzepaścić inwestycji wstarsze systemy, należy zainwestować woprogramowanie zdolne do migracji danych ze starszych systemów do wspólnego środowiska danych;

•należy opracować standardowe modele danych, elementy danych iinne metadane definiujące współużytkowane środowisko iopracować system repozytoriów służący do przechowywania tych metadanych;

•w perspektywie długoterminowej, gdy przestarzałe systemy zostaną zastąpione nowymi rozwiązaniami, należy przyjąć iegzekwować wspólne zasady dostępu do danych iwytyczne dla nowych twórców aplikacji, aby zagwarantować, że dane wnowych aplikacjach są dostępne dla wspólnego środowiska, adane wśrodowisku współużytkowanym mogą nadal być wykorzystywane przez nowe aplikacje;

•w perspektywie krótko- idługoterminowej należy przyjąć wspólne metody inarzędzia służące do tworzenia, przechowywania iuzyskiwania dostępu do danych udostępnianych wprzedsiębiorstwie;

•praca we wspólnym środowisku danych będzie wymagać znacznej zmiany kulturowej;

•zasada udostępniania danych będzie stale wsprzeczności zzasadą bezpieczeństwa danych; wżadnym wypadku zasada udostępniania danych nie może doprowadzić do naruszenia poufności danych;

•udostępnione dane powinny być wykorzystywane przez wszystkich użytkowników do wykonywania powierzonych im czynności. Dzięki jednemu źródłu danych tylko najbardziej aktualne idokładne dane zostaną użyte wprocesie podejmowania decyzji.

Szeroki dostęp do danych prowadzi do poprawienia efektywności iskuteczności wpodejmowaniu decyzji oraz pozwala na dostarczenie aktualnych odpowiedzi na żądania odane. Korzystanie zinformacji musi być rozpatrywane zpunktu widzenia przedsiębiorstwa, aby umożliwić dostęp szerokiej gamie użytkowników. Można zaoszczędzić czas pracy personelu izwiększyć spójność danych.

Według TOGAF, aby zagwarantować użytkownikom efektywny dostęp do danych, powinny być przestrzegane następujące zalecenia:

•dostępność obejmuje łatwość uzyskiwania informacji przez użytkowników;

•sposób uzyskiwania dostępu do informacji iwyświetlenia musi być wystarczająco elastyczny, aby sprostać wymaganiom użytkowników korporacyjnych pełniących różne funkcje, co może się przekładać na inne metody dostępu (różne urządzenia dostępowe, dostęp zurządzeń mobilnych) izapotrzebowanie na dane oróżnorodnym charakterze (zaawansowane raportowanie lub wykonywanie bardzo prostych ipowtarzalnych operacji);

•dostęp do danych nie oznacza zrozumienia danych; personel powinien zachować ostrożność, aby nie nadinterpretować informacji;

•dostęp do danych niekoniecznie daje prawa dostępu użytkownika do modyfikowania lub ujawniania danych. Uświadomienie pracownikom organizacji znaczenia danych, zasad kontroli dostępu do danych ikonsekwencji ujawnienia informacji wymaga procesu edukacyjnego iczęsto zmiany wkulturze organizacyjnej, która obecnie popiera przekonanie o„własności” danych przez jednostki funkcjonalne.

Jedną zzalet projektowanego środowiska jest możliwość dzielenia się danymi (np. tekstem, wideo, dźwiękiem itp.) wprzedsiębiorstwie zwieloma użytkownikami. Wraz ze wzrastającym stopniem udostępniania danych zwiększa się stopień, wktórym różne jednostki biznesowe opierają się na tych samych zasobach danych organizacji – wtakim przypadku istotne staje się, aby za zawartość danych odpowiadał tylko jeden podmiot – powiernik danych (data trustee). Wsytuacji, kiedy te same dane (np. dane klienta) są powielane imodyfikowane wwielu miejscach lub przechowywane wjednej kopii, ale modyfikowane przez wielu użytkowników, może dojść do utraty integralności (integrity) danych. Utworzenie roli powiernika danych ipowierzenie jej wyłącznej odpowiedzialności za wprowadzanie imodyfikacje konkretnych danych eliminuje powielanie czynności wykonywanej przez pracowników izmniejsza zapotrzebowanie na zasoby związane zprzechowywaniem danych. Wprocesie zarządzania danymi można obok roli powiernika wymienić rolę stewarda danych (data steward). Powiernik różni się od zarządcy – jest odpowiedzialny za dokładność ijakość danych, aobowiązki stewarda mogą być szersze iobejmują:

•zarządzanie definicjami danych, rozpoczynając od ich znaczenia biznesowego aż po techniczną specyfikację potrzebną podczas implementacji (np. struktura iatrybuty obiektów biznesowych; zakresy dopuszczalnych wartości);

•tworzenie irealizowanie polityk oraz procedur związanych zzarządzaniem iuzgadnianiem zmian wdefinicjach danych oraz zmian wsystemach informatycznych przetwarzających dane;

•tworzenie zasad zarządzania jakością danych;

•wspieranie właściwego iskutecznego wykorzystania danych.

Według TOGAF dla zagwarantowania odpowiedniej jakości danych proces zarządzania idostępu do danych powinien charakteryzować się następującymi cechami:

•prawdziwe powiernictwo rozwiązuje kwestie „własności” danych iumożliwia dostęp do danych wcelu zaspokojenia potrzeb wszystkich użytkowników, może być wymagana zmiana kulturowa z„własności” danych na „powiernictwo” danych;

•powiernik danych będzie odpowiedzialny za spełnienie wymagań jakościowych nakładanych na dane, za które jest odpowiedzialny;

•istotne jest, aby powiernik miał możliwość zapewnienia użytkownikom zaufania do danych opartych na atrybutach, takich jak „źródło danych”;

•konieczne jest zidentyfikowanie prawdziwego źródła danych, aby organowi ds. danych można było przypisać odpowiedzialność za jego kontrolowanie;

•informacje powinny być rejestrowane elektronicznie raz inatychmiast zatwierdzone tak blisko źródła, jak to możliwe; należy wdrożyć odpowiednie środki kontroli jakości, aby zapewnić integralność danych;

•w wyniku udostępniania danych wprzedsiębiorstwie powiernik jest odpowiedzialny za dokładność iaktualność wyznaczonego elementu danych, anastępnie musi uznać znaczenie tej odpowiedzialności powierniczej.

Dane, które będą wykorzystywane przy opracowywaniu aplikacji, muszą mieć wspólną definicję wcałej centrali, aby umożliwić udostępnianie danych. Wspólne słownictwo ułatwi komunikację iumożliwi skuteczne dialogowanie. Dodatkowo wymagane jest powiązanie systemów iwymiany danych. Według TOGAF do skutecznego definiowania architektury danych na poziomie przedsiębiorstwa niezbędne jest przestrzeganie następujących zasad:

•przedsiębiorstwo musi ustalić początkowe wspólne słownictwo dla firmy; definicje będą stosowane jednolicie wcałym przedsiębiorstwie;

•gdy wymagana jest nowa definicja danych, wysiłek wzakresie definicji zostanie skoordynowany iuzgodniony zfirmowym „glosariuszem” opisów danych; proces powinien być koordynowany przez administratora danych przedsiębiorstwa;

•niejednoznaczności wynikające zwykorzystywania wielu (często potocznych lub hermetycznych) definicji danych muszą ustąpić na rzecz definicji obowiązujących na poziomie przedsiębiorstwa;

•konieczne jest skoordynowanie inicjatyw dotyczących standaryzacji danych;

•należy przypisać funkcyjną odpowiedzialność zarządzania danymi na poziomie przedsiębiorstwa (np. koordynacja standaryzacji).

Dane powinny być chronione przed nieautoryzowanym użyciem iujawnieniem. Każda organizacja posiada zasoby, które wymagają dodatkowego zabezpieczenia wybranych danych poprzez wdrożenie odpowiednich procedur iwykorzystanie adekwatnych środków technicznych. Zabezpieczenia mogą obejmować m.in. kontrolę dostępu do danych, ograniczanie czynności możliwych do wykonania na danych (np. ograniczenie możliwości wydruku czy edycji dokumentu), kontrolę przepływu danych worganizacji ido podmiotów zewnętrznych. Według TOGAF podstawowe wytyczne dotyczące bezpieczeństwa warchitekturze danych są następujące:

•bezpieczeństwo musi być od początku projektowane welementach danych; systemy, dane itechnologie muszą być zabezpieczone przed nieautoryzowanym dostępem imanipulacją; informacje muszą być chronione przed niezamierzoną lub nieautoryzowaną zmianą, sabotażem, katastrofą lub ujawnieniem;

•można zaimplementować mechanizmy, które będą ograniczać dostęp do danych typu „tylko do zobaczenia” (np. bez możliwości drukowania czy kopiowania); należy wdrożyć możliwość etykietowania danych pod kątem stopnia ich zabezpieczenia, np. etykiety dla danych kluczowych do podejmowanych działań biznesowych, niejawnych, wrażliwych lub zastrzeżonych;

•aby wodpowiedni sposób zapewnić dostęp do informacji publicznie dostępnych przy jednoczesnym zabezpieczeniu danych, które wymagają kontroli dostępu, należy zidentyfikować iopracować kwestie bezpieczeństwa na poziomie danych, anie na poziomie aplikacji;

•należy rozważyć architekturę danych pod kątem przechowywania danych jawnych iniejawnych; tradycyjne podejście polegające na utrzymywaniu oddzielnych systemów do składowania różnie sklasyfikowanych danych może być optymalnym rozwiązaniem wkontekście rozwoju oprogramowania isprzętu; nowoczesne systemy bazodanowe udostępniają możliwość przechowywania ioddzielania danych, które potrzebują dodatkowego zabezpieczenia (np. szyfrowania) wsystemach służących do przechowywania danych jawnych; przechowywanie danych jawnych wsystemach przeznaczonych do pracy zdanymi niejawnymi będzie rozwiązaniem drogim inieefektywnym.

Założenia odnośnie do możliwych do implementacji cech danych, uświadomienie sobie związanych ztym ograniczeń imożliwości oraz potencjalnych problemów będzie wpływało na możliwość opracowania dobrej architektury danych.

W wyniku zaprojektowania architektury danych powinniśmy otrzymać opis docelowego (pożądanego) rozwiązania, które zjednej strony odpowiada na potrzeby użytkowników systemu poprzez zagwarantowanie odpowiednich funkcjonalności, ale również przedstawia opis działań pozwalających to rozwiązanie wdrożyć. Zarówno Zachman, jak iTOGAF wymagają zdefiniowania komponentów odpowiedzialnych za dane na trzech poziomach szczegółowości:

•pojęciowym (konceptualnym) – jest to ogólne opisanie głównych obiektów biznesowych iprocesów zachodzących pomiędzy nimi dla zrozumienia funkcjonowania organizacji; na tym poziomie następuje opisanie przez interesariuszy modelu danych wysokiego poziomu (opisującego całą organizację, ale bez wyjaśnienia szczegółów) przy pomocy wspólnego izrozumiałego dla wszystkich zestawu pojęć;

•logicznym – jest to szczegółowy model danych wykonany przy pomocy obiektów modelowania danych (Data Modeling Objects) – szerzej opisanych wrozdziale dotyczącym baz danych – opisany niezależnie od konkretnego rozwiązania bazodanowego lub technologii składowania danych;

•fizycznym – jest to szczegółowy plan pozwalający na realizację planu logicznego osadzonego wkonkretnych systemach DBMS irozwiązaniach sprzętowych; na tym poziomie szczegółowości wykorzystuje się konkretne cechy wybranych rozwiązań do osiągnięcia zakładanych funkcjonalności, ale również do opracowania szczegółowej architektury mającej zagwarantować odpowiednią wydajność iniezawodność.

Zaprojektowanie fizycznego modelu oznacza zdefiniowanie konkretnych sposobów składowania danych, ale również opisania wszystkich pozostałych elementów niezbędnych do ciągłej pracy systemu. System informacyjny musi zagwarantować odpowiednie przepływy danych, mechanizmy zarządzania.

1.4. Podsumowanie

Celem architektury korporacyjnej jest optymalizacja zachodzących worganizacji procesów (automatycznych lub ręcznych) wzintegrowanym środowisku, które potrafi reagować na zmiany iwspiera osiągnięcie celów strategii biznesowej. Efektywne wykorzystanie izarządzanie systemami informacyjnymi jest jednym zkluczowych czynników pozwalających osiągnąć przewagę konkurencyjną izapewnić sukces organizacji. Architektura korporacyjna wzdecydowany sposób wiąże rozwój systemów IT organizacji zosiągnięciem celów biznesowych, adobra architektura korporacyjna potrafi określić poprawną równowagę pomiędzy efektywnością IT ainnowacyjnością biznesową.

Do korzyści, które wynikają zdobrze zaprojektowanej architektury korporacyjnej, można zaliczyć [Open Group, 2011]:

•bardziej wydajne działania (operacje) biznesowe:

– niższe koszty operacyjne,

– możliwość adaptacji do sytuacji wotoczeniu organizacji,

– możliwości biznesowe współdzielone na przestrzeni organizacji,

– niższe koszty związane zzarządzaniem zmianą,

– bardziej elastyczni pracownicy,

– zwiększona wydajność pracy;

•bardziej wydajna działalność IT:

– niższe koszty tworzenia iutrzymania oprogramowania,

– zwiększenie możliwości przeniesienia aplikacji,

– zwiększenie interoperacyjności iuproszczenie zarządzania siecią isystemami,

– zwiększona zdolność do radzenia sobie zzagadnieniami krytycznymi dla całej organizacji, np. zagadnienia bezpieczeństwa,

– ułatwiona aktualizacja iwymiana komponentów systemu obsługującego organizację;

•większy zwrot zpoczynionych inwestycji, mniejsze ryzyko przyszłych inwestycji:

– zredukowana złożoność środowiska biznesowego iIT,

– maksymalny zwrot zinwestycji wistniejące przedsięwzięcia biznesowe iinfrastrukturę IT,

– elastyczność wpodejmowaniu decyzji odnośnie tworzenia, zakupu lub wykorzystania zewnętrznych rozwiązań biznesowych iIT;

•szybsze iłatwiejsze dostarczenie produktu:

– decyzje kupna są prostsze, ponieważ informacje dotyczące zamówień są łatwo dostępne wspójnym planie,

– proces zamówień jest szybszy – maksymalizacja szybkości ielastyczności zamówień bez uszczerbku dla spójności architektonicznej,

– zdolność do pozyskiwania heterogenicznych, otwartych systemów wielu dostawców,

– zdolność do zabezpieczenia większej możliwości ekonomicznej.

Pytania kontrolne

1. Opisz sześcioetapowy model rozwoju technologii informacyjnych worganizacji.

2. Wyjaśnij pojęcie architektury korporacyjnej iarchitektury danych.

3. Podaj pięć przykładów źródeł danych ipięć przykładów danych, które mogą być wykorzystywane przez organizacje.

4. Wymień główne składowe architektury korporacyjnej według TOGAF.

5. Wymień iopisz główne cechy danych według TOGAF.

Studium przypadku

Przypadek 1

Fikcyjna organizacja HykerExcelence podejrzewa, że wostatnim czasie dochodziło do wycieku wewnętrznych danych finansowych do konkurencji ichce wbardziej restrykcyjny sposób kontrolować możliwość pracy na nich. Wdrożone mechanizmy powinny umożliwiać klasyfikowanie inadawanie materiałom elektronicznym (dokumentom, wiadomościom poczty elektronicznej) łatwo rozpoznawalnych sygnatur, które stanowiłyby dla użytkownika informację ospecjalnym statusie dokumentu (np. dokument tylko do użytku działu, dokument zawierający dane wrażliwe, materiały finansowe). Dodatkowo powinna być dostępna możliwość zablokowania pewnych funkcjonalności, które mogłyby ułatwić udostępnienie danych niepowołanym użytkownikom (np. drukowanie ikopiowanie dokumentu, przesyłanie dalej wrażliwych wiadomości poczty elektronicznej).

Dostępną funkcjonalność można uzyskać poprzez usługę AD RMS (Active Directory Rights Management Services). Jest ona jednak dostępna wdwóch modelach wdrożenia – wsiedzibie organizacji (on-premise) ipoprzez usługę wchmurze obliczeniowej – Azure RMS. Wpierwszym przypadku do wdrożenia potrzebne są następujące komponenty (lista nie uwzględnia liczby serwerów niezbędnych do osiągnięcia zadowalającego poziomu dostępności usługi):

•kontroler domeny Active Directory,

•serwer zzainstalowaną usługą AD RMS,

•serwer poczty elektronicznej Exchange,

•komputery użytkowników zzainstalowanym klientem RMS ioprogramowaniem pozwalającym zniego korzystać (np. system Windows lub pakiet biurowy Office).

W przypadku wdrożenia usługi wchmurze wszystkie niezbędne komponenty mogą być uruchomione na serwerach usługodawcy. Dodatkowo użytkownicy otrzymują możliwość pracy zdokumentami Office poprzez przeglądarkę komputerową.

Udostępniane przez usługę funkcjonalności wydają się proste do uzyskania – „schowanie” przed użytkownikiem kilku opcji (np. drukowanie, kopiowanie) czy dodanie do dokumentu odgórnie znaku wodnego. Wsytuacji jednak, kiedy mechanizm ma być automatyczny iw pełni kontrolowany, tj. kiedy dokumenty mają być automatycznie klasyfikowane do odpowiedniej polisy ochronnej według założonych kryteriów (np. wszystkie wiadomości poczty elektronicznej zawierające numery PESEL nie mogą zostać wysłane poza organizację; dokumenty utworzone przez użytkowników zdziału księgowości mogą być drukowane ikopiowane tylko przez ten dział imenedżerów), okazuje się, że wykorzystywane do tego mechanizmy są bardzo skomplikowane.

Organizacja może wzwiązku ztym zdecydować się ze względu na barierę technologiczną (wykorzystanie skomplikowanych narzędzi ikonieczność przeszkolenia kadry IT) iekonomiczną (wysoki koszt licencji isprzętu niezbędnego do uruchomienia infrastruktury na miejscu) na wykorzystanie rozwiązań opartych na chmurze obliczeniowej.

Przypadek 2

Fikcyjna organizacja Adatum wykorzystuje infrastrukturę bazodanową do zbierania, składowania ianalizy danych ze swojego sklepu internetowego. Dotychczasowa baza danych sklepu idzienniki wejść na witryny WWW firmy znajdowały się na tym samym serwerze, ale wraz ze wzrostem popularności serwisu obciążenie związane zmonitorowaniem sklepu wznacznym stopniu zaczęło obciążać serwer izmniejszać komfort pracy klientów. Wzwiązku zwykorzystywanym – iwystarczającym na początku aktywności sklepu – mechanizmem przekazywania danych do bazy danych (zdarzenia na witrynach sklepu były odkładane wplikach tekstowych omaksymalnym rozmiarze 100 MB ipo wypełnieniu aktualnego zbioru odczytywane izapisywane do bazy danych) analiza bieżącej aktywności była obarczona pewną zwłoką. Wtrakcie przesyłania danych do bazy na serwerze można było odnotować znaczny wzrost wykorzystania procesorów izmniejszenie wydajności sklepu. Dodatkowo problem nasilał się wraz ze zwiększoną aktywnością wsklepie.

Dział IT musiał zmierzyć się zdwoma wyzwaniami – rozwiązaniem problemu spadającej wydajności iulepszeniu istniejącej lub zaproponowaniu nowej platformy pozwalającej na proste ielastyczne tworzenie raportów przez pracowników na podstawie opisywanych danych.

W wyniku analizy procesu zidentyfikowano główne źródło problemu – błąd wprojekcie bazy danych imało efektywny sposób przekazywania danych do bazy. Postanowiono jednak radykalnie zmodyfikować cały mechanizm, aby zagwarantować oczekiwane funkcjonalności raportowania izagwarantować skalowalność rozwiązania, aby w