W publikacjach coraz częściej Business Intelligence zamieniane jest na określenie analityka (analytics). Dzieje się tak, ponieważ obecne systemy potrafią znacznie więcej niż tylko dostarczać informacji biznesowych. Analityka jest pojęciem pojemniejszym, oznacza m.in. przetwarzanie danych pochodzących z wielu źródeł i implementację modeli maszynowych sztucznej inteligencji. Jak wygląda wdrożenie tak rozszerzonego pojęciowo Business Intelligence? Jak należy się do niego przygotować? Jakie ryzyka trzeba brać pod uwagę przy implementacji BI? Na pytania te odpowiadamy w artykule.
Jak wygląda struktura platformy BI?
Początkiem procesu analizy danych jest pozyskanie informacji ze źródeł danych. Następnie dane te są oczyszczane (weryfikowane) i integrowane. W kolejnym kroku wprowadzane są do baz danych do przechowywania w magazynie. Dopiero teraz możliwe jest ich dalsze wykorzystanie w modelach analitycznych tłumaczących dane na język biznesu.
W tym momencie możliwe jest wykonanie kroku pośredniego, czyli uczenia maszynowego, w którym wykorzystywane są algorytmy sztucznej inteligencji. Działania te mogą wprowadzać modyfikacje do stworzonych wcześniej modeli. Na końcu otrzymujemy gotowe raporty lub dane do wykorzystania w narzędziach self-service dających użytkownikom swobodę prowadzenia analiz.

Nie ma cudownych narzędzi BI rozwiązujących wszystkie problemy biznesowe
Na rynku spotkać można wiele firm z agresywnym marketingiem deklarujących, że dostarczą nam narzędzia BI, które będą w stanie rozwiązać wszystkie nasze problemy związane z analizą danych. Niestety, takie narzędzia nie istnieją. Po pierwsze dlatego, że nie posiadają one możliwości bezpośredniego dostępu do źródeł danych, do baz operacyjnych i za każdym razem konieczna jest ich adaptacja do istniejących już systemów. Po drugie dlatego, że dane w źródłach zazwyczaj przechowywane są w strukturze aplikacji, która jest niezrozumiała dla biznesu. Po trzecie wreszcie, narzędzia takie nie istnieją, bo wymagałoby to znajomości przez ich twórcę, struktury danych każdego możliwego źródła, w każdym systemie.
Za każdym razem adaptacja gotowych narzędzi analitycznych wymaga właściwego modelowania danych i stworzenia pełnej ścieżki, którą wędrują dane: od ich pojawienia się w magazynie do narzędzia self-service lub raportowania.
Resumując: wprowadzanie BI wymaga przede wszystkim zrozumienia i często zmodyfikowania procesów biznesowych w firmie, czego nie jest w stanie zrobić żadne cudowne narzędzie „prosto z paczki”.
Założenia i strategia implementacji BI
Przed wdrożeniem rozwiązania BI konieczne jest opracowanie założeń. Projektując rozwiązanie musimy zadbać o infrastrukturę i dostosować się do procesów biznesowych, które odpowiadają za tworzenie danych. Takie podejście jest kluczem do realizacji w narzędziu BI efektywnej analityki i uzyskania spójnych danych. Należy pamiętać o tym, że wdrożenie BI nie polega jedynie na wprowadzeniu kolejnych warstw przetwarzania informacji. Konieczne jest podejście uwzględniające logikę biznesową, dlatego też implementacja BI wymaga dostosowania się do procedur biznesu, a nierzadko również modyfikacji tych procedur.
Kolejny aspekt, o którym należy pamiętać, to strategia zarządzania danymi czyli tzw. Data Governance. Wiele systemów przedsiębiorstwa dostarcza informacji wyłącznie o produkcie i musimy połączyć je z danymi o strukturze organizacyjnej. Dane muszą być zarządzane w sposób, który zapewnia spójność wszystkich obszarów w przedsiębiorstwie (Master Data).
Konieczne jest także zadbanie o bezpieczeństwo danych (Data Security). W tym obszarze istotne jest zwłaszcza określenie zasad dostępu do informacji. Dostęp ten może być zdefiniowany w sposób obiektowy, wyznaczający grupy pracowników mających dostęp do określonego zakresu danych: raportów i modeli.
Innym sposobem może być dostęp pionowy poprzez atrybuty. Wyznacza on granice dostępu na podstawie np. atrybutów klienta. Osobna grupa pracowników będzie miała wgląd do informacji o danych klienta i jego adresie, a inna do informacji o jego zakupach i usługach, z jakich korzysta.
Dostęp do danych może być także zdefiniowany poziomo, w oparciu o znajdujące się w bazie zapisy (rekordy). W tym przypadku jedna grupa pracowników może mieć dostęp do informacji o klientach z Polski, a druga np. o klientach z Niemiec.
Bardzo ważne jest dokładne określenie polityki dostępu do danych, ale należy również zwrócić uwagę na to, by można było nią zarządzać i zmieniać w razie potrzeby.
Projektując system BI należy brać pod uwagę również jakość danych (Data Quality). Ustalenie standardów i procesów zapewniających wysoką jakość danych w platformie analitycznej sprawia, że analitycy mają pewność, że pozyskane dane są prawidłowe i można na ich podstawie podejmować właściwe decyzje biznesowe. Pamiętając o tym należy uwzględnić m.in. cykl życia danych, wersjonowanie i nadpisywanie danych. Ważna jest akceptacja nowych narzędzi przez samych analityków. Jeżeli analitycy nie będą mieli zaufania do systemu analitycznego, to nie będą z niego korzystać albo będą wręcz unikać udziału w projekcie, co ostatecznie może spowodować niepowodzenie wdrożenia.
Przykład wdrożenia BI
Przyjrzymy się bliżej studium przypadku wdrożenia BI w farmacji. Firma z tej branży borykała się z problemem dużej ilości rozproszonych zbiorów danych. Znalezienie odpowiedzi na pytania biznesowe było bardzo trudne, bo dane te nie były ze sobą dobrze zintegrowane. Aby ułatwić dostęp do informacji postanowiono zbudować centralną hurtownię opartą o rozwiązania chmurowe Microsoft z wykorzystaniem narzędzi Azure Synaps Analytics i platformy Power BI.
Realizacji tego zadania podjęła się firma Inetum. Inetum zaprojektowało nową architekturę opartą wyłącznie o usługi chmurowe, opracowało zasady bezpieczeństwa obowiązujące w tej architekturze oraz zasady dostępu do danych (Data Governance).
Wdrożony został serwis do analizy i raportowania, w pełni funkcjonalny, moderowany self-service dla użytkowników biznesowych, umożliwiający im samodzielną wizualizację i raportowanie. Dzięki zbudowanemu rozwiązaniu, użytkownicy mogą dzielić się swoimi analizami z innymi członkami społeczności w ramach zespołów poprzez Microsoft Teams, wykorzystując do tego możliwości platformy Power BI. Zapewniony został dostęp do platformy z poziomu przeglądarki i urządzeń mobilnych oaz dedykowana przestrzeń raportowo – analityczna przeznaczona dla przedstawicieli handlowych.
Największym wyzwaniem podczas wdrożenia była integracja zróżnicowanych struktur danych. W krajach, w których klient posiadał swoje oddziały, procesy biznesowe wdrożone były w odmienny od siebie sposób. Między innymi inaczej definiowane były cele przedstawicieli handlowych. W niektórych krajach wyznacznikiem jakości pracy przedstawiciela handlowego była liczba spotkań, z kolei w innym kraju mogła to być liczba wykonanych prezentacji. Odmienne były również systemy klasyfikacji klientów i okresy rozliczeniowe. W pierwszej kolejności należało uspójnić te informacje, by proces porównywania i analizy poszczególnych obszarów oddawał rzeczywisty obraz realizacji planów sprzedażowych, a nie był tylko ich bardzo niedokładną estymacją. W efekcie wdrożenia firma uzyskała cenne narzędzie Business Intelligence pozwalające na bieżąco, w czasie rzeczywistym, śledzić stan biznesu w całej, rozległej geograficznie organizacji.
Zadanie to udało się wykonać kierując się filozofią One BI. Inetum realizując tę koncepcje pomaga klientom w zbudowaniu jednolitej przestrzeni służącej do analizy danych, pomaga również usprawniać procesy biznesowe. Stosowane przez Inetum narzędzia, rozwiązania chmurowe i lokalne zapewniają użytkownikom dostęp do analiz i raportów z komputera, tabletu lub telefonu.

Head of Business Intelligence Practice at Inetum in Poland. For 10 years Marek has been involved in BI and broadly defined data analysis and processing. Since the beginning he has been mainly associated with Microsoft solutions and tools. Since 2017, a certified specialist in the area of data warehouse design and SQL Server platform management. He is currently developing primarily in the area of cloud analytics. As a consultant, he helps clients define company processes, establish rules for processing and access to data.