Czym jest Self-service Business Intelligence
Streszczenie odcinka:
⚫️ Przedstawienie Gościa
⚫️ Czym jest Business Intelligence?
⚫️ Czy Excel też jest narzędziem Business Intelligence?
⚫️ Kiedy potrzebne są bardziej rozbudowane narzędzia, niż Excel?
⚫️ Jakie są możliwe sposoby wdrożenia i realizowania Business Intelligence w organizacji (Corporate BI, Self-Service BI i End-User BI)
⚫️ Czy wdrożenie Business Intelligence wymaga rewolucji w firmie, czy można do tego podejść iteracyjnie? Czy poszczególne podejścia wymienione wcześniej są niezależne od siebie, czy jest to pewne continuum wdrożenia i wykorzystania?
⚫️ Od czego zależy sposób wdrożenia i wykorzystania BI w organizacji? Czym można się kierować, planując takie wdrożenie?
⚫️ Jakie są wady, zalety, korzyści i zagrożenia podejścia self-service względem klasycznego wdrożenia typu corporate?
⚫️ Jak jest to realizowane na przykładzie Power BI?
⚫️ Jakie są typowe etapy wdrożenia rozwiązania BI w firmie?
Transkrypcja odcinka:
Cześć, witam Was w kolejnym odcinku podcastu „Stacja IT”. Dzisiaj jest z nami Tomasz Szreder, specjalista od business intelligence, a dzisiejszy temat to self service business intelligence. Porozmawiamy o tym, czym jest self service business intelligence, czym różni się od klasycznych podejść i dlaczego może się przydać w twojej organizacji.
Tomasz, czy mógłbyś się przedstawić i powiedzieć, czym zajmujesz się na co dzień?
Nazywam się Tomasz Szreder, jestem konsultantem Power BI Volvo. Prowadzę szkolenia w Sages z Power BI. Tworzę rozwiązania, korzystając z microsoftowej aplikacji Power BI, czyli narzędzia do business intelligence. Oprócz tego doradzam innym analitykom, którzy budują tego typu raporty, zajmuję się architekturą, testuję nowe funkcjonalności przed wprowadzeniem ich na naszą platformę, i robię wszystko, co jest związane z Power BI.
Czym jest business intelligence w twoim rozumieniu?
Najprostsza i najogólniejsza definicja, która ostatnio mi się bardzo spodobała, sprowadza się do tego, żeby dane gromadzone przez przedsiębiorstwo, wszystkie transakcje i logi zamienić w informacje oraz wiedzę, która ma pomóc naszemu przedsiębiorstwu w podejmowaniu rozmaitych decyzji. Czyli zamiana danych w informacje, wiedzę, ale pod kątem wywierania pozytywnego skutku dla firmy.
Czyli jakaś korzyść z wykorzystaniem tych nowych rozwiązań, aplikacji, które to ułatwiają i pomagają w analizie danych. Zdobyczą ostatnich lat jest dostęp do tych wspaniałych, magicznych narzędzi, które nam w tym pomagają. Zanim do nich dojdziemy, zacznijmy od klasycznego Excela. Czy w rozumieniu takiej definicji Excel też jest narzędziem business intelligence? Co możemy w nim zrobić?Myślę, że jak najbardziej. Excel zdecydowanie pomaga nam zamienić dane w informacje, chociażby poprzez wykorzystanie tabel przestawnych, które pozwalają zagregować pewne informacje. Excela można nawet nazwać najbardziej rozpowszechnionym czy najczęściej wykorzystywanym narzędziem do business intelligence. Myślę, że dla wielu firm jest narzędziem wystarczającym. Bo jeżeli mamy chociażby takiego kontraktora IT jak ja, który wystawia kilka faktur w miesiącu i chciałby zanalizować swoje przychody, wystarczy, że ściągnie to wszystko, wrzuci do Excela i jest w stanie określić, który miesiąc w roku był najlepszy. To już jest dla mnie business intelligence, który można wykonać w Excelu. Teoretycznie można by to nawet zrobić na kartce papieru, ale Excel wydaje się w tym przypadku lepszy. I myślę, że przy tak małej skali nie ma też potrzeby stosowania innych narzędzi.
Czy znasz takie kryteria, które ewidentnie wskazują, że Excel niekoniecznie jest najlepszy dla danej organizacji? Czy to jest kwestia liczby faktur w miesiącu, ilości danych, które analizujemy, liczby użytkowników, którzy z tych danych korzystają, stopnia zaawansowania analiz? Jak ty to widzisz?
Wszystkiego po trochu. Twardą granicą jest np. limit ok. miliona wierszy, które możemy przechowywać w Excelu. Więc jeśli naszych plików jest więcej, to automatycznie ciężko będzie to wykonywać w Excelu. Większość osób zajmujących się danymi w firmie coś takiego wyczuje. Czyli jeżeli ja jako kontroler finansowy spędzam połowę czasu, walcząc z formułami w Excelu, bo znowu coś mi się wysypało, albo zbieram po raz kolejny w miesiącu dane z tych kilkunastu czy kilkudziesięciu plików, przeklejam je do nowego pliku i próbuję coś z tym zrobić, to jest to moment, kiedy warto zainteresować się jakimś narzędziem, które tę pracę usprawni. Ciężko mi wskazać konkretną granicę: 200 faktur? OK, możesz to robić w Excelu, ale jak masz 201., to musisz przejść na Power BI. Excel pod względem możliwości wizualizacyjnych jest jednak dosyć ograniczony, więc jeżeli chcemy mieć po prostu ładniejsze raporty, pewnie dużym nakładem pracy zrobi się to również w Excelu, ale dużo łatwiej przerzucić się na Power BI czy Tableau i tam kontynuuje nasz business intelligence.
Kojarzy mi się z tym problem współpracy wielu użytkowników, wielu osób w firmie, bo jeśli współpracujemy na różnych raportach, chcemy dzielić się różnymi informacjami, to pojawia się wtedy pytanie, czy przekazywać sobie te pliki.
Można to nazwać piekłem excelowym, czyli nagle całe nasze raportowanie opiera się na przesyłaniu sobie nawzajem mailowo plików Excela. Zakładając, że robimy to co tydzień, może zdarzyć się, że ktoś pominie jeden plik i cały czas korzysta ze starego. Ktoś niechcący zedytuje nieodpowiednio zabezpieczony, umieszczony na wspólnym dysku plik, na którym nagle pojawią się zupełnie inne liczby. Excel to bardzo uniwersalne narzędzie, co daje mu wiele zalet. Ma dosyć niski prób wejścia, więc większość osób kiedyś nim się już posługiwała i jest w stanie zrobić podstawowe rzeczy. Ma również wady. Jeżeli ja robię coś dla siebie i przeglądam sam Excela, to wszystko jest OK, ale jeżeli wysyłam go komuś, kto musi tam coś jeszcze zmienić, to już będzie trudniej. Stworzyłem świetny raport, ale cała logika zawarta jest w jednym pliku, który można stracić. Albo ja odszedłem i później nikt nie rozumie wpisanych tam przeze mnie formuł.
Jak to wygląda w przypadku pełniejszego wdrożenia i wykorzystania systemów typu business intelligence w organizacji? Załóżmy, że zamierzamy przejść z Excela do poważniejszego narzędzia. Jak można do tego podejść, żeby dla firmy było to wygodne i dawało większe możliwości niż Excel? Z jakich narzędzi można skorzystać i gdzie w tym wszystkim jest omawiany self service?
Business intelligence w organizacji polega na wdrożeniu hurtowni, czyli specyficznej bazy zbierającej dane z różnych źródeł i udostępniającej je w jednym miejscu. Poprzednio mieliśmy oddzielny system do księgowości, zamówień, zakupów i sprzedaży, w którym były dane. Największą wartość osiągniemy, gdy je jednak połączymy. Temu właśnie służy hurtownia – żeby te dane zgromadzić w jednym miejscu. Na jej podstawie budujemy system raportów. Zazwyczaj tak wygląda większość większych wdrożeń. Teoretycznie można by tę hurtownię pominąć i zrobić to wszystko, korzystając wyłącznie z Power BI, który przy ograniczonych ilościach danych może służyć też jako coś w rodzaju hurtowni i brać na siebie łączenie tych wszystkich systemów.
Można się zastanowić, jak później do tych danych i tworzenia raportów podejść. Ostatnio widziałem taki slajd Microsoftu, który dzieli BI na trzy fale. Pierwsza z nich to tzw. corporate BI, kiedy wszystko jest bardzo scentralizowane. Mamy już utworzoną hurtownię, ale dostęp do niej jest bardzo ograniczony, ma go wyłącznie wydzielony zespół z działu IT, który następnie przygotowuje zestaw gotowych raportów i udostępnia je użytkownikom. Problem w tym, że rzadko te raporty w stu procentach spełniają wymagania naszych użytkowników, a ze względu na ograniczone zasoby w IT ich zmiana, jak chociażby dodanie jednej dodatkowej kolumny, jest dosyć trudna. Może się zdarzyć, że trochę rozminęliśmy się z oczekiwaniami użytkowników i agregacje, które przygotowaliśmy w raportach, nie odpowiadają. Mamy np. tabelkę, która jako nasz KPI pokazuje liczbę telefonów sprzedażowych do konkretnego klienta, i obok mamy tabelkę, która pokazuje to samo KPI, czyli liczbę telefonów, ale po kilku miesiącach. Z tego już nie wyciągniemy informacji, ile telefonów do danego klienta odbyło się w danym miesiącu. W związku z tym najczęściej poszukiwaną funkcją dla takiego raportu była możliwość eksportu danych surowych do Excela. Wtedy to analityk sam siadał do tych danych i przygotowywał od nowa raport. Ta praca trochę była zmarnowana. Najpierw ktoś siedział, żeby przygotować raport, a później użytkownik najchętniej wyeksportowałby surowe dane do Excela i sam zrobił wszystko.
Temu miała zaradzić druga fala, czyli self service BI. Nie zastępuje ona w całości corporate BI – one jak najbardziej mogą współistnieć. Self service BI w dużym skrócie polega na tym, żeby ciężar tworzenia raportów przesunąć do biznesu jak najbliżej osób, które będą z nich korzystać i na ich podstawie podejmować decyzje. Normalnie standardowy proces wyglądał tak, że osoba, która miała zapotrzebowanie na dane, musiała usiąść z jakimś developerem raportu i wytłumaczyć mu, które dane czy kolumny by chciała. Czasem w większych, bardziej skomplikowanych projektach jeszcze dochodziło dodatkowe ogniwo, czyli np. analityk biznesowy. Ja np. jako użytkownik raportu opisuję moje wymagania analitykowi biznesowemu, który następnie tłumaczy je developerowi. Oczywiście na każdym etapie takiej komunikacji coś tam zginie. Ostatecznie efekt, który dostanę, prawdopodobnie nie będzie spełniał moich wymagań. Wtedy wracamy i robimy kolejną iterację. W ramach self service wygląda to tak, że osoba, która potrzebuje tych danych, jest w stanie sama się do nich dostać i samodzielnie stworzyć raport. Oczywiście nie byłoby to możliwe bez nowej generacji narzędzi, do których należą m.in. Power BI, w którym ja się specjalizuję, ale też Qlik, Tableau, obecnie Looker, który jakiś czas temu został wykupiony przez Google. Tych narzędzi jest kilka. I była taka fala empowermentu czy labelmentu tych użytkowników biznesowych do tworzenia raportów.
Można to odnieść do sytuacji, w której tworzymy jakieś strony, serwisy internetowe i albo wszystko jest na sztywno zahardkodowane przez programistów, albo mamy jakiegoś CMS-a, w którym możemy coś pozmieniać i poprzesuwać na własne potrzeby.
Można to porównać do WordPressa. Żeby postawić stronę internetową, kiedyś trzeba było samodzielnie przygotować pliki HTML-a, wgrać je na serwer. Teraz właściwie nikt sobie tego nie wyobraża. Jest mnóstwo kreatorów, które prawie automatycznie tworzą serwisy internetowe. Wpisujemy nasz kontent, obrazki, ale cała strona i struktura jest gotowa. I rzeczywiście w podobny sposób może to działać.
Powiedziałeś, że te podejścia muszą współistnieć, bo nie możemy przerzucić wszystkiego na użytkowników końcowych. W przeciwnym razie mielibyśmy milion dziwnych raportów, każdy miałby inny. I w sumie wiedza też nie jest w firmie uwspólniania.
Dokładnie, to jest pewne kontinuum: od kilku raportów, które są przygotowywane przez IT, co daje pewność poprawności danych, ich pochodzenia tylko z wybranego źródła oraz wsparcia dla tego raportu. Czyli jeżeli on się nagle wywali, jednego dnia się nie odświeży, to wiemy, że ktoś się tym zajmie, naprawi i idealnie po godzinie ten raport z powrotem się pojawi. Ponieważ IT ma ograniczone zasoby i mniejsze zrozumienie biznesu, raporty mogą nie do końca odpowiadać potrzebom użytkowników, ale za to są dobrej jakości. Po drugiej stronie mamy taką wolną amerykankę, kiedy każdy może sobie stworzyć raport, więc tworzy taki, który idealnie odpowiada na jego potrzeby, bo robi to po prostu sam. Ale przez to liczba raportów rośnie do setek czy nawet dziesiątek tysięcy. Później komuś, kto szuka jakichś danych, bardzo trudno znaleźć raport dobrej jakości. Bo jedne dane headcountu mogą być prezentowane przez kilka różnych raportów, ponieważ kilka osób stwierdziło, że przygotuje sobie raport, ale każdy z nich uwzględni jakiś inny filtr. Wtedy bardzo ciężko znaleźć dane, które rzeczywiście odpowiadają prawdzie, brakuje bowiem tego jednego źródła prawdy. Pewnie to wada tego podejścia. Zaletą jest natomiast odpowiadanie na potrzeby użytkowników. Prawda zawsze leży pośrodku.
Kolejną analogią może być takie kontinuum bezpieczeństwa i elastyczności. Możemy mieć bazę danych, która jest zabezpieczona tak, że nikt się tam nie dostanie, więc ryzyko wycieku danych jest minimalne. Ale z drugiej strony nie po to są dane, żeby je tylko zbierać – chcemy, żeby ktoś jest wykorzystywał. Musimy w jakiś sposób otworzyć dostęp. Linia tego, co jest ważniejsze dla strategii przedsiębiorstwa, jest cienka: pewność i bezpieczeństwo czy zwinność i szybkość podejmowania decyzji. Podobnie jest z rozwiązaniem business intelligence. Albo mamy centralnie sterowane, dobrej jakości raporty, ale proces ich zmiany zajmuje dużo czasu, albo mnóstwo tworzonych błyskawicznie raportów, które równie szybko można zmieniać. Pewnie najlepiej próbować przynajmniej wybrać najlepsze z obu tych rozwiązań.
Czyli w kwestiach bezpieczeństwa zwracasz uwagę na to, że jeśli mamy z góry przygotowane raporty i sztywne podejście, w którym tylko takie raporty udostępniamy, to wtedy nie ma ryzyk szerokiego wycieku danych, natomiast jeśli dajemy takie podejście, że każdy może sobie zrobić własny raport, to musimy udostępnić dane surowe.
To jest kolejna rzecz, kolejna decyzja, którą musimy podjąć, gdzie na tym kontinuum chcemy się ustawić i co, w jaki sposób udostępnić.
Jak to w praktyce wygląda w Power BI? Czy w podejściu self service tworzenie własnych raportów umożliwiamy użytkownikom w narzędziu desktopowym czy on-line?
Power BI teoretycznie jest narzędziem self service. I historia Power BI zaczęła się od tego, że Power BI był tak naprawdę narzędziem wykorzystywanym przez analityków. W pierwszej firmie, w której pracowałem, właściwie sam wdrożyłem Power BI, nawet wbrew IT. Sam to zainstalowałem i podłączyłem się do źródeł danych, zanim IT mnie na tym „przyłapało”. Musieliśmy uzgodnić, jak stosować Power BI. Wtedy to już poszło oficjalnie. Więc od początku Power BI był narzędziem self service. Dopiero w ostatnich latach Microsoft zaczął go uzupełniać o funkcjonalności związane z wdrożeniami enterprise i ustanowił narzędziem dla IT, które mogło pewne rzeczy włączać, wyłączać, ustalać, co można, czego nie można.
Power BI jest więc tylko narzędziem, może być stosowane zarówno do podejścia corporate, jak i self service, mimo że wywodzi się z historii selfservice’owej. Wygląda to zazwyczaj tak, że w Power BI tworzymy coś o nazwie data set. To są dane, które możemy załadować do specjalnej bazy, modelu Power BI. Mogą to być dane z różnych źródeł. Następnie certyfikujemy ten data set, czyli my jako jego twórcy stwierdzamy i informujemy wszystkich użytkowników, że te dane są zweryfikowane, sprawdzone i można z nich korzystać. Wtedy każdy użytkownik poprzez jakieś procedury może się do tego data setu podłączyć i stworzyć samodzielnie własne wizualizacje. Więc z jednej strony mamy zagwarantowane, że każdy korzysta z tych samych danych i nie jest w stanie ich w łatwy sposób filtrować, czyli uwzględnić pewne rzeczy, pewnych nie – i tu już mogą się pojawić rozjazdy. Jeżeli w tym raporcie mamy zysk, to każdy, kto skorzysta z tego pola, dostanie ten sam wynik. A jeżeli musiałby się sam łączyć do danych surowych, później obliczać to sobie jakąś formułą w Excelu, to istnieje ryzyko, że każdy policzyłby to sobie troszkę inaczej. Ale za to my jako dział IT już nie wnikamy w to, jak ktoś zbuduje sobie raport, jakie kolory wrzuci na wykres.
Czyli to jest sposób zabezpieczenia się przed tymi rozjazdami. Każdy korzysta z nieco innych danych, inaczej je przetwarza i w związku z tym otrzymuje zupełnie inne wyniki.
To jest taki przykład, gdzie na tym kontinuum między self service a corporate możemy się umieścić. Z jednej strony IT odpowiada za stworzenie tych data setów, które obejmują jakiś obszar działania przedsiębiorstwa, ale już nie wnika w to, jakie dokładnie raporty na ich podstawie powstały. To jest przykład tego, gdzie postawić granicę.
Gdzie taki data set funkcjonuje? Czy znajduje się w chmurze Power BI?
Tak. Power BI jest usługą chmurową. Można też postawić własny. Jeżeli jakaś firma nie chce czy z jakichś względów nie może umieszczać swoich danych w chmurze, to Power BI Microsoft udostępnia możliwość postawienia własnego serwera Power BI i wtedy wszystko jest przechowywane w naszych serwerach. Myślę, że domyślnie większość jest z wykorzystaniem chmury. Wtedy wykupujemy miejsce na serwerach Microsoftu, z uwzględnieniem wielkości modelu. Po przygotowaniu modelu w narzędziu desktopowym publikujemy go w chmurze w Power BI service i tam już decydujemy, komu to udostępnić.
Na ile te współczesne narzędzia są inteligentne? Na ile pomagają w tworzeniu interesujących, wartościowych raportów czy też boardów, bo skoro przesuwamy miejsca, w których te raporty powstają, do osób mniej technicznych, bardziej do biznesu, być może z mniejszym wykształceniem i umiejętnościami analitycznymi, analizy danych, to czy nie ma zagrożenia, że ktoś sobie nie poradzi? Jednak to narzędzie jest trudniejsze niż Excel.
W niektórych aspektach tak, ale w innych jest dużo prostsze. Bo teoretycznie można w Power BI stworzyć bardzo podstawowy raport bez napisania ani linijki kodu, nawet uznając formułę Excela za kod. Czyli bez pisania jakiejkolwiek formuły jestem w stanie stworzyć całkiem porządny raport – oczywiście im więcej umiem i im bardziej potrafię się zagłębić w język Power BI. Bo Power BI też posiada dwa swoje języki. Jest język M, który służy do ładowania danych do Power BI, i język DAX, który służy do budowy różnych agregacji, czyli sumowania danych, wyciągania średnich itp. Ale można się spokojnie obyć bez korzystania z tego języka. Więc pod tym względem z jednej strony Power BI jest łatwiejszy od Excela, a z drugiej – jeżeli już wejdziemy w DAX-a i w M, to wydaje się być bardziej skomplikowany.
Microsoft też coraz bardziej idzie w kierunku tej trzeciej fali – Enduser BI, czyli udostępniania narzędzia właściwie każdemu bez jakiejkolwiek umiejętności technicznej. Bo Power BI skierowany jest raczej do użytkowników Excela, więc jeśli ktoś jest w nim dobry, to łatwo przerzuci się na Power BI. Ale w ramach tej trzeciej fali Power BI ma umożliwić dostęp do danych właściwie każdemu. Myślę, że to jeszcze przyszłość, ale Microsoft kładzie na to duży nacisk i wprowadza funkcjonalności, które generują nam raporty automatycznie. Wystarczy załadować plik Excela do Power BI i kliknąć „Create report”. Power BI sam dobierze nam rodzaj wizualizacji i przygotuje taką stronę raportu, która wyda mu się najbardziej interesująca. Przy wykorzystaniu algorytmów uczenia maszynowego przeszuka nasz data science i wyciągnie dla nas interesujące informacje, np. że w danym miesiącu przychód wzrósł o 20% i jest to wcześniej niespotykane, przypuszczalnie ma związek z nagłym wzrostem w kategorii komputerów. Więc coś, co mógłby znaleźć też człowiek, ale Power BI jest nam w stanie bardzo szybko przeskanować, przetestować setki czy tysiące hipotez i zwrócić to, co wydaje nam się interesujące. Oczywiście czasami się pomyli i wymyśli jakieś bardzo dziwne rzeczy, skoreluje nam rok z miesiącem itp. Ale zdarza mu się też wpaść na coś, na co my byśmy nie wpadli albo co zajęłoby nam godziny przeczesywania data setu i sprawdzania wszystkich możliwych kombinacji. Oprócz tego Power BI umożliwia tworzenie wizualizacji za pomocą języka naturalnego. Możemy wpisać w odpowiednie okienko – póki co po angielsku i po hiszpańsku – sprzedaż top 10 produktów w kategorii X za 2022 r. i Power BI przygotuje nam wykres.
Tak, tu te podejścia, szczególnie sztucznej inteligencji, wciąż się rozwijają, więc w prosty sposób można uzyskać coraz ciekawsze efekty. Wracając do kwestii self service, czy dla wszystkich jest to najlepsza opcja i rozwiązanie, w którym każdy może sobie te raporty modyfikować, ale w związku z tym udostępniamy więcej danych szerszej grupie osób, czy to zależy od danej organizacji? Od czego w zasadzie do zależy? Jakie można przyjąć tu kryteria? Jak w praktyce wygląda obecnie takie wdrożenie i sposób wykorzystania?
To zależy od organizacji i jej filozofii, czyli co jest dla nich ważniejsze. Bo zarówno jedno, jak i drugie podejście ma swoje zalety. Umożliwienie self service, nawet w ograniczonym zakresie, np. dla konkretnych data setów czy konkretnych modeli daje wiele korzyści. Nie skłaniałbym się osobiście do tego, żeby to self service włączać i umożliwiać, bo dane, oczekiwania i wymagania co do raportów zmieniają się teraz tak szybko, że im mniej osób jest w to zaangażowanych – czyli nie ma tego przekazywania sobie z zespołu do zespołu i oczekiwania na odpowiedzi – im jesteśmy bardziej zwinni i potrafimy szybciej odpowiadać na pewne wyzwania, tym jest to lepsze.
Czy takie wdrożenie może następować etapami? Jeśli tak, to co jest pierwszym etapem, a co drugim? Zwykle podchodzimy do tego tak, że dajemy pracownikom, członkom organizacji gotowe raporty i później zastanawiamy się nad udostępnieniem szerzej, lub odwrotnie: każdy tworzy własne raporty, następnie wyciągamy z tego wspólny mianownik, np. najczęściej wszyscy chcą zobaczyć sprzedaż w miesiącach. Warto zatem zrobić dostępny wszystkim ogólnofirmowy raport przedstawiający sprzedaż. Jak to może wyglądać z twojego doświadczenia?
Częściej wygląda to w ten drugi sposób, bo ma on trochę więcej sensu. W przeciwnym razie budowalibyśmy raporty, nie do końca wiedząc, czy utrafiliśmy. Dużo zasobów w postaci czasu ludzi poświęcamy na zbudowanie czegoś, dopiero później weryfikujemy, czy było to potrzebne. Jeżeli najpierw dalibyśmy ludziom możliwość tworzenia raportów – oczywiście musimy monitorować to, co powstaje, i które źródła danych cieszą się największym zainteresowaniem – wtedy mielibyśmy szansę wyłapać te najbardziej perspektywistyczne lub mające najwięcej użytkowników i objąć je patronatem IT. Czyli spróbować to zoptymalizować, żeby działało szybciej, zapewnić support i zadbać o to, żeby ten raport działał i się rozwijał. Wyłapać po prostu najważniejsze rzeczy. Zyskujemy wtedy pewność, że to, co zbudowaliśmy, i raporty, które wybraliśmy i którym poświęcamy nasze zasoby, to są rzeczywiście te najbardziej potrzebne.
Czy wskazałbyś takie najbardziej typowe lub otwierające oczy przykłady tego, w czym ogólnie business intelligence może pomóc typowej firmie, w szczególności w oparciu o podejście rozszerzone o tę interaktywność ze strony pracowników, czyli self service? Czy to będzie dotyczyło bardziej analizy danych finansowych dotyczących sprzedaży, HR-u, produktów? Gdzie jest ta największa korzyść – return on investment wdrożenia tego rodzaju analityki?
To zawsze zależy od firmy. Ona musi sama zdecydować, co będzie dla niej najważniejsze. Wydaje mi się, że tak historycznie to działy finansowe, w których tego Excela było zawsze najwięcej, najchętniej przesiadają się na Power BI, bo to zdecydowanie przyspiesza ich pracę. Coś, co wcześniej zajmowało nam w Excelu kilka dni, Power BI jest w stanie zrobić w kilka godzin. Na dodatek praca jest później zautomatyzowana, czyli zrobienie tego samego raportu po miesiącu nie zajmuje nam już w ogóle czasu. Ale który obszar firmy da nam największy zwrot z inwestycji, pewnie zależy już od firmy. Dla firmy logistycznej może to być kwestia przesyłek i czasu ich dostarczania. Każda firma wie, jakie są jej najważniejsze KPI-e i działanie, na którym z nich daje jej największe przełożenie na wynik i do optymalizacji którego każda z nich też w jakiś sposób dąży. Od jej strategii zależy, co wg niej najbardziej na to wpływa. Wiadomo, że jeżeli mamy dobre raportowanie, wiemy dokładnie, co się działo i jesteśmy w stanie wyłapać, z czego wynikała zmiana kluczowego KPI-a, to jest to pierwszy krok do jego poprawy.
Jakie są główne etapy przygotowania się do takiego wdrożenie i samego wdrożenia? Bo przyjmijmy, że jeżeli jesteśmy firmą, która ma jakiegoś CRM-a, zapisuje dane o transakcjach, pewnie ma też stronę internetową z jakąś analityką, ma jakieś luźne Excele, w których są zapisane np. dane szczegółowe o poszczególnych produktach lub HR-owe. Źródła są różne, niektóre chmurowe uaktualnione, inne latają gdzieś po mailach. Chcielibyśmy zrobić sobie jeden wspólny dashboard, który z jednej strony ogólnofirmowo przedstawi nam sytuację w sprzedaży, a z drugiej umożliwi pracownikom utworzenie dodatkowych raportów w podejściu self service. W związku z tym czy można wydzielić jakieś główne, standardowe etapy będące punktem wyjścia do rozmyślań o takim wdrożeniu?
Pewnie trzeba by zacząć od końca: co chcielibyśmy zobaczyć, czyli jak ten dashboard i KPI-e miałyby mniej więcej wyglądać. Następnie należałoby odnaleźć dla nich źródła danych. Może się okazać, że nie wszystko jest nam potrzebne i część z tych exceli, które sobie kursowały po mailach, można będzie spokojnie odesłać do lamusa lub do kosza. W bardzo dużej firmie można by się pokusić o zrobienie tego wszystkiego tylko w Power BI, czyli wykorzystać Power BI do integracji tych wszystkich danych. Może to stanowić pierwszy etap. Bo wdrożenie Power BI jest dużo szybsze niż wdrożenie hurtowni. Więc tak naprawdę większość tej pracy może wykonać jedna lub dwie osoby. Możemy skorzystać z Power BI jako budowy takiego trochę proof of concept – pierwszego modelu, żeby sprawdzić w ogóle, czy to się spina, i jak najszybciej zacząć korzystać z tego raportu. Wdrożenie hurtowni to na początku duża inwestycja – budowa data pay planów, jak to zasilać. Sama budowa hurtowni nie daje nam jeszcze żadnego zwrotu z tej inwestycji. Dopiero raporty, które są na samym końcu, możliwość korzystania z tych danych da przełożenie na wynik. Możemy więc zacząć od Power BI.
Trzeba też będzie zdecydować, czy tworzymy jeden model np. na wszystko. Jeżeli tych źródeł nie ma aż tak dużo i rzeczywiście te wszystkie dane jesteśmy w stanie jakoś ze sobą powiązać na podstawie wspólnych wymiarów – dane ze strony internetowej, z jakiegoś systemu finansowo-księgowego – to możemy zbudować jeden model, gdzie będziemy mieć zgodnie z metodologią budowy hurtowni Star schema , czyli tabele faktów, które zawierają wartości do agregowania, np. listę wszystkich transakcji, które zostały wykonane, listę wszystkich transakcji sprzedażowych, które zawierają informacje o tym, co zostało sprzedane, komu itd., z wymiarami – informacje o klientach; na transakcji mamy tylko ID klienta, ale jego adres, kategoria oraz to, od kiedy z nami funkcjonuje, zawiera inna tabela. Najprościej mówiąc, mamy jedną tabelę faktów i dookoła niej różne tabele wymiarów, np. uwzględniające wymiar czasu, wymiar klienta, wymiar geograficzny. Zaczyna to przypominać gwiazdkę, stąd właśnie Star schema.
Mając już ten model, musimy się teraz zastanowić, w jaki sposób i komu będziemy nadawać dostępy, gdzie umieszczać nasze raporty, bo w Power BI raporty umieszcza się w tzw. web space’ach, czyli folderach. Musimy zdecydować, ile ich stworzymy; czy będą per dział, czy per temat, kto będzie miał dostęp do czego; czy te dane musimy dodatkowo zabezpieczyć, żeby jeżeli np. w jednym raporcie pojawiają się dane finansowe z kilku krajów, to czy każdy ma widzieć wszystko, czy dany kraj widzi tylko swoje dane. Jest dużo procesowych decyzji do podjęcia, np. jak będzie wyglądało wsparcie takiego raportu. Czy jeżeli ktoś będzie chciał dokonać jakiejś zmiany w data secie, np. dodać nowe źródło danych, to w jaki sposób może o to prosić. To są takie rzeczy, o których się często zapomina. I one może nie są jakoś bardzo widowiskowe, ale jeżeli to się zrobi dobrze na początku, to ułatwi to znacznie dalszą pracę, bo gdy coś komuś nie pasuje w raporcie, przynajmniej jest na to gotowy proces, a nie obija się od różnych ścieżek albo co gorsza, stwierdza, że i tak nic się z tym nie da zrobić, więc to przemilczy. Musimy zdecydować, jak bardzo się otwieramy. Czy dajemy ludziom dostęp i czekamy, jakie zrobią raporty, czy może przygotujemy coś już na początek, bo musi się pojawić najszybciej.
Czy koszty takiego wdrożenia są duże od strony techniczno-finansowej? Jak rozumiem, samo narzędzie Power BI do użytku indywidualnego jest w ogóle darmowe, natomiast płaci się za rozwiązania kolaboracyjno-chmurowe.
Tak. Każdy raport, który stworzymy, najpierw jest zapisywany w postaci pliku (jak np. Excel), który następnie możemy opublikować go w chmurze, ale teoretycznie nic nie stoi na przeszkodzie, żeby zamiast pliki Excel przesyłać sobie pliki Power BI. Wtedy mamy rozwiązanie całkowicie darmowe. Pliki Power BI wyglądają dużo ładniej, funkcjonują dużo szybciej i dają większe możliwości, ale nadal powtarzamy ten sam błąd, bo nagle robi się ich bardzo dużo. Ktoś mógł pominąć jakąś wersję, kliknąć nie tam, gdzie trzeba, i zastosować jakąś wizualizację. Dużo lepiej jest te pliki publikować. Wtedy Power BI w takiej podstawowej cenie kosztuje nas 10 dol. od użytkownika. Oczywiście jeżeli przy okazji kupujemy też inne produkty Microsoftu, a pewnie każda firma ma pakiet Office’a, to Microsoft z tej ceny schodzi. Ale taka oficjalna, opublikowana na stronie cena to 10 dol. od użytkownika. Tutaj to jest ważne zarówno, kto te raporty tworzy, jak i kto je czyta.
Każda osoba w firmie musi mieć licencję Power BI, żeby móc przygotować raport. To tzw. licencja Pro. Jest jeszcze coś takiego jak Power BI Premium – to dedykowany serwer, który daje nam dodatkowe funkcjonalności, m.in. związane ze sztuczną inteligencją, po stronie administracyjnej ułatwienie zarządzania, ale najważniejszą funkcjonalnością jest to, że jeżeli już raz wykupimy ten serwer, to każda osoba w organizacji automatycznie będzie mogła nawet bez posiadania licencji przeglądać raporty. Wtedy w 50-osobowej firmie 20 osób tworzy raporty, reszta je tylko czyta. Musimy zatem kupić 20 licencji Pro i serwer Premium. Według oficjalnego cennika bez żadnych zniżek, od 500 użytkowników czytających raporty ten Premium zaczyna się opłacać – nie patrząc na wszystkie dodatkowe funkcjonalności, tylko na to, że ktoś chce czytać raport.
Przeszliśmy chyba przez wszystkie najważniejsze etapy omawiania tematu self service business intelligence, w szczególności Power BI. Dzięki za poświęcony czas. I jak rozumiem, można cię spotkać na szkoleniach w Sages.
Dziękuję również za rozmowę i zapraszam na szkolenia, jeśli ktoś chciałby dowiedzieć się więcej o Power BI.
Dzięki wielkie i do usłyszenia.
Do usłyszenia.