Nowe narzędzie na rynku to zarówno wyzwanie, jak i wartość – z Adrianem Guzym, BI Development Managerem w CTDI rozmawiamy o otwartości na innowacje, zmianie kultury pracy z danymi i zaawansowanej analityce w Microsoft Fabric
W nowej siedzibie CTDI w Sękocinie Starym pod Warszawą tafle szkła odbijają poranne słońce, a wnętrza zaskakują nowoczesnym sznytem. Stała temperatura 20°C, podłogi o właściwościach antyelektrostatycznych; od 2024 roku budynek jest zasilany wyłącznie zieloną energią. Polska siedziba CTDI została oddana do użytku w 2019 roku i stała się symbolem inwestycji w przyszłość. Jak mówią przedstawiciele firmy, odzwierciedla filozofię organizacji – odważnie wkraczać w nowe obszary biznesu, wykorzystując najnowsze technologie. To podejście wpisuje się również w projekt wdrożenia Microsoft Fabric w europejskiej dywizji CTDI.
CTDI (Communications Test Design, Inc.) od ponad 50 lat dostarcza usługi inżynieryjne, serwisowe i logistyczne dla branży telekomunikacyjnej i elektronicznej w skali globalnej. Firma działa w ponad 100 lokalizacjach na całym świecie. W Polsce znajduje się największy europejski oddział firmy, który współpracuje z takimi markami jak Samsung, Google, Motorola Solutions, Zebra czy Dell, a także operatorami Orange oraz Plus.
Naszym przewodnikiem po siedzibie jest Adrian Guzy, BI Development Manager w CTDI. To on i jego zespół wybrali Microsoft Fabric na swoją nową platformę analityczną, choć w momencie, gdy rozpoczynali proces ofertowy, Microsoft dopiero uruchamiał platformę do testów.
Jak doszło do tego, że wybraliście debiutujące na rynku BI narzędzie?
Po 10 latach używania jednego oprogramowania uznaliśmy, że najwyższy czas, żeby przyjrzeć się całemu rynkowi i przekonać się czy to nadal jest najlepsza opcja dla nas, biorąc pod uwagę wypadkową możliwości i kosztów. Wyszliśmy z zapytaniem do rynku i w procesie poszukiwań okazało się, że oprócz naszego rozwiązania – Sisense – powinniśmy wziąć pod uwagę jeszcze dwa – Tableau i Power BI – wówczas głównych graczy na rynku business intelligence. Chcieliśmy mieć pewność, że używamy najlepszych narzędzi.
Kolejnym ważnym aspektem było to, żebyśmy, gdy już wybierzemy konkretny produkt, mieli partnera, który może nam pomóc w implementacji. Chcieliśmy, żeby była to firma, która ma wiedzę i będzie nam towarzyszyć w nadchodzących latach, a nie zniknie za rok czy dwa. Odbyliśmy kilka rozmów z ANEGIS – partnerem Microsoft, a ANEGIS dopasował się do naszego procesu RFQ (Request for Quotation – przyp. red.). Ta elastyczność, możliwość dostosowania się do naszych wymagań, bardzo nam się spodobała. Tymczasem w trakcie procesu RFQ Microsoft wypuścił rozwiązanie Microsoft Fabric, jeszcze w wersji public preview.
Microsoft Fabric został udostępniony w wersji general availability w listopadzie 2023. W momencie rozpoczęcia projektu, w lutym 2024, to było jeszcze młode rozwiązanie. Czy wybór narzędzia całkiem nowego dla was nie wiązał się z większymi wyzwaniami niż w przypadku platform już znanych CTDI?
Zdawaliśmy sobie sprawę, że wybierając produkt, który jest zupełnie nowy będziemy mierzyć się z pewnymi wyzwaniami. I one są, bo jest to produkt, który cały czas się rozwija i widać tę jego niedojrzałość. Ale to, że startujemy z tym produktem jest również ogromnym plusem – rośniemy z nim i jesteśmy jedną z pierwszych firm, które na taką skalę wprowadzają go od początku jego istnienia. Drugi plus jest taki, że to rozwiązanie integruje wszystkie narzędzia, a o to nam chodziło.
Czyli świeżość rozwiązania stanowiła wyzwanie, ale i wartość. Jakie jeszcze kryteria zadecydowały o wyborze Fabric?
Bezpieczeństwo. Ta integracja źródeł danych i narzędzi powoduje, że dużo łatwiej zarządzać bezpieczeństwem i przeprowadzać audyty danych. Ten aspekt na pewno spodobał się naszemu zespołowi Information Security. To, co Fabric daje to też zmiana myślenia w ramach firmy, zmiana kultury wokół danych.
Na czym ta zmiana polega?
Każda firma boryka się z silosami danych. To grupy, zespoły robiące podobne rzeczy, ale w inny sposób. Od początku przyświecała nam idea, że chcemy połączyć dwa aspekty – standaryzację i stworzenie od nowa kultury pracy z danymi i wymiany idei związanych z danymi. To oznacza, że za każdym razem, gdy nowy zespół dołącza do Fabrica, to pozwalamy mu skonsolidować jego dane. Rozpoczynamy pracę od serii szkoleń. Każdy kolejny team uczy się pracy z danymi według najlepszych praktyk. Jeśli staniemy się w tym dobrzy, to będzie to miało ogromny wpływ na oszczędności związane z niepowtarzaniem tej samej pracy kilka razy w różnych działach, tylko wykorzystywaniem w zamian istniejących już rozwiązań.
A jakie możliwości Fabrica były dla was game changerem?
Największa zmiana jakościowa dla nas, to wykorzystanie machine learning. Była to pracochłonna, ale i ekscytująca rzecz – funkcjonalność, którą minimalnie wykorzystywaliśmy w poprzednim narzędziu. To był game changer, bo po raz pierwszy na taką skalę wykorzystywaliśmy machine learning i advanced analytics – projekt ukierunkowany na predykcję danych. Ten projekt rozpoczął się po implementacji głównej. To był w zasadzie projekt flagowy, żeby, po pierwsze, pokazać na co stać Fabric, a po drugie, żeby nauczyć się całego procesu predykcji.
Jak jeszcze skorzystaliście z wdrożenia?
To, co dał nam projekt to zrozumienie możliwości tych wszystkich narzędzi. Był pierwszym krokiem w implementacji machine learning w różnych dziedzinach. Od czasu jednego projektu z predykcją cen prowadzimy już kilka kolejnych, wykorzystujących ten sam zestaw narzędzi i procesów Fabrica, np. pracujemy teraz nad usprawnieniami warehouse slot, czyli optymalizacją wykorzystania przestrzeni magazynu. Nie bylibyśmy w stanie pracować w ten sposób nad nowym projektem, gdyby nie projekt machine learning zrealizowany z zespołem ANEGIS.
O czym należy pamiętać, rozpoczynając projekty z użyciem analizy predykcyjnej?
Ogromnym wyzwaniem, z którym mierzą się firmy, jest jakość i ilość danych. Trzeba sobie zdawać sprawę z tego, że takie projekty nie zawsze dają oczekiwane rezultaty. Dopiero po zakończeniu projektu okazuje się, czy w ogóle dane, które mamy, są wystarczające, żeby usprawnienie wprowadzić. Dla każdego biznesu to jest niewiadoma. Dopóki jakiś specjalista się temu nie przyjrzy i nie powie: „Słuchajcie, to daje wam takie rezultaty, ale musicie jeszcze zgromadzić więcej danych, a dodatkowo, gdy będziecie je gromadzić, musicie pamiętać, żeby takie i takie parametry uwzględnić”. To również była dla nas wartościowa informacja – dowiedzieliśmy się, że gdy pracujemy nad takimi projektami jest kilka kryteriów, które muszą zostać spełnione, aby projekt był sukcesem.
Gdybyś miał, patrząc na ten projekt całościowo, zasugerować coś firmom, które też chciałyby zdecydować się na wdrożenie Microsoft Fabric, to na co powinny zwrócić uwagę?
Mam trzy rady dla takich firm. Pierwsza to: inwestuj proaktywnie w programy szkoleniowe dla swojego zespołu do spraw danych. Microsoft Fabric rozwija się bardzo dynamicznie, dlatego równie ważne jest to, żeby wdrożenie projektować elastycznie, aby móc łatwo dostosować się do zmian i nowości. I korzystaj ze wsparcia Microsoft i forów społecznościowych. To dobre źródła wiedzy, które pomogą w przygotowywaniu dokumentacji i obejściu pewnych ograniczeń.
Adrian Guzy
BI Development Manager w CTDI. Specjalizuje się w zarządzaniu dużymi środowiskami BI, projektach ETL, modelowaniu i wizualizacji danych oraz rozwijaniu narzędzi analitycznych.
Przeczytaj także: Bezpieczeństwo i odporność łańcuchów dostaw – jak polskie firmy radzą sobie w świecie niepewności