Sztuczna inteligencja – nie tylko Big Data

Krajobraz Industry 4.0 i Big Data

Wprowadzenie silnika parowego, elektryfikację, a następnie komputeryzację uznaje się za trzy rewolucje przemysłowe, które całkowicie przekształciły gospodarkę świata. W dzisiejszych czasach ma miejsce Czwarta Rewolucja Przemysłowa związana z rozwojem automatyzacji – algorytmów prognostycznych, optymalizacyjnych, decyzyjnych czy sztucznej inteligencji, którym oddajemy coraz więcej odpowiedzialności typowo przynależącej ludziom.

Obecnie maszyny decydują już o naszych gustach filmowych (Netflix, YouTube), czytelniczych i zakupowych (Amazon), decydują, o czym powinniśmy wiedzieć, a o czym nie, przedstawiając takie, a nie inne wyniki wyszukiwania (Google), podejmują decyzje, czy powinniśmy otrzymać kredyt, czy nadajemy się do danej pracy, w jakich godzinach powinniśmy pracować, a czasem nawet zwalniają ludzi z pracy. Z jednej strony jest to duże zagrożenie dla naszej wolności i swobody w kształtowaniu swojego życia. Rewolucja ta przedefiniowuje także zupełnie relacje społeczne, niekoniecznie na lepsze. Z drugiej strony, automatyzacja zadań powtarzalnych przesuwa ludzi w stronę prac bardziej kreatywnych, wymagających interakcji z ludźmi czy większej uniwersalności, z czym maszyny wciąż sobie nie radzą. Może także docelowo spowodować, że zbliżymy się do wciąż niespełnionej przepowiedni Johna Maynarda Keynesa, iż dzięki automatyzacji ludzie będą musieli pracować jedynie trzy godziny dziennie.

Niezależnie od pozytywnych i negatywnych skutków Czwartej Rewolucji żadna firma nie może sobie pozwolić na ignorowanie tego trendu. Pozostanie konkurencyjnym wymaga coraz dalej idącej automatyzacji procesów powtarzalnych, w tym procesów decyzyjnych. Giganci tego świata, jak Google, Amazon, Microsoft, polegają w tym na ogromnych zbiorach danych (Big Data), np. miliardach wyszukań w Google czy YouTube albo decyzji zakupowych dokonywanych każdego dnia przez systemy tych firm. Większość firm nie posiada jednak tak dużych data setów. Dlatego do automatyzacji potrzebują szerszej palety metod.

Systemy decyzyjne na “Little Data”

Systemy sztucznej inteligencji wykorzystywane przez gigantów technologicznych, oparte na tzw. sieciach neuronowych, są doskonale dostosowane do uczenia się czynności, dla których istnieje duży zestaw przykładów oraz które nie zmieniają się w czasie. Przykładowo, sieć neuronowa przeniesiona w czasie do starożytnego Egiptu i tam nauczona rozpoznawania kotów na zdjęciach radziłaby sobie równie dobrze dzisiaj. Koty wciąż wyglądają tak samo. Dużo trudniej jest nauczyć sieć neuronową sekwencyjnego podejmowania decyzji, tzn. działania, w którym należy podjąć decyzję, poczekać na jej wynik, podjąć kolejną decyzję itd. Tak często uczą się ludzie i nazywa się to metodą prób i błędów. Jednak sieć neuronowa musi od razu uczyć się na dużym zbiorze przykładów, nie potrafi eksperymentować. Można jej dostarczyć przykłady, jak na danym zadaniu radzili sobie wcześniej ludzie, jednak ta metoda ma swoje ograniczenia. Po pierwsze, nie zawsze taki zbiór danych jest dostępny. Po drugie, jeśli rzeczywistość dynamicznie się zmienia, człowiek się zaadaptuje, ale maszyna już nie. Sieć neuronowa konserwuje w sobie przeszłość.

Przykładem takiego sekwencyjnego procesu podejmowania decyzji może być wytwarzanie nowych leków – testujemy jeden skład leku, obserwujemy właściwości, dokonujemy decyzji, jaki skład leku przetestować w kolejnym eksperymencie. Innym przykładem może być logistyka. Operatorzy z czasem uczą się, gdzie najlepiej posłać ciężarówkę, aby później nie miała pustego przebiegu. Optymalizacja pracy każdej bardziej złożonej maszyny (np. w drukarni, na linii produkcyjnej) to również sekwencyjne podejmowanie decyzji. Ustawiamy „pokrętła” na jedną konfigurację i patrzymy na szybkość pracy, liczbę braków itd. Potem przestawiamy pokrętła, aby poprawić wyniki. Po kilku próbach zostajemy z ustawieniem, które jest wystarczająco dobre. W każdym z tych procesów kluczowe jest, aby wykonać jak najmniejszą liczbę prób i ponieść przy tym jak najmniejsze koszty.

Metody optymalizacji Bayesowskiej (nazwanej tak od nazwiska jednego z ojców statystyki) i tzw. uczenia optymalnego zostały stworzone dokładnie do rozwiązywania tego typu problemów. Jedną z technik jest na przykład tzw. Gradient Wiedzy opracowany przez prof. Warrena Powella z Princeton. Algorytm ten stara się z jednej strony wykorzystać wiedzę, którą już posiadł, aby na bieżąco minimalizować straty bądź maksymalizować zyski, a z drugiej tak dobrać kolejną próbę, aby dowiedzieć się, czy nie ma jeszcze lepszej opcji.

Wyobraźmy sobie, że jesteśmy w kasynie i mamy przed sobą trzy automaty do gry. Powiedzmy też, że to idealny świat, w którym kasyno nie zawsze wygrywa i na co najmniej jednym z tych automatów można zarobić. Nie wiemy jednak na którym. Musimy przetestować każdy, tracąc przy tym pieniądze. Ale ile razy powinniśmy przetestować każdy z nich, aby stracić jak najmniej i znaleźć ten przynoszący zyski? Gradient Wiedzy jest właśnie rozwiązaniem tego problemu.

Prof. Powell z sukcesem zastosował ten algorytm m.in. do znajdowania właściwego składu leków, do zarządzania logistyką samochodów ciężarowych czy do zarządzania siecią energetyczną z uwzględnieniem OZE. Jego największymi osiągnięciami w obszarze zastosowań przemysłowych są systemy zarządzania pracą kierowców ciężarówek oraz zarządzania flotą samochodów ciężarowych dla największych przewoźników w Stanach Zjednoczonych – Swift, Schneider and Hunt, którzy dzięki tym systemom zaoszczędzili dziesiątki milionów dolarów.

Gradient Wiedzy może być także stosowany do dowolnego problemu, w którym należy wielokrotnie podejmować decyzję i w którym ważna jest szybkość uczenia oraz adaptywność do zmieniającej się rzeczywistości.

Przykład wykorzystania uczenia optymalnego w Polsce

W Polsce techniki Bayesowskie w połączeniu z innymi metodami uczenia maszynowego stosuje firma ORA AI (oraz jej gałąź skupiona na rynku hotelarskim – RoomSage). Współpracując z prof. Powellem i grupą jego doktorantów stworzyliśmy algorytmy zarządzające stawkami za reklamę w Google Ads. W pierwszej kolejności skupiliśmy się na dostarczeniu rozwiązania dla branży hotelarskiej i dziś nasz algorytm jest wykorzystywany przez kilkadziesiąt hoteli w Europie i Ameryce Północnej. Na większości tego typu kampanii nasza AI podnosi profit o 20-25%, a na niektórych kampaniach nawet o kilkaset. Co więcej, nasze algorytmy wygrały niemal wszystkie testy, gdzie konkurowały z algorytmami Google’a. Natomiast obecnie rozszerzamy naszą działalność na wszystkie branże reklamujące się z pomocą Google Ads i także tutaj pozyskaliśmy już pierwszych klientów.

Docelowo myślimy o sobie jako o firmie technologicznej, potrafiącej stosować tak popularne dziś sieci neuronowe, ale jednak skupionej bardziej na tworzeniu adaptywnych algorytmów sztucznej inteligencji opartych na metodach uczenia optymalnego. Wierzymy także, że wiele firm chcących skorzystać z benefitów Czwartej Rewolucji Przemysłowej powinno mocniej zainteresować się tymi metodami, ponieważ zapewniają one istotnie większą elastyczność w rozwiązywaniu problemów automatyzacji.


Autor:
Piotr Zioło, Director of Data Science

Last Updated on 28 października, 2020 by Łukasz

Udostępnij