Podając swój adres e-mail i zapisując się na newsletter, wyraża Pan/Pani zgodę na otrzymywanie informacji o publikacjach Oficyny Wydawniczej SGH i przetwarzanie danych osobowych w tym celu. Zgodę można wycofać w dowolnym momencie, co nie wpływa na zgodność z prawem przetwarzania, którego dokonano przed jej cofnięciem.
Zapraszamy
do naszej siedziby:
budynek SGH
al. Niepodległości 162
Tel: 780 039 374
Oficyna Wydawnicza SGH al. Niepodległości 162, p. 023 bud. główny SGH 02-554 Warszawa |
|
|
Wstęp
Czytelnikowi na rynku polskim została udostępniona publikacja Czwarta rewolucja przemysłowa autorstwa prof. Klausa Schwaba, założyciela i prezesa Światowego Forum Ekonomicznego We wstępie do publikacji, w rekomendacjach, znani ludzie biznesu i innych środowisk, w tym naukowych, zamieścili swoje wypowiedzi. Dalej zostały przedstawione wybrane dwie z nich. "Ludzkość stoi na progu największej w dziejach rewolucji, która zmiecie większość obowiązujących zasad naszego życia i pracy. Toczący się wykładniczo technologiczny rozwój świata jest już nie do zatrzymania" (Sebastian Kulczyk, CEO Kulczyk Investment). "Najnowsze technologie, łączące świat cyfrowy, fizyczny i biologiczny, radykalnie zmieniają naszą cywilizację. Nowe możliwości w medycynie, edukacji czy biznesie poprawiają bytowanie człowieka na Ziemi i przyczyniają się do mądrzejszego korzystania z jej naturalnych zasobów. Zarazem okazują się potencjalnie bardzo niebezpieczne, otwierając ogromne przestrzenie do cyberprzestępczości czy przyczyniając się do dalszej polaryzacji społeczeństw. Z tego powodu jednym z najpoważniejszych wyzwań dzisiejszego świata jest to, by dobrze i mądrze przeprowadzić czwartą rewolucję przemysłową" (Aleksandra Przegalińska, Akademia Leona Koźmińskiego). We wstępie do swojej książki Czwarta rewolucja przemysłowa profesor Klaus Schwab pisze m.in.: "Znajdujemy się na początku przewrotu, który w sposób fundamentalny zmienia sposób, w jaki żyjemy, pracujemy i utrzymujemy kontakty. Spośród różnorakich i fascynujących wyzwań, które w związku z tym stoją dzisiaj przed nami, największym i najważniejszym zadaniem jest zrozumieć nową rewolucję technologiczną i odpowiednio ukierunkować jej przebieg. (...) Jesteśmy świadkami ogromnych zmian we wszystkich branżach; wyłaniają się nowe technologie biznesowe, pojawiają się przełomowe zakłócenia w istniejącym porządku, które rewolucjonizują systemy produkcji, konsumpcji, transportu i dostaw. Na froncie społecznym zachodzi zmiana paradygmatu określającego, jak pracujemy i komunikujemy się, a także jak się wyrażamy, jak przekazujemy informacje i jakich szukamy rozrywek. Przekształceniom ulegają zarówno rządy i instytucje, jak i systemy edukacji, opieki zdrowotnej, transportu oraz wiele innych. Nowe sposoby posługiwania się technologią wpływają na nasze zachowania oraz systemy produkcji i konsumpcji, stwarzają także możliwości wspierania, regeneracji i ochrony środowiska naturalnego, zamiast tworzenia ukrytych kosztów w formie efektów zewnętrznych. Zmiany te pod względem rozmiaru, tempa i zakresu, nie mają sobie równych w historii". Zmiany te charakteryzują się dużą szybkością, szerokością i głębią oraz wpływem na transformację wszystkich systemów. Przed tym procesem stoją uczelnie wyższe, uniwersytety i środowiska akademickie, aby w porę podjąć stosowne działania i włączyć się w potężną zmianę systemową. Obecnie modele są podstawą większości, jeśli nie wszystkich, decyzji biznesowych. Coraz częściej firmy poszukują analityki jako kluczowego, strategicznego wyróżnika, który umożliwia kierowanie ogromną liczbą decyzji operacyjnych każdego dnia. Jednocześnie firmy identyfikują zagrożenia. Według SAS White Paper 2018 jednym z istotniejszych czynników hamujących sukces analizy jest opóźnienie między tworzeniem a wdrażaniem modeli. Głównym powodem opóźnień we wdrożeniu modeli jest to, że firmy produkują i wdrażają je w dwóch oddzielnych środowiskach: biznesowym i informatycznym (IT). Analitycy z różnych jednostek biznesowych budują modele, a działy IT je wdrażają. Obie grupy polegają innym zestawom procesów, kodów programowania i języków, które utrudniają szybką reakcję na zmieniające się warunki biznesowe. Jeśli firmy chcą usprawnić produkcję modeli, lepszym pomysłem jest automatyzacja powtarzalnych aspektów pracy i migracja modeli do procesu ciągłego podejmowania decyzji. Odpowiedzią jest fabryka analityczna, czyli połączone dwa środowiska i automatyzacja procesów oraz decyzji. Znaczącą część analityki dla biznesu stanowią modele predykcyjne. Ocena dokładności predykcyjnej jest ważnym aspektem oceny i porównywania modeli, algorytmów lub technologii, które generują prognozy. Prognozy i projekcje stały się istotną częścią każdego przedsięwzięcia biznesowego i naukowego. Monografia Modelowanie dla biznesu przedstawia istotę i modelowanie z zakresu analityki biznesowej w wybranych obszarach zastosowań. Autorami lub współautorami kolejnych rozdziałów są pracownicy Zakładu Analizy Historii Zdarzeń i Analiz Wielopoziomowych, nasi magistranci lub absolwenci Podyplomowych Studiów "Analizy Statystyczne i Data Mining w Biznesie", za które merytorycznie odpowiada Zakład. Monografia rozpoczyna cykl publikacji Modelowanie dla biznesu, serii, która będzie prezentować różnorodne przykłady modelowania biznesowego z wykorzystaniem różnych metod analizy, włączając za każdym razem modelowanie predykcyjne. Rozdział pierwszy jest rozdziałem o regresji logistycznej, modelowaniu, które jest wykorzystywane w sześciu rozdziałach niniejszej monografii. Odpowiedziano w nim na następujące pytania: 1. Jaka była geneza regresji logistycznej i opartego na niej modelowania? 2. Jakie są podstawowe różnice pomiędzy regresją liniową a regresją logistyczną? 3. Jak przebiega estymacja modelu regresji logistycznej (na przykładzie regresji binarnej)? 4. Jak interpretuje się wyniki estymacji parametrów regresji liniowej i regresji logistycznej oraz jakie są różnice? 5. Jakie są inne rodzaje modelowania regresji logistycznej poza modelem binarnym? 6. Jakie znaczenie w modelowaniu regresji logistycznej ma kodowanie zmiennych jakościowych? 7. Co składa się na proces wnioskowania w modelach regresji logistycznej? 8. Co oznacza predykcja i model predykcyjny z wykorzystaniem regresji logistycznej? 9. Jakie mierniki i testy wykorzystuje się do oceny zdolności predykcyjnej modelu opartego na regresji logistycznej? W rozdziale drugim zamieszczono przegląd podstawowych testów i miar do oceny zależności zmiennych jakościowych, których dane empiryczne można zestawić w postaci tablic kontyngencji. Analiza tablic kontyngencji stanowi często wstępny etap wielu bardziej zaawansowanych analiz, w tym modeli regresji logistycznej. Przegląd testów i miar obejmuje: testy służące do weryfikacji hipotez o niezależności dwóch cech jakościowych (testy asymptotyczne i dokładne) oraz test Cochrana-Mantela-Haenszela i jego różne postacie, w zależności od celu analizy. Kolejno omówiono podstawowe miary asocjacji pomiędzy cechami jakościowymi. Konstrukcja tych miar zależy od rodzaju skal pomiarowych, stąd opis miar zależności dotyczy: zmiennych dychotomicznych, nominalnych i porządkowych.Ostatnia część rozdziału ma charakter aplikacyjny, zamieszczono przykłady obliczeń i interpretacji wcześniej opisanych testów i miar na przykładach tablic kontyngencji z zastosowaniem oprogramowania SAS. Proces budowy modelu regresji logistycznej z binarną zmienną objaśnianą jest tematem rozdziału trzeciego. W pierwszej jego części zaprezentowano model deskryptywny, którego celem jest zrozumienie i poznanie zależności w badanej próbie. Następnie opisano model predykcyjny, który ma na celu możliwie najlepsze różnicowanie obserwacji spoza zakresu danych wykorzystanych do budowy modelu. Omówiono zbiór danych oraz wykorzystane procedury i autorskie makra SAS. Przeprowadzono jednowymiarową analizę zmiennych objaśniających, w tym analizę braków danych oraz sprawdzono moc dyskryminacyjną poszczególnych zmiennych. Przedstawiono algorytm podziału zbioru danych na próbę uczącą i walidacyjną. Przeprowadzono analizy korelacji i współliniowości. Opisano algorytm doboru predyktorów do każdego modelu w celu zmniejszenia wymiarowości. Zaprezentowano analizę obserwacji wpływowych i odstających. Finalne modele zostały poddane interpretacji ekonomicznej oraz gruntownej weryfikacji statystycznej. Przeprowadzone testy statystyczne uzupełniono o przedstawienie graficzne w stosownych przypadkach. Rozdział czwarty dotyczy modelowania z wykorzystaniem modelu regresji binarnej i uporządkowanej. Celem analizy było określenie czynników pozwalających przewidzieć końcowy wynik meczu piłkarskiego na przykładzie danych z dwóch pełnych sezonów lig angielskiej. Wykorzystując SAS Enterprise Guide 7.1, zbudowano modele regresji binarnej i uporządkowanej zbioru danych liczącego 760 obserwacji. Zaprezentowano kody tworzące modele oraz najważniejsze kody etapu przetwarzania danych. W modelowaniu wykorzystano 119 zmiennych zawierających statystyki meczowe drużyn gospodarzy i gości, statystyki zagregowane z całego sezonu poprzedzającego daną obserwację, statystyki zagregowane z meczów u siebie dla gospodarza i z meczów wyjazdowych dla gości oraz atrybuty finansowe i geograficzne. Zaprezentowano statystyki dopasowania oraz jakości predykcyjnej modeli. W modelu binarnym liczba goli strzelonych przez gospodarzy u siebie w ubiegłym sezonie oraz przewidywania bukmacherów dotyczące danego meczu okazały się najsilniejszymi predyktorami. W modelu uporządkowanym stracone bramki przez gości w meczach wyjazdowych w ubiegłym sezonie oraz typy bukmacherów miały największy wpływ na zmienną odpowiedzi. W rozdziale piątym do modelowania wykorzystano model regresji Poissona. Pierwszą część rozdziału stanowi wstęp teoretyczny do rozkładu i regresji Poissona oraz opis podstawowej składni procedury GENMOD wykorzystanej do estymacji modelu. W kolejnych podrozdziałach są zaprezentowane przykłady estymacji i analizy liczby infekcji. Rozdział zawiera również informacje dotyczące problemu nadmiernej dyspersji często występujących w rzeczywistych zastosowaniach oraz dwa sposoby rozwiązania tego problemu: korekcja wariancji za pomocą parametru skali oraz model ujemny dwumianowy. Dokonano porównania obu metod modelowania, wskazując podobieństwa i różnice w estymacji. Uzupełnieniem rozdziału jest analiza obserwacji wpływowych i odstających oraz ich znaczenia w procesie estymacji. Tematykę zastosowania modeli predykcyjnych j ako narzędzia umożliwiającego zwiększenie efektywności kampanii marketingu bezpośredniego podjęto w rozdziale szóstym. Pierwsza jego część to wprowadzenie do dziedziny marketingu, w którym zawarto opis podstawowych pojęć i definicji dotyczących podejmowanej tematyki. Następnie opisano rolę modeli predykcyjnych w marketingu oraz znaczenie wskaźnika otwarcia dla sukcesu kampanii marketingowych. Przedstawiono również podstawy teoretyczne zastosowanych metod - regresji logistycznej, sztucznej sieci neuronowej oraz drzewa decyzyjnego. Opisano wykorzystany do modelowania zbiór danych, jak również całościowy proces budowy poszczególnych modeli predykcyjnych, ich porównania oraz wyboru najlepszego pod względem zdolności predykcyjnych. Rozdział zakończono prezentacją praktycznego zastosowania finalnego modelu. W rozdziale siódmym skupiono się na analizie churnu, czyli zjawiska odejścia klienta, które jest związane z zakończeniem korzystania ze świadczonej przez firmę usługi, oraz na przykładowych dwóch podejściach stosowanych do jego badania. W części teoretycznej przedstawiono charakterystykę zjawiska churnu, a także możliwe do zastosowania podejścia analityczne, ze szczególnym uwzględnieniem modelu regresji logistycznej oraz modelu survival data mining. W ramach części praktycznej utworzone zostały, na podstawie danych dotyczących churnu w firmie telekomunikacyjnej, dwa modele: model regresji logistycznej oraz model survival data mining z perspektywą roczną. Na podstawie części aplikacyjnej dokonano podsumowania uwzględniającego możliwości oraz ograniczenia dwóch utworzonych modeli. Rozdział ósmym zawiera opis procesu implementacji metod credit scoringu w obszarach związanych z zarządzaniem relacjami biznesowymi z klientem korporacyjnym oraz motywowaniem pośrednich struktur sprzedaży. Business case, opisany w rozdziale, dotyczy polskiej branży farmaceutycznej, a środowisko dla niego stanowią czasy czwartej rewolucji technologicznej. Klasyczny credit scoring opiera się na mechanizmie transformacji szacowanego prawdopodobieństwa zajścia zdarzenia sukcesu lub porażki do postaci łatwo interpretowalnych punktów scoringowych. Ponadto algorytm umożliwia jednoznaczne wskazanie najistotniejszych, a przez to najbardziej predyktywnych atrybutów modelowanego zjawiska i podzielnie ich na kategorie określające stopień ryzyka wystąpienia prognozowanego zdarzenia. Suma punktów otrzymanych w ramach każdej zmiennej stanowi o przynależności podmiotów do określonej grupy ryzyka. Podejście to od dawna wykorzystywane jest z sukcesem w bankowości dla procesów kredytowych, w instytucjach ubezpieczeniowych do wykrywania oszustów oraz w ocenie efektywności kampanii marketingowych. Rozdział ósmy składa się trzech głównych Warszawa, wrzesień 2019 Ewa Frątczak
|