A A+ A++

W IX edycji ogólnopolskiego konkursu DIMAQ UNI na najlepszą pracę dyplomową z marketingu internetowego nagrodzeni zostali absolwenci szkół wyższych. Spośród zgłoszeń w kategorii prac magisterskich jury wyłoniło laureatkę, której praca skupia się na problematyce atrybucji – rozumieniu różnic między modelami, ich zastosowaniu oraz skutkach, jakie za sobą pociąga dobór odpowiedniego modelu. Porównanie modeli powszechnie znanych i stosowanych do modelu niestandardowego absorbuje wiele uwagi, gdyż jest to istotny czynnik kształtowania strategii komunikacyjnej w ramach działań online, mających bezpośrednie przełożenie na biznes organizacji. Przedstawiamy streszczenie wyróżnionej pracy podyplomowej.

Konkurs DIMAQ UNI organizowany jest przez IAB Polska i Szkołę Główną Handlową w Warszawie i adresowany do studentów oraz absolwentów uczelni wyższych, którzy obronili swoje prace magisterskie, licencjackie inżynierskie i podyplomowe z zakresu marketingu internetowego. W ubiegłorocznej edycji nadesłane prace reprezentowały wysoki poziom, a oceniane były przez jury, w którego skład wchodzili posiadacze certyfikatów DIMAQ, certyfikowani trenerzy DIMAQ, przewodniczący Branżowej Rady ds. Kompetencji IAB Polska, przedstawiciel SGH.

Poniżej przedstawiamy streszczenie wyróżnionej pracy magisterskiej (napisanej pod nadzorem dr. Przemysława Tomczyka), której autorką jest Karolina Denis z Akademii Leona Koźmińskiego.

Dlaczego atrybucja jest tak ważna, a tak mało się o niej mówi?

Atrybucja – wydawałoby się, że jest to tak nieodzowny element pracy każdego marketera, że każdy ma ją w małym palcu. Nie do końca. Owszem, atrybucja jest wszędzie, ale czy korzysta się z niej w sposób świadomy i rozważny? Z tym można polemizować. Zarówno Google, jak i Facebook w ramach swoich platform dysponują automatycznymi i co za tym idzie, najczęściej wykorzystywanymi modelami przypisywania wagi do konkretnych punktów styku na ścieżce konsumenckiej, aczkolwiek są one obarczone błędem systemowym. Często marketerzy czy reklamodawcy wykorzystują standardowy last-click ze względu na brak świadomości wpływu modeli na realne wyniki działań kampanijnych lub gdy taki model został powszechnie przyjęty jako rekomendowany przez właściciela danego ekosystemu. Takie bezkrytyczne zaufanie lub wiara w słuszność metodologii giganta rynkowego co do uniwersalnego modelowania powoduje tzw. narzędziocentryzm. Modelowanie atrybucji jest o tyle ważne, że chcąc osiągnąć określone cele biznesowe należy dobrać odpowiedni model, który współgra z założeniami świadomościowymi czy sprzedażowymi firmy. Właściwa atrybucja jest obecnie jednym z ważniejszych wyzwań marketingu internetowego, ponieważ jest to klucz do analizy faktycznej efektywności kanałów marketingowych. Doskonały model atrybucji, idealny dla każdego, nie istnieje, dlatego weryfikacja efektywności wykorzystywanych kanałów, sprawdzanie źródeł konwersji ułatwia optymalizację celów kampanijnych oraz biznesowych. Dzięki szerszemu podejściu oraz dogłębnej analizie problematyki oddziaływań szeregu czynników napotkanych podczas ścieżki użytkownika, a także znaczącej roli mono-agregatów danych mediowych zyskamy pełniejszy obraz skomplikowanego procesu, czego przykładem jest podkreślenie roli niestandardowego modelu atrybucji w kształtowaniu odpowiedniej strategii marketingu internetowego.

Dobór poszczególnych punktów styku musi być czymś uwarunkowany, a nie wyłącznie powszechnie stosowanymi technikami, które są uważane uniwersalne, lecz finalnie mogą być nieefektywne i na dłuższą metę nieopłacalne. Wielu specjalistów od marketingu internetowego podkreśla wagę digital body language użytkowników, aczkolwiek pozyskane dane w znakomitej większości przypadków nie są niewykorzystywane ani analizowane w kontekście atrybucji. Co za tym idzie, nie są wyciągane wnioski, atrybucja jest nie modyfikowana, a w efekcie daje to błędne koło cyklicznie powtarzających się aktywności bez opartych na analizach założeniach strategicznych.

Atrybucja a modelowanie atrybucji

Jednym ze sposobów na zmaksymalizowanie konwersyjności jest dobranie odpowiedniego modelu atrybucji, tak by jego założenia były zgodne z celem biznesowym firmy. Atrybucja to reguła lub zestaw reguł określających sposób przyznawania udziału w sprzedaży, sprzedaż i/lub inaczej definiowaną konwersje poszczególnym kanałom na ścieżce użytkownika. Atrybucja sama w sobie jest produktem końcowym, jednak zanim zostanie ona w pełni przedstawiona i zastosowana, istnieje szereg czynności, które należy wykonać, by poprawnie wykorzystać atrybucję do działań online. Modelowanie atrybucji jest stale aktualizowanym procesem, który warunkuje nadpisywanie się kolejnych ścieżek. Modelowanie polega na analizie współdziałania różnych kanałów marketingowych w ścieżkach wielokanałowych i przypisywaniu im wartości najsprawiedliwiej odzwierciedlającej wniesiony wkład w łączny wynik, który mierzony jest liczbą konwersji lub wartością sprzedaży. Daje przestrzeń do redefiniowania zaangażowania konsumenta w erze cyfrowej, włączając w to marketing homocentryczny, tworzenie rozmów konsumenckich oraz strategie wielokanałowe.

Narzędzia do modelowania atrybucji nie są nowością na rynku, lecz niestety organizacje wciąż stosunkowo rzadko wykorzystują je w optymalizacji działań reklamowych online. Tymczasem analiza ścieżek wielokanałowych i modelowanie atrybucji mogą całkowicie odmienić postrzeganie wartości i roli poszczególnych źródeł ruchu, ponadto mogą istotnie zwiększyć efektywność kampanii, przynieść znaczne oszczędności budżetów reklamowych i wzrost sprzedaży. Na rynku jest dostępne kilka zdefiniowanych rodzajów atrybucji, można dzielić je na grupy modeli opartych na odsłonie lub kliku, jak również można przyjąć nomenklaturę z podziałem na liczbę kanałów styku, czyli jednokanałowe lub wielokanałowe modele atrybucji.

Single-Touch Attribution

Jednokanałowa atrybucja zakłada przypisanie pełnej wartości udziału w konwersji wyłącznie jednemu touchpointowi, nie uwzględniając przy tym udziału innych elementów kampanii, z którymi użytkownik również miał styczność. Odmiany tego modelu alokują przychody z kampanii na zasadzie „pierwszy styk” lub „ostatni styk”, czyli powszechnie znane modele systemowe jak: „first-click”, „first-impression” oraz „last-click”. W modelu atrybucji jednej interakcji cały udział w wyniku za sprzedaż otrzyma pierwszy bądź ostatni punkt styku. W modelu atrybucji last-click (ostatnie kliknięcie) wszystkie wydarzenia na ścieżce użytkownika są ignorowanie, a 100% udziału w sprzedaży otrzyma ostatni kanał, w którym klient kliknął przed konwersją.

Używanie atrybucji pierwszego kontaktu jest dobrym rozwiązaniem dla tych, którzy koncentrują się na rozróżnianiu źródeł nowych potencjalnych klientów, aczkolwiek nie jest to dobre rozwiązanie dla konwersji rozumianej jako sprzedaż. Marketerzy czy reklamodawcy mogą łatwo zrozumieć pochodzenie potencjalnych klientów oraz kanały, dzięki którym pozyskali ich uwagę, ale pozostałe kanały zostaną niedoinwestowane przez bagatelizowanie ich roli w całym procesie komunikacji.

W zależności od przyjętych założeń ostatni kontakt może być zdefiniowany jako absolutny ostatni dotyk chronologicznie lub ostatni dotyk, który zakwalifikował potencjalną szansę dokonania konwersji. Tak czy inaczej, atrybucja last-click działa najlepiej dla marketerów i reklamodawców, którzy chcą w prosty sposób uzyskać wgląd w ostatni punkt styku, który doprowadził do konwersji. Jeśli ostatni kontakt potencjalnego klienta jest subiektywnie znaczącym czynnikiem wpływającym na zakup, stanowi to potencjalnie skuteczny sposób na inwestowanie w konkretny kanał w ramach kampanii. Jednakże takie podejście jest krótkowzroczne i zakłóca obraz całości działań prowadzonej kampanii marketingowej. Co jeśli ostatni dotyk miał nieznaczący wpływ lub nawet jego brak? Jako przykład weźmy last-click Google. Chociaż reklamy płatnych wyników wyszukiwania Google są w większości przypadków ostatnim kliknięciem, to czy tak naprawdę zwiększają liczbę zakupów? Wyszukiwanie haseł „abonament w PLUS” czy „promocje w Orange” jest bardziej kwestią wygody niż poszukiwania informacji przez konsumenta*. Dodatkowo w przypadku metody last-click należy wziąć pod uwagę czynniki, które mogą wprowadzić w błąd podczas analizy, takie jak wpływ kampanii, trafność treści, czas trwania płatnej komunikacji, cykl życia klienta i inne potencjalne niedopasowania między ostatnim dotknięciem a realnym wpływem zakupowym*.

Multi-Touch Attribution

Bardziej zaawansowanym podejściem do wartościowania elementów styku na ścieżce użytkownika jest wykorzystywanie wielokanałowych modeli atrybucji, które zakładają przypisywanie wag do więcej niż 1, a niektóre nawet do wszystkich touchpointów*. Kategoria multi-touch zawiera więcej rodzajów modelowania atrybucji niż single-touch, chociażby ze względu na pojmowanie większej ilości danych niż perspektywa zero-jedynkowa. Do mnogich modeli zalicza się atrybucję: linearną (tzw. linear), zależną od pozycji (position-based), spadek udziału z upływem czasu (time-decay), bazującą na danych (data-driven)* oraz niestandardową (custom-rules based).

Model liniowy równomiernie przypisuje udział w konwersji wszystkim interakcjom z reklamą na ścieżce użytkownika. Nie faworyzuje skrajnych kanałów ani nie wartościuje elementów styku. Taki model może znaleźć zastosowanie w kampaniach o niewielkiej liczbie touchpointów, a komunikacja jest stała, ciągła (tzw. on-going) bez interwałów ani intensyfikacji mikro-momentów. Jednakże przypisując równomiernie wagę do wszystkich elementów na ścieżce, uwzględnia się wartość elementów zbędnych na równi z punktami o największej sile przekazu. W związku z tym, bez zagłębienia się w dokładniejsze analizy, można przez długi czas wydawać budżet w nieefektywnych kanałach.

Natomiast atrybucja zależna od pozycji przypisuje 40% udziału pierwszej i ostatniej interakcji z reklamą oraz powiązanym z nimi słowom kluczowym, a pozostałe 20% udziału po równo innym interakcjom z reklamą na ścieżce*. Ponieważ kanały, które utworzyły pierwszy i ostatni touchpoint, zdobywają większość punktów, ten model przedstawia kampanię z celem hybrydowym, które są skuteczne w generowaniu nowych potencjalnych klientów lub wpływaniu na konwersję ostatniego touchpointa. Niemniej bez głębszej analizy nie można łatwo stwierdzić co skuteczniej wpłynęło na bieżący wynik i w jaki kanał warto inwestować więcej.

Spadek udziału z upływem czasu przypisuje większy udział kliknięciom, które nastąpiły w czasie najbliższym przed dokonaną konwersją. Udział jest przypisywany z uwzględnieniem 7-dniowego czasu połowicznego zaniku. W praktyce oznacza to, że interakcji z reklamą, która ma miejsce 8 dni przed konwersją, przypisuje się o połowę mniejszy udział w konwersji niż interakcji z reklamą występującej 1 dzień przed konwersją*. Model ten jest popularny wśród firm, które mają długie cykle sprzedaży, szczególnie jeśli długość trwania kampanii oraz zaangażowanie znacząco wpływają na ścieżkę kliencką. Wadą tego modelu jest pierwszeństwo wartościowania ostatnich chronologicznie touchpointów, co nie jest dobre dla firm, które muszą kłaść nacisk na generowanie leadów.

Modelowanie algorytmicznealbo inaczej data-driven, to podejście, w którym nie zakładamy z góry (a priori) rozkładu ważności touchpointów. Model bazujący na danych jest najbardziej dynamicznym i zarazem najbardziej skomplikowanym modelem z całego portfolio dostępnych modeli atrybucji Google. Stosowane są w tym wariancie modele i algorytmy uczenia maszynowego. Rozdziela on udział w konwersji na podstawie historycznych danych powiązanych z działaniem wywołującym konwersję. Różni się od innych modeli atrybucji tym, że używa danych o konwersji bezpośrednio z konta reklamodawcy do obliczania rzeczywistego udziału poszczególnych interakcji na różnych etapach ścieżki konwersji. Rozkład ważności opracowywany jest na podstawie danych i za każdym razem może być inny (np. ze względu na sezonowość etc.)*.

Każdy system mierzący (monoagregat danych) i webanalityczny ma w swoim systemie wbudowany domyślny system atrybucji, zazwyczaj jest nim wspomniany właśnie last-click. Najpowszechniej używany na świecie stary Google Analytics definiuje ścieżki zakończone konwersją na podstawie przypisania całej wartości do ostatniego kliknięcia.

Model data-driven jest rzadziej wykorzystywany ze względu na konieczność posiadania stale aktywnego konta reklamowego Google (np. Display&Video360), który nieprzerwanie dostarcza nowych danych do nauki algorytmu. Niezależnie jednak od wybranego modelu, wyraźną przeszkodą jest brak wglądu w dokładną definicję ustawień algorytmów stosowanych do analizy atrybucji, który w żargonie branżowym zwany jest blackboxingiem. Niektóre z monoagregatów, takich jak Exactag, pozwalają na modyfikację niektórych parametrów systemowych – może być to na przykład ustawianie niestandardowych wag dla poszczególnych touchpointów mediowych bądź ich całkowite lub czasowe wykluczanie z analizy. Niemniej jednak standardem rynkowym pozostają rozwiązania oparte na black box. Analogicznie sprawa wygląda z możliwościami predykcyjnymi systemów: brak wpływu na modyfikację ustawień systemowych pozwala jedynie na podawanie spodziewanego efektu dla zadanego budżetu w zależności od kanału, co pozostaje dość ograniczonym sposobem na weryfikację zmiany strategii mediowej.

Poważnym problemem związanym z monitoringiem działań jest brak niezależnej weryfikacji efektywności zakupu mediów, ale też wyraźne skrócenie śledzonych ścieżek konsumenckich. O tego typu podejściu mówi się „Walled Gardens” przez niedopuszczanie zewnętrznych partnerów technologicznych do danych zbieranych przez Google czy Facebook. Google, Facebook i Amazon są trzema gigantami reklamy, którzy pochłaniają ponad połowę wszystkich wydatków na reklamę cyfrową. Podczas gdy Google współpracuje z innymi firmami (małymi lub dużymi), Facebook i Amazon lubią utrzymywać swoje mury tak wysoko, jak to możliwe, jeśli chodzi o udostępnianie danych. Stanowi to również wyzwanie przy atrybucji zarówno przy Data Driven Attribution z poziomu monoagregatu, jak i niezależnych modeli atrybucyjnych przez konieczność odpowiedniego doszacowania brakujących informacji mediowych, przez co rzeczywista weryfikacja ścieżek konwersji jest praktycznie niemożliwa bez zewnętrznego systemu mierzącego (tzw. 3rd party verification).

W przypadku kiedy istnieje możliwość śledzenia ścieżek w ramach wszystkich istniejących ekosystemów reklamowych, niezbędne jest przygotowanie własnego, niezależnego i przygotowanego pod konkretne potrzeby niestandardowego modelowania atrybucji (tzw. custom-rules based). Dopiero przy zachowaniu pełnej higieny danych, zewnętrznego źródła oraz dobranej odpowiednio metodologii wytwarzają się warunki do rzetelnej oceny każdego z punktów styku. Dodatkowo daje to możliwość ciągłych zmian rozłożenia budżetowego w ramach prowadzonych działań tak by osiągnąć jak najefektywniejsze rezultaty.

Pomijanie ścieżek niekonwertujących – przegląd głównych algorytmów

Należy wspomnieć o istnieniu jeszcze jednej istotnej różnicy pomiędzy istniejącymi modelami atrybucji, czyli o różnicach w konstrukcji głównych algorytmów. Wśród dominujących metod analizy atrybucji należy wyróżnić łańcuchy Markowa oraz wartość Shapleya.

Algorytmy bazujące na metodzie łańcuchów Markowa dają możliwość narysowania grafu przedstawiającego konwertujące ścieżki, który dostarcza intuicyjnych wniosków, przez co wybrzmiewa tu brak założenia o liniowości przebiegu ścieżki. Dodatkowo za pomocą tej metody istnieje możliwość częściowej ewaluacji skuteczności (porównanie symulacji działania macierzy i faktycznych wyników w danym przedziale czasowym). Niemniej jednak brak pamięci w standardowej wersji modelu w porównaniu do wersji z pamięcią oraz problem z ustaleniem długości pamięci jest niezaprzeczalną wadą, podobnie jak przecenianie długich ścieżek, które stanowią mały procent danych, bo większość stanowią krótkie ścieżki.

Wartość Shapleya to metoda zaczerpnięta z teorii gier i jest podstawą atrybucji Data-Driven. Tworzy się wszystkie możliwe „koalicje” kanałów i wylicza kontrybucję każdego kanału do „koalicji” konwertujących. Podstawę algorytmu można obliczyć w następujący sposób: dla każdej ścieżki należy podzielić wartość wygenerowanych konwersji przez długość tej ścieżki (liczbę interakcji na ścieżce), a następnie zsumować uzyskane wartości dla wszystkich ścieżek*.

Model niestandardowy/customowy, wyselekcjonowany przez tęgie głowy i dopasowany do potrzeb biznesu, powinien modelować zależność między predyktorami a logitem prawdopodobieństwa wystąpienia zdarzenia. Dobrze, jeśli taki model uwzględnia zarówno ścieżki zakończone pozytywnie oraz negatywnie. Model regresji logistycznej jest szczególnym przypadkiem uogólnionego modelu liniowego. Znajduje zastosowanie, gdy zmienna zależna jest dychotomiczna, to znaczy przyjmuje tylko dwie wartości, takie jak na przykład sukces (konwersja) lub porażka (brak konwersji), wystąpienie lub brak pewnej jednostki. W zapisie matematycznym wartości te reprezentowane są jako 1 i 0. To model klasyfikacyjny, w którym porównuje się ścieżki – zbiory touchpointów – konwertujące i niekonwertujące*. Niestandardowy model dostarcza wiedzy o istotności współwystępowania touchpointów w tych samych ścieżkach oraz funkcji, jaką te w nich pełnią. Last-click nie zawsze daje taką możliwość. Jest to powiązane z metodologią uwzględniania ścieżek wyłącznie konwertujących, przez co nie ma informacji o ścieżkach niekonwertujących. Te z kolei są uwzględniane w modelu custom-rule based. Analiza długości ścieżek i pozycji występowania badanego touchpointa otwiera drzwi do badania zależności, które występują pomiędzy tymi zmiennymi w ścieżce. W efekcie powstaje od kilkunastu do kilkudziesięciu map zależności.

Wycinanie i porównywanie ścieżek pozwalają na wychwycenie wspólnych ciągów styku i wypracowaniu wniosków na tematach takich zależności. Z tego wynikają w późniejszym okresie duże rozbieżności w kolejnych okresach, kiedy ostatnie media w last-clicku nie są poprzedzone touchpointami, które również miały wpływ na decyzję lub rozpoczynały ścieżkę konsumencką. Custom-rule based w porównaniu do drugiej badanej metody umożliwia rozpoznanie procesu decyzyjnego użytkownika. Wspomagając sprawiedliwą ocenę wartości udziału kanałów w ścieżce oraz oszacowanie rentowności występuje głównie w modelach rozbudowanych jak data driven czy omawiany w badaniu niestandardowy.

Uwzględnianie Zerowego Momentu Prawdy

Możliwość wyznaczenia punktu zerowego, rozumianego jako zestaw zachowań oznaczających rozpoczęcie procesu zakupowego jest istotną kwestią, pomimo iż często pomijaną w wyścigu o najlepszą optymalizację KPI. Proces zakupowy uległ istotnej zmianie za sprawą transformacji cyfrowej, a w szczególności licznych opinii i rekomendacji, które można znaleźć w sieci*. W procesie zakupowym pojawia się Zerowy Moment Prawdy (tzw. Zero Moment of Truth, ZMOT)*. Potencjalny klient zanim podejmie decyzję, szuka w Internecie jak największej liczby informacji o produkcie, który go zainteresował. Planując strategię marketingową, tego elementu nie powinno zabraknąć. Termin został rozpowszechniony przez Jima Lecinskiego, dyrektora działu handlowego Google, który w książce „Winning a Zero Moment Of Truth”* z 2011 r. nowy element procesu zakupowego umieścił pomiędzy Bodźcem a Pierwszym Momentem Prawdy.

ZMOT tym różni się od FMOT, że weryfikacja nie jest dokonywana bezpośrednio, lecz za pośrednictwem Internetu oraz opinii innych, często obcych użytkowników Internetu. Potencjalny klient rozpoczyna swoją ścieżkę, wyszukuje informacje o produkcie w sieci – przegląda recenzje, opinie, marketplace, komentarze, testy wideo czy tutoriale na YouTubie. Nierzadko sam na forach i portalach społecznościowych pyta innych użytkowników o to, czy produkt wart jest polecenia. Równocześnie obserwuje również podobne produkty i żeby wybrać najlepszą ofertę, korzysta z dostępnych w Internecie porównywarek cenowych. To jest właśnie Zerowy Moment Prawdy, który można dokładnie odnaleźć i namierzyć, chociażby za pomocą zakupu programatycznego lub działaniami SEM. Pojawiając się kontekstowo czy docierając do użytkownika w późniejszym czasie na podstawie zainteresowań kategorią produktu można łatwo zauważyć touchpoint otwierający ścieżkę. W modelu niestandardowym jest to lepiej widoczne ze względu na wysoki poziom szczegółowości danych. W przypadku last-clicka wartość potencjalnej konwersji zostanie przypisana medium zamykającemu, więc początkowe etapy ścieżki w takim paradygmacie są niedowartościowane, a to przecież tam zaczyna się customer journey. Blisko 84% kupujących przyznaje, że to właśnie ZMOT w największym stopniu wpłynął na ich decyzje. Takie wnioski płyną z wyników ankiety przeprowadzonej na 5000 osób, które w swojej książce przywołuje Jim Lecinski. Co trzeci badany uznał, że recenzja, z którą zapoznał się w Internecie, znacząco wpłynęła na zmianę decyzji. Najczęściej ZMOT pojawia się w branży samochodowej, ubezpieczeniowej, telekomunikacyjnej i podróżach – co najmniej 95% klientów zainteresowanych produktami tych branż szuka wcześniej opinii w sieci. Konsekwencją takiego dysonansu między modelami mogą być konflikty wewnątrz organizacji i brak zrozumienia zachowań klientów.

Etap rozwoju organizacji a zaawansowanie działań mediowych

Warto pamiętać, że last-click może być dobrą rozbiegówką i odpowiednim modelem na początku biznesu, kiedy są stawiane pierwsze kroki w reklamie, kiedy budżety mediowe nie są wysokie lub gdy organizacja dopiero buduje swoją markę. W dłuższej perspektywie insighty oraz rekomendacje płynące z wyników analizy atrybucji mogą być mylne i napędzać optymalizację wyłącznie pod touchpointy zamykające. W przypadku single-touch attribution wystarczy zaledwie jeden element styku na ścieżce konsumenckiej, w modelach multi-touch attribution niezbędnych jest więcej momentów styku/medium (dobrze, jeśli jest ich minimum 4). Modele te różnicuje również średni czas niezbędny do nadpisania wartości i udziału w konwersji. Według modeli prostych wystarczy 1 dzień, w przypadku modeli złożonych potrzeba na to ok. 21 dni. Co za tym idzie, działania długookresowe i wielokanałowe wpisują się w wymogi techniczne custom-rule based, lecz jeśli aktywacje są krótkie lub na mniejszą skalę, model ten staje się zbędny i nad wyraz rozbudowany – lepiej skorzystać z last-clicka. Ścieżka użytkownika w ostatnim kliknięciu jest prosta i fragmentaryczna w porównaniu do złożoności i kompletności modelu wielokanałowego, szytego na miarę potrzeb organizacji.

Wynikowa atrybucji to nie jest złoty środek – to dopiero początek

Himanshu Sharma w swojej książce Attribution Modelling in Google Analytics and Beyond stwierdza, że „nie ma czegoś takiego jak dobry lub zły model atrybucji. Należy wybrać model atrybucji w oparciu o własny model biznesowy, cele reklamowe i hipotezy, które mają zostać sprawdzone. Modelowanie atrybucji służy do testów, jest środkiem, a nie celem.”* Zarówno jeśli mówimy o automatycznych modelach atrybucji, jak i klienckich, należy pamiętać, że wyniki, które zostają przedstawione po analizie, są to swojego rodzaju insighty i wskazówki dla marketerów oraz reklamodawców. Można postrzegać to jako podpowiedź czy wskazówkę, gdzie najefektywniej lokować budżety mediowe lub jak podzielić budżety reklamowe na konkretne kanały, aczkolwiek w żadnym stopniu nie stanowi to „złotego środka” dla rozwoju biznesu. Poza wyliczeniami matematycznymi w otoczeniu są jeszcze różne inne czynniki wpływające na sam rynek oraz zachowania nabywców. Wszelkie modele nie uwzględniają czynników miękkich i operują wyłącznie na twardych danych historycznych dając możliwość swojego rodzaju predykcji dzięki odpowiedniemu wychwyceniu zależności oraz odpowiedniej analizie.

NowyMarketing jest patronem medialnym DIMAQ UNI. Kolejna, dziesiąta edycja konkursu rusza już w kwietniu br. Szczegółowe informacje oraz lista zwycięzców poprzedniej edycji znajduje się na stronie dimaquni.com

* Picking the Right Attribution Model For You: Part 1, Single Touch Models [data wejścia: 1.03.2020]
fullcircleinsights.com/picking-the-right-attribution-model-for-you-part-1-single-touch-models/
* Multi-Channel Attribution Modeling: The Good, Bad and Ugly Models [data wejścia: 01.03.2020]
www.kaushik.net/avinash/multi-channel-attribution-modeling-good-bad-ugly-models/
* Picking the Right Attribution Model For You: Part 2, Multi-Touch Models [data wejścia: 01.03.2020]
fullcircleinsights.com/picking-the-right-attribution-model-for-you-part-2-multi-touch-models/
* Omówienie modelu atrybucji – Analytics [data wejścia: 01.03.2020]
support.google.com/analytics/answer/1662518?hl=pl
* Informacje o modelach atrybucji – Google Ads [data wejścia: 01.03.2020]
support.google.com/google-ads/answer/6259715?hl=pl
* Jak poprawnie analizowac sciezke konwersji? [data wejścia: 01.03.2020]
marketingdlaludzi.pl/jak-poprawnie-analizowac-sciezke-konwersji/
* Larose Daniel T. (2013), Odkrywanie wiedzy z danych, wyd. PWN, Warszawa, ISBN: 978-8-3011-7183-4
* Shapley L. S. (1953), A Value for n-person Games. In Contributions to the Theory of Games, volume II, by H.W. Kuhn and A.W. Tucker, editors. Annals of Mathematical Studies v. 28, s. 307–317. Princeton University Press, ISBN: 0-521-36177-X
* Business-Science.pl op.cit. [data wejścia: 14.04.2020]
business-science.pl/%252525252523our_projects
*Tomczyk P., Redondo W. (2016), Engagement in Content Sharing Across Social Media Platforms w: Impact digital world management marketing , Grzegorz Mazurek, Jolanta Tkaczyk, Warszawa, POLTEXT, s.219-230
depot.ceon.pl/bitstream/123456789/10248/1/The%252520Impact%252520of%252520the%252520Digital%252520World.pdf
* Impact digital world management marketing, op.cit., s. 143
depot.ceon.pl/bitstream/123456789/10248/1/The%252520Impact%252520of%252520the%252520Digital%252520World.pdf
* Winning the Zero Moment of Truth eBook (2011)
www.thinkwithgoogle.com/marketing-resources/micro-moments/2011-winning-zmot-ebook/
*Sharma H. (2020), Attribution Modelling in Google Analytics and Beyond, wyd. Blurb, San Francisco, ISBN-13: 9781366694577

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułJSW z niższą produkcją i sprzedaży węgla w ostatnim kwartale 2020 r.
Następny artykułWstrząs anafilaktyczy (anafilaksja). Przyczyny, objawy, leczenie