A A+ A++

Aby poprawić wyniki, przedsiębiorstwa muszą prawidłowo zarządzać danymi i poprawić ich jakość poprzez odejście od tradycyjnego podejścia.


Shutterstock

Powszechnie wiadomo, że wydobywanie wartości z danych zewnętrznych i wewnętrznych wymaga nacisku zarówno na zarządzanie danymi, jak i na ich jakość. Gartner definiuje zarządzanie danymi jako „określenie praw decyzyjnych i ram odpowiedzialności w celu zapewnienia odpowiedniego zachowania w zakresie wyceny, tworzenia, konsumpcji i kontroli danych i analityki”. Jakość danych jest w dużej mierze definiowana przez to, jak dokładne i aktualne są informacje; bez dokładnych danych i wiedzy na temat tego, kto używa informacji w organizacji, niezwykle trudno jest spieniężyć tę wiedzę.

Mimo że powszechnie wiadomo, iż zarządzanie danymi i ich jakość są dla przedsiębiorstw niezwykle istotne – a także biorąc pod uwagę ogromny postęp, jaki dokonał się w technologii i możliwościach danych – organizacje wciąż mają problemy z zapewnieniem odpowiedniej jakości danych i zarządzania nimi.

Zobacz również:

Niedawne badanie przeprowadzone przez firmę EY wykazało, że dla 41% organizacji największym wyzwaniem związanym z ich danymi jest ich jakość. Gartner sugeruje, że niska jakość danych kosztuje organizacje średnio 12,9 miliona dolarów rocznie.

Ponadto, raport EY wykazał, że 14% organizacji miało problemy z dostępem do odpowiedniej technologii i infrastruktury danych. Bez odpowiedniej dostępności, technologii i infrastruktury danych, niezwykle trudno jest przedsiębiorstwom wdrożyć sprawnie działające ramy zarządzania danymi.

Wyzwania związane z centralizacją danych

Wiele z barier, które powstrzymują firmy przed osiągnięciem celów związanych z jakością danych i zarządzaniem nimi, wynika z oparcia się na tradycyjnym, scentralizowanym podejściu do danych. W miarę rozwoju organizacji, napływ źródeł operacyjnych powoduje powstawanie silosów danych. Przedsiębiorstwa próbują przezwyciężyć ten problem, gromadząc dane z tych źródeł w jednym miejscu. O ile w minionych latach nie było argumentów przemawiających za tą logiką, o tyle w czasach rosnącej ilości i złożoności danych, doprowadziło to do wielu istotnych wyzwań.

Na przykład, integracja nowych źródeł danych w scentralizowanym środowisku wymaga dużo czasu i wysiłku. Koszt centralizacji danych jest znaczący, biorąc pod uwagę inwestycje w pamięć masową, komputery, interfejsy i zadanie ujednolicenia formatów danych ze wszystkich źródeł danych. W międzyczasie nasilają się silosy danych, ponieważ istnieje naturalna separacja pomiędzy tymi, którzy tworzą i konsumują dane – a inżynierami danych posiadającymi wiedzę specjalistyczną w zakresie narzędzi big data. Dzieje się tak, ponieważ inżynierom brakuje wiedzy biznesowej i dziedzinowej, a właścicielom produktów danych brakuje wiedzy technicznej. W rezultacie, organizacje nie mają wglądu w konsumpcję danych w całej organizacji.

Techniczne aspekty centralizacji danych mogą również przyczyniać się do negatywnych skutków polityki organizacyjnej; wewnętrzna rywalizacja może prowadzić do tego, że działy nie będą chciały dzielić się swoimi zasobami danych z innymi działami. Brak widoczności i dostępności w scentralizowanym środowisku danych może zachęcać do silosowania aktywów danych, a tym samym prowadzić do utraty przez organizację wielu inicjatyw związanych z monetyzacją danych.

Problemy związane z integracją danych w scentralizowanym środowisku prowadzą również do wykorzystywania nieaktualnych danych. Na przykład, gdy organizacja rozrosła się w czasie, strona trzecia mogła wchodzić w interakcje z wieloma różnymi jednostkami biznesowymi w ramach organizacji, z których każda miała inny system operacyjny. Prowadzi to do braku synchronizacji danych – niektóre dane są aktualne, a inne informacje nie są już dokładne. Utrudnia to egzekwowanie i odkrywanie wiedzy, a tym samym wpływa na wyniki biznesowe.

Wreszcie, przedsiębiorstwa nie mają możliwości egzekwowania sposobu wykorzystania danych. Gdy dane są scentralizowane, skomplikowane jest wprowadzenie kontroli dostępu na najniższym, najbardziej szczegółowym, dlatego też wyzwaniem jest osiągnięcie ładu korporacyjnego i przestrzeganie przepisów.

Nowe, zdecentralizowane podejście do danych

Jest więc jasne, że tradycyjne, scentralizowane podejście do danych stawia przed organizacjami wiele wyzwań, którym trzeba sprostać. Alternatywną strategią jest przyjęcie podejścia zdecentralizowanego. Pomóc w tym może koncepcja Data Fabric – jeden z najważniejszych trendów strategicznych Gartnera na rok 2022 – oparta na wielu technologiach zarządzania danymi działających w tandemie, usprawniających pobieranie i integrację danych w całym ekosystemie firmy.

Jedną z tych technologii jest wirtualizacja danych, która umożliwia dostęp do zasobów danych z dowolnego źródła operacyjnego, bez konieczności ich replikacji. Innymi słowy, zamiast kopiować dane ze źródła operacyjnego do scentralizowanego repozytorium danych, zbiory danych mogą być przeglądane i analizowane (nawet przy użyciu złożonych technik sztucznej inteligencji) z miejsca, w którym się znajdują. Prawdziwe podejście Data Fabric umożliwiłoby również tworzenie wirtualnych jezior danych w czasie rzeczywistym, w zależności od potrzeb; oznacza to, że jeziora danych mogą być tworzone i usuwane w dowolnym momencie bez wpływu na istniejące aplikacje i infrastrukturę.

Stanowi to prostszą i bardziej opłacalną alternatywę dla konsolidacji źródeł i dostawców danych, a także umożliwia pojedynczy punkt widoczności przepływów danych w całym przedsiębiorstwie. Uzyskując taki poziom widoczności, organizacje mogą działać na danych na różne sposoby. Po pierwsze, wykorzystując zaawansowane mechanizmy kontroli oparte na atrybutach i rolach, mogą ograniczyć widoczność i dostęp na najniższym, najbardziej szczegółowym poziomie, umożliwiając lepsze egzekwowanie decyzji dotyczących kontroli.

Po drugie, ponieważ zasoby danych są bardziej dostępne, organizacje mogą zharmonizować współdzielenie danych pomiędzy zespołami i zredukować silosowe zasoby danych. Ta zdolność do dynamicznej poprawy wykorzystania danych jest częścią prawdziwej wartości Data Fabric, według Gartnera. Firma badawcza twierdzi, że analityka stanowiąca część Data Fabric, pomaga ograniczyć wysiłki związane z zarządzaniem danymi nawet o 70% i przyspiesza czas osiągnięcia wartości.

Co istotne, doskonałe podejście Data Fabric nie oznacza rezygnacji z istniejących scentralizowanych jezior danych lub hurtowni, ale integrację danych w ich obrębie jako część dynamicznej, odpornej infrastruktury. Data Fabric może być wykorzystywana przez aplikację lub platformę i umożliwia wzbogacanie, przetwarzanie i wizualizację danych w dowolnym punkcie, dzięki czemu przedsiębiorstwa przestają zamykać swoje dane w silosach lub replikować je w wielu aplikacjach.

Organizacje, które dążą do poprawy wyników biznesowych poprzez modernizację jakości danych, zarządzania nimi i możliwości ich odkrywania, muszą rozważyć swoje ogólne podejście do danych i zadać sobie pytanie, czy tradycyjne, scentralizowane podejście jest w stanie pomóc im w osiągnięciu ich celów. Strategia wykorzystująca Data Fabric z całą pewnością może to zrobić.

Autor:

Dr. David Amzallag – Chief Product Officer and Chief Digital Transformation Officer, BlackSwan Technologies.

Źródło: IDG Connect

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułNa kulturę, zamek i geotermię. Gmina Radoszyce idzie po kasę z Polskiego Ładu [wideo]
Następny artykułZastępca komendanta PSP w Bełchatowie odchodzi na emeryturę