Big Data

 Ilość danych na świecie gwałtownie wzrasta. Dziś możemy powiedzieć, że ulega ona podwojeniu w cyklu dwuletnim. 

Tak duży przyrost powoduje, że zdolność przetwarzania danych staje się mocno ograniczona. "Big Data" to termin odnoszący się jednak nie tylko do dużej ilości danych. To określenie, które jest również ściśle związane z szybko napływającymi danymi pochodzącymi z różnych źródeł, takich jak: logi internetowe, dane z serwisów społecznościowych czy dane maszynowe generowane w sposób automatyczny, których nie da się przetworzyć i poddać analizie, korzystając ze standardowych rozwiązań.   

Coraz więcej firm mierzy się obecnie z wyzwaniami, które stawia przed nimi gwałtowny przyrost danych. W większości przypadków bardzo trudne jest dotarcie do wartościowych informacji, ponieważ większość danych jest przechowywana w postaci pierwotnej, często nieustrukturyzowanej i w rezultacie nie wiadomo, czy warto ponosić koszty ich utrzymania i przetwarzania.

Big Data – Charakterystyka

Big_data

W roku 2001 analityk Doug Laney pracujący obecnie w firmie Gartner opublikował raport opisujący Big Data w modelu 3V  (Volume, Velocity, Variety). Rozpoczęło to proces nowego spojrzenia na dane i nową erę zarządzania.

  • Volume - ilość danych ogółem przechowywanych w roku 2000 wynosiła 800 tys. petabajtów  (PB) i szacuje się, że osiągnie ona rozmiar 35 zetabajtów (ZB) do roku 2020. Same dane pochodzące z serwisów społecznościowych takich jak Twitter czy Facebook to około 10 terabajtów każdego dnia. Wraz z taniejącymi pamięciami masowymi problemem nie jest już, gdzie przechowywać te dane, ale jak wydobyć z nich wartość.
  • Velocity - określa szybkość napływania danych i czas w jakim można je obsłużyć. Dane pochodzące z instrumentów pomiarowych spływają niemalże w czasie rzeczywistym i w połączeniu z ich wolumenem stanowią wyzwanie dla wielu organizacji.
  • Variety - w dzisiejszych czasach dane pochodzą z bardzo wielu źródeł  i w bardzo wielu formatach - logi internetowe, pliki video, emaile, dane maszynowe czy te tradycyjne przechowywane w bazach danych. Bardzo często najwięcej czasu pochłania dotarcie do zawartych w nich informacji.

Dlaczego Big Data ? 

big_data_przeplyw

Big Data pozwala organizacjom na dostęp do informacji biznesowych, które wcześniej były nieosiągalne. Analiza może ujawnić ukryte zależności i dać znaczącą przewagę nad konkurencją poprzez budowanie dokładniejszych modeli predykcyjnych i scoringowych, a kadrze zarządzającej dać narzędzia do podejmowania trafniejszych decyzji w krótszym czasie.

Affecto jest wiodącą organizacją w obszarze zarządzania danymi i informacją. Oferujemy konsulting biznesowy, kompleksową analizę danych, ich integrację wraz z rozwiązaniami raportowymi. Nasze wieloletnie doświadczenie wdrożeniowe w połączeniu z wiedzą i rozumieniem oczekiwań klientów stanowi solidny fundament i gwarancje powodzenia projektów Big Data.