;
A Facebook adattárházas kihívásai
2014. november 5. Adattárházak

Szeptember közepén egy szakmai konferenciára hívta össze a Facebook az adatbázisokkal foglalkozó vezető kutatókat és szakértőket. A rendezvény témái a kis adatmennyiségeket érintő OLTP-jellegű lekérdezések, az órási adattömegeket kezelő adattárházas feldolgozások és mindezt kiszolgáló hardverplatformok voltak.

A rendezvényről szóló beszámolóban számos technikai adat és érdekesség olvasható. A gráfkereséseket kiszolgáló TAO másodpercenként egymilliárdnál több olvasási műveletet hajt végre. A belső működést monitorozó SCUBA pedig események millióit tárolja el és jeleníti meg.

A Hadoop/HIVE alapú központi adattárház mérete mára már 300 petabájtnál jár, a naponta keletkező friss adatok mennyisége pedig 4 petabájt.

Figyelemre méltó az is, hogy a Facebook még így sem képes minden egyedi eseményt feldolgozni, ezért bizonyos esetekben már az adatok rögzítésénél is mintavételezés történik.

Szintén az óriás méretek okozta probléma, hogy a központi adattárház nem tárolható egyetlen adatközpontban, csak elosztottan. Így a lekérdezéseket író felhasználóknak kell gondoskodni arról, hogy a számukra szükséges összes adat meglegyen az őket éppen kiszolgáló adatközpontban, akár manuális másolások árán is.

További információ
research.facebook.com

Kapcsolódó anyagaink
· Nyílt forráskódú lett a Facebook Presto (2013. november 26.)