Kontan Online
  : WIB    --   
indikator  I  

Mengenal istilah hadoop

Mengenal istilah hadoop
Praktisi Teknologi Big Data Universitas Multimedia Nusantara


Apakah yang dimaksud dengan hadoop? Bagi Anda yang sering mengikuti permintaan tenaga kerja di industri IT global, hadoop sedang sangat populer seperti halnya big data dan IoT (Internet of Things). Banyak prinsipal IT terkemuka memasukkan hadoop ke dalam portofolio produknya, seperti Microsoft, Oracle, IBM, SAP, SAS, dan lain-lain.

Di mana ada big data disana ada hadoop. Tandem. Pada kesempatan kali ini penulis akan mencoba menjelaskan apa itu hadoop dari sisi yang tidak terlalu teknis.

Hadoop adalah satu software yang menghubungkan beberapa komputer sehingga dapat saling bekerja sama dan sinkron dalam menyimpan dan mengolah data sebagai satu kesatuan.

Nah loh, bukannya semua komputer saat ini sudah terhubung dengan jaringan? Apa bedanya?

Bedanya adalah jika komputer yang kita gunakan belum tentu saling meringankan beban. Sebagai contoh kita memiliki satu file spreadsheet Excel dan di dalamnya terdapat ribuan perhitungan dan sangat lambat, perhitungan tersebut tidak bisa dibagi ke komputer lainnya. Kita hanya bisa membagi isi file tersebut dengan menggunakan network sharing, bukan komputasinya.

Nah, ini berbeda dengan hadoop, perhitungan atau proses komputasi itu bisa dibagi ke komputer lainnya tanpa banyak tumpang tindih sehingga hasil menjadi cepat. Semakin banyak komputer dihubungkan semakin cepat melakukan proses perhitungan.

Lalu, apalagi bedanya? Ketika seluruh komputer hadoop dihubungkan, kita seperti memiliki harddisk besar. data akan disebar ke seluruh komputer yang ada, dan jika ada satu atau dua komputer yang mati data tetap akan terjaga dengan lengkap.


Tiga prinsip penting
Jadi, dari paparan di atas hadoop memiliki tiga prinsip penting:

1. Hadoop dapat menggabungkan banyak komputer menjadi satu kesatuan sistem.

2. Sistem tersebut dapat membagi proses perhitungan atau komputasi yang biasanya memakan waktu yang sangat lama atau hampir tidak mungkin dilakukan oleh satu komputer. Secara teknis, proses ini biasanya memakai teknik map reduce dan dikoordinasikan oleh suatu yang namanya job tracker.

3. Sistem tersebut dapat membagi beban penyimpanan ke berbagai komputer sehingga jika salah satu atau beberapa komputer mati, data tetap akan terjaga. Sistem ini disebut sebagai Hadoop Distributed File System (HDFS).

Ketiga prinsip kerja itu awalnya hanya bisa dilakukan oleh perusahaan internet besar seperti Google sebagai pelopor big data. Beruntungnya, prinsip kerja dari teknologi ini dibagi oleh Google kepada publik.

Pada perkembangannya, para programmer di seluruh dunia bahu-membahu mengembangkan versi gratis bernama hadoop di bawah naungan yayasan Apache Foundation. Dalam beberapa tahun, popularitasnya tidak tertahankan lagi dan menjadi mainstream platform big data.