ABSTRAK - Penerapan sistem informasi akademik (siakad) berbasis web suatu perguruan tinggi sangatlah penting untuk meningkatkan pelayanan akademik. Penerapan siakad tersebut memiliki berbagai kendala terutama dalam menangani jumlah akses yang tinggi sehingga menyebabkan terjadinya overload. Selain itu bila terjadi kegagalan hardware atau software menyebabkan siakad tidak bisa diakses. Solusi dari permasalahan ini adalah penggunaan banyak server dimana beban yang ada didistribusi dimasing-masing server. Perlu metode dalam pendistribusian beban agar merata dimasing-masing server yaitu metode load balancing dengan algoritma round robin sehingga skalabilitas siakad tinggi. Sedangkan untuk menangani kegagalan server perlu fault tolerance agar ketersediaan siakad menjadi tinggi. Penelitian ini untuk membangun metode load balancing dan fault tolerance menggunakan perangkat lunak linux virtual server dan beberapa program tambahan seperti ipvsadm dan heartbeat yang memiliki kemampuan meningkatkan skalabilitas dan ketersediaan siakad. Hasil penelitian menunjukan bahwa dengan load balancing dapat meminimalkan response time sampai 5,7%, meningkatkan throughput sampai 37% atau 1,6 kali dan memaksimalkan pemanfaatan sumberdaya atau utilisasi sebesar 1,6 kali peningkatan, serta terhindar dari overload. Sedangkan ketersediaan yang tinggi diperoleh dari kemampuan server melakukan failover atau berpindah ke server yang lain bila terjadi kegagalan. Sehingga implementasi load balancing dan fault tolerance dapat meningkatkan layanan kinerja siakad dan terhindar dari kesalahan.
Kata kunci —load balancing, fault tolerance, overload, sistem informasi akademik
PENDAHULUAN - universitas Halu Oleo (UHO) dalam meningkatkan pelayanan akademik telah menerapkan aplikasi sistem informasi akademik (siakad) online sejak tahun 2011. Layanan aplikasi siakad ini antara lain KRS online, pemberian nilai secara online, penjadwalan mata kuliah online dan pembayaran SPP mahasiswa dengan sistem hots to host dengan pihak bank. Selain itu universitas halu oleo bekerja sama dengan pihak telkom untuk akses jaringan internet dengan menyewa bandwidth sebesar 100Mbps. Jumlah transaksi data siakad meningkat dari tahun ketahun akibat dari peningkatan jumlah mahasiswa. Pada tahun 2014 jumlah mahasiswa UHO sebanyak 40.663 orang, data jumlah akses sistem ini rata-rata sekitar 240.399 perhari. Hal ini terjadi pada saat penawaran KRS mahasiswa, pengimputan nilai dan pembayaran SPP yang jadwalnya bersamaan. Dari data jumlah yang akses tersebut umumnya terjadi peningkatan pada saat minggu terakhir dari jadwal yang ditetapkan. Peningkatan jumlah akses (request) tersebut menyebabkan kinerja sistem menjadi sangat lambat karena terjadi kelebihan beban (overload) sehingga server tidak bisa diakses. Hal ini menimbulkan banyak keluhan baik dari mahasiswa, dosen dan seluruh sivitas akademika. Permasalahan tersebut muncul diakibatkan karena siakad online ini dijalankan pada satu server atau server tunggal. Satu server mengalami peningkatan kinerja ketika adanya akses ratusan ribu dalam sehari. Masalah tersebut dapat diatasi dengan penggunaan banyak server dengan skalabilitas tinggi. Server-server tersebut berada dalam himpun server yang disebut dengan kluster server. Penerapan kluster server dapat menghilangkan hambatan dari kinerja CPU, meningkatkan keandalan dan ketersediaan aplikasi [1]. Sistem yang ada kemudian di distribusikan ke masing-masing server sehingga sistem menjadi terdistribusi. Sistem terdistribusi menyediakan berbagi sumber daya sebagai salah satu keuntungan utama, yang menyediakan kinerja yang lebih baik dan keandalan daripada sistem tradisional lain dalam kondisi yang sama [2]. Penggunaan banyak server untuk sistem terdistribusi membutuhkan metode untuk mengatur pembagian beban dengan adil atau merata disetiap server. Berbagai penelitian telah dilakukan untuk mengatur pembagian beban kerja pada server yang klustering untuk meningkatkan kinerja sistem yaitu dengan menerapkan metode load balancing. Penerapan load balancing dalam web server sangat penting dan dapat merupakan solusi yang tepat dan efektif untuk menangani beban server yang sibuk dan dapat meningkatkan skalabilitas pada sistem terdistribusi [3,4]. Server load balancing atau disebut juga dengan director mendistribusikan beban kerja ke multiple server dengan mempertimbangkan kapasitas dari setiap server untuk mengurangi terjadinya kegagalan server [5].
Post a Comment
Post a Comment