TweetThis Button

Load Balancer_Clustering

Load Balancer & Clustering


" Ini merupakan salinan utuh dari sumber asli sekedar untuk pengetahuan penulis tentang LOAD BALANCING DAN CLUSTERING , Semogatulisan ini berguna untuk semua yang mau belajar atau menambah wawasan, mohon maaf kalo ada kekurangan mohon koreksinya oleh para MASTER balancing dan clustering" [coding-web88.blogspot.com]

-------------------------------------------------------------------
Versi terbaru dari kontainer servlet Tomcat menyediakan kemampuan balancing clustering dan beban yang penting untuk menyebarkan aplikasi web berskala dan kuat. Bagian pertama dari artikel ini memberikan gambaran tentang instalasi, konfigurasi, penggunaan ekstensi, dan clustering dan fitur load balancing. Yang kedua akan memperkenalkan sebuah aplikasi web sampel untuk menunjukkan langkah-langkah dalam mengkonfigurasi kasus Tomcat server untuk mengaktifkan clustering, dan akan mempelajari ketekunan sesi menggunakan di memori replikasi di lingkungan cluster.
Server Tomcat 5 dilengkapi dengan aplikasi penyeimbang berdasarkan peraturan beban. Dua aturan sederhana balancing kustom beban (memperpanjang API aturan) ditulis berdasarkan algoritma round-robin dan acak untuk mengarahkan permintaan web yang masuk. Kinerja benchmark untuk aplikasi web sampel berjalan di lingkungan cluster disajikan. Pengujian beban alat JMeter diperoleh digunakan untuk simulasi pengguna web ganda untuk mempelajari mekanisme load-balancing.
Sejak artikel ini berkonsentrasi terutama pada menunjukkan kemampuan pengelompokan dalam kontainer servlet Tomcat, J2EE aplikasi clustering untuk mereplikasi EJB, JNDI, dan objek JMS tidak dibahas di sini. Lihat artikel "Clustering J2EE" dan "Clustering J2EE dengan JBoss" untuk EJB dan clustering JMS. 

Skala Besar Desain Sistem
Perusahaan web portal aplikasi harus menyediakan skalabilitas dan ketersediaan tinggi (HA) untuk layanan web untuk melayani ribuan pengguna memukul situs web perusahaan. Skalabilitas adalah kemampuan sistem untuk mendukung peningkatan jumlah pengguna dengan menambahkan server tambahan untuk cluster. Ketersediaan tinggi pada dasarnya memberikan redundansi dalam sistem. Jika seorang anggota kelompok gagal karena beberapa alasan, anggota lain di cluster transparan dapat mengambil alih permintaan web. Menyebarkan aplikasi web portal di lingkungan cluster memberikan kita kemampuan untuk mencapai skalabilitas, kehandalan, dan ketersediaan tinggi yang diperlukan oleh aplikasi web portal. Pada dasarnya, tujuan utama dari clustering adalah untuk mencegah masalah pemadaman situs web terjadi akibat Single Point of Failure (SPoF) dalam sistem.
Skala besar desain sistem menyediakan mission-critical layanan untuk memastikan downtime minimal dan skalabilitas maksimum dalam lingkungan aplikasi enterprise. Daripada menjalankan server tunggal, server bekerja sama beberapa dijalankan. Untuk skala, Anda harus menyertakan mesin tambahan dalam cluster dan untuk meminimalkan downtime, Anda harus memastikan setiap komponen dari cluster adalah redundan. Bahan utama dari sistem skala besar adalah clustering, yang mencakup load balancing, toleransi kesalahan, dan fitur negara sesi ketekunan. Biasanya untuk aplikasi web, penyeimbang beban hardware atau perangkat lunak berbasis duduk di depan server aplikasi dalam cluster. Ini balancers beban yang digunakan untuk mendistribusikan beban antara node cluster dengan mengalihkan lalu lintas web ke anggota kelompok yang tepat, pada saat yang sama mendeteksi kegagalan server.


Clustering
Sebuah cluster didefinisikan sebagai sekelompok server aplikasi yang transparan menjalankan aplikasi J2EE seolah-olah itu satu kesatuan. Ada dua metode pengelompokan: skala vertikal dan skala horizontal. Skala vertikal dicapai dengan meningkatkan jumlah server yang berjalan pada satu mesin, sedangkan skala horisontal dilakukan dengan meningkatkan jumlah mesin di cluster. Skala horisontal lebih handal daripada skala vertikal, karena ada beberapa mesin yang terlibat dalam lingkungan cluster, dibandingkan dengan hanya satu mesin. Dengan skala vertikal, pengolahan daya mesin, penggunaan CPU, memori dan konfigurasi tumpukan JVM merupakan faktor utama dalam menentukan berapa banyak contoh server harus dijalankan pada satu mesin (juga dikenal sebagai rasio server-ke-CPU).
Server dalam sebuah cluster J2EE biasanya dikonfigurasi menggunakan salah satu dari tiga pilihan. Dalam pendekatan independen, setiap server aplikasi memiliki sistem file sendiri dengan salinan sendiri dari file aplikasi. Pendekatan lain adalah dengan menggunakan sistem file bersama, dimana cluster menggunakan perangkat penyimpanan tunggal yang semua server aplikasi gunakan untuk mendapatkan file aplikasi. Pendekatan konfigurasi ketiga disebut pendekatan dikelola, di mana sebuah server administrasi mengontrol akses ke konten aplikasi dan bertanggung jawab untuk "mendorong" konten aplikasi yang sesuai untuk server dikelola. Server admin memastikan bahwa semua server dalam cluster memiliki aplikasi yang tersedia. Ini juga update semua server ketika aplikasi sedang dikerahkan, dan menghapus aplikasi dari semua server ketika aplikasi tersebut undeployed.
Clustering dapat dilakukan pada berbagai tingkatan dalam aplikasi J2EE, termasuk di database tier. Beberapa vendor database menawarkan database cluster yang mendukung replikasi data antara beberapa database server dengan menyediakan transparansi klien di mana klien (biasanya kontainer servlet atau server aplikasi) tidak harus tahu mana server database itu menghubungkan untuk mendapatkan data. Contoh clustering JDBC adalah Real Application Cluster Oracle9i itu (RAC) dan Clustered JDBC (C-JDBC). RAC mendukung kegagalan koneksi database dan transparan reroutes koneksi JDBC dan permintaan database ke node lebih database gagal. C-JDBC adalah sebuah basis data klaster open source yang memungkinkan aplikasi web untuk secara transparan mengakses sekelompok database melalui JDBC driver. Implementasi ini tidak hanya menyeimbangkan beban koneksi JDBC antara node database dalam cluster, tetapi juga gagal ke server database sekunder. 

Clustering di Tomcat
Clustering yang tersedia dalam versi Tomcat sebelumnya (versi 4.1) sebagai file JAR pihak ketiga, itu tidak terlalu mudah untuk menginstal atau mengkonfigurasi untuk membuat contoh Tomcat beberapa berjalan di sebuah cluster. JavaGroups adalah pilihan populer untuk menambahkan kemampuan clustering di kontainer servlet open source (Tomcat) dan server aplikasi (JBoss). Namun dalam versi terbaru dari server Tomcat, clustering datang sebagai bagian dari paket instalasi utama. Ini meminimalkan semua upaya ekstra yang masuk ke dalam mengintegrasikan pihak ketiga implementasi pengelompokan ke server Tomcat.
Dalam lingkungan cluster khas, bagi server di cluster untuk bekerja sama dan meniru negara, mereka perlu berkomunikasi satu sama lain. Ini komunikasi kelompok dicapai baik dengan point-to-point RMI (TCP-IP) atau lewat multicast IP. Sebagian besar server aplikasi J2EE (seperti JBoss, Oracle, WebLogic, dan Borland) semua komunikasi menggunakan IP multicast untuk mengirim negara / update / detak jantung satu sama lain dalam cluster. Berikut adalah cara komunikasi antar anggota cluster bekerja di Tomcat: semua anggota cluster berbicara satu sama lain menggunakan pesan ping multicast. Setiap contoh Tomcat akan mengirimkan sebuah pesan di mana ia akan menyiarkan alamat IP dan TCP mendengarkan port untuk replikasi sesi. Jika sebuah contoh belum menerima pesan dalam jangka waktu tertentu, itu dianggap bawah.
Konsep lain yang populer di clustering, yang disebut pertanian, menyediakan cluster luas penyebaran panas dari aplikasi web. Dalam pertanian server, sebuah aplikasi web ini digunakan dengan menyalin file WAR aplikasi untuk hanya satu node di cluster; pertanian akan mengurus penggelaran aplikasi web di seluruh cluster. Demikian pula, menghapus file WAR dari node cluster tunggal akan menghasilkan undeploying aplikasi web dari semua node di cluster. Dokumentasi pengelompokan Tomcat menyebutkan bahwa versi Tomcat masa depan akan mendukung kemampuan pertanian. 

Load Balancing
Load balancing (juga dikenal sebagai saklar ketersediaan tinggi di atas) adalah sebuah mekanisme di mana beban server didistribusikan ke node yang berbeda dalam cluster server, berdasarkan kebijakan load balancing. Daripada menjalankan aplikasi pada server tunggal, sistem mengeksekusi kode aplikasi pada server secara dinamis dipilih. Ketika permintaan klien layanan, satu (atau lebih) dari server bekerja sama dipilih untuk mengeksekusi permintaan tersebut. Balancers beban bertindak sebagai titik tunggal masuk ke cluster dan sebagai direktur lalu lintas ke web individu atau server aplikasi.
Dua metode populer load balancing dalam sebuah cluster adalah DNS round robin dan balancing hardware beban. Round robin DNS menyediakan nama logis tunggal, kembali alamat IP dari node di cluster. Pilihan ini adalah murah, sederhana, dan mudah diatur, tetapi tidak memberikan afinitas server atau ketersediaan tinggi. Sebaliknya, hardware load balancing memecahkan keterbatasan DNS round robin melalui IP virtual pengalamatan. Di sini, penyeimbang beban menunjukkan satu alamat IP untuk cluster, yang memetakan alamat setiap mesin dalam cluster. Penyeimbang beban menerima setiap permintaan dan menulis ulang header untuk menunjuk ke mesin lain di cluster. Jika kita menghapus setiap mesin dalam cluster, perubahan diterapkan segera. Keuntungan dari balancing hardware beban adalah Server afinitas dan ketersediaan tinggi; kelemahan adalah bahwa itu sangat mahal dan kompleks untuk mengatur.
Ada algoritma yang berbeda untuk menentukan kebijakan distribusi beban, mulai dari algoritma robin sederhana bulat untuk algoritma yang lebih canggih digunakan untuk melakukan load balancing. Beberapa algoritma yang umum digunakan adalah:

    
Round-robin
    
Acak
    
Berdasarkan berat badan
    
Minimal beban
    
Terakhir waktu akses
    
Program parameter berbasis (di mana penyeimbang beban dapat memilih server berdasarkan argumen metode input)
Load-balancing algoritma mempengaruhi varians statistik, kecepatan, dan kemudahan. Sebagai contoh, algoritma berdasarkan berat badan memiliki waktu yang lebih lama dari komputasi algoritma lainnya. Untuk penjelasan lebih rinci tentang load balancing, lihat artikel ONJava "Aplikasi Load Balancing Web." 

Load Balancing di Tomcat
Beban kemampuan balancing tidak disediakan dalam versi Tomcat sebelumnya. Integrasi web server Apache dan kontainer servlet Tomcat bersama-sama telah menjadi pilihan populer untuk menangani permintaan web dan untuk menyeimbangkan beban. Dalam setup Apache-Tomcat, contoh Tomcat Tomcat disebut Pekerja dikonfigurasi untuk menerapkan load balancing.
Tomcat 5 menyediakan load balancing dalam tiga cara berbeda: menggunakan konektor asli JK, menggunakan Apache 2 dengan mod_proxy dan mod_rewrite, atau menggunakan aplikasi web penyeimbang. Pada artikel ini, kami berkonsentrasi pada pilihan ketiga, menggunakan aplikasi web penyeimbang untuk mengarahkan permintaan web untuk node yang berbeda dalam cluster. Aplikasi penyeimbang beban adalah aplikasi berbasis peraturan yang menggunakan mekanisme servlet filter untuk mengarahkan permintaan web yang masuk ke anggota berikutnya yang tersedia di cluster. Servlet filter diperkenalkan dalam spesifikasi 2,3 Servlet. Filter ini digunakan untuk berbagai tugas dalam aplikasi web, seperti JAAS, enkripsi penebangan otentikasi, dan audit, kompresi data, filter XSLT yang mengubah konten XML, dll Seperti disebutkan di situs web penyeimbang Tomcat, aplikasi penyeimbang adalah tidak dirancang sebagai pengganti lain yang kuat mekanisme load-balancing. Sebaliknya, itu adalah cara sederhana dan extensible untuk lalu lintas langsung antara beberapa server. Check out sampel kelas Java yang disediakan dalam aplikasi penyeimbang untuk memahami bagaimana load balancing dicapai dengan cara yang berbeda menggunakan kriteria yang berbeda aturan.
Load balancing diaktifkan dengan membuat file konfigurasi aturan (disebut rules.xml) yang berisi berbagai aturan dan URL redirection. Filter penyeimbang memeriksa RuleChain untuk menentukan di mana untuk mengarahkan permintaan tersebut dengan memeriksa aturan dalam urutan yang sama seperti yang didefinisikan dalam file rules.xml. Begitu Aturan cocok dengan kriteria, filter berhenti evaluasi dan meneruskan permintaan ke URL yang ditentukan untuk aturan yang cocok. 

Fault Toleransi
Toleransi kesalahan adalah kemampuan sistem untuk memungkinkan perhitungan untuk gagal ke server lain tersedia jika server di cluster turun, sebagai transparan kepada pengguna akhir mungkin. Sebuah gagal ideal atas skenario adalah bahwa layanan cluster harus mendeteksi ketika sebuah contoh server tidak lagi tersedia untuk mengambil permintaan, dan permintaan untuk menghentikan pengiriman contoh tersebut. Hal ini juga harus secara periodik memeriksa untuk melihat apakah anggota cluster yang tersedia lagi dan, jika demikian, secara otomatis menambahkannya ke kolam node cluster aktif. 

Fault Toleransi di Tomcat
Tomcat 5 tidak menyediakan built-in kegagalan mekanisme untuk mendeteksi ketika crash klaster anggota. Mudah-mudahan, versi masa depan Tomcat akan memberikan gagal atas fitur yang dapat digunakan untuk mencari ketersediaan anggota klaster tertentu untuk memastikan sudah siap untuk permintaan layanan web yang masuk.
Ada dua tingkat dari kegagalan kemampuan biasanya disediakan oleh solusi pengelompokan:

    
Permintaan tingkat kegagalan: Jika salah satu server di cluster turun, semua permintaan berikutnya harus diarahkan ke server yang tersisa di cluster. Hal ini melibatkan menggunakan mekanisme detak jantung untuk melacak status server dan untuk menghindari mengirimkan permintaan ke server yang tidak merespon. Dalam setup cluster kita, contoh Tomcat bertindak sebagai penyeimbang beban menangani tingkat permintaan kegagalan dengan meneruskan permintaan web ke node lain dalam cluster.

    
Sesi tingkat kegagalan: Seorang klien web dapat memiliki sesi yang dipertahankan oleh server HTTP. Dalam sesi tingkat kegagalan, jika salah satu server di cluster turun, server lain di cluster harus dapat melanjutkan dengan sesi yang sedang ditangani oleh server pertama, dengan kehilangan minimal kontinuitas. Hal ini melibatkan mereplikasi data sesi di cluster. Sebuah cluster Tomcat dengan kemampuan replikasi sesi menangani sesi tingkat kegagalan.

Session State Persistence

Kegagalan dan load balancing memerlukan session state dapat direplikasi pada server yang berbeda dalam sebuah cluster. Sesi replikasi negara memungkinkan klien untuk mulus mendapatkan informasi sesi dari server lain di cluster ketika server asli, di mana klien didirikan sesi, gagal. Negara dapat sistem negara dan / atau negara aplikasi (kondisi aplikasi berisi objek dan data yang disimpan dalam sesi HTTP). Tujuan utama dari replikasi sesi tidak kehilangan rincian sesi jika ada anggota kelompok crash atau berhenti untuk update aplikasi atau pemeliharaan sistem.
Sejauh sesi ketekunan yang bersangkutan, clustering dapat menjadi skenario sederhana di mana anggota kelompok tidak memiliki pengetahuan tentang negara sesi dalam anggota cluster lainnya. Dalam skenario ini, sesi pengguna tinggal sepenuhnya pada satu server, dipilih oleh penyeimbang beban. Hal ini disebut sesi lengket (juga dikenal sebagai afinitas sesi), karena data sesi tetap dalam anggota kelompok yang menerima permintaan web.
Di sisi lain, cluster ini dapat diimplementasikan sedemikian rupa sehingga setiap anggota kelompok benar-benar menyadari keadaan sesi dalam anggota cluster lainnya, dengan negara sesi berkala disebarkan ke semua (atau lebih baik, satu atau dua) cadangan anggota cluster. Jenis sesi dikenal sebagai sesi direplikasi.
Ada tiga cara untuk menerapkan ketekunan sesi:

  1.     Memori-ke-memori replikasi.
  2.     Sistem File sesi ketekunan, di mana informasi sesi ditulis dan membaca dari sistem file terpusat.
  3.     Database sesi ketekunan, dimana data sesi disimpan dalam menyimpan data JDBC.

Dalam replikasi memori sesi, obyek individu dalam HttpSession adalah serial ke server cadangan karena mereka berubah, sedangkan pada basis data ketekunan sesi, benda-benda di sesi adalah serial bersama-sama ketika salah satu dari mereka perubahan.
Kelemahan utama dari database / file ketekunan sesi sistem terbatas skalabilitas ketika menyimpan benda-benda besar atau banyak di HttpSession. Setiap kali pengguna menambahkan objek ke HttpSession, semua objek dalam sesi adalah serial dan ditulis ke database atau file system bersama.Sesi Replikasi di Tomcat
Sesi replikasi di versi server Tomcat adalah semua-untuk-semua replikasi dari negara sesi, yang berarti atribut sesi yang disebarkan ke semua anggota cluster sepanjang waktu. Algoritma ini efisien ketika kelompok kecil. Untuk kelompok besar, rilis berikutnya akan mendukung Tomcat primer-sekunder replikasi sesi, dimana sesi hanya akan disimpan pada satu atau dua server cadangan.
Ada tiga jenis mekanisme replikasi sesi di Tomcat:

  1.  Menggunakan di memori replikasi, dengan SimpleTcpCluster (dalam paket  org.apache.catalina.cluster.tcp) yang dikirimkan dengan Tomcat 5 (di server / lib / Catalina-cluster.jar).
  2.  Menggunakan ketekunan sesi, sesi dan menyimpan ke database bersama (org.apache.catalina.session.JDBCStore).
  3.  Menyimpan negara sesi ke sistem file bersama (org.apache.catalina.session.FileStore, bagian dari Catalina-optional.jar).

Faktor-faktor yang Perlu Dipertimbangkan dalam Menerapkan Cluster J2EE
Ada banyak faktor untuk mempertimbangkan ketika merancang sebuah cluster J2EE. Berikut ini adalah daftar pertanyaan yang harus dipertimbangkan dalam desain sistem skala besar J2EE. (Daftar ini diambil dari "Membuat Aplikasi Sangat Tersedia dan Scalable Menggunakan J2EE" dalam dokumen Pelatihan Essentials EJB.) 

Clustering

    
Apa jenis pengelompokan harus dilaksanakan: skala vertikal atau horisontal skala?
    
Dalam apa tingkat pengelompokan harus dilakukan: web server atau kontainer servlet untuk servlet, JSP, dan objek sesi HTTP, atau aplikasi server untuk EJB, JMS, dan objek JNDI atau clustering database?
Load Balancing

  •     Kapan server dipilih (yaitu afinitas): setiap permintaan, setiap transaksi, atau setiap sesi?
  •     Bagaimana server yang dipilih (beban kebijakan balancing yaitu): secara acak, round-robin,   berdasarkan berat badan, server load tidak, atau dengan aplikasi?
  •     Dimana load balancing dicapai: di satu tempat atau banyak, pada klien atau server?

Fault Toleransi

  •     Bagaimana kegagalan server terdeteksi?
  •     Kapan waktu yang tepat untuk kegagalan dan mencoba server lain?
  •     Bagaimana dengan sistem dan kondisi aplikasi pada node gagal?

Session State Persistence


  •     Bagaimana negara dikomunikasikan?
  •     Seberapa sering itu dikomunikasikan?
  •     Bagaimana negara objek terwujud?
  •     Apakah mekanisme ketekunan negara yang efisien?
  •     Konsistensi negara direplikasi?
  •     Kendala jaringan apapun dalam mereplikasi negara sesi?

Usulan Cluster Pengaturan
Di bawah ini adalah tujuan utama yang ingin saya capai dalam lingkungan cluster yang diusulkan:

    
Cluster ini harus sangat scalable.
    
Harus toleransi kegagalan.
    
Ini harus dikonfigurasi secara dinamis, yang berarti harus mudah untuk mengelola cluster declaratively (mengubah file konfigurasi) daripada pemrograman (mengubah kode Java).
    
Ini harus menyediakan penemuan kluster anggota otomatis.
    
Seharusnya kegagalan dan load-balancing fitur untuk data sesi dengan di memori replikasi negara sesi.
    
Harus memiliki pluggable / dikonfigurasi load-balancing kebijakan.
    
Harus melakukan pemberitahuan anggota grup ketika seorang anggota dari cluster bergabung atau meninggalkan kelompok.
    
Seharusnya tidak ada hilangnya transmisi pesan melalui multicast.
    
Clustering harus mulus ke aplikasi web dan server. Ini harus menyediakan kedua klien dan transparansi server. Transparansi klien berarti bahwa klien tidak mengetahui pelayanan berkerumun atau bagaimana cluster sudah diatur. Cluster ini diidentifikasi dan diakses sebagai hal yang tunggal, bukan sebagai layanan individu. Transparansi Server berarti bahwa kode aplikasi di server tidak menyadari bahwa itu dalam sebuah cluster. Kode aplikasi tidak dapat berkomunikasi dengan anggota lain dari cluster.
Kesimpulan
Dalam bagian ini, kita akan melihat bagaimana untuk menggunakan cluster (dengan menjalankan Tomcat contoh beberapa server) untuk mencapai tujuan tersebut.

=================================================================== 

Linux load balancing

layanan untuk beban, failover balancing & clustering di Vancouver KanadaNetdigix telah melaksanakan dan merancang keseimbangan beban Linux dan kegagalan solusi untuk perusahaan seperti ISP, Web host dan organisasi lain yang memerlukan 100% uptime jaringan mereka dan / atau untuk mendistribusikan web beban lalu lintas antara beberapa server. Solusi kami dapat disesuaikan dan diintegrasikan ke dalam setiap lingkungan dengan windows, unix dan linux server. Jika uptime yang penting bagi Anda atau perusahaan Anda maka layanan ini adalah yang pasti harus ada untuk jaringan Anda.
  •     Router dan failover firewall
  •     Server load balancing
  •     Server failover
Layanan beban Linux balancing secara otomatis dapat mendistribusikan lalu lintas antara beberapa server, mengirimkan permintaan ke server paling tidak dimuat di cluster dedicated server. Berat dan definisi beban berbagi dapat diletakkan pada server dengan cpu yang lebih besar dan memori. Jika server mengalami masalah, itu diambil dari cluster dan lalu lintas masa depan tidak diarahkan untuk itu sampai datang kembali online.
Gunakan Setiap Sistem Operasi Sementara Load Balancer perangkat lunak itu sendiri berjalan pada Linux, mampu memberikan pengelompokan untuk hampir semua layanan jaringan berjalan pada sistem operasi yang dapat berkomunikasi menggunakan TCP atau UDP. Ini berarti hampir semua sistem operasi, termasuk Windows, Solaris.. dan tentu saja Linux itu sendiri.
Mendukung Beragam load balancing Linux Protokol mendukung berbagai protokol, dengan pemeriksaan kesehatan asli untuk: Web, Mail, FTP, News, LDAP dan DNS. Protokol lain yang dapat didukung dengan menggunakan cek non-pribumi kesehatan atau dengan menambahkan pemeriksaan kesehatan kustom.
* Kami mendukung beban linux berikut balancing /
solusi failover :
¤ Keepalived - Tujuan utama dari proyek keepalived adalah menambahkan fasilitas keepalive kuat & kuat untuk proyek Linux Virtual Server (LVS). Keepalived menerapkan kerangka kerja berdasarkan tiga pemeriksaan keluarga: Layer3, Layer4 & Layer5 / 7. Kerangka ini memberikan daemon kemampuan memeriksa sebuah negara Server kolam LVS. Ketika salah satu server dari kolam server yang LVS sedang down, keepalived memberitahu kernel linux melalui panggilan setsockopt untuk menghapus entrie server dari topologi LVS. Selain keepalived mengimplementasikan tumpukan VRRPv2 independen untuk menangani failover direktur. Jadi dalam keepalived pendek adalah daemon userspace untuk healthchecks klaster node LVS dan LVS failover direksi. Tersedia * Pelatihan
¤ Ultra monkey- Ultra Monyet adalah proyek untuk menciptakan layanan beban jaringan seimbang dan sangat tersedia. Misalnya sekelompok server web yang muncul sebagai web server tunggal untuk pengguna akhir. Layanan ini mungkin untuk end-user di seluruh dunia terhubung melalui internet, atau bagi pengguna perusahaan terhubung melalui intranet. Monyet Ultra yang menggunakan sistem operasi Linux untuk memberikan solusi yang fleksibel yang dapat disesuaikan dengan berbagai kebutuhan. Dari kelompok kecil hanya dua node untuk sistem yang besar melayani ribuan koneksi per detik.
¤ IPVS (IP Virtual Server)- IPVS (IP Virtual Server) menerapkan transport-layer load balancing di dalam kernel Linux, sehingga disebut Layer-4 switching. IPVS berjalan pada sebuah host bertindak sebagai penyeimbang beban di depan sekelompok server yang nyata, dapat mengarahkan permintaan untuk layanan TCP / UDP berbasis ke server sebenarnya, dan membuat layanan dari server nyata untuk muncul sebagai layanan virtual pada alamat IP tunggal. Tersedia * Pelatihan
¤ LVS (Linux Virtual Server) - Virtual Server Linux adalah server sangat scalable dan sangat tersedia dibangun pada sekelompok server nyata, dengan penyeimbang beban berjalan pada sistem operasi Linux. Arsitektur cluster server sepenuhnya transparan kepada pengguna akhir, dan pengguna berinteraksi seolah-olah itu server kinerja tinggi tunggal virtual. 

Vancouver linux load balancing dan gambar pengelompokan








Apa itu Load Balancing? Load balancing adalah PROSES mendistribusikan pengolahan dan kegiatan komunikasi secara merata atau dalam beberapa kasus tidak merata (dalam skenario di mana server tidak daya komputasi yang sama) melalui sebuah jaringan komputer sehingga tidak ada perangkat tunggal kewalahan atau handeling 100% dari jaringan atau lalu lintas web . Load balancing sangat penting untuk jaringan di mana sulit untuk memprediksi jumlah permintaan yang akan dikeluarkan ke server. Sibuk situs web biasanya menggunakan dua atau lebih server Web dalam sebuah skema load balancing. Jika satu server mulai kebanjiran, permintaan akan diteruskan ke server lain dengan kapasitas lebih.


Linux keseimbangan beban desain gambar





Khas solusi loadbalance linux 

source : 
http://www.netdigix.com/linux-loadbalancing.php
http://onjava.com/onjava/2004/03/31/clustering.html
[diterjemahkan secara bebas  : google translate : coding-web88.blogspot.com]
 

0 komentar:

Posting Komentar

.:Tutorial DHTML DLL:.

Tutorial tentang Dhtml scripts, Jquery plugins ,Javascript, CSS, CSS3, Html5 Library dll dan penerapannya pada Website, langsung aja kunjungi Website nya dan yang nggak kalah penting Free Yaa !!

.:distrowatch:.

Pengin Banyak tau tentang distro linux Langsung Aja Kunjungi DistroWatch Hmmm, banyak banget distronya, Download dan Pasang Linuxnya Lets Go Boss !!

.:jQuery Tutorial:.

Tutorial jQuery Widget ada disini semua Langsung Ke TKP Boss !!

.:Hirens Boot CD:.

Hiren's Boot CD cukup ampuh untuk membuat Clonning Atau Copy windows, dan banyak tool yang sangat berguna bagi para teknisi komputer maupun yang masih pemula silahkan Download filenya Disini kalo mau lihat tutorialnya membuat Flashdisc Bootable Disini Lumayan buat nambah ilmu dan Tool, Langsung aja Boss !!

Hiren’s BootCD

Bookmark and Share