Banyak orang mungkin pernah mendengar istilah latency yang berhubungan dengan jaringan, tetapi apa itu latency sebenarnya?
Bahkan, orang sering salah kira bahwa kecepatan internet tergantung dari bandwidthnya saja.
Kecepatan internet yang wus wus wus berasal dari kombinasi antara bandwidth dan latensi, sehingga Throughput juga bagus.
Pengertian Latency
Network latency bisa kita peroleh dari waktu yang dibutuhkan sebuah jaringan untuk mengirim ke penerima dan kemudian diproses.
Singkatnya, latency adalah waktu yang dibutuhkan antara jaringan yang digunakan browser ke server.
Pastinya, setiap orang menginginkan angka latensi yang kecil, mungkin 0 kalau bisa? tapi ada beberapa faktor yang bisa mengganggu latensi ini.
Latency vs Bandwidth

Meskipun pengertian latency dan bandwidth sedikit mirip dan saling bekerja sama, mereka memiliki arti yang berbeda.
Untuk memudahkan penggambaran, anggaplah kita memiliki sebuah pipa:
- Bandwidth adalah ukuran seberapa sempit atau lebar suatu pipa. Semakin sempit, semakin sedikit pula data yang dapat melalui pipa tersebut bukan?
- Latency menggambarkan seberapa cepat aliran dalam pipa dapat ditransfer dari awal (klien) ke tujuan (server) dan kembali.
Hubungan bandwidth dan latency memang tak dapat dipisahkan. Seberapa banyak data yang dikeluarkan dalam kurun waktu tertentu disebut dengan Throughput.
Misal kita memiliki bandwidth yang besar, namun latency yang buruk. Tentu hasilnya tak jauh berbeda dengan bandwidth kecil dengan latency yang cepat.
Sering terjadi, latensi menimbulkan bottleneck dalam jaringan sehingga mengurangi jumlah data yang dapat ditransfer.
Penyebab Latency Jaringan
Pertanyaan tentang apa itu latency telah dijawab, sekarang tahukah kita dari mana datangnya latensi?
Ada 4 penyebab utama yang dapat mempengaruhi waktu latensi jaringan, yaitu:
- Media transmisi: seperti kabel optik / tembaga, memiliki keterbatasan masing-masing dan dapat memengaruhi latensi.
- Penyebaran: seberapa lama jumlah waktu yang dibutuhkan suatu paket untuk melakukan perjalanan dari satu sumber ke sumber lainnya
- Router: perangkat ini memerlukan waktu untuk menganalisis informasi atau mungkin menambahkannya
- Storage delay: adanya perantara yang menyebabkan pengiriman packet terganggu.
Cara untuk Mengurangi Latency

Mengurangi jumlah latensi server pastinya membantu web resources lebih cepat, sehingga visitor dapat mengakses web lebih cepat dan mudah.
Latensi dapat dikurangi menggunakan beberapa teknik seperti yang ada di bawah ini:
- HTTP/2: HTTP / 2 membantu mengurangi latensi server dengan meminimalkan jumlah perjalanan round trips dari pengirim ke penerima dengan transfer paralel.
- Mengurangi External HTTP: Mengurangi permintaan HTTP tidak hanya untuk gambar tetapi juga untuk resource lainnya seperti CSS atau JS.
- Menggunakan CDN: Menggunakan CDN membantu mendekatkan resource dengan pengguna di berbagai lokasi di seluruh dunia.
- Menggunakan Prefetching: Dengan prefetching, proses latency terjadi sebagai background process saat pengguna membuka halaman tertentu
- Caching Browser: Browser akan men-cache resource tertentu dari suatu situs secara lokal untuk mengurangi jumlah permintaan ulang ke server.
Latency adalah bagian yang tak terhindarkan dari ekosistem Internet saat ini dan merupakan hal yang harus kita perhatikan.
Saran di atas adalah sedikit tips dalam membantu mengurangi angka latency yang kadang mengganggu pengakses website.
Baca juga: