Cara Kerja Crawler

 1.Relevansi Suatu Halaman

Crawler tidak mengindeks semua yang ada di internet, namun memprioritaskan halaman web berdasarkan berapa banyak halaman lain yang terhubung dengan internal atau eksternal link, tampilan halaman web, dan jumlah pengunjung web. Jika banyak tautan yang mengarah ke halaman, maka bisa jadi halaman tersebut penting dan relevan untuk ditampilkan di search engine.

2. Meninjau Kembali Halaman

Konten-konten di internet mengalami perubahan setiap waktunya, bisa karena update, penambahan, pengurangan, dan penghapusan. Maka penting bagi crawler untuk meninjau kembali halaman untuk memastikan konten terbaru sudah diindeks.

3. Keinginan Robots.txt

Crawler halaman mana yang perlu diindeks berdasarkan robots.txt. Sebelum crawling dilakukan, file robots,txt pada server website akan di cek terlebih dahulu. Robots.txt merupakan file pada sebuah website yang berisi informasi mengenai halaman mana yang boleh di indeks dan tidak.

Komentar

Postingan populer dari blog ini

Cicada 3301, Teka-teki Paling Misterius di Internet yang Sulit Terpecahkan

Apa itu Golang framework dan bagaimana dampaknya bagi developer

Pengenalan User Interface (UI)