Submit, Database, Index, Crawl, Serving Google
Submit, Database, Index, Crawl, Serving Google
Submit, Database, Index, Crawl, Serving Google
Artikel Search Engine, Kaitannya dengan search engine (Google) blog atau website yang sudah terdaftarkan itu seperti buku-buku di dalam perpustakaan. Setiap blog mempunyai halaman-halaman seperti halaman pada setiap buku. Sedangkan mesin pencari merupakan pengelola informasi dari daftar-daftar buku tersebut dengan tujuan pencarian tentang nama buku, judul buku, pengarang, serta lainnya.Dengan dukungan kapasitas tampungan data yang besar tidak heran Google mampu menampung milyaran halaman saat ini untuk diolah dan ditampilkan di mesin pencarinya yaitu Google Search. Melalui halaman resminya ada ratusan milyar halaman yang sudah ditampung serta trilyunan pencarian kata kunci setiap harinya. Wow, jumlah yang sangat banyak sekali bukan? Mari cari tahu bagaimana cara kerja mesin pencari ini.
Proses Submit Url
Cara kerja pertama mesin pencari yaitu menerima permohonan dari para blogger yaitu dengan cara menyediakan layanan kirim url blog. Proses pengiriman url dilakukan secara manual dari pemilik blog yang ingin blognya tampil di halaman Google. Halaman perngiriman url blog atau alamat blog dari google yaitu : https://www.google.co.id/intl/id/add_url.htmlHingga saat ini proses pengiriman url tidak dipungut biaya pihak Google atau gratis. Proses pengiriman url kapan saja diluar jam kerja pun bisa dilakukan.
Setelah proses submit pengiriman url tiap halaman dilakukan pada Google Webmaster Tools (GWT) sekarang dinamai Search Console. Pengiriman url tiap halaman diambil otomatis pada halaman Sitemap dengan format XML. Itulah pentingnya membuat halaman sitemap untuk search console.
Proses Database
Setelah proses pengiriman selesai selanjutnya semua data disimpan di server Google yang mencapai 100.000.000 GB (Seratus Juta) kapasitas penyimpanan. Kapasitas besar tersebut menampung semua blog yang dikirimkan pemilik blog dari seluruh dunia. Dengan 13 Server data yang tersebar di Amerika, Eropa, dan Asia pengelolaan data sangatlah penting. Untuk pendistribusian data melalui jaringan UPS dirasa mampu melayani permintaan data dari seluruh dunia. Data-data tiap halaman disimpan dan dijaga ketat oleh petugas keamanan 24 jam kerja tanpa henti hingga sekarang.
Proses Crawl
Proses crawl ini adalah proses mesin otomatis yang berfungsi merayapi atau menganalisa ulang isi situs atau blog. Pemberian nama mesin ini yaitu Googlebot, Robot atau Spider. Mesin proses crawl ini dinamai sesuai dengan kategori masing-masing misalkan untuk dekstop disebut dengan Googlebot, untuk gambar dinamai dengan Googlebot-image, dan untuk blog berita dinamai dengan Googlebot-news. Cara kerjanya otomatis dan tergantung seberapa seing blog itu melakukan aktifitas yaitu update halaman atau perawatan situs. Kamu bisa melihat penjelasan tentang crawl di Webmaster Google tentang Crawl. Proses crawl tiap halaman blog berbeda-beda tergantung jumlah halaman dan umur blog. Terdapat fitur setting crawl yaitu seberapa cepat mesin crawl akan merayapi blog kita. Tentu ini menjadi pertimbangan pemilik blog untuk optimasi halamannya. Untuk akun lama biasanya setting seberapa cepat crawl dilakukan akan otomatis muncul pada menu webmaster tools. Cara kerjanya mirip pengaturan kecepatan blog untuk memuat.
Proses Index
Dari hasil crawl akan didapatkan informasi-informasi dan tambahan informasi lainnya mengenai isi blog. Seperti dijelaskan pada halaman resminya, setiap blog yang masuk proses index tidak dijamin tampil pada hasil pencarian. Ada banyak pertimbangan dari pihak google yang akan ditayangkan pada hasil pencariannya. Pertimbangan itu meliputi isi yang relevan, bahasa, dan apakah situs atau blog tersebut patuh pada pedoman kualitas serta kebijakan google atau tidak. Proses Crawl dan index bisa dilihat melalui halaman google tentang cara kerja Google Penelusuran. Kedua proses ini yaitu crawl dan index menjadi pantauan pemilik blog dan terdapat pada menu laporan di search console.
Proses Serving atau Hasil Pencarian.
Setelah proses index disimpan proses selanjutnya adalah menampilkan hasil pencarian dengan kata kunci tertentu atau serving. Kata yang sedikit pencarian, akan cepat diindex google. Begitu sebaliknya, kata dengan frekuensi banyak dicari membutuhkan waktu yang lama juga pada hasil pencarian. Ini dikarenakan banyak persaingan dalam kata tersebut. Dari hasil pencarian yang disajikan dapat diperoleh trend atau kata paling banyak dicari. Kamu bisa temukan apa yang sedang jadi tranding topik melalui Google Trends setiap harinya. Google trends sering dijadikan acuan bagi pemilik blog atau situs yang akan mempublikasikan artikelnya. Meneliti kata yang sedang menjadi tranding pada pencarian merupakan langkah efektif terutama untuk menentukan judul halaman.Teman-teman bisa melihat video cara kerja mesin pencari ini, walaupun dengan bahasa inggris saya yakin kalian bisa memahami cara kerjanya karena terdapat animasi untuk mempermudah
Setelah kamu mengetahui cara kerja mesin pencari google tersebut, artikel kami selanjutnya yaitu algoritme baru google. Adalah cara google menentukan halaman yang layak ditampilkan pada hasil pencarian melalui peringkat situs. Baca tentang → cara kerja algoritme baru google.
Demikianlah Artikel Submit, Database, Index, Crawl, Serving Google
Sekian BLACK HAT SEO Submit, Database, Index, Crawl, Serving Google, mudah-mudahan bisa memberi manfaat untuk anda semua. baiklah, sekian postingan BLACK HAT SEO kali ini.
Anda sedang membaca artikel Submit, Database, Index, Crawl, Serving Google dan artikel ini url permalinknya adalah https://black-hat-seo-blogger.blogspot.com/2018/09/submit-database-index-crawl-serving.html Semoga artikel ini bisa bermanfaat.
Tag : Search Engine,