Edisi Pemula 2016 Full Update---
Search engine yang lain masih banyak yang menerapkan faktor usia halaman sehingga halaman-halaman yang gres sulit mendapat peringkat di dalam hasil pencarian mereka. Hal ini menciptakan Google disukai oleh para pencari dan pembuat web.
Kurang lebih cara kerja search engine itu sama dikala anda membuka sebuah halaman website dan membacanya kemudian mengklik link-link lain pada halaman itu untuk membaca halaman-halaman yang lainnya. Bedanya yaitu Google melakukannya dengan menggunakan Googlebot yang merupakan sekumpulan besar set komputer yang melakukannya dalam kecepatan yang jutaan kali kecepatan anda.
Jadi untuk memastikan halaman web anda masuk dalam daftar hasil pencarian Google, maka halaman web itu harus masuk dalam index.... dan untuk masuk dalam index anda harus memastikan halaman web anda bisa dirayapi oleh Google.
Cara terbaik untuk memastikan itu yaitu memiliki banyak link dari halaman-halaman yang sudah terindex yang merujuk ke halaman web anda. Link-link dari website lain yang menuju ke halaman web anda ini biasa disebut backlink.
Sebelum anda mencari banyak link untuk memastikan perayapan, maka terlebih dahulu anda harus memastikan halaman web anda bisa dirayapi. Percuma saja banyak backlink kalau halaman anda tidak bisa dirayapi.
Untuk yang satu ini anda bisa mencoba fitur Google Webmaster Tools, yaitu Fetch As Google.
Sebelum melaksanakan fetch, tentunya website anda harus sudah terhubung ke webmaster tools. Bagi pengguna blogspot tidak perlu repot, alasannya yaitu blogspot sudah terhubung otomatis dengan webmaster tools dari google. Yang perlu melaporkan websitenya ke google webmaster tools yaitu yang memiliki website di luar produk google.
Sekarang anda sudah bisa menggunakan fetch as Google untuk menguji apakah googlebot bisa merayapi halaman website anda.
Halaman-halaman yang menggunakan title tag yang sama dan meta description yang sama ibarat halaman versi lain dari html (pdf version, printable version, dll), bisa merusak kualitas website anda kalau hingga terindeks oleh Google. Kenapa bisa merusak kualitas? Hal itu dikarenakan munculnya duplikat title tag dan duplikat meta description di dalam website anda. Untuk mengatasi ini anda bisa menggunakan robots.txt untuk mengatur robot search engine.
Selain halaman yang berpotensi menjadi duplikat, tentu anda juga tidak mau halaman admin anda hingga masuk ke dalam index Google.
Ingat! Yang perlu anda lakukan hanyalah memblokir halaman-halaman yang tidak anda inginkan untuk dirayapi. Halaman-halaman yang anda inginkan untuk dirayapi oleh mesin pencari tidak memerlukan pengaturan apa-apa, alasannya yaitu perayapan itu yaitu nilai default. Jika tidak dilarang, mereka akan merayapi....
Buat yang galau bisa mencoba untuk googling "cara menggunakan robots.txt".
Jika memang halaman kategori dan label mengalirkan poin, kenapa harus di-noindex?Sebenarnya tidak semua halaman kategori dan label harus di noindex, hanya halaman-halaman yang memiliki duplikat title dan meta yang harus dibentuk noindex. Jika halaman kategori dan label anda tidak menimbulkan duplikat title dan meta, maka biarkan saja.
Untuk menciptakan halaman-halaman ibarat ini noindex, maka anda bisa memasang meta robots noindex di halaman-halaman ibarat ini. Tapi untuk dikala ini anda belum perlu melaksanakan apa-apa. Ini nanti bisa anda lakukan di tahapan meningkatkan secara optimal SEO onpage.
Algoritma hummingbird inilah yang menilai relevansi halaman website kita dengan kata kunci yang kita targetkan. Halaman yang dinilai oleh hummingbird yaitu halaman-halaman web yang sudah lolos evaluasi algoritma panda dan algoritma penguin. Di mana panda menilai kesejukan dan unsur spam dari onpage sebuah halaman web, sedangkan penguin menilai karakteristik dari backlink yang diperoleh oleh sebuah halaman website.
Semua algoritma google ini tidak akan dibahas di sini, alasannya yaitu pendalamannya akan dibahas di SEO onpage, dan SEO offpage.
Langkah selanjutnya anda akan mempelajari bagaimana cara menentukan kata kunci yang pantas mendapat perhatian anda untuk dioptimasi. Jangan hingga anda mengoptimasi kata kunci yang tidak ada potensi trafiknya.
SEO yaitu kependekan dari Search Engine Optimization. Ini merupakan sekumpulan kegiatan yang dilakukan untuk memenuhi standar kualitas dari mesin pencari, supaya halaman web kita sanggup meraih ranking pertama di hasil pencarian dengan mengalahkan semua pesaing pada suatu kata kunci tertentu.
Kata Kunci yaitu semua hal yang diketikkan orang pada dikala menggunakan Google. Setelah kata kunci diketikkan, Google akan menampilkan hasil pencarian yang diharapkan oleh penggunanya. Mereka yang melaksanakan SEO ingin mendapat trafik dari Google dengan menaklukkan kata-kata kunci tertentu yang bisa membawa trafik ke website yang dioptimasi.
Untuk bisa mendapat trafik dari google bukanlah hal yang mudah, alasannya yaitu Google hanya menyediakan 7-10 kawasan pada halaman pertama. Sedangkan website yang menyediakan informasi yang serupa bisa mencapai jutaan. Kaprikornus hanya alasannya yaitu bisa menciptakan sebuah blog atau website, bukan berarti anda akan mendapat trafik dari Google.
Kenapa Google Selalu Menonjol Di Dalam SEO?
Kenapa dari tadi kita hanya menyebut Google? Sebagai permulaan dalam aktifitas berguru SEO anda, maka perlu diinfokan bahwa 68% pencarian di dunia ini ditangani oleh mesin pencarian google. Hal itu dikarenakan Google memiliki algoritma yang paling berkembang dikala ini dan bisa menawarkan hasil yang lebih relevan dan fresh.Search engine yang lain masih banyak yang menerapkan faktor usia halaman sehingga halaman-halaman yang gres sulit mendapat peringkat di dalam hasil pencarian mereka. Hal ini menciptakan Google disukai oleh para pencari dan pembuat web.
Bagaimana Cara Kerja Google dan Mesin Pencari Lainnya?
Google dan mesin pencari lainnya bekerja dengan melalui 3 tahapan, yaitu:- Perayapan
- Pengindeksan, dan
- Penyajian hasil pencarian
Apa itu Robot Search Engine?
Robot search engine yaitu kegiatan yang dibentuk untuk membuka halaman website, merayapi semua isi halaman web tersebut, mengambil data, membuka semua link pada halaman web tersebut, dan mengulangi semua proses ini pada halaman web yang dibuka melalui link-link tadi.Kurang lebih cara kerja search engine itu sama dikala anda membuka sebuah halaman website dan membacanya kemudian mengklik link-link lain pada halaman itu untuk membaca halaman-halaman yang lainnya. Bedanya yaitu Google melakukannya dengan menggunakan Googlebot yang merupakan sekumpulan besar set komputer yang melakukannya dalam kecepatan yang jutaan kali kecepatan anda.
Kenapa diharapkan Perayapan?
Perayapan itu maksudnya Googlebot mengunjungi semua halaman website yang bisa dikunjungi, dan tujuannya yaitu mengumpulkan data halaman-halaman tersebut ke sistem index Google. Data di dalam index inilah yang dihidangkan dikala kita melaksanakan pencarian.server-server kawasan data semua halaman web disimpan |
Cara terbaik untuk memastikan itu yaitu memiliki banyak link dari halaman-halaman yang sudah terindex yang merujuk ke halaman web anda. Link-link dari website lain yang menuju ke halaman web anda ini biasa disebut backlink.
Sebelum anda mencari banyak link untuk memastikan perayapan, maka terlebih dahulu anda harus memastikan halaman web anda bisa dirayapi. Percuma saja banyak backlink kalau halaman anda tidak bisa dirayapi.
Untuk yang satu ini anda bisa mencoba fitur Google Webmaster Tools, yaitu Fetch As Google.
Sebelum melaksanakan fetch, tentunya website anda harus sudah terhubung ke webmaster tools. Bagi pengguna blogspot tidak perlu repot, alasannya yaitu blogspot sudah terhubung otomatis dengan webmaster tools dari google. Yang perlu melaporkan websitenya ke google webmaster tools yaitu yang memiliki website di luar produk google.
Mendaftar Webmaster Tools
Ini juga merupakan proses penting di dalam belajar SEO, yaitu mengetahui cara mendaftar di webmaster tools. Kenapa ini penting? Karena tools ini menyediakan banyak informasi perihal bagaimana Google melihat website anda. Google Webmaster Tools hampir selalu dilibatkan dalam penyelesaian problem kalau website kita mengalami penurunan di hasil pencarian Google.- Untuk melaksanakan registrasi anda cukup melaksanakan login ke akun Google anda
- Setelah anda melaksanakan login, kunjungilah URL https://www.google.com/webmasters/tools/
- Klik tombol "ADD A PROPERTY"
- Akan muncul popu up, masukkan url anda
- Akan muncul metode verifikasi lengkap dengan panduannya.
- Download file html yang anda perlukan pada link nomor 1 dalam gambar
- upload file tersebut ke root dari website anda (bisa menggunakan CPanel)
- Konfirmasi bahwa file sudah anda upload dengan mengklik link nomor 2
- Klik tombol verifikasi dan selesai.
Sekarang anda sudah bisa menggunakan fetch as Google untuk menguji apakah googlebot bisa merayapi halaman website anda.
- Masuk ke webmaster tools anda di search console dan klik link untuk nama website yang gres anda verifikasi
- Akan muncul dashboard untuk website tersebut, dan di sidebar kiri ada sajian CRAWL/PERAYAPAN. Klik pada sajian untuk menampilkan sub sajian FETCH AS GOOGLE atau AMBIL SEBAGAI GOOGLE.
- Biarkan saja kolomnya kosong untuk melaksanakan fetch pada homepage
- Klik Fetch dan lihat apakah proses FETCH sukses/complete. Jika gagal, maka kemungkinan Google bermasalah mengindeks. Penyebabnya bisa banyak, tetapi yang sering terjadi yaitu robot diblokir oleh server host secara tidak sengaja.
Memblokir Robot Search Engine
Saat anda berguru SEO atau meningkatkan secara optimal website, anda harus mengetahui bahwa anda harus bisa mengendalikan perayapan robot mesin pencari di halaman anda. Kenapa ibarat itu? Karena ada halaman-halaman yang harus anda hindari untuk dirayapi oleh robot mesin pencari.Halaman-halaman yang menggunakan title tag yang sama dan meta description yang sama ibarat halaman versi lain dari html (pdf version, printable version, dll), bisa merusak kualitas website anda kalau hingga terindeks oleh Google. Kenapa bisa merusak kualitas? Hal itu dikarenakan munculnya duplikat title tag dan duplikat meta description di dalam website anda. Untuk mengatasi ini anda bisa menggunakan robots.txt untuk mengatur robot search engine.
Selain halaman yang berpotensi menjadi duplikat, tentu anda juga tidak mau halaman admin anda hingga masuk ke dalam index Google.
Ingat! Yang perlu anda lakukan hanyalah memblokir halaman-halaman yang tidak anda inginkan untuk dirayapi. Halaman-halaman yang anda inginkan untuk dirayapi oleh mesin pencari tidak memerlukan pengaturan apa-apa, alasannya yaitu perayapan itu yaitu nilai default. Jika tidak dilarang, mereka akan merayapi....
Buat yang galau bisa mencoba untuk googling "cara menggunakan robots.txt".
Memerintahkan Noindex Pada Robot Search Engine
Ada halaman yang tidak boleh diblokir tetapi juga bukan untuk diindex. Kenapa tidak diblokir? Karena di dalam halaman ini ada link, jadi halaman ini mengalirkan poin dan kalau diblokir maka poinnya akan hilang. Halaman-halaman ibarat ini biasanya ada pada halaman kategori dan label.Jika memang halaman kategori dan label mengalirkan poin, kenapa harus di-noindex?Sebenarnya tidak semua halaman kategori dan label harus di noindex, hanya halaman-halaman yang memiliki duplikat title dan meta yang harus dibentuk noindex. Jika halaman kategori dan label anda tidak menimbulkan duplikat title dan meta, maka biarkan saja.
Untuk menciptakan halaman-halaman ibarat ini noindex, maka anda bisa memasang meta robots noindex di halaman-halaman ibarat ini. Tapi untuk dikala ini anda belum perlu melaksanakan apa-apa. Ini nanti bisa anda lakukan di tahapan meningkatkan secara optimal SEO onpage.
ALGORITMA GOOGLE
Ini adalah cuilan terpenting dari berguru SEO. Saat ini ada 3 Algoritma yang menjadi fokus utama dalam melaksanakan search engine optimization, yaitu:- Hummingbird
- Panda
- Penguin
Algoritma hummingbird inilah yang menilai relevansi halaman website kita dengan kata kunci yang kita targetkan. Halaman yang dinilai oleh hummingbird yaitu halaman-halaman web yang sudah lolos evaluasi algoritma panda dan algoritma penguin. Di mana panda menilai kesejukan dan unsur spam dari onpage sebuah halaman web, sedangkan penguin menilai karakteristik dari backlink yang diperoleh oleh sebuah halaman website.
Semua algoritma google ini tidak akan dibahas di sini, alasannya yaitu pendalamannya akan dibahas di SEO onpage, dan SEO offpage.
Review
- Jadi sampai di sini anda sudah tahu apa SEO itu dan tujuan melakukannya.
- Anda juga sudah tahu bahwa halaman web anda harus bisa dirayapi, dan bagaimana cara anda memastikan halaman web anda bisa dirayapi.
- Anda juga sudah mengetahui bagaimana cara anda mencegah halaman-halaman tertentu untuk dirayapi atau diindex
- Anda juga sudah mendengar 3 algoritma utama dan fungsi masing-masing algoritma
Langkah selanjutnya anda akan mempelajari bagaimana cara menentukan kata kunci yang pantas mendapat perhatian anda untuk dioptimasi. Jangan hingga anda mengoptimasi kata kunci yang tidak ada potensi trafiknya.
Tag :
lainnya
0 Komentar untuk "Apa Itu Seo? Dan Cara Kerja Search Engine Optimization 2016"