當(dāng)前位置:首頁 >  站長 >  搜索優(yōu)化 >  正文

robots協(xié)議對網(wǎng)站、搜索引擎的重要性

 2015-09-25 15:24  來源: 用戶投稿   我來投稿 撤稿糾錯

  域名預(yù)訂/競價,好“米”不錯過

很多站長最頭疼的一個問題就是,搜索引擎蜘蛛為什么不光顧自己的網(wǎng)站,或者光顧頻率比較低。這樣對網(wǎng)站收錄的影響是比較大的,直接影響到網(wǎng)站的排名。

先談一下搜索引擎蜘蛛的工作原理吧,蜘蛛又稱網(wǎng)絡(luò)爬蟲、網(wǎng)頁蜘蛛、網(wǎng)絡(luò)機(jī)器人,更生動的叫網(wǎng)頁追逐者。一種按照一定的規(guī)則,自動地抓取萬維網(wǎng)信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動索引、模擬程序或者蠕蟲。

 

網(wǎng)絡(luò)爬蟲

你知道萬維網(wǎng)中有多少蜘蛛嗎?下面介紹一下全球知名的蜘蛛,NO1:谷歌蜘蛛:google 谷歌蜘蛛最新名稱為“compatible; Googlebot/2.1;” “Googlebot-Mobile”,看名字是抓取wap內(nèi)容的:,全球最大的搜索引擎公司。NO2:百度蜘蛛:Baiduspider 常見百度旗下同類型蜘蛛還有下面這些Baiduspider-mobile(wap引擎)、Baiduspider-image(搜圖引擎 )、Baiduspider-video(視頻引擎)Baiduspider-news(新聞引擎),中文搜索引擎最強(qiáng)的公司。NO3:360蜘蛛:360Spider。NO4:SOSO蜘蛛,NO4:Sosospider 雅虎蜘蛛,NO:5“Yahoo! Slurp China”或者Yahoo!NO6: 有道蜘蛛:YoudaoBot,YodaoBot,NO7: 搜狗蜘蛛:Sogou News Spider,這些是全球最出名的蜘蛛,其實還有好多我就不一一列舉了。

蜘蛛特點(diǎn)就是通過結(jié)網(wǎng)來捕獲獵物,所以我們的網(wǎng)站就跟獵物一樣等蜘蛛來捕獲,如果網(wǎng)站內(nèi)容新穎獨(dú)特,更新內(nèi)容頻率高蜘蛛就會經(jīng)常光顧你的網(wǎng)站。但是也不能讓蜘蛛隨便抓取,比如后臺地址,所以就有了robots這個協(xié)議,這個很重要如果robots.txt協(xié)議寫的好可以事半功倍。下面介紹一下robots.txt協(xié)議怎么寫可以迎合蜘蛛的口味:

User-agent: *

開頭字母必須是大寫的,后面加英文形式下的冒號,然后后面是空格。

*表示通配符號。這里指通配所有的搜索引擎。

Disallow: / 表示禁止搜索引擎爬取所有頁面,/表示目錄。

Disallow: 表示不禁止

Disallow: /admin/禁止爬取admin后臺目錄。

Disallow: /admin 禁止抓取包含admin的路徑 后面不帶/表示只要路徑中包含admin蜘蛛就不會抓取。

Allow: 表示允許

Allow: /admin/s3.html 允許抓取admin目錄下的s3.html 這個文件。

Disallow: /.css$ 表示以.css結(jié)尾的文件都不允許抓取,帶上$表示特定的文件。

3.robots.txt協(xié)議寫法注意點(diǎn)

注意:

所有的語法必須空格/開頭,所有正規(guī)的搜索引擎在抓取網(wǎng)站URL的時候會第一時間抓取robots.txt,如果沒有robots.txt文件,蜘蛛會默認(rèn)網(wǎng)站允許抓取所有信息。

網(wǎng)站地圖放在robots.txt文件里。

所以把網(wǎng)站地圖放在robots.txt文件夾里可以讓蜘蛛更快速的抓取網(wǎng)站路徑。 把做好的XML地圖寫在robots.txt文件里上傳根目錄就好。

總結(jié):robots協(xié)議對偽靜態(tài)的網(wǎng)站很重要,如果沒有robots協(xié)議搜索引擎就會重復(fù)收錄對網(wǎng)站權(quán)重排名有影響。robots協(xié)議最后必須加入網(wǎng)站地圖,這樣才會更好的引導(dǎo)蜘蛛抓取你的網(wǎng)站。

本文由鹽城SEO吉中春原創(chuàng),原文地址,轉(zhuǎn)摘請保留版權(quán),謝謝。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots.txt技巧

相關(guān)文章

  • robots.txt文件怎么寫才正確呢?

    曾慶平SEO在前面的文章中講過robots.txt概念的時候,留下一個問題:為什么曾慶平SEO的robots.txt寫得那么復(fù)雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來網(wǎng)站更規(guī)范和權(quán)威。

  • 看完秒懂robots.txt寫法和注意事項

    robots.txt直接放在網(wǎng)站根目錄下,是蜘蛛訪問網(wǎng)站時,第一個抓取的文件。robots.txt是告訴蜘蛛網(wǎng)站的哪些文件允許抓取,哪些文件不允許抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。沒有抓取就沒有收錄,沒有收錄就沒有排名。所以作為第一蜘蛛訪問的文件,寫好robots.txt是很重要的。

  • 解除網(wǎng)站Robots封禁全過程

    obots協(xié)議或者說robots文件對搜索引擎優(yōu)化中非常重要,但設(shè)置出錯可能會導(dǎo)致收錄下降或不能正常收錄。今天,小小課堂SEO自學(xué)網(wǎng)帶來的是《【robots文件協(xié)議】解除Robots封禁全過程》。希望本次的百度SEO優(yōu)化培訓(xùn)對大家有所幫助。

  • 教你robots.txt設(shè)置方法技巧

    在SEO優(yōu)化網(wǎng)站當(dāng)中,做好robots.txt至關(guān)重要因為每個搜索引擎抓取網(wǎng)站信息第一步就是爬去robots.txt文件來引導(dǎo)搜索引擎爬取;合理的使用robots文件能夠更好的集中網(wǎng)站的權(quán)重,避免一些不想被搜索引擎查看的文件抓取,是非常必要的一種SEO手段,但是好多做seo的朋友對于robots的文

    標(biāo)簽:
    robots.txt技巧

熱門排行

信息推薦