日韩午夜电影网-日韩午夜电影在线-日韩午夜福-日韩午夜福利-日韩午夜福利电影-日韩午夜福利免

助力企業在互聯網時代升級轉型

專注于 網站建設制作 / 小程序開發 / 400電話

服務熱線

15969966565

News/公司新聞

分享你我感悟

您當前位置>首頁>新聞資訊>公司新聞

網站robots.txt的重要性及語法

發表時間:2021-05-19 13:52:14

文章作者:管理員

瀏覽次數:1083

robots.txt,是一個給搜索引擎蜘蛛下指令的文本文件,用于SEO優化。如果用對了,可以確保搜索引擎蜘蜘蛛正確抓取和索引你的網站頁面。如果用錯了,可能會對SEO排名和網站流量造成負面影響,那怎么設置robots.txt ,究竟有著怎樣的重要性,又該如何書寫呢?下面讓我們一起來了解一下。

Robots.txt文件的重要性

robots.txt是搜索引擎蜘蛛訪問網站時要查看的第一個文件,并且會根據robots.txt文件的內容來爬行網站。在某種意義上說,它的一個任務就是指導蜘蛛爬行,減少搜索引擎蜘蛛的工作量。

當搜索引擎蜘蛛訪問網站時,它會首先檢查該站點根目錄下是否存在robots.txt文件,如果該文件存在,搜索引擎蜘蛛就會按照該文件中的內容來確定爬行的范圍;如果該文件不存在,則所有的搜索引擎蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。

搜索引擎對網站派出的蜘蛛是有配額的,多大規模的網站放出多少蜘蛛。如果我們不配置robots文件,那么蜘蛛來到網站以后會無目的的爬行,造成的一個結果就是,需要它爬行的目錄,沒有爬行到,不需要爬行的,也就是我們不想被收錄的內容卻被爬行并放出快照。所以robots文件對于我們做網站優化來說具有很重要的影響。

網站沒有Robots.txt文件的弊端

如果網站中沒有robots.txt文件,則網站中的程序腳本、樣式表等一些和網站內容無關的文件或目錄即使被搜索引擎蜘蛛爬行,也不會增加網站的收錄率和權重,只會浪費服務器資源;搜索引擎派出的蜘蛛資源也是有限的,我們要做的應該是盡量讓蜘蛛爬行網站重點文件、目錄,******限度的節約蜘蛛資源。

 

a.User-agent: 應用下文規則的漫游器,比如Googlebot,Baiduspider等。

b.Disallow: 要攔截的網址,不允許機器人訪問。

c.Allow: 允許訪問的網址

d.“*” : 通配符匹配0或多個任意字符。

e.“$” : 匹配行結束符。

f.“#” : 注釋說明性的文字,不寫也可。

g.Googlebot: 谷歌搜索機器人(也叫搜索蜘蛛)

h.Baiduspider: 百度搜索機器人(也叫搜索蜘蛛)

i.目錄、網址的寫法:都以以正斜線 (/) 開頭。

Disallow:/

Disallow:/images/

Disallow:/admin/

Disallow:/css/

 

 

相關案例查看更多

主站蜘蛛池模板: 最新国产在线拍揄自揄视频 | 精品国产自产在线 | 欧洲中文字幕在线 | 国产91l在线播放 | 国产精品合集一三 | 国产精品免费视 | 国产精品精品 | 国产精品日韩在线 | 国产综合片 | 国产精品区在 | 午夜三级a三级三点 | 午夜福利免费体验区 | 九九热在线视频观看 | 飘雪视频免费观看 | 国产女人久 | 精品亚洲一 | 日韩免费码 | 国产老熟女精品一区 | 日韩中文字幕视频 | 97日韩在线 | 99好久 | 日韩精品专| 国产欧美精 | 成人午夜免费视频 | 国产日本| 69精品人人人 | 日韩激情视频网站 | 国产狂喷潮在线观看 | 成人精品九九视频 | 国产极品一区 | 精品精品欲天堂导航 | 成人日韩在线 | 日韩欧美午夜 | 日本按摩一区二区 | 日本不卡2| 国产初高中生在 | 青草影视 | 激情五月综合 | 成人午夜兔 | 91网站在线播放 | 99爱精品视频|