湖南習羽网络科技有限公司
扫描关注网站建设微信公众账号

扫一扫微信二维码

网站的robots.txt文本有什么用处呢?

習羽科技时间:2019-12-24 来源:网络
        robots协议是什么?
        robots是网站和搜索引擎之间的协议。它用于防止抓取不想被搜索引擎索引的页面或内容,sitemap的路径可以放置在robots协议中,有助于抓取网站地图。能够有效提高网站的健康和纯度,减少网站上垃圾内容的收录。
        如何写robots协议?
        robots常用命令一般是:
        User-agant:*(此处*代表各种搜索引擎,这句话意味着所有搜索引擎都可以访问和抓取本网站。)
        Disallow:(这意味着禁止,一些不希望搜索引擎访问的页面可以写下路径。)
        Allow:(这意味着允许,想要搜索引擎访问的页面可以写下路径。)
        robos协议的作用:
        通过以上内容,我们还有了解robos。搜索引擎搜索网站时,搜索引擎会优先访问网站的机器人协议,并从中获取信息来抓取网站。如果没有robos协议,它会对网站产生什么影响?
        1、如果没有robos,搜索引擎蜘蛛在访问网站时仍然会先访问robots.txt。如果没有机器人,它将返回到404页,影响不大,但肯定不好。
        2、如果没有robos,搜索引擎蜘蛛默认会捕获所有内容。这种影响不是很大,但仍然取决于网站的内容。如果有许多低质量的内容,建议使用robos限制它。
        根据以上所述,最好添加机器人协议。一般将把机器人放在FTP的根目录下,这有助于蜘蛛抓取。

版权声明:版权归原作者所有,如有侵权请联系我们予以删除!转载只为传递更多网络信息。