1. 主页 > 企业网站运营 > 网站SEO优化

robots.txt的写法。

高价值的内容是做好企业营销推广的前提,如果你对企业内容营销感兴趣的话,不妨看看MarketUP近期整理的《2023内容营销获客实战白皮书》,希望能给大家有一些实质性的帮助,预计发布400份!送完下架,赶快领取!感兴趣的朋友可以点击链接即可下载阅读:《2023内容营销获客实战白皮书》

robots.txt的写法。(图1)

  robots.txt的写法是做seo的人员必须知道的(什么是robots.txt),但该如何写,禁止哪些、允许哪些,这就要我们自己设定了。 

  百度蜘蛛是一机器,它只认识数字、字母和汉字,而其中robots.txt就是最重要也是最开始和百度“对话”的内容。 

  当我们的网站在没有建好的时候,我们不希望百度来抓取我们的网站,往往有人会禁止百度来抓取。但是,这种做法是非常不好的,这样会让百度蜘蛛很难再来到你的网站了。所以,我们必须现在本地搭建网站,等一切都搞好以后,再去买域名、空间,要不,一个网站的反复修改,会对你的网站有一定的不利影响。 

  我们的网站起初的robots.txt写法如下: 

  User-agent: * 

  Disallow: /wp-admin/ 

  Disallow: /wp-includes/ 

  User-agent: * 的意思是,允许所以引擎抓取。 

  而Disallow: /wp-admin/和Disallow: /wp-includes/,则是禁止百度抓取我们的隐私,包括用户密码、数据库等。这样的写法既保护了我们的隐私,也让百度蜘蛛的抓取最大化。 

  如果,你想禁止百度蜘蛛抓取某一个页面,比如123.html,那就加一句代码“Disallow: /123.html/”即可。 

  robots.txt写好后,只需要上传到网站的根目录下即可。

以上就是今天分享的全部内容,希望能够对广大企业营销人员有一些营销方面的启发。作为国内知名的营销自动化平台,MarketUP通过完善的企业营销自动化系统,帮助企业实现有效和有意义的企业营销工作,更好地满足您每个目标受众端到端的需求,为您的渠道带来更多理想的潜在客户并留存孵化。如果您对我们的营销自动化产品或功能感兴趣,欢迎点击【这里】进行演示申请,我们将有专业的团队为您提供服务。

本文由MarketUP营销自动化博客发布,不代表MarketUP立场,转载联系作者并注明出处:https://www.marketup.cn/marketupblog/jianzhan/seo/17842.html

联系我们

手机号:19951984030

微信号:marketup01

工作日:8:30-18:00,节假日休息