当前位置: 首页 » 网站建设 » 网站建设知识 » 正文

WordPress SEO 之 Robots.txt优化篇

发布时间:2025-01-19 以下文章来源于网友投稿,内容仅供参考!

由于链接的的指向,而导致网站内容重复,一直是网站SEO的大忌。不同的链接指向同一个网页,就会被搜索引擎判定为作弊。昨天提到的WordPress重定向插件,在一定意义上也是为了阻止重复内容。然而,由于WordPress的结构原因,往往就会发生网页内容重复的状况。例如:domain/archive/1 和 domain/archive/1/feed两个网址下的内容就是一样的,所以,我们就必须想办法阻止这样的情况发生。
通常,解决重复内容的方法有:使用noindex标签,利用excerpt实现内容摘要,以及配置robots.txt。今天就主要说说在WordPress下使用robots.txt文件。
robots.txt文件就像一个网站的大门,它会告诉搜索引擎的蜘蛛,可以抓取哪里的网页内容,哪里的不能抓取。因此,配置好robots.txt文件,完全可以理想的组织blog内容重复的问题。robots.txt的具体文法和使用方法,可以参考robotstxt。在国内,此类的WordPress robots.txt比较流行:
User-agent: *
Disallow: /wp-
Disallow: /feed/
Disallow: /comments/feed
Disallow: /trackback/
Disallow: /?s=
刚才看到 filination上面提到的一个robots文件,并且提供了简短的解释。刚刚接触robots.txt文件的朋友,可以参考一下:
User-agent: Googlebot
# Disallow all directories and files within
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
# Disallow all files ending with these extensions
Disallow: trackback/
Disallow: */feed/
Disallow: /category/*
Robots.txt因人而异,不同的人对robots有不同的理解,在加上SEO一直是一个热门话题,所以WordPress的robots文件不会是唯一的,也不会有一个最好的。大家要是有觉得更好的,不妨分享一下。

  • • 优化公司真实的谎言

    搜索引擎营销行业在一定程度上弥漫着一些谎言或者误导。这些误导大多是由一些所谓的搜索引擎优化专家制造出来的。这些专家一知半

  • • 网站内容优化:关键词分析工具

    内容优化仍是目前SEO活动最关注的,因为你会不断地为网站或是博客增加内容,因此总有新的机会可以改善搜索引擎的可视度。但要在

  • • 对于自身SEO技术的评价

    有时回想这几年都学习了什么呢?大致的想象一下,除了SEO好像再也找不出来什么了,几乎都是跟搜索引擎优化相关的。在么就是一些

  • • 愚人节的第二天 百度开了个玩笑

    百度昨天更新,就把相关搜索给删除掉了。当时我没在意,因为百度在别的地方还提供这个功能。d.baidu.com/rs.php 通过这个地址,

  • • SEO资料的迷思

    樂思蜀认为,目前是SEO初学者最困难的阶段。可能老SEOer不以为然,觉得早些时候自己学习SEO时,边啃English边寻找新大陆般的找资

  • 360文库
    腾讯广告推广平台入口
    360移动开放平台
    360广告投放平台
    360广告联盟平台官网
    京东联盟官网登录入口
    微盟官网
    阿里妈妈官网
    淘宝联盟官网
    百度广告联盟平台官网入口
    山西农业大学教务处:jwc.sxau.edu.cn
    太原理工大学教务处:jwc.tyut.edu.cn
    山西师范大学教务处:jwc.sxnu.edu.cn/jwcweb/xscx.asp
    曲阜师范大学教务处:jwc.qfnu.edu.cn
    山西大学网络服务:xgbzz.sxu.edu.cn
    青岛科技大学就业信息网:job.qust.edu.cn
    山西大学教务处:jwc.sxu.edu.cn
    青岛科技大学学生资助管理中心:xszz.qust.edu.cn/index.asp
    太原科技大学学生处:210.31.104.100/xsc/Default.aspx
    青岛科技大学学生部:student.qust.edu.cn