忙活了这么久,总算是把我们自己的博客小站给折腾个差不多了,可是除了我们自己,谁还知道我们的博客小站呢?这就把自己打扮的妖艳逼人,可是没有人知道啊!怎么办?去相亲网站挂出自己的个人资料,让更多的人知道。同样的,对于我们的博客,要想让更多的人点进来,需要通过百度、Google 搜索来让别人知道我们,这就需要进行 SEO 优化来让我们的博客站点对搜索引擎更加友好。SEO (Search Engine Optimization) 搜索引擎优化是指通过站内优化(如网站结构调整、网站内容建设、网站代码优化等)以及站外优化来提高网站在搜索引擎内的自然排名。
验证网站所有权
登录 百度站长平台 进入”用户中心” –> “站点管理” –> “添加网站”。
第一步:输入网站。注意这里添加的站点地址只能是自己购买的域名,不能是 github.io。
第二步:选择站点属性。
第三步:验证网站。有文件验证、HTML标签验证、CNAME验证三种方式,我这里选择的是文件验证这种方式。根据指示下载验证文件后,将下载的文件放在博客根目录下的 source 文件夹下,如果你下载的验证文件类型是 html 文件则还需要对该 html 文件做相应修改以保证该文件上传到网站后是一模一样的,即不被渲染和压缩。因此需要在 html 文件第一行加入下面的内容:
接着重新部署更新自己的博客后,确认验证文件是否可以正常访问,如果不能访问的话会出现 “404 Error”,这时候重新部署上传几次就可以了;如果可以访问的话会出现之前下载的验证文件里的信息(即一串字母数字的组合),点击“完成验证”按钮即可。
选择链接提交方式
当网站通过验证之后,我们就可以使用链接提交工具了,目前链接提交工具分为自动提交和手动提交两大块,手动提交顾名思义自己手动复制粘贴去提交。自动提交中又分为:sitemap、主动推送、自动推送三种方式。三者都是将站点自身的 URL 自动推送至百度,而后等待百度爬虫进行对页面的抓取。建议安装三个自动推送方式,并让三者协同工作,将抓取和收录价值最大化。
手动提交
点击“网站支持” –> “数据引入” –> “链接提交” –> “手动提交”,填写链接地址即可。
sitemap 提交
Sitemap(即站点地图)就是网站上各网页的列表。创建并提交 Sitemap 有助于百度发现网站上的所有网页。
首先,安装 Sitemap generator 插件:
接着,打开博客站点配置文件 ,增加 属性:
这样执行 时,会在 文件夹下生成站点文件 。
最后,在百度站长平台 –> “数据引入” –> “链接提交” –> “自动提交” –> “sitemap” –> “填写数据文件地址” ,填上即可。
主动推送
主动推送我们网站第一时间产生的新内容给百度,不过主动推送是有推送数量的限制,尽可能的不要推送重复的内容给百度。这样会大大浪费自己的可推送资源。
最后,打开博客站点配置文件 _config.yml,增加 baidu_url_submit 属性以及修改 url 属性和 deploy 属性:
自动推送
我们将一段js代码部署到我们的每一个网页中,当有用户进行访问时就会触发这段代码,这段代码就会自动将当前页面的 url 推送给了百度。实现起来非常简单,只需要将百度提供的代码安装在网站页面中,安装完成后即可实现链接自动推送功能。
首先,打开主题配置文件 ,增加 baidu_push 属性:
然后,在 文件夹下新建 文件,自动推送工具代码 可以在百度站长平台自动推送菜单下找到:
最后,打开 ,在文件最后 前添加一句代码即可:
效果查看
上面这些都设置成功后,一般不会立刻收录生效,稍等两天再来看看。
链接数量查看
打开百度站长平台,可以看到通过不同方式提交成功的去重后链接数量。
百度搜索结果查看
打开百度搜索博客,现在可以看到自己的博客啦 ヾ(≧▽≦*)o
与百度收录操作相似,但是谷歌的效率要高很多,操作完之后基本就收录完成了。
添加网站进行验证
打开 谷歌搜索控制台,选择 URL prefix,输入你的博客域名后进行验证,我这里使用的仍然是 HTML 验证方式,可以参考 谷歌验证方法详情 进行操作。与百度收录操作相似的,下载 html 文件到博客根目录下的 source 文件夹并在 html 文件前加上代码:
重新部署更新自己博客后,点击 VERIFY 按钮查看是否添加验证成功。
提交 Sitemap
首先,安装插件:
接着,打开博客站点配置文件,增加 属性:
执行 hexo generate 时,会在 public/ 文件夹下生成站点文件 sitemap.xml。执行 hexo deploy 时,将上述文件部署到云端。
加密文章 URL
默认的文章 URL 格式结构过于复杂,不便于搜索引擎抓取,需要进行优化。
首先,安装插件:
接着,打开博客站点配置文件 ,修改 属性并添加 属性:
注意修改之后文章的链接都会发生变化,所以旧文章的统计数据(浏览量)会重新计数。
添加 robots.txt
是一种存放于网站根目录下的 ASCII 编码的文本文件,它的作用是告诉搜索引擎此网站中哪些内容是可以被爬取的,哪些是禁止爬取的。
在 文件夹下新建 文件:
其中,Allow 表示允许被访问的,Disallow 则不允许。后面两个 Sitemap 是给爬虫用的。
deploy 后会生成在网站的根目录,即 /public/ 文件夹下。