我的SEO

SEO技术(搜索引擎优化),是每个站长都必须了解的。这句话,我是相当同意的。

如果你不想让你的站点给很多的人知道,那么你至少也要学会写一个robots.txt禁卡搜索引擎搜索你的站点。现实的情况是很多人希望搜索引擎能找到,并收录自己的站点。那么就更要了解SEO了。

我不是一个SEOer,但现在是一个站长了。而且我想我的网站让很多的人知道 ,有很多的留量,所以我要关注我网站的SEO技术,努力地让自己成为一位SEOer。

好了,接下来,分享一些我的SEO小技巧(庆幸SEO并不是一门特别讲咎技术的技术,它在意只是小细节)。

1. 写一份robots.txt放在你站点的根目录下,告诉spiders(搜索爬虫)要去看哪些,不要去哪些。用我的理解,信息量少了,它的准确度会高一些。关于一份robots.txt,怎么写,其实很简单的。

User-agent: * (代表所有搜索引擎都能访问此站点)

如果写成

User-agent: Baiduspider (代表禁止百度访问网站的任何部分,如此类推)

接下来要写的就是 Disallow: (禁卡访问网站的特定目录,因为有一些目录的确不需要给访问的)

例如 Disallow:/wp-admin/

好,接下来就是看看我的robots.txt 了

User-agent: *

Disallow: /dabr/

Disallow: /wp-admin/

Disallow: /wp-content/plugins

Disallow: /wp-content/themes

Disallow: /wp-includes

Disallow: /?s=

Sitemap: http://www.duyuxian.com/sitemap.xml

如果你想测试一下你的robots.txt是否起效了,你可以登陆这个网站进行测试。

2. 安装一个生成sitemap的插件。当然你也可以手动生成,或者用第三方提供的工具。这里有个比较好的在线生成的网站。生成的sitemap放在站点的根目录下,然后让搜索爬虫慢慢爬去。

3.给博客设好关键字,有些主题有主题选项让你填的,这样就不用去改PHP文件了。

4.给每一篇文章一个固定链接,最好固定链接里含有关键字,最差的固定链接就http://www.yourdomin.com/p=X(x等于某数字)

5.给文章的关键字加粗,这个有没用我不清楚,不过这是个简单而且也能让读者一眼知道你要讲什么的事,何乐而不为?

6.用了Google的网站管理工具。使用google的网站管理工具,你可以知道哪里有出错,哪里搜索引擎找不到,也能知道哪些关键字,你的Website会排在第几位。另外,还能手动提交sitemap。

null

讲了那么多,其实都不是什么有技术或是特别困难的事 ,都只是一些小细节的优化,对于一个新手来说,也是完全有能力完成的!而且说了那么多,说不定有出错的,欢迎纠正,也欢迎分享。我将继续了解更多知识,在接下来的日子里继续好好分享!

加入对话

7条评论

  1. …这些类型的你的文章..标题感兴趣的我都读了一遍..每个字..我都能看懂..但是当他们连到一起..神奇的效果产生了~我怎么都看不懂…囧…

留下评论

回复 杜小白 取消回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据