SEO技术(搜索引擎优化),是每个站长都必须了解的。这句话,我是相当同意的。
如果你不想让你的站点给很多的人知道,那么你至少也要学会写一个robots.txt禁卡搜索引擎搜索你的站点。现实的情况是很多人希望搜索引擎能找到,并收录自己的站点。那么就更要了解SEO了。
我不是一个SEOer,但现在是一个站长了。而且我想我的网站让很多的人知道 ,有很多的留量,所以我要关注我网站的SEO技术,努力地让自己成为一位SEOer。
好了,接下来,分享一些我的SEO小技巧(庆幸SEO并不是一门特别讲咎技术的技术,它在意只是小细节)。
1. 写一份robots.txt放在你站点的根目录下,告诉spiders(搜索爬虫)要去看哪些,不要去哪些。用我的理解,信息量少了,它的准确度会高一些。关于一份robots.txt,怎么写,其实很简单的。
User-agent: * (代表所有搜索引擎都能访问此站点)
如果写成
User-agent: Baiduspider (代表禁止百度访问网站的任何部分,如此类推)
接下来要写的就是 Disallow: (禁卡访问网站的特定目录,因为有一些目录的确不需要给访问的)
例如 Disallow:/wp-admin/
好,接下来就是看看我的robots.txt 了
User-agent: *
Disallow: /dabr/
Disallow: /wp-admin/
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-includes
Disallow: /?s=
Sitemap: http://www.duyuxian.com/sitemap.xml
如果你想测试一下你的robots.txt是否起效了,你可以登陆这个网站进行测试。
2. 安装一个生成sitemap的插件。当然你也可以手动生成,或者用第三方提供的工具。这里有个比较好的在线生成的网站。生成的sitemap放在站点的根目录下,然后让搜索爬虫慢慢爬去。
3.给博客设好关键字,有些主题有主题选项让你填的,这样就不用去改PHP文件了。
4.给每一篇文章一个固定链接,最好固定链接里含有关键字,最差的固定链接就http://www.yourdomin.com/p=X(x等于某数字)
5.给文章的关键字加粗,这个有没用我不清楚,不过这是个简单而且也能让读者一眼知道你要讲什么的事,何乐而不为?
6.用了Google的网站管理工具。使用google的网站管理工具,你可以知道哪里有出错,哪里搜索引擎找不到,也能知道哪些关键字,你的Website会排在第几位。另外,还能手动提交sitemap。
讲了那么多,其实都不是什么有技术或是特别困难的事 ,都只是一些小细节的优化,对于一个新手来说,也是完全有能力完成的!而且说了那么多,说不定有出错的,欢迎纠正,也欢迎分享。我将继续了解更多知识,在接下来的日子里继续好好分享!
喔呵呵呵,我看到dabr了
@Ray Chow
呵呵,说明你是知道内幕的人
特意不删的,能懂的人就看,哇哈哈
凑个热闹!
学习啦,特别是第一条试下
不错。。。
…这些类型的你的文章..标题感兴趣的我都读了一遍..每个字..我都能看懂..但是当他们连到一起..神奇的效果产生了~我怎么都看不懂…囧…
学习简单的seo知识,没有坏处的。没看到了dabr了~~~