网页针对搜索引擎的加注技巧

2010-08-28 10:48:27来源:西部e网作者:

    郑重声明:本文阐述与交流一些正确的搜索引擎加注方法与技巧,旨在希望更多内容丰富的网站能够更好地加载到各大搜索引擎上去,被大家发现、欣赏。决不介绍并坚决反对一些投机取巧的搜索引擎加注“技巧”诸如:暗藏鬼页等。


  1. 如何确定关键词
  2. 使用META值
  3. 指引
  Web robot(网际机器人)为你服务
  4. 提高排名的几点技巧
  5. 全球著名搜索引擎介绍

  1. 如何确定关键词                         

  “关键词(Keywords)”是搜索引擎将站点进行分类的依据,同时也就是我们在查找信息时输入的那些词, 所以关键词在注册搜索引擎 时至关重要。那么有什么办法能帮助我们选择正确的关键词呢?

  方法一: 选几个主要的搜索引擎(例如:AltaVista,Lycos,Excite等);
  1)输入你认为的自己站点的关键词,然后Search。一般情况下,你会得到一个很长的列表;
  2)打开前十位的站点,然后查看每一个的META标签(打开源文件,META标签在 <head>...</head> 中);
  3)检查他们的Keywords,从其中借鉴你没有想到的一些词;
  4)最后归纳出自己的关键词。
  可以多选几个词重复进行这个过程。

  方法二:选择人们最常用的一些搜索词(亦即站点的关键词),然后进行选择。网上有很多这样的资源:
  到 http://www.searchterms.com/ 看一看,那里有每个月网上最流行搜索词的排行榜;
  想知道YAHOO最流行的200个KEYWORDS? 去 http://eyescream.com/yahootop200.htm
  …… 这些资源值得去看,但也有很大局限性,例如:YAHOO前20名KEYWORDS中,有60%是关于“SEX”的,看来人们最感兴趣的还是  那神秘的“性”。如果你的网站是关于电脑方面的,似乎蜂马牛不相及。怎么办?需要更广泛的统计数据,GOTO搜索引擎 中提供了一个这样的服务“搜索词使用频率统计”:
  * 进入GOTO站点
  * 点击左下角 "Get Listed on GoTo" 按钮
  * 点击上方 "Client Tool Kit" 链接
  * 选择"Tools" 中的 "Search Term Suggestion List"
  * 在跳出 的新窗口中输入要查询的关键词
  * 点击"Find It" 查询

    2. 使用META值                            

  Meta 标签放在每个网页的 <head>...</head> 中,常见格式如:

  <meta name="GENERATOR" content="Microsoft FrontPage 3.0">说明编辑工具;
  <meta name="KEYWORDS" content="...">说明关键词;
  <meta name="DESCRIPTION" content="...">说明主页描述;

  <meta http-equiv="Content-Type" content="text/html; charset=gb_2312-80">和
  <meta http-equiv="Content-Language" content="zh-CN">说明所用语言及文字

  可见META 有 两 种,name 和 http-equiv。

  name主要用于描述网页, 对应于content, 以便于搜索引擎机器人查找、 分类(目前几乎所有的搜索引擎都使用网上机器人自动查找META值来给你的网页分类)。这其中最重要的是 DESCRIPTION(你的站点在引擎上的描述)和KEYWORDS(搜索引擎籍以分类的关 键词),应该给你的“每一页”都插入这两个META值。当然你也可以不要搜索引擎检索, 可用:
  <meta name="ROBOTS" content="all | none | index | noindex | follow | nofollow">来确定:
  设定为"all"时文件将被检索,且页上链接可被查询;
  设定为"none"则表示文件不被检索,而且不查询页上的链接;
  设定为"index"时文件将被检索;
  设定为"follow"则可查询页上的链接;
  设定为"noindex"时文件不检索,但可被查询链接;
  设定为"nofollow"则表示文件不被检索,但可查询页上的链接.

  http-equiv 顾名思义相当于http文件头的作用,可以直接影响网页的传输。比较直接的例子,如:

  a、自动刷新,并指向新网页
  <meta http-equiv="Refresh" content="10; url=http://newlink">10秒后刷新到http://newlink
  b、网页间转换时加入效果
  <meta http-equiv="Page-Enter" content="revealTrans(duration=10, transition=50)">
  <meta http-equiv="Page-Exit" content="revealTrans(duration=20, transition=6)">
  加在一个网页中,进出时有一些特殊效果,这个功能即FrontPage 98的Format/Page Transition.不过注意所加网页不能是一个   Frame页;
  c、强制网页不被存入Cache中
  <meta http-equiv="pragma" content="no-cache">
  <meta http-equiv="expires" content="wed, 26 Feb 1997 08:21:57 GMT">
  大家可以到http://www.internet.com/上看看,它的首页当你断线后,就无法在cache中再调出。(本身是关于建站很棒的站点)
  d、定义指向窗口
  <meta http-equiv="window-target" content="_top">
  可以防止网页被别人作为一个Frame调用.

  以下举几例很有用的META值设置:
   <meta name="robots" content="ALL"> 可以告诉搜索ROBOTS查找站点中所有内容;
   <meta name="revisit-after" content="7 days">,则ROBOTS会在7天后再次前来搜索,这对于定期更新的站点非常有用;
   <meta http-equiv="pragma" content="no-cache">,网页内容就不能被放在 CACHE 中离线浏览,每次访问都会强制刷新;
   ……

    3. 指引Web robot(网际机器人)为你服务      

  有时你会莫名其妙地发现你的主页的内容在一个搜索引擎中被索引,即使你从未与他 们有过任何联系。其实这正是Web Robot的功劳。Web Robot其实是一些程序,它可以 穿越大量Internet网址的超文本结构,递归地检索网络站点所有的内容。这些程序有时被叫 “蜘蛛(Spider)” , “网上流浪汉(Web Wanderer)”,“网络蠕虫(web worms)”或Web crawler。一些Internet网上知名的搜索引擎站点(Search Engines)都 有专门的Web Robot程序来完成信息的采集,例如Lycos,Webcrawler,Altavista等,以及中文搜索引擎站点例如北极星,网易,GOYOYO等。
  Web Robot就象一个不速之客,不管你是否在意,它都会忠于自己主人的职责,任劳 任怨、不知疲倦地奔波于万维网的空间,当然也会光临你的主页,检索主页内容并生成它所需要的记录格式。或许有的主页内容你乐于世人皆知,但有的内容你却不愿被洞察、索引。你可以用以下方法布置下路标,告诉Web Robot应该怎么去检索你的主页,哪些可以检索,哪些不可以访问。
  a. Robots Exclusion Protocol 协议

  网络站点的管理员可以在站点上建立一个专门格式的文件,来指出站点上的哪一部分 可以被robot访问, 这个文件放在站点的根目录下,即http://.../robots.txt. 当Robot访问一个 Web 站点时,比如http://www.sti.net.cn/,它先去检查文件http://www.sti.net.cn/robots.txt。如果这个文件存在,它便会按照这样的记录格式去分析:

  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /~joe/


  以确定它是否应该检索站点的文件。 在一个站点上只能有一个 "/robots.txt" 文件,而且文件名的每个字母要求全部是小写。在Robot的记录格式中每一个单独的"Disallow"行表示你不希望Robot访问的URL, 每个URL必须单独占一行,不能出现 Disallow: /cgi-bin/ /tmp/"这样的病句。同时在一个记录中不能出现空行,这是因为空行是多个记录分割的标志。
  User-agent行指出的是Robot或其他代理的名称。在User-agent行,'*' 表示一个特殊的含义---所有的robot。

  下面是几个robot.txt的例子:

  在整个服务器上拒绝所有的robots:
  User-agent: *
  Disallow: /

  允许所有的robots访问整个站点:
  User-agent: *
  Disallow:
  或者产生一个空的 "/robots.txt" 文件。

  服务器的部分内容允许所有的robot访问
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /private/

  拒绝某一个专门的robot:
  User-agent: BadBot
  Disallow: /


  只允许某一个robot光顾:
  User-agent: WebCrawler
  Disallow:
  User-agent: *
  Disallow: /


  b、Robots META tag

  一个网页作者可以使用专门的HTML META tag ,来指出某一个网页是否可以被索引、分析或链接。 这些方法适合于大多数的Web Robot,至于是否在软件中实施了这些方法,还依赖于 Robot的开发者,并非可以保证对任何Robot都灵验。如果你迫切需要保护自己内容,则应考虑采用诸如增加密码等其他保护方法。
  Robots META tag指令使用逗号隔开,可以使用的指令包括 [NO]INDEX 和[NO]FOLLOW。INDEX 指令指出一个索引性robot是否可以对本页进行索引;FOLLOW 指令指出robot是否可以跟踪本页的链接。缺省的情况是INDEX和FOLLOW。例如:
  <meta name="robots" content="index,follow">
  <meta name="robots" content="noindex,follow">
  <meta name="robots" content="index,nofollow">
  <meta name="robots" content="noindex,nofollow">

    c. 提高排名的几点技巧                   

  用关键字的复数形式, (如,用"books"来代替"book",那么,当有人查询book或者books时, 你的站点都会呈现在他面前)

  关键字的大写和小写多种拼写方式都用上。 (如:books,Books,BOOKS)同一个单词的三种以上的拼写方式并不会起到多大作用,尽管通常的错误拼写倒能奏效。

  用你选定的关键字的组合方式。人们经常使用包含2或2个以上关键字的短语来搜索。 (如:"storage facilities","STORAGE FACILITIES" 为了真正找准你的目标市场,加上"self, "SELF"和"你的城市/州" 等单词。那些不需要你的产品和服务的访问者即便再多,也没什么价值。


 必须使用META值。 许多搜索引擎都是根据这些META值为你的站点做索引的。META值位于你页面HTML中的<head>和</head>之间,并不会在你的页面中显示出来。为了更精确的使用这些META值。可以找一个排名最高的站点的源文件来做些参考分析。


  使用你10到20个最好的关键字的组合。 关键字丰富的META内容通常都是你站点排名的决定性因素。
提示:如果可能,尽量在每一段的开头或者搜索短语较靠前 的位置使用你最具代表性的关键字。


  用关键字来填满你图象链接中的ALT值。


  你站点中的每一页都应该单独登录到搜索引擎,而不仅仅是登录了首页就结束了。
提示:许多搜索引擎都会定期对你的站点重新检索,如果站点上没有变化你的排名可就会下降了,所以,保持你的站点常新。


  为你的每一个主要的关键字创造或定制一个独立的页面, 并为每个主要的搜索引擎单独设计。 这会花上些时间,但是,一旦你做好了,将会令人不可置信的 提高你的排名。
提示:确保每个页面都能直接链接到首页以及其它一些相关页面。
警告!过去很多人投机取巧,滥用关键字来取得更高的排名。就是将自己的关键字一再重复使用,并改变文字颜色使之适应页面背景色。现在如果一旦发现你这么做了,大多数搜索引擎都会采取惩罚措施。

赞助商链接: