Twitter的基本原理非常简单
发布时间:2009-09-10   浏览次数:703716
我们在设计SEO型网站时,会遇到各种与SEO相关的问题。简单的问题轻而易举可以解决,不可能将所有问题都完美解决的。真正要注意的是那些可能会导致网站被搜索引擎爬虫忽略的问题。因为有些技术表面上看是可行的,但实际上却实得其反。   1、黑帽SEO技术 是不择手段地提高网站的搜索引擎中的排名。有些公司在开始建设网站时试图用这些技术提高搜索引擎排名,尽管其网站的内容与用户所输入的关键字完全不相关。   2、 域隐藏 是为搜索引擎和一般用户提供不同的网站内容:用漂亮的网站满足用户的需求;而把经过高度优化的网页呈现给搜索引擎,这种网页对于用户是没有多大用处的。总之这种技术可以在给用户提供优质网站的同时提高网站的搜索引擎排名。不过目前大多搜索引擎都能查出网站是否使用了这种作弊手段。一旦被查出来,搜索引擎会从搜索索引中将此网站删除,该网站自然也不可能再被用户搜索出来。更甚者是一些过分的SEOER将内容隐藏用在临时网站上。因为这种网站不会长久存在,所以在网站被关闭前他们能通过域隐藏获得高访问量。   3、网页内容重复发 建站时,丰富高质的网站内容是站长最费心思的,大的行业性网站内容更难做到好而精。购买内容、网站抓取、采集等投机取巧的办法都会带来一系列与搜索引擎相关的问题。   若同一篇文章在数百个网站上出现过,用户在搜索引擎中搜索时,结果导致网页都是同一样的文章,千篇一律。为避免不正当手段,搜索引擎在其搜索算法中针对网站内容的新意设计了专门的衡量标准。如果爬虫发现网站的内容与其他数百个网站的内容重复,可能会降低网站的排名或是将网站从搜索引擎的索引库中删除。搜索引擎有可能会检查以下四种重复内容:广泛发布的文章、重复的网页、从其他网站抓取的内容、电子商务网站中的产品描述。这些都令搜索引擎反感。从而把你的网站权重降低。   4、 隐藏页面及页面上的元素 网站中只有搜索爬虫才能看到的网页是隐藏页面。包括隐藏关键字和链接。对于搜索引擎来说,隐藏页面是不可容忍的。网站中的隐藏页面被搜索爬虫发现是早晚的问题。一旦被发现,网站的排名定会大大下跌。
立即预约