有的网站不被禁止所有搜索引擎收录录的原因是什么?

当前位置:&&&
导致网站不被搜索引擎收录的几个因素
20:06&&来源:一休站长网&
  我们知道,只有你网站的内容被搜索引擎收录了,我们才能够去优化排名,竞争排名,如果你的网站被搜索引擎收录都很困难,网站排名也就自然而然的没有或者很少。那么是什么原因导致网站不被搜索引擎收录呢?一休站长网-告诉你网站不被搜索引擎收录其实就是因为一些很容易被忽略的小问题引起的,也可以说是可能你根本想不到的原因导致的,下面一休站长来帮你分析一下哪一点是你所符合的。
  一:robots.txt文件写法错误
  网站的robots.txt文件写法也是我们需要注意的一个点,如果我们确实不会写,那么我们就不要去轻易去动它,因为往往就是robots.txt文件书写错误而导致网站内容不被搜索引擎收录,所以我们如果不会写的话就不要去动它。书写robots.txt文件之前一定要先熟悉robots.txt文件的书写规则,写完后需要再去对照一篇,以防出现错误,这些都是很必要的。
  Robots.txt文件书写错误主要有那几个方面:
  1.网站的robots.txt文件已经损坏或者在书写的时候出现错误。
  2.Robots.txt文件书写不规范。
  3.写错了或者拒绝搜索引擎蜘蛛的抓取。
  4.Robots.txt文件书写时没有注意大小写,这点也很重要,许多网站往往就是忽略了这个问题。
  Robots.txt文件书写错误有什么害处?
  如果你的robots.txt文件书写错误了,搜索引擎机器人错误的理解了您的robots.txt文件,它们可能会完全无视你的网页,从而导致网站不被搜索引擎给收录。
  如何检查Robots.txt文件是否书写错误?
  对于这个问题,解决的办法是仔细检查您的robots.txt 文件,并确保您网页上的的参数是正确的,你可以使用谷歌网站管理员工具来创建一个robots.txt文件,它会时时提醒你网站robots.txt 文件出现错误。
  二:使用动态网址建站
  至今为止,搜索引擎(除了谷歌)还不能完全读取动态网页,因为动态网页的变数太多,一下是这个地址,等下打开又换另外个地址了,另外动态网址中还包含一些问号、等号及参数,所以搜索引擎抓取动态网址很困难,虽然说谷歌在前段时间宣称能完全抓取动态网址,但在我们中国还是以百度、搜狗、360等搜索引擎为主,我们不能因少失大。再说了,动态网址的网址是不固定的,一个内容页存在几个网址,必然导致内容权重分散,所以选择动态网址应当谨慎,如果你的URL变数太多,造成搜索引擎搜索困难,那么搜索引擎漫游器可能会忽视你的网页,从而导致网站内容不被搜索引擎收录。
  什么是动态网址:
  动态网址指的是包含问号、等号及参数的URL。通俗易懂的讲法就是我们网页的链接里面包含了问号、等号及一些其他搜索引擎看不懂的参数。
  通常动态URL对应的就是动态页面。问号、等号等字符后面所跟的参数就是所需要查询的数据库页面。
  使用动态网址建站了该要怎么办?
  如果我们建站使用的是动态网址,那么解决办法就是使用静态页面或者是伪静态,静态网址是搜索引擎能完全识别的,静态页面是固定唯一的,使用静态页面做站能提高搜索引擎收录。
  三:在你的网址中使用了会话ID
  许多搜索引擎不去收录那么包含会话ID的网页,因为它们可导致内容的重复,如果可能的话,避免会话ID出现在你的网址,而使用cookies存储会话ID。
  四:网页中存在太多JS代码
  前面我说过了,当今搜索引擎能完全识别的只有HTML语言,对于JavaScript代码、CSS代码以及其他的脚本代码还不能完全识别,如果一个网页中包含了JavaScript代码、CSS代码以及其他的脚本代码,那么搜索引擎抓取起来就会很困难,要是这些代码在网页中存在太多的话,可能就导致网站不被搜索引擎收录了,因为你给搜索引擎蜘蛛制造了太多的困难,搜索引擎蜘蛛自然而然的就放弃你了。
  使用了JS代码做站,要如何修改?
  如非必要的话,尽量还是使用HTML语言做站,这是搜索引擎能完全识别的语言,对网站内容被收录能提供帮助。像有的站长朋友为了把网站做的炫丽点,非要使用到JS代码,那么你就采取JS代码调用的方式吧。
  五:使用Ajax、FLash做网站导航
  对于大多数搜索引擎机器人而言,使用JavaScript或DHTML、Flash、Ajax等制作网站导航是解析不了的,其中使用Flash、Ajax制作的网站导航效果最差,搜索引擎机器人完全不能解析,站长朋友们不要因小失大,不能因为光图美观而忽视搜索引擎机器人是否能解析的了,这些做法是不可取的,朋友们应尽量避免使用这些对搜索引擎不友好的方式,一旦网站定型,被搜索引擎判为网站友好度低,再想恢复过来就很麻烦了。
  搜索引擎机器人是很简单的程序,它们遵循HTML链接,一旦链接出现错误对收录也会带来困难,这些问题最好是在建站的时候就考虑到,以免再次进行二次开发,并且还影响网站的正常收录。
  导致网站不被搜索引擎收录的几个因素到这就写完了,这五点大家都可以去参考下,看看自己的网站里面是否有违反这五条规则了,&有则改之,无则加勉。&
  原文来自(一休站长网 ),转载请注明出处,谢谢!
关注创业、电商、站长,扫描A5站长网微信二维码,定期抽大奖。
责任编辑:A5chenlong
作者:一休
延伸阅读:关键词:
分类排行榜
作者:木木博客
作者:朱海涛
作者:王吉伟
作者:李东楼
作者:卢松松
A5交易提供网站、域名、广告、网店、APP、微信公众号交易。安全...
A5营销提供企业网站营销诊断、顾问、电商推广、全网营销。
SEO诊断提供专业SEO建议,打造百度和用户都喜欢的网站。
企业会员依托A5的用户和流量优势,高性价比一站式内容营销。
为淘客提供交流、软件、高佣金产品服务,为卖家提供淘宝客招募。
增值电信业务经营许可证:苏B2-
编辑热线:5
A5站长网 版权所有.
扫一扫关注最新创业资讯您的位置:
网站迟迟不被收录的4个小秘密
发贴人:221.234.209.*发贴时间:【】[]
&& ()&& ()
  今天和大家分享一篇比较基础的知识点,网站迟迟不被搜索引擎收录的4个小秘密。&& ()&& ()&& () 对于新手来说一定要好好学习这些基础的知识点哦!
  一、robots.txt文件
  相信很多SEOer在网站新上线或者改版之后,都见过首页收录有这么一句“由于该网站的robots.txt文件存在限制指令,系统无法提供该页面的内容描述”的提示,这是不是搜索引擎的问题?当然不是,这是由于网站robots文件屏蔽操作导致的你网站内容做的在怎么好,外链在怎么高质量,我只能告诉你,你不去修改robots.txt文件,这辈子估计你网站都不会被收录!(不知道robots.txt文件怎么写的童鞋,可以去看我这篇文章:robots文件常见问题总结)
  二、网站框架
  首先一个网页它要被搜索引擎收录,前提是你必须先有做出这样一个页面出来,其次这个页面要先被搜索引擎的过完后经过一套过滤删选,如果你的这个页面符合它的胃口,这个页面就会被搜索引擎收录问题来了,我们很多的新手SEOer在建站方面都不是很熟练,很多SEOer甚至连建站都不会的,你们怎么才能做出一个优秀的网站出来呢?针对这些问题,也就出现了现在很多的框架有问题的个人小站点或企业站点,出现网站上线后一个多月一条收录都没有现象这是为什么呢,我刚刚说到了,页面要被收录,必须先被,如果你的页面都是采用的js和图片形式的站点,它是没办法识别的,怎么可能收录你的网站呢?
  三、页面内容
  现在做SEO的都知道,百度搜索引擎很重视页面的质量问题,连续的更新的了针对性的一些列算法百度这么做的目的是什么呢?其实目的很明了吗,为了给用户提供更优质的内容,增加用户体验嘛!你们说是不是呢?这和收不收录有什么关系呢?告诉你关系还不小,首先搜索引擎的来到你的网站内容的时候,发现你网站的所有内容都是垃圾信息,很多都是重复或无用死链信息,导致百度对你站点的印象非常的差,它凭什么要收录你的网站呢?好好思考思考答案不就有了
  四、CDN问题
  网站cdn一般很少有个人小站点使用,cdn的意思这里简单和大家描述下,cdn就是一个用来给你网站做缓存镜像的服务器,它在全国有很多的节点,用来提高你网站的访问速度的具体的介绍大家自己百度问度娘就行了cdn和我们的网站收不收录有什么关系呢?可能很多新手还不知道,那今天锐艺就给你们讲讲其实知道cdn工作原理的都了解,当用户访问了你的域名过后,首先会解析到你的cdn服务器调用缓存文件,然后才是回源到你的服务器上如果cdn上设置有问题,当来到cdn要数据时,cdn此时给解析了一个不对的ip,试问怎么可能到你网站的真实内容呢,那何谈收录呢?
向好友推荐本贴:&&&& 标题:《网站迟迟不被收录的4个小秘密》&&&& 地址: .cn/Article/201508/showp1.html
发表您的评论
点评字数 0
?尊重网上道德,遵守中华人民共和国各项有关法律法规
?承担一切因您的行为直接间接导致的民事刑事法律责任
?本站管理人员有权保留或删除其管辖留言中的任意内容
?本站有权在网站内转载或引用您的评论
?参与本评论即表明您已经阅读并接受上述条款
?共同建立健康的网络社区,请向管理员举报不良帖子
?举报邮箱:网站不被搜索引擎收录的原因分析
原因一:网站是新站&
& 一般新上传的网站不会马上被收录,即使被搜索引擎收录了也不会马上的放出来,这里建议大家可以在新站上传之后做一些高质量的外部链接吸引蜘蛛,然后网站的内容充实最好能放一些原创的文章,最后上传网站时间放在搜索引擎大跟新之前的一两天并提交到搜索引擎(这个不能频繁)。这样就可以很快的让搜索引擎收录。
原因二:优化过度的网站
网站的优化无可厚非,但是过度的优化反而得不到搜索引擎的喜欢。以前堆砌关键词、关键词加粗、关键词高密度等方法都可以排名靠前,但是现在就不可以了,搜索引擎已经明确的表示非常讨厌着一些行为。所以我们的网站如果还存在过度优化的地方就赶紧修改吧,不是不收录就是网站被K,得不偿失。
原因三:网站存在不和谐的内容
这个是没有办法的事情,不和谐的内容肯定会让你的网站被和谐掉的,所以我们网站的内容要遵守国家法律和各种法律法规。还有一个就是对搜索引擎心存敬畏,不要在网站里面有搜索引擎反面攻击性语言等内容,这个相对的严重,一般K站没有商量。
原因四:广告联盟是把双刃剑
现在很多的网站都挂有广告联盟的内容,这个也不是搜索引擎所喜欢的,一个是自家喜欢自家的产品、二是大量内容的重复、三是影响了用户阅读。我之前就有一个网站因为挂一个搜索引擎的广告而被另外的一个搜索引擎K站了,这个问题不是必然会出现的,但是值得我们注意一下!
原因五:大量的利用bd产品来做优化、推广
& & 这个问题我相信已经有很多的站长已经发现了,过度的利用bd的产品发布大量链接,其结果不仅起不到良好的作用,最后反而有K站的危险。不光bd,任何的搜索引擎都一样,在它的地盘你还敢这样做,明显的挑衅它。所以我们要合理的利用搜索引擎的产品,不要让他们看出来你作弊了!
原因六:没有及时清理友情链接中被K的网站
& & 好多的中小企业站因为没有专业的技术人员或者对友情链接不重视,导致没有检查友情链接的习惯,如果友情链接的网站被搜索引擎K站的话,那么你的网站也会受到影响,严重的K站!或者网站的外部链接中有大量的私服站等搜索引擎不喜欢的也会造成网站权重的降低。
原因七:被搜索引擎认为是la/ji站
当网站的内容都是采集的或者文字内容基本没有什么可读性和价值的时候,不仅用户不喜欢,搜索引擎也不希望这样的网站,不收录、收录减少或者K站是必然的!所以我们的文章内容也要整理好!
原因八:搜索引擎的调整
搜索引擎算法正在调整中,暂时停止或者减少了网站收录,而你的网站刚好在调整的范围之内,这个时候我们就应该及时的和站长圈的朋友交流,看看是不是大家都出现了类似问题,然后及时的调整!
原因九:网站大面积的改版
这个一般比较的常见,大面积的改版导致搜索引擎认为是一个新站从而重新的审核导致网站的权重降低,这个时候就使网站的收录减少。
原因十:网站的结构不合理
网站中出现大量的死链,框架调用,网页出现乱码,或者大量采用图片、flash等组成造成不能正常抓取收录的内容,这些问题都导致搜索引擎蜘蛛不能正常访问。
原因十一:网站被挂马
这个问题归根到底还是网站的安全问题引起的,被挂马的网站必然影响到了用户的阅读和安全性,这样被K站导致收录减少是必然的!
原因十二:受到服务器别的网站的牵连
网站服务器同IP上有被K点,造成服务器IP被搜索引擎封杀,网站同样受到牵连,被封杀服务器IP都被搜索引擎停止收录抓取。
原因十三:robots的写法出错
网站的robots文件失误写错了,阻止了搜索引擎对网站的抓取最终导致网站的不被收录。
以上的一些内容是我自己对搜索引擎不收录、收录减少原因的一些经验的总结,希望对SEO初学者有一定的帮助。行文仓促难免遗漏,敬请高手不吝赐教,欢迎大家一起交流,如果您觉得纯属扯淡,那么就一笑而过吧,不要拍砖,手下留情啊!最后还是希望能够得到和各位高手交流的机会!&
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

更多关于 禁止搜索引擎收录 的文章

 

随机推荐