网站只收录一个首页是怎么回事?对于网站来说,正常的应该是首页和内页都被收录,但是有些网站优化了很长一段时间,也只是首页被收录,这是怎么回事呢?为什么内页都不收录?下面就跟着小编一起来看看吧!
1、沙盒期—建立信任
网站刚上线,特别是新域名新站,百度也有“建立信任期”的机制,这一点体现在新站的收录情况,百度会对新站进行考核,而百度先收录主页,是因为主页权重高,而内页不收录是在百度的考核期内,这一点可以从网站日志上看,每天蜘蛛是否都有爬取,返回的是200代码还是400或404代码等。
2、网站架构
对于新站而言,百度爬虫的抓取频率是非常有限的,如果你的网站架构设计的不合理,在某种程度上,是会影响站内相关页面收录的。
它主要包括:
① 首页到内容页与栏目页的距离,比如:Flash网站,首页一张图的网站。
② 首页到核心内容页的点击深度,尽量控制在1次点击,而不要超过3次。
③ 是否合理利用nofollow屏蔽一些不需要索引的页面,比如:about.html等。
④ URL地址是否标准化,是否产生过多的动态参数,产生蜘蛛陷阱。
3、新站原创保护
对于一个全新的站点上线,而非是老域名,理论上,域名是没有任何信誉度的,实际上,这个时候我们需要尽量保持站内优质内容,第一时间被优先索引,而非被采集,为此:
① 禁止将未被收录的页面,向高权重网站投稿,而是第一时间,做百度网址提交。
② 如果你的网站有备案,并且备案号是独立全新的,你可以向百度资源平台提交新站保护。
③ 如果可以这里明确给大家一个建议就是做版权登记。
4、网站日志分析
对于网站日志分析,是解决百度不收录网站其他页面一个非常有效的工具,它可以清晰了解整站被用户与蜘蛛的访问情况:
① 审查部分页面是否由于错误配置以及百度系统缓存,导致蜘蛛被封禁,而无法访问。
② 比对不同搜索引擎到访与抓取的频率,审查是否是自身网站系统配置问题。
③ 选择一定周期,记录蜘蛛到访相对频繁的时间节点。
④ 是否有异常蜘蛛,比如:SEO推广软件的数据分析爬虫,它是否占用大量带宽,为此,你同时,需要定期做服务器性能监控,保障蜘蛛来访时间段,页面可以顺利访问。
5、robots.txt协议
Robots.txt协议是告诉搜索引擎哪些页面可以抓取,哪些页面不可以抓取,但是如果不小心设置错了参数,导致内页被屏蔽了,便会造成内页不被收录的情况。
新手建站,特别是对网站结构没把握的站长,会有很多顾虑,经常是先禁止蜘蛛爬取,等网站结构设置好后才允许蜘蛛爬取,而解禁Robots.txt协议的时间大概要一周左右,而在这个时间段蜘蛛即使爬取了,也不会收录。所以站长要检查一下是否是把内页禁止了。
6、服务器问题
服务器稳定性问题,蜘蛛爬取网站时,正巧赶上服务器不稳定,那么蜘蛛就会留下不好的印象,这样也是会影响到收录的。
7、网站资源分配
从多年的百度SEO的经验来看,任何一个站点的收录于排名,都是建立在一定的资源基础上,它包括:
① 网站内容质量
如果你的站点全书伪原创代写,亦或是采集内容,那么,百度收录网站首页,是非常正常的,对于新站而言,一定不要选择提交旧内容。
② 站外外部链接
产生页面不被百度收录的情况,还有一个原因就是缺少外链资源的支持,蜘蛛没办法在第一时间抓取到新发内容,为此,你可能需要撰写一些高质量内容,发布的在高权重站点,并透过外链的形式,指向经常更新的页面。
③ 站内内链构建
相对于熊掌ID而言,实际上我们可以忽略内链的存在,而如果你并没有配置熊掌ID,那么,内链,是有利于提高新内容被发现的几率。
当你的页面长期不被收录的时候,你可以适当的利用内链,构建站内的信息流动。
以上就是关于网站只收录一个首页的介绍,希望对您有所帮助!交换高质量的友情链接也能帮助页面收录,如果想要交换一些高质量的友链,不妨来犀牛云链看看!站长服务平台是犀牛云产品体系中基于云端服务技术的一款友情链接交换和交易平台,集友情链接交换、交易、监控于一体的SEO工具软件;专门针对站长、SEOer开发的友链交换、交易的友情链接平台,欢迎各位站长使用犀牛·云链,丰富的资源,各行各业,帮您节省换链时间,提高工作效率。
【版权与免责声明】如发现内容存在版权问题,烦请提供相关信息发邮件至 lnkj@3173.top ,我们将及时沟通与处理。 本站内容除了3117站长服务平台( www.3117.cn )原创外,其它均为网友转载内容,涉及言论、版权与本站无关。