网站搜索引擎优化未收录的可能原因有以下几点:
1、网站结构设计质量欠佳(例如图片过多,代码杂乱,死链过多等)
2、网站因某些原因遭受惩罚(如过度优化,被搜索引擎判定为作弊)
3、网站服务器运行缓慢,用户体验度不佳等
4、网站优化过程中,目标内容点击率过高,原创性过低,也会影响收录
5、网站发布内容与网站设定的标题、关键词、描述等基本元素不匹配
建议:对网站进行全面检查,包括网站的访问速度,代码是否优化、网址是否采用伪静态、图片是否添加ALT属性,网站布局是否合理且用户体验度高、友情链接中是否有被惩罚的网站、网站内容的相关性是否很高、网站是否被正常抓取,是否存在过度优化关键词堆砌、密度不足等问题。
新网站长期不被收录,有哪些解决方法?
首先、分析网站日志,查看是否有被蜘蛛抓取
作为站长,必须掌握网站日志的分析技巧,网站日志中可以揭示一些肉眼难以察觉的问题。具体如何分析网站日志,可以参考小编之前撰写的一篇《SEO网站优化每天必做之事:网站日志分析》。
1)、若未被收录的页面未被蜘蛛抓取
页面未被Baiduspider抓取,可以适当为该页面添加外链引导蜘蛛抓取,或向搜索引擎提交该页面。例如,每日吐槽图示页面已很久未被百度收录,我们可以采取以下措施:
2)、若页面已被Baiduspider抓取过
页面被抓取但未被收录,可能存在以下原因:
1、第一次被Baiduspider抓取,从百度综合算法来看,该页面价值性极低,考虑是否创建索引。
2、第二次被Baiduspider抓取,该页面自始至终未有任何变动,决定暂停分析。
3、第三次被Baiduspider抓取,该页面仍无变动,且长时间未出现其他附加价值(如评论、分享、转发等),决定不予收录。
要知道Baiduspider也很忙碌,没有太多时间天天抓取这些未收录的页面。因此,当页面长时间不被百度收录时,应适当增加页面的附加价值或对页面进行修改。可以添加图片、视频或内容,或重新编辑标题。总之,要让Baiduspider再次抓取时,返回的状态码不是无变化的状态,从而提高页面被收录的概率。
第二、检查robots设置是否错误,主动屏蔽Baiduspider
Robots的设置也非常重要,很多人可能对此不太了解。建议到百度站长工具资讯中查看详细教程,这里不再赘述。若robots设置存在问题,自行纠正后,在百度站长工具后台更新robots,以便百度蜘蛛重新更改状态。
第三、检查页面是否存在敏感词
如今,越来越多的词汇对搜索引擎来说都有一定的敏感性,敏感词可能导致页面不被收录,甚至可能导致网站被删除或被惩罚。因此,站长们在建设内容时一定要注意,不要在文中出现敏感词。
第四、检查页面内容是否为采集
百度老大之前曾表示,数据库中肯定存在完全重复的内容。但也会有一定的限制。例如,一篇文章最多被收录20篇,当已被收录20篇时,无论是你还是他人转载更新,都不会被收录。
希望对您有所帮助,如有其他网络问题,欢迎咨询。
敬请采纳。