一起看看各位SEO人士对如何给大型网站做SEO体系策划的看法:
柳焕斌看法:
大型网站的SEO体系,在很大程度上依托于数据挖掘和分析来进行,99%的工作是在做站内优化。如何把深度挖掘的数据进行有效的分析,并分配到执行流程中去。通过分析搜索引擎的关键词数据,我们可以有效规划的网站架构以及内容建设方向。通过站内搜索的关键词数据分析,我们可以快速上线用户需求内容。
创建一个有效的目标关键词数据库,可以周期性检测关键词排名绩效以及和竞争对手的差距。数据挖掘分析的工作是持续的,SEO任务的配发基本都来自这个团队。那接下来是产品上线的流程,这包括一个栏目,专题或者一个页面的发布。
涉及的方面如下:
1,标题的撰写规范
2,正文部分行文的审查,基于seo的修正以及内链设置规范
3,发布后,页面与其他的一些页面的关联关系。
这个流程的设置,应找有实战经验的seo来规划,每个阶段的工作进行分解,然后出一份执行规范,让人去高效执行即可。异常状况的处理,也很重要。
网站改版,宕机,收录异常,流量异常,被误伤惩罚,大部分网站都会面对这些突发异常问题,往往关键时刻的决策十分重要,处理方法必须快速,让损失降低到最小。
对外交流与合作从低层次来说,这多多少少可以促进外链建设。对外的合作和交流,这可以及时了解外围最新的信息,诸如一些信息更新,策略的变化,让团队保持学习。另外,建立与搜索引擎厂商的交流机制是必要的,尤其是大型网站。
夜息看法:
从运营角度来说
1、知道网站的产品(服务也是一种产品)并且知道得越多越好;
2、知道网站的用户和他的习惯(搜索引擎也是一类用户;
3、知道自己有多少资源(人员,内容,设计,技术);
4、根据用户的习惯和资源制定优化,填充网站的计划并执行;
从技术的角度来说
1、把一切影响seo的东西数据化
2、根据数据制定方案并执行ps。
影响seo的东西绝对不是外链数量或者原创几篇文章可以决定的,至于有多少因素影响seo,就看各个人的思考能力和各个网站自己的情况了。
ZERO看法:
觉得应该先把流量靠谱点的统计出来。。。大型网站多用Google Analytics,但流量多了,分析的时候时间跨度一拉长,采样率动辄不到0.1%,这数据坑爹吧。。。总体趋势有时都不准,不用提细分筛选了,老是惨不忍睹。有时看到流量变了,不是自身问题也不是百度问题,喵的是统计误差。。。
从日志里面,把爬虫和SEO访客剥出来,构建一个简单的平台供分析数据。系统么先保证能看日期趋势,我承认我开发的主要动力就是坑爹的报表系统只能龟速查看当天的,想看一个月变化得导差不多30次数据,估计半小时能搞定,尽管GA半分钟。另外正则筛选URL神马的也是必须的,个人认为这是GA这样的统计工具,和国内常见统计玩具最大的区别之处。流量若能准确细分,那么SEO效果就能一定程度衡量,不至于走感觉流。其它的辅助项么可以相对滞后点。辅助项比如,各类页面的抓取细分、页面加载速度细分、收录比率细分、总体排名细分等等。如果想能较准确把控流量的话,还有许多可做。
国平说的:SEO流量 = 收录 * 排名 * 点击率 实际不具实用性。对于很多类型的网站而言,相关关键词的检索量季节性差异较明显,往往是影响SEO流量的最大因素。因此最好要监控搜索量,放入上述公式去。又如收录,收录100个列表页和收录100个内页可以带来的流量是截然不同的,所以上述公式要页面细分后,才可按照页面类型来分别计算。一下子就码了很多字,但做起来这些有的好做。说起来容易做起来难,实际都要一段段的代码来实现,至今只码了一小部分。。。
王浩看法:
技术层面的操作流程包括:
1、建立明确的子分类和目标计划,
2、然后通过数据挖掘、数据分析的方法,研究SEO用户(当然最好是全局用户)的行为特征,提炼影响用户体验的因素,
3、然后有针对性地完善、建立高精准&切实满足用户需求的内容和内容网络,
4、根据SEO反馈和数据,进行修正和完善另外,不同规模的网站,seo体系的打法是完全不同的,以上是针对大型网站的。
摘自知乎