编辑导语:大家是否知道,什么是流量数据?为什么要做流量数据分析体系?又该怎样做流量数据分析体系呢?本文作者围绕这三个问题,为我们做出了详细地解答,让你知道关于流量分析体系的那点事。
1.什么是流量数据
流量数据主要以用户访问产品/页面时,从启动到使用产品等一系列的过程都会产生许多流量数据。流量数据定义为用户访问产品时/页面时产生的数据,需要企业通过数据采集来获取数据。
2.为什么要做流量数据分析体系
当前市面上居高不下的获客成本,对于新用户,可能仅打开一次app就流失。监测流量数据,诊断数据异常,改善业务逻辑,促进产品收益。
3.怎样做流量数据分析体系
用户访问产品/页面时,从启动到使用产品等一系列的过程都会产生许多流量数据。流量数据大都通过埋点上报产生,通过数据处理与加工形成质量高、易于分析的数据资产,经过数据分析为决策提供数据支持与洞见。
3.1数据生产
3.1.1业务需求——埋点数据需求
组里的DA同学收到的业务诉求常常是“期望能这个功能的使用情况”等,而此时如果仅给出一个功能使用uv、pv,是不够的,需要全方面的了解业务诉求,并将其抽象为埋点需求。
面对“期望能这个功能的使用情况”业务需求时,需要了解:
业务的短、中、长期战略,e.g.中长期战略为用户下沉;为什么上线这个功能;这个功能可能会影响其他功能。了解后,根据业务背景、需求、目的,将其抽象为“埋点需求”。
业务的短、中、长期战略,e.g.中长期战略为用户下沉,用户下沉使用城市等级、收入金额等来划分;为什么上线这个功能:了解到是为了提高用户粘度,需要监测使用该功能的用户留存、活跃天数。并通过对比分析得到与其他功能的差异表现;这个功能可能会影响其他功能:获得与该功能可能相斥的功能点,监测数据表现,避免“业务预期外”的侵蚀现象;获取期望相辅的功能点,监测数据表现,避免“出乎意料”。3.1.2埋点设计
设计埋点需求前,需要了解下事件模型(who、when、where、how、what),基于事件模型全方面的刻画埋点。
3.1.2.1埋点要素
WHO:
即谁参与了这个事件,唯一标识(设备/用户id),可以是匿名的设备id(idfa\idfv\android_id\imei\cookie)、也可以是后台生成的账户id(user_id,uid)、也可以是其他。
现在很多公司都有自己的唯一设备id(基于某个策略产生的唯一标识),e.g.阿里有OneId。埋点时,该参数通常使用业务所用的唯一id;在埋点设计文档中,如果没有特殊处理,无需特别声明。
WHEN:
即这个事件发生的实际时间。
该时间点尽可能精确,有利于行为路径分析行为排序,像神策会精确到毫秒。如果公司内已有数据统计sdk且该埋点使用,则无需特别说明。
WHERE:
即事件发生的地点。
可以通过ip地址解析国家、省份、城市;如果期望更细致的数据,如果住宅、商业区等,需要额外地理信息数据库来做匹配。地点信息和时间信息一样,是每一个行为事件都需要上报的信息,基本上会是统计sdk的预设字段,也无需特别说明。
HOW:
即用户用某种方式做了这个事件,也可以理解为事件发生时的状态。
这个包括的就比较多,可以是进入的渠道、跳转进来的上级页面、网络状态(wifi\4g\3g)、摄像头信息、屏幕信息(长x宽)等。
而如使用的浏览器/使用的App,版本、操作系统类型、操作系统版本、进入的渠道等经常设置为“预设字段”,也无需特别说明。
WHAT:
即用户做了什么,结合用户行为/操作以及业务所需的数据粒度,需要通过埋点尽可能详细的描述清楚行为,也是埋点设计文档最为重要的部分。
如搜索(搜索关键字、搜索类型)、观看(观看类型、观看时长/进度、观看对象(视频id))、购买(商品名称、商品类型、购买数量、购买金额、付款方式)等等。
3.2.2.2埋点示例
以“启动”事件、“播放”事件为例,设计埋点。
3.1.3埋点开发
埋点在形式上,支持代码埋点、可视化埋点、全埋点。代码埋点时,可以客户端埋点,也可以服务端埋点;统计SDK,APPSDK、webSDK、小程序SDK、H5SDK等。
可视化埋点、全埋点背后对应的是统计SDK针对“某些事件”的自动上报,埋点开发相关知识点可以查看历史文章。
统计SDK是埋点开发提效的工具,填写需要上报的参数即可,统计SDK的格式大都基于事件模型,较为通用的事件模型可以参考神策分析。
3.1.4埋点测试验收
埋点测试验收,需要从逻辑、数据两方面测试验收,以确保埋点的正确性、顺序性、完整性。
正确性:确认数据是否上发,并检查上方数据内容格式是否与需求文档一致;顺序性:数据上报的顺序正确,间接性验证埋点代码的正确性;完整性:针对各场景均需要测试,确保不同来源、不同场景下均有数据上报。埋点平台通常均有针对性测试的模块,像umeng可以注册测试设备后,查看埋点的测试数据,埋点上线后也需要进一步观察数据是否有异常。
3.2流量数据的加工
3.2.1数据质量的保障
经过数据处理的埋点数据,需要保障完整性、准确性、一致性、及时性。
完整性:完整性是指数据的记录和信息是否完整,是否存在数据缺失情况,是数据质量最基础的保障;准确性:指数据中记录的信息和数据是否准确、是否存在异常或者错误的信息;一致性:指在多处数据记录中,数据一致;及时性:保障数据的及时产出才能体现数据的价值。3.2.2数据模型
有了埋点数据,通过数据处理,该过程就不详细讲了。
数据标准化后,通常会存在于三张表:事件表;用户属性表;目标对象表(三张表仅是按照使用表的目的而言,为了提高查询效率等,通常会将三张表按照事件过程再拆分)。
基于这三张表的查询模型,将可以支持一般数据量级的各种分析模型,超大数据量下查询速度会降低,如需提高查询速度,则需要通过存储换查询,例如将高频查询结果进行缓存、设置数据加速等。
事件表:每条记录描述一个用户在某个时间点、某个地方、以某种方式完成某个具体的事件;用户属性表:主体为用户,每一个用户有一条记录,属性包括了用户属性(包括平台、网络、服务商、手机型号、地域等等自然属性;也包括用户等级、是否为大V等非自然属性),通过用户可以关联到事件表分析。目标对象表:主体为目标对象,目标对象通常是一个业务的主要载体,比如短视频APP,目标对象为视频(id),通过目标对象可以关联事件表分析。
3.3流量数据的应用
3.3.1常用流量分析
3.3.1.1事件分析
事件分析法常用语研究某行为事件的发生对产品价值的影响以及影响程度,通过研究与事件相关的所有因素来分析用户行为事件变化的原因。
在日常工作中,运营、市场、产品、数据分析师等不同角色的业务同学,常常根据实际工作情况