运营必知「」二三事

10个月前 (04-20)

编辑导语:运营与,仿佛是一个不可分割的共同体,只有运营没有,运营效果会大打折扣;只有,没有运营,自然也是无法开展。所以,运营达人们在掌握各种运营技巧的同时,也应该对于有所了解。这样才能齐头并进,达到理想的目标。不想当「厨师」的「采购员」不是「好运营」,对于一个内容产品来说,运营的日常的工作中,特别是「内容运营」的同学会经常和算法同学有很多工作上的配。运营同学像是一个餐馆的采购员,负责食材的采买,而同学就像是厨师,结用户所点的菜单(偏好)采用对应的食材做成用户大概率会喜欢的菜肴。在这个链条里,运营同学在上游,如果引入的内容/创作者不够优质,就像采买的食材不够新鲜高质一样,同学无论怎么努力都很难做出可口的菜肴。同时还有另一个问题,即便运营同学采买了最好的食材,如果同学做菜的方式有问题,后者没有最理的使用食材,也没有限度发挥食材的价值,暴殄天物了。因此对于运营同学来说,不仅做好自己的上游工作,还非常有必要知道的相关工作,这样当做出的菜肴不够好吃时,我们才能及时发现是食材的问题,还是做的方法有问题?更快的进行下一步的调整。一、必知一:内容是如何被的?对于运营同学来说,首先需要了解的是:内容是如何被的?我们引入的创作者和他们的内容,是如何经过层层流程,决定是否被,以及被给到多少流量的?内容在进入系统后整体的处理流程,不同产品和不通过公司的处理是不太一样的,但是整体逻辑上基本相同,大模块的业务逻辑基本如下图。如上图所示,当用户上传一条内容后,内容会首先经过安全审核的流程,安全审核主要是将一些违规,暴力血腥的内容剔除掉,未过审的视频基本就屏蔽或者直接删除。通过安全审核后,大部分内容社区会有原创审核,将一些重复上传或者搬运的内容过滤掉,原创审核大部分是依靠机器来审核的,未通过原创审核的就只会在用户自己的个人主页,或者粉丝的关注页等私域展示。通过了原创审核后的视频会再进入道质量审核,质量审核主要是把一些无意义、无主题、杂乱的内容过滤掉,通过了道质量审核后,内容将会被系统纳入候选池,然后会给作品最基础的流量,目的是通过基础流量后产生的数据初步判断作品质量的好坏。如果基础流量过后的数据反馈较好的话,就会接着加码给到更多的流量,拿到更多流量后,如果数据表现不好,也会被停止;数据表现好的,会再进入第二道内容质量审核或者举报审核。第二道质量审核主要目的是防止前面的审核会有漏审,或者有一些不符社区内容调性的内容出现。举报审核是指消费内容用户主动点击的举报,收到过多举报的内容一定是有潜在风险,需要人工再次审核。通过第二道质量审核,或者举报审核后,作品将会被持续给到更多流量,进入一个周期的,成为内容平台重点的候选内容。但是在整个持续过程中,还会有一些更细的审核流程,比如高热审核,针对全平台最热门的视频进行审核,保证没有风险,同时持续进行用户举报审核,及时发现潜在违规作品。持续过程中,如果内容的数据反馈出现下滑,那么会慢慢的进行冷却,直停止。以上所有流程中,被停止的作品,在后续的 过程中,也会因为一些偶然的触发或者其它的召回被重新激活,给到更多流量进行。常见的比如遇到节日,过往节日类的内容就会被重新召回。了解了上面的流程后,运营同学就能对整体内容的流转有一个清晰的认知,可以结到自己的产品或者业务逻辑,细化整体的流程,这样当遇到问题的时候,就能及时的知道目前内容处在一个什么阶段。二、必知二:系统是如何工作的?上述的流程中,能帮助我们厘清内容流转的逻辑,但是在上图中的流量模块,到底是如何进行的,我们并不清楚。为了搞清楚这个问题,我们得先对整体系统有一个了解。如果把系统简单拆开来看,系统主要是由数据、算法、架构三个方面组成。数据主要提供所必须的信息,包括用户和内容的特征信息,用户对于内容的行为反馈数据等;算法主要是提供策略和逻辑,在海量的数据下,人工策略已经很难进行分析和干涉,因此需要一套算法来自动的进行信息逻辑处理和返回的内容;架构主要是承载数据和算法的平台,对接上下游的数据和逻辑,保证系统能够稳定、实时自动的运行。常见的系统如下图所示:在上图的架构中,数据存储模块,主要是负责存储内容索引(一种对应到内容的逻辑标识,便于找到内容)、用户特征(包含用户的画像信息,兴趣点等)、用户日志(包含用户在客户端对内容产生的一些行为,比如:点击、点赞、分享、评论等)。算法部分,会通过内容索引对内容进行召回,召回的候选内容一般都比较多,然后会经过一层过滤,将一些不适,或者其它运营、审核逻辑干涉的进行过滤,然后产生的候选池会进行排序。排序通常分为粗排和精排两个步骤,排序的方式是通过用户的特征,以及用户的行为日志,将内容排成用户最有可能细化的顺序。这样最终的排序后的内容就会推送到客户端,按照客户端实际的展现场景进行展示。内容展示后,用户对其产生的行为就会通过日志重新上报,然后实时进行日志的计算,用户画像更新和指标更新,比如ctr等,实时计算完成后,再更新到数据存储中进行的存储。这样,后续的取得数据都是的。三、必知三:算法核心两步:召回+排序上述的系统结构图,让我们知道了的上下游工作原理,也知道系统的组成部分有哪些,在这些组成部分里,和运营日常工作中交集最多的部分,应该是算法部分,算法中最核心的两步就是:召回和排序。了解了这一块,基本也就大概明白了算法的原理,以及我们遇到一些问题的时候,大概也能知道是哪一块出了问题。我们先来看下「召回」,什么是召回?召回就是指系统通过某种策略从全量内容池中选取一部分出来,系统召回的方式一般有很多种,比如常见的热门召回、协同过滤召回、兴趣标签召回等。单一的召回有自己的优点,但同时缺点也会很明显,因此为了有更完整、全面的召回,通常采用的是「多路召回」,如下图所示:如上图所示:如果我们根据召回是否有用户个性化因素存在来划分,可以分成两大类:一类是无个性化因素的召回,比如热门内容或者历史点击率高的内容的召回;另外一类是包含个性化因素的召回,比如用户兴趣标签召回、协同过滤召回。简单解释下这几个常见的召回策略:热门召回:即全站,当前按照内容各项指标计算得到的综分的排序,从这个排序中召回前k1个内容;兴趣标签:指根据用户偏向的兴趣标签,比如用户喜欢看体育中的篮球,那么从篮球这个标签下召回k2个内容;基于用户的协同过滤:是指计算出用户之间的兴趣相似度,举一个简单的例子,比如用户A喜欢{a,b,c},用户B喜欢{a,b,d},那么我们可以用两个用户喜欢的交集除以并集,得到两者的兴趣相似度,为{a,b}/{a,b,c,d}=0.5;这样我们找到和用户兴趣点最相似的用户们,其它当前用户没有看过的内容,比如给用户Ad;可以按照相似用户中不同内容的列表召回Top k3个内容;基于内容的协同过滤:和基于用户的协同过滤类似,这里我们计算不同内容之间的相似度,计算的方式有很多,简单的可以直接喜欢两个内容的用户数之间的重度来计算,这样可以得到和当前内容相似的内容序列,按照相似度进行排序,召回Top K4进行;基于社交关系的召回:一般是通过社交媒体的关系,将用户的朋友喜欢的内容给用户,比如微信视频号里的,你的朋友点赞的内容;上下文信息召回:是指依照一些时间上下文,位置上下午进行召回,最典型的是在节日期间,召回节日相关内容,还有就是依据地理位置,进行附近的内容召回。召回之后的排序,一般分成粗排和精排两个阶段:粗排一般对召回的大量内容,进行一些简单的融排序,比如多个召回源,各取TOP k,将大量的召回内容,截断到一个可控的量级(一般到千的量级),不然精排阶段会非常耗时;精排一般都采用模型进行排序,排序后召回内容会到百量级。精排的方式有很多,最初级的是策略规则排序(对各路召回,指定权重和规则进行排序),后续有基于各种模型的排序,有LR(线性回归)、LR+GBDT(线性回归+树模型)、FM(因子分解模型)、DNN(深度学习模型)等。各种模型的排序较为复杂,很多不具备可解释性,在这里不再赘述,感兴趣的读者可以自行检索。四、必知四:部分书籍和文章作为运营的同学知道了上述的逻辑后,基本能够很顺畅的和同学进行沟通。同时,也能及时发现系统中可能存在的问题,也能在召回部分、用户画像、内容特征等维护根据自己运营的经验,给出一些自己的看法。在写这篇文章过程中,我也参考了一些书籍和文章,给大家。参考资料:《系统实战》《系统》系统技术演进趋势:从召回到排序再到重排系统怎样实现多路召回的融排序【机器学习】逻辑回归#专栏作家#南村小付,微信公众号:南村小付,专栏作家。快手高级产品经理,曾任职阿里,欢聚时代,7年互联网产品设计运营经验。本文原创发布于,未经许可,禁止转载题图来自Unsplash, 基于CC0协议