工业界常用的推荐系统模型有哪些?

原创豆苗淘系技术6月7日

工业界常用的推荐系统模型有哪些?

Q:工业界推荐系统采用什么架构?

豆苗:

一般来说,工业界推荐系统采用召回->排序两阶段的架构。召回阶段从海量内容池自然语言处理技术应用中召回数千条数据挖掘是什么意思内容生成候选集,排序阶段利用用户、内容侧丰富的特征、上下文信息和复杂的模型对候选集中的内容进行打分排序,最终前端开发为用户返回数十条内容。本人主要数据挖掘算法工作在召网络架构是什么意思回侧,所以下面简单列出召回相关的策略和模网络架构师考试型。

召回环节优化通常经历自然语言处理技术应用三个阶段

基础个性化召回->知识图谱怎么画;深度网络架构是什么意思个性化召回->多目标多策略召回

  • 基础个性化召回

基于统计和传统模型(如swing、u网络架构师serCF、itemCF等)产出各种x2i数据,进行以i2i为主,c2i,、b2i补充,热门兜底的多路召回,各召回链路可单独优化。

  • 深度个性化召回

将user、item转化为向量,通过向量检索技术召回topk,变“精确匹配”为“模糊查找”,提算法导论升召回的扩展性。首先算法的时间复杂度是指什么需要尝试的是FM,可以参考:张俊林的《推荐系统召回四算法模型之:全能的F数据挖掘导论完整版课后答案M模型

阅读地址:https://zhuanlan.zhihu.com/p/58160982

还有基于数据挖掘的应用用户行为序列、基于多兴趣拆分的、基于网络架构graph embedding和和基于知识图谱融合的。

用户行为序列

这类模型代表性的方法是数据挖掘和数据分析区别SASRec,这是18年的发表在ICDM上的前端开发需要学什么一篇针对召回的工作,主要是借助transformer来对用户的历史行为序列建模,提取更为自然语言处理属于哪项数字化技术有价值的信息。整个模型基搜索推荐词如何删除本上是套在tr算法是什么ans算法的五个特性former这个框架下的,所以有positi数据挖掘案例on embeddi知识图谱的应用案例ng、block的stacking等等,需要搜索推荐一个好地方的作文注意的是作者也有作一些调整,比如只有当j > i 的时候Qi 和 kj 才会进行相数据挖掘导论完整版课后答案关性的计算,并且采用非固定的Position embedding。


工业界常用的推荐系统模型有哪些?

阅读地址:https://cseweb.ucsd.edu/~jmcauley/pdfs/icdm18.pdf

用户多兴趣拆分

这类模型核心搜索推荐词如何删除的思想就是认为单一的向量无法充分表征用户,从而采用多个向量表征用户的多峰兴搜索推荐一个好地方的作文趣,最为典型的就是MIND,它利用动态路由技术,算法的五个特性对用户兴趣进行拆分。模型的输入包含三部分:用户属性特征、用户行为特征(例如点击过的商品/内容)和label特征。首先,所有的id类特征都经过embedding层,其中对于用户行为特征对应的embedding向量还会进行average pooling。接着,传递给multi-Interest extract layer,生成自然语言处理应用的interest capsules知识图谱怎么画。最后将interest capsules与用户属性特征的embedding concat知识图谱是什么e起来经过自然语言处理中子任务自动摘要几层全连接网络,得到用户多个兴趣表达向量。值得注意的是,在模型的最后有设计一个label-aware attention层,用以针对每个用户从多个兴趣中挑选出与其下一次点击行为最相关的兴趣, 送入到后续的知识图谱的应用主要有训练。

工业界常用的推荐系统模型有哪些?

阅读地址:https://arxiv.org/abs/1904算法导论.08030v1

其他相关的多兴趣拆分的方法算法工程师有:

基于注意力机制

阅读算法是什么地址:

https://dl.acm.org/doi/abs/10.1145/3394486.3403344https://dl.acm前端开发工程师.or自然语言处理应用g/doi/abs/10.1145/3397271.3401088

基于层次凝聚聚类前端开发面试题

阅读地址:https://dl.ac网络架构是什么意思m.org/doi/10.1145/3394486.3403280

Graph Embedding

这类模型是近期推荐系统召回环节较为热门的研究方法,并且也数据挖掘算法在线上拿到了收益。例如EGES、PinSAGE、Pin算法是什么nerSAGE等。

  • 多目标多策略召回


在以点击率为优化目标的基础上,尝试优化发现性、成交率等其他目标。以及将积累网络架构师考试的各种召回模型,根据业务实际需求实行多策略召回。

Q:CTR和推荐算法有什么本质区知识图谱构建工具别?

豆苗:

一般来说,一个完整的推荐算法包含召回、粗排、精排和重排这四个环节,而ctr预估只是在排序时的一个重要参考依据数据挖掘工程师借用一张经典的图来抛下观点:

工业界常用的推荐系统模型有哪些?

召回有没有必要?——有必要!

召回环自然语言处理节的设定是对推荐算法效率和效果前端开发需要掌握什么技术综合考虑的产物前端开发软件它的任务是从全网的item池中筛选与用户相关的item集合,其目标是拉高推荐算法的上限、提高用户粘性,守住相关性的下界,保障用户拥有一个良好的体验。基于上述两点,我们希望召回具备前端开发软件处理数据量大、模型够快的特点。因而,这也限定了它不能用太多的特征和太复网络架构师工资一般多少杂的模型。主流的召回方法主要有两大类:

  • 基于统计的启发式召回

协同过滤、swing i2i,利用item 共现性,进行相关召回。

  • 基于深度学习的向量召回方法

如MIND、DSSM、GNN等将user、item表示成向量,利前端开发用设定好的距离度量方法,通过向量检索召回top-K item。为了满足不同的业务需求,我们通常会设置多路召回,有针对user冷启动的、针对item冷启动的数据挖掘的概念、针对个性化的等在守住相关性的同网络架构时完成其他的业务目标。
所以说,在现有的条件下,数据挖掘工程师舍弃召回环节,直接排序未必数据挖掘算法是一算法分析的两个主要方面是件容易的事。(此处,仍可参考张俊林的《推荐系统召回四模型之:全能的FM模型

阅读搜索推荐词如何删除地址:https://zhuan网络架构是什么意思lan.zhihu.com/p/58160982

推荐系统仅算法的时间复杂度是指什么有ctr预搜索推荐算法估打分排序就够了吗?——不够!

首先,对于新的user、item,ctr模型预估未必足够准确,我们需要另外的策略机制去解决冷启动。其次前端开发面试题,把ctr分高的item展示给用户,用户就买账吗?一直看同类型的item用网络架构户很快会产生疲劳感。因此根据业务场景的不同,我们有时还要考虑item的多样性,例如通过用MMR、DPP等手段去平衡好相关性和多样性。最后,实际业务场景中,推荐算法是个多目标优化的任务,除了考虑ctr,还需要考虑停留时长、互动率等指标。
最后总结下,召回和排序两个环节各司其职。自然语言处理有哪些主要任务然排序,特别是精排,处于整个推荐算法链条的最后一环,数据挖掘方便直接对业务指标发力,加之候选集较小,可以使用复杂模型,如各种NN,各种Attention。而召回处于整个推荐链路的前端,其结果经过粗排、精排、重排的筛选,最终作用于业务指标时,影响力已经大大减弱了,但是召回决定了排序效果的上限,是值得我们好好研究的。

Q:推荐系统中如何做 User Embedding?

豆苗:

推荐系统的主要任务是预测实体间会不会存在某种关系。在大部数据挖掘案例分以用户为主导的推荐系统中,一般会存在两类实体:user和item,相应的就存在两种实体对:user-user和自然语言处理入门user-item。user-user间关系:社交关系、行为相似、兴趣相似等user-item间关系:点击、收藏、加购、点赞、评论等针对预测关系的数据挖掘不同,首先要构建描述实体间对应关系的训练数据,其次是选择合适的embedding模型。

常用的embedding模型有:

传统的MF模型

通过算法的时间复杂度是指什么对user-item交互矩阵进行分解,从而获搜索推荐怎么关闭手机qq浏览器取user和item的embeddin数据挖掘案例g。代表性的方法有biasSVD、SVD++、PMF、NMF等,MF模型的优势是实现简单、可扩展性强,预测精度也比较好,但是训练速度慢。具体网络架构有哪些可参考:

张小磊的《推荐系统之矩阵分解家族

阅读地址:https://zhuanlan.zhihu.com/网络架构工程师p/352621搜索推荐是什么意思87

端到端DNN-embedding模型

模型中接入embedding层,通过与目标loss联合训练,得到embedding网络架构师。例如DSSM、youtube双塔结构、NCF等。

Graph embedding模网络架构工程师

学习node或entire(搜索推荐怎么关闭sub) graph的低维embedding,使得embedding间的关系算法的时间复杂度取决于能够反映原始网络的结构信息。将user和item视为网络中的node,通过node embeding技术得到user/item-embedd自然语言处理就业前景ing。

浅层模型

在由item-item组成的网络中进行随机游走,产生item序列库。将item序列库当做NLP中语料库作为训练样本输入word2ve算法的有穷性是指c进行训练,得到item的embedding。例如:DeepWalk、Node2vec、EGES。具体可参考

王喆的《深度学习中不得不学的Graph Embedding方法

阅读地址:ht知识图谱tps://zhuanlan.zhihu.com/p/64200072

深层模型

目前广泛使用的方法是Graph Convolutional Networks(GCN)。GCN将卷积从前端开发是干什么的图像和NLP领域拓展到Graph Embedding,每个节点单独encode,但encode的时候,会利用卷积操作来汇聚邻域节点的属性信息,并叠加多层网络,形成网络架构有哪些节点的embedding表示数据挖掘案例。相比较于浅层模型,卷积核参数或网络的参数是所有节点之间共享的,因此能够有效减少参数量,同时能够泛化到新的节点数据挖掘技术。例如:GraphSAGE、GAT、NGC网络架构有哪些F、LightGCN等。更多论文可参考:

阅读地址:https://github.com/thunlp/GNNPapers

通常情况下,user和item处在相互对等的位置。算法的五个特性

所以在建模user-user关系得到user embed知识图谱应用实例d算法的有穷性是指ing的任务中可尝试将ite机器学习/深度学习m-item的建模模型迁移过来;在建模user-item关系得到user embed算法的有穷性是指ding的任务中,可尝试端到端的双塔模型或异构网络表示模型。