微博经常访问排序规则是按照用户点开他人主页次数排序的。微博会自动记录你的行为和使用方式,在查看微博好友的主页时,一般超过2次以上访问记录就会出现近期访问的好友主页,且不定期更新,若长时间未进行好有访问,最近访问那一栏将自动消失。

新浪微博是北京微梦创科网络技术有限公司于2009年8月推出的一个微型博客服务类的社交网站。新浪微博具有转发功能、关注功能、评论功能等。具有门槛低、随时随地、快速传播、实时搜索、分享到新浪微博、用户排行等特色功能。          

微博经常访问别人能看到吗

微博经常访问别人,别人是看不到的。

经常访问别人的微博主页,对方是看不到的。因为微博没有访客记录的功能,对方无法看到自己微博的访问记录,只能看到自己经常访问的博主。无论对方是否开通会员,都不能看到谁来访问过自己的微博的,除非点赞和评论了,才会有记录。

但是访问过于频繁,微博会进行阅读量累计,对方细心一点也是会有发现的可能,而且微博故事是可以看见访客的,如果不想被发现,尽量不要去看微博故事。

微博经常访问显示规则 

微博经常访问排序规则是按照用户点开他人主页次数排序的。微博会自动记录你的行为和使用方式,在查看微博好友的主页时,一般超过2次以上访问记录就会出现近期访问的好友主页,且不定期更新,若长时间未进行好有访问,最近访问那一栏将自动消失。

访问别人微博是没有记录的,只有点赞或者评论过才会留下记录,但自己可以看到访问别人的记录,打开手机微博,点击【我的】,选择【浏览记录】,就可以看到访问记录。

为什么微博经常访客顺序会变是因为对方也看你吗?

新浪微博里显示的”经常访问“的对象是你经常访问的人,你在一段时间里,频繁进入他人主页访问,就会在你的好友里出现”经常访问“。别人访问你的主页你是不知情的,不会显示出来。

发展历史

最早也是最著名的微博是美国twitter。2006年3月,博客技术先驱blogger创始人埃文·威廉姆斯(Evan Williams)创建的新兴公司Obvious推出了大微博服务。在最初阶段,这项服务只是用于向好友的手机发送文本信息。

在2007年5月,国际间计算总共有111个类似Twitter的网站。然而,最值得注意的仍是Twitter,它于2007年在德克萨斯州奥斯汀举办的南非西南会议赢得了部落格类的网站奖。

微博最常访问算法

基础及关联算法

这一层算法的主要作用是为微博推荐挖掘必要的基础资源、解决推荐时的通用技术问题、完成必要的数据分析为推荐业务提供指导。

这一部分中常用的算法和技术如下:

分词技术与核心词提取

是微博内容推荐的基础,用于将微博内容转化为结构化向量,包括词语切分、词语信息标注、内容核心词/实体词提取、语义依存分析等。

分类与 anti-spam

用于微博内容推荐候选的分析,包含微博内容分类和营销广告/色情类微博识别;

内容分类采用决策树分类模型实现,共 3 级分类体系,148 个类别;营销广告/色情类微博的识别,采用贝叶斯与最大熵的混合模型。

聚类技术

主要用于热点话题挖掘,以及为内容相关推荐提供关联资源。属于微博自主研发的聚类技术 WVT 算法(word vector topic),依据微博内容特点和传播规律设计。

传播模型与用户影响力分析

开展微博传播模型研究和用户网络影响力分析(包含深度影响力、广度影响力和领域内影响力)。

主要推荐算法

1. Graph-based 推荐算法

微博具有这样的特点:用户贡献内容,社会化途径传播,带来信息的爆炸式传播。之所以称作 graph-based 推荐算法,而不是业界通用的 memory-based 算法,主要原因在于:

我们的推荐算法设计是建立在社交网络之上,核心点在于从社交网络出发,融入信息传播模型,综合利用各类数据,为用户提供最佳的推荐结果;比如很多时候,我们只是信息传播的关键环节,加入必要的推荐调控,改变信息传播通路,后续的传播沿着原来的网络自然的传播。

Feed 流推荐(我们称作趋势),是我们最重要的产品,而结果必须包含用户关系。

从 graph 的宏观角度看,我们的目标是建立一个具有更高价值的用户关系网络,促进优质信息的快速传播,提升 feed 流质量;其中的重要工作是关键节点挖掘、面向关键节点的内容推荐、用户推荐。

对这部分的算法做相应的梳理,如下面的表格:

这里的困难点在于 graph 的“边”怎样量化与取舍,依据多个“边”与“节点”的综合评分计算,以及与网络挖掘分析结果的融合。

这部分的算法研发中,产出了如下的数据附产品:

2. Content-based 推荐算法

Content-based 是微博推荐中最常用也是最基础的推荐算法,它的主要技术环节在于候选集的内容结构化分析和相关性运算。

正文页相关推荐是 content-based 应用最广的地方,以它为例,简要的说一下

内容分析的很多点已在前面描述过了,这里重点说 2 个地方:

内容质量分析,主要采用微博曝光收益+内容信息量/可读性的方法来综合计算。微博曝光收益是借助用户群体行为,衡量内容优劣;内容信息量计算比较简单,即是微博关键词的 idf 信息迭代;对于内容可读性的衡量,我们做了一个小的分类模型,分别以可读性较好的新闻语料和可读性较差的口语化语料为训练样本,通过提取里面的各类词搭配信息,计算新微博具有良好可读性的概率。

词扩展,content-based 的效果取决于内容分析的深度。微博的内容比较短,可提取的关键信息比较少,做相关运算时容易因为数据稀疏而导致推荐召回率和准确率的难以权衡;我们引入 word2vec 技术,优化了词扩展效果,后面又以此为基础开展词聚类的工作,实现了推荐召回率和准确率的同步提升。

相关计算的技术点在于向量的量化和距离度量,我们通常使用“tf*idf 权重量化 + 余弦距离”或者“topic 概率 + KLD 距离“的两种方法。

3. Model-based 推荐算法

微博作为中国最大的社会化媒体产品,具有海量的用户和信息资源;这就给推荐带来了 2 个挑战:

来源融合与排序

候选的极大丰富,意味着我们有更多的选择,于是我们推荐结果的产生包含两层:多种推荐算法的初选与来源融合排序的精选,为了得到更客观准确的排序结果,我们需要引入机器学习模型,来学习隐藏在用户群体行为背后的规律。

内容动态分类和语义相关

微博 UGC 的内容生产模式,以及信息快速传播和更新的特点,意味着之前人工标注样本,训练静态分类模型的方法已经过时了,我们需要很好的聚类模型把近期的全量信息聚合成类,然后建立语义相关,完成推荐。

Model-based 算法就是为了解决上述的问题,下面是我们两块最重要的机器学习工作:

3. 1 CTR/RPM(每千次推荐关系达成率)预估模型,采用的基本算法为 Logistic regression,下面是我们 CTR 预估模型整体的架构图:

这部分工作包含样本选择、数据清洗、特征提取与选择、模型训练、在线预估和排序。值得一提的是,模型训练前的数据清洗和噪音剔除非常重要,数据质量是算法效果的上界,我们之前就在这个地方吃过亏。

Logisitic regression 是一个 2 分类概率模型

优化的目标在于最大化“样本正确分类概率的连乘值“;我们借助 yahoo 研发的 vowpal_wabbit 机器学习平台来完成模型特征值求解的最优化过程。

3. 2 LFM(Latent Factor Model):LDA、矩阵分解(SVD++、SVD Feature)

LDA 是 2014 年初重点开展的项目,现在已经有了较好的产出,也在推荐线上产品中得到了应用;LDA 本身是一个非常漂亮和严谨的数学模型,下面是我们一个 LDA topic 的例子,仅供参考。

至于矩阵分解,2013 年的时候做过相应的尝试,效果不是特别理想,没有继续投入。

隐语义模型是推荐精度最高的单一模型,其困难在于数据规模大时,计算效率会成为瓶颈;我们在这个地方开展了一些工作,后续会有同学专门介绍这一块。

混合技术

三个臭皮匠顶个诸葛亮,每一种方法都有其局限性,将不同的算法取长补短,各自发挥价值,是极为有效的方式。微博推荐算法主要采用了下面的混合技术:

时序混合:

即在推荐过程的不同时间段,采用不同的推荐算法;以正文页相关推荐为例,在正文页曝光的前期阶段,采用 content-based + ctr 预估的方法生成推荐结果,待产生的足量可信的用户点击行为后,再采用 user-based 协同过滤的方法得到推荐结果,如下图所示:

这样利用 content-based 很好的解决了冷启动的问题,又充分发挥了 user-based CF 的作用,实现1+1>2 的效果。

分层模型混合:

很多情况下,一个模型无法很好的得到想要的效果,而分层组合往往会取得比较好的效果,分层模型混合即“将上一层模型的输出作为下层模型的特征值,来综合训练模型,完成推荐任务“。比如我们在做微博首页右侧的 ctr 预估排序时,采用分层逻辑回归模型,解决了不同产品间特征天然缺失与样本量差异、曝光位置带来的效果偏差等问题。