跟斗大很像的一种玩法是什么呢?介绍下?

斗图神器APP好用吗 斗图神器玩法介绍
斗图神器APP好用吗 斗图神器玩法介绍
编辑:huangtianzhong
  现在朋友之间的聊天不局限于语音和文字聊天了,现在又多了个斗图的聊天法,斗图使聊天变得更有趣。如果不想在斗图的时候处于下风,那么就需要有很多的素材可以使用。这里给大家介绍的一款斗图神器,既是一款图片编辑与分享软件,也是一个斗图平台。下面小编会带来它的使用教程。
  1、斗图社区,数万名爱好者,齐聚于此只为了斗图大业;喜欢恶搞、制图的朋友们都能在这里分享图片,交流学习制图经验,&斗图神器&让人人都是&表情帝&。
  2、每天都有新模板,只要网络上有的这都可以找到;神级配文推荐,不噎死对手决不罢休!
  3、海量图片聚合,一键就可以存到自己手机里;从来不缺新图,只要你眼疾手快!
  4、重磅推出的图片制作功能,让你自己DIY表情制作打造自己的表情工厂! 选择模板,自定义便捷文本,打造你想要的图片效果。
  5、目前最全的金馆长表情,暴走漫画表情库,支持在微信、QQ、新浪微博、中发送各种表情。微信、QQ聊天斗图,再也不用担心没图图了!!
  更多资讯请点击:
  如果大家想了解更多关于软件最新资讯,请持续关注本站,本站小编将在第一时间为大家带来最好看、最有趣、最新鲜的软件资讯。更多精彩内容,尽在。热门攻略:
职业加点:
当前位置: >
大话西游手游南斗星象玩法介绍
  南斗星象玩法介绍,大话西游手游将在11月26日的更新中推出南斗星象玩法,这个玩法需要玩家组队参加击败不同的星君并最终获得关卡奖励,南斗星象将于寻芳交替开启,下面来看看南斗星象的具体玩法规则吧。
大话西游手游海报
  南斗星象玩法
  齐天大圣大闹天宫后,南斗星象移位,天时紊乱,忽昼忽夜,不辨南北,天庭昭告四方,募异士将星象归位;
  参与条件:队伍人数≥3人,人物等级≥40级;
  参与时间:每周二、四、六(南斗星象与寻芳交替循环,寻芳修改为每周一、三、五、七出现);
  玩法说明:
  1) 在25分钟内,连续挑战六场严苛的车轮战,用最快的速度将漫天星象归位;
  2) 打败一关星君,将星象归位,可在与此星象相邻的下两个关卡中选择一关进行挑战;
  3) 整个玩法过程有2次占星机会更换挑战BOSS,请谨慎使用;
  4) 选关时,消耗占星机会观察某层关卡可选分岔的另一BOSS,窥视BOSS真容;
  5) 南斗六星象总计21关卡特点不一,还望少侠勇于探索;
  6) 每人每天参与次数不限,仅首次通关关卡有奖励;
  7) 5人组队开启玩法后,如有队友掉线,其余人可继续进行玩法,不可新增新队员;如果队伍已不足3人,可主动放弃任务,再次参与此玩法;
  最新最快大话西游手游攻略及官网资讯,只需要在百度输入【大话西游手游】就可以看见我们的大话西游手游精品专区,同时大家也可以下载新版大话西游手游安卓安装包。更多内容请关注第一手游网大话西游手游专区。
微信扫一扫免费秒领礼包
扫二维码或添加微信号:wx_diyiyou关注“第一手游网”
回复“大话西游手游礼包”即可免费领取大话西游手游最新礼包!
回复“大话西游手游”即可查看大话西游手游最新活动攻略!
赶快扫一扫吧~
游戏分类:角色扮演
游戏厂商:
游戏语言:
新服地界:沉鱼落雁
魔界-卧虎藏龙
地界-沉鱼落雁
地界-灵湖仙梦
魔界-东方之珠
人界-蓬莱仙岛
IOS地界一骑当千
IOS地界紫电飞黄
盘古精铁x2
,金柳露x3
伙伴修炼册*10
,亲密丹*5
,低级九彩云龙珠*10
,盘古精铁*1
圣兽丹*6
,凝魂丹*2
,PK药*3
盘古精铁*2
,金柳露*3
,师门贡献*15W
师门贡献*15W
,300万法药*1
,低级九彩云龙珠*10
,灵兽丹*12
下载第一手游APP
第一游用户登录两周内自动登录|穿越火线手游大头爆破模式介绍 这个玩法真有趣
穿越火线手游大头爆破模式介绍 这个玩法真有趣
游戏中剑的人
现在加入官方Q群还可以享受各种超值游戏福利,赶快输入群号:,加入新浪穿越火线CF手游2群(1群:已满)的大家庭吧。CF手游中的大头爆破模式是个很有趣而且很好玩的模式,那么怎么才能玩好这个模式呢?下面97973小编就给大家分享下CF手游的大头爆破模式玩法,希望对大家有所帮助。【战前准备】无影AK+屠龙,先给大家科普一下, 大头爆破玩法和其他玩法的区别,我们可以在进入游戏后看到四个大头的样子,每杀死一个对手,我们头就会相应的增大。在消灭3个敌人的时候,我们的头将会达到最大,俗称大头英雄,当成为大头英雄以后,我们就会得到四个技能中的一个,这四个技能分别是护盾 狂热 加速 嗜血,小伙伴们基本上从名字就可以知道,这些技能都是什么方面的,说的简单一些,就是会变得特别厉害。【新年广场】进入游戏,我们是从中间进来的,开始我们选择B点压家,先阴了一个,然后我们发现桥上和水下还有敌人,这时我们和队友各自解决,在杀死了3个对手后,我得到了护盾的技能,大家可以看到,血量变成300,是不是很强大,所以在新的一局开始,我们直接选择A大点,果断高爆,屠龙走位,然后拉枪线,没错就是怼,就是杠,一不小心又赢了一局,不要太羡慕,第五局,我们选择了B大,红烟+反闪+高爆,我们开启了新一轮的压家模式,套路非常明显,在的风骚走位和强势进攻下, 即使对方也是一个大头英雄,我们也拿下4杀。【沙漠灰】这是一个大家经常在比赛中看到的地图,不过大头爆破模式,还是一个新的挑战,本来选择的是一个非常漂亮的妹子,可是头变大了,莫名的就觉得很有喜感,好好的美人变成了大饼子脸,但是发型还是没有乱的。这里不给大家介绍战局了,给大家安利一些比较靠谱的套路。1 武器首选的是AK,因为狙击枪太笨重,所以在我们的大头爆破模式中并不适合,大家可以选择无影AK,有战队的可以选择 琉璃茉莉,如果什么都没有,也可以选择单纯的AK47,威力也不错,而且移动速度比较快。2压家的时候,选择切刀跑,有刀切刀,没刀切匕首,保证移动速度,来到A大点,我们尽量先使用一个反闪,延缓一下敌人的进攻,大头模式中,拉枪线时,一定要注意被爆头的几率是非常的高,全屏都是大头,所以不是我们爆头敌人,就是敌人爆头我们。3作为保卫者,一定要注意游戏节奏,以攻为守,还要及时和队友在公屏上分享敌人的最新消息,虽然是保卫者, 我们也无需打的被动,因为本身就是一个战斗型的少年,所以我们还是尽可能的享受杀敌的乐趣。想要第一时间知道有关穿越火线手游的相关信息吗,想要参加第一手的游戏活动吗,赶紧下载全民手游攻略,穿越火线手游专版攻略APP,加入我们吧!扫描二维码下载全民手游攻略关于全民手游攻略全民手游攻略致力于为广大玩家提供最新、最全、最详尽的手游攻略,在这里你可以查询到任何你想要了解的内容。问答社区服务为玩家们提供了相互交流并相互解惑的平台,让玩家们的疑问尽快得到解决。97973手游网声明:97973手游网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
本文仅代表作者观点,不代表百度立场。系作者授权百家号发表,未经许可不得转载。
游戏中剑的人
百家号 最近更新:
简介: 每天分享游戏资讯,上分技巧,失误集锦
作者最新文章斗鱼大数据的玩法
本文来源于斗鱼数据平台部吴瑞诚先生在光谷猫友会的分享。
我是吴瑞诚,现在负责斗鱼数据平台部,今天给大家分享一下斗鱼大数据这块的玩法。我先做个自我介绍,我是11年初华科通信硕士毕业就进入淘宝,主要做HBase相关开发,后来回武汉后在1号店转向应用架构方向。
我是14年9月加入斗鱼,当时斗鱼研发是30人的规模,从0开始搭建斗鱼大数据平台,单枪匹马一个人,大概干了三个月,招不到大数据开发,哪怕只是基本了解Hadoop的都很招不到,干的很苦。所以团队第一批组员是组内培养的,会一些Java开发基础的应届生,生拉硬拽凑到大数据团队。其中一位武汉理工15年的本科应届生,现在已经成长为我们部门BI/DW团队的Leader。到现在,加上即将入职的应届生,数据平台部团队规模接近60人,分为四个组:大数据处理组、BI/DW组、数据挖掘组、基础架构组。
在武汉招开发难,招大数据开发更难,这也是我、柴楹和猫友会发起这个收费群的主要目的。让整个武汉互联网圈看着起势的时候,会有一个大数据的圈子。大家多沟通,多交流,把整个圈子的气氛带动起来。这样对于我们研发人员本身和武汉本地的公司都是极大的利好。
先简单介绍一下斗鱼:1.国内最大游戏直播平台,从16年开始向泛娱乐化方向发展;2.日活用户 2000万,最高同时在线人数约500万;3.主播日活 40,000人,每天产生原创视频数万小时。;4.ALEXA排名:全球约200名、国内约20名(近期略下滑,今天中午看在30多名,比优酷、Bilibili等站要高);
这是一个典型的斗鱼直播间,是斗鱼最主要的内容形态:左边是视频区,上面飘过的文字就是弹(dàn)幕,直播网站上用户和主播互动的最主要形式。弹幕服务是性能压力最大的服务之一,相当于是需要百万人群聊时的消息推送量,后续有机会和大家分享;视频区下面是礼物赠送区;右侧是弹幕区,Tab页上是排行榜,用户对该直播间的贡献值,土豪喜闻乐见;
接下来我会跟大家分享一下斗鱼大数据现在的玩法和下一步的规划。主要内容分为四方面:
1.斗鱼大数据平台的整体架构;
2.斗鱼数据仓库
3.斗鱼个性推荐系统
4.斗鱼风控系统
1、斗鱼大数据平台整体架构
先来看看斗鱼大数据平台的整体架构,上一张镇楼的图:
14年加入斗鱼,当时负责的第一个业务是用shell脚本,从主站服务器上拉Nginx log到Hive集群中,统计产生报表。随着网站数据量的增长和配备约来越完备,从最开始的小系统越做越大,做到现在这个架构。
这个架构差不多是在16年初的时候成型的,主要包括:数据源层,用户行为打点、服务日志、Nginx/PHP日志(离线和实时两条数据流)、线上MySQL库、MongoDB、Redis存储数据接入层,包括了Kafka,负责接入打点上报(最大吞吐量约200w TPS)、Canal/Sqoop(主要解决数据库数据接入问题)、Flume/Logstash/rsyslog等实时日志;数据预处理层,简单的清洗和聚合计算;存储层,典型的系统HDFS(文件存储)、HBase(KV存储)、Kafka(消息缓存);计算层,主要包含了典型的所有计算模型的计算引擎,包含了MR、Hive、Storm、Spark以及深度学习平台比如Tensorflow等等再往上就是数据服务层,主要提供对外数据服务。这一块现在主要是基于Docker实现的一整套微服务环境来支撑;
1.1 大数据管理平台
下面先简单介绍一下各个组件的玩法,首先是大数据管理平台,承载所有的元数据管理、统一监控系统、报表展示、任务调度、发布系统等所有配套功能。
1.2 基础集群架构
可以看到,清晰的区别了online 和offline 集群
机器配置:
现负责约300台高配服务器,Dell 730xd,32Cores 128/256G内存,16*6T Sata Disk;Hadoop大集群150台物理机,5PB数据,日增量约20T;
实时离线集群分离,避免资源竞争造成业务处理抖动。集群分离后也可以更安全的对集群进行运维操作;
使用Kafka作为MQ,更确切说是消息通道;
1.3 OLAP查询引擎Impala
Impala之前,我们有使用Presto的经验,后来因为运维上的问题,暂时下线了。Kylin15年很早的时候,在北京和kylingence官方有过一次深入沟通,仔细评估后发现斗鱼的场景不能发挥他的优势。最近Kylin重大版本之后,准备再评估一次。这方面应该有不少同学都有相关的经验,最后讨论阶段,大家可以一起聊一下。
可能对大数据组件不太熟悉的同学,可能对OLAP概念不太熟悉,主要是针对秒级大数据量查询场景。对应的OLTP 是针对事务处理,我们比较常见的MySQL和Oracle属于这类。这样解释大家可能接受起来会简单一些。
使用Impala作为SQL查询引擎,相比Hive整体提升5倍速度;使用了完全区别于MapReduce的一套数据处理模式。
我们主要做了一点:由于Impala是C++编写,为了提升性能,将部分高查询密度的UDF(如:JSON解析)替换为C++实现。使用HA Proxy作为Impala负载均衡器,均衡JDBC连接。避免 Impala Daemon 故障、重启时影响正常业务。这样,可以覆盖我们现在大部分的秒级大数据量查询(10亿级别)
1.4 Spark应用
Spark在斗鱼大数据生态系统有着举足轻重的作用。涉及到:
接入实时流(7*24h)各个场景的实时PV、UV统计,实时日志分析,服务接口性能监控,用户分布及其他报表等。已上线独立实时任务20余个。数据抽取与处理抽取异构数据源(MySQL,MongoDB),将其抽取数据合并、加工后写入数据仓库。每日凌晨触发数据抽取加工任务。为最重要依赖调度任务,为后续每日离线任务准备数据。数据分析/挖掘包含弹幕统计分析,流量渠道统计分析,垃圾弹幕识别,用户点击预测,用户分群,推荐系统等任务。这也是部门今年非常重视的一块,任务规模也在日益庞大。
部署:Spark on Yarn ,单节点部署,依赖Yarn环境
发布:基于自研发布系统,可配置一件部署
调度:基于自研发布系统,定时调度与依赖调度两种模式可选
告警:监控与告警系统支持任务执行监控及其结果校验监控
由于正在经历Spark大版本升级(1.6.xà2.1.x)进程之中,斗鱼数据平台部线上存在两个Spark集群来支撑目前的业务
1.6.3版本Spark基于线上yarn进行部署(Spark on Yarn): 66个节点 72G 内存/节点 22个核/节点2.1.0版本Spark基于Standalone: 12个节点 72G 内存/节点 22个核/节点
Spark生态中,我们主要用到的两个组件:
1.Zeppelin主要提供Spark SQL交互界面查询,数据可视化支持。后续将支持Python、R语言的建模,支持用户Notebook的提交和调度。
2.Alluxio基于内存的分布式文件系统,它是架构在底层分布式文件系统和上层分布式计算框架之间的一个中间件,主要职责是以文件形式在内存或其它存储设施中提供数据的存取服务。
底层的存储层和计算层的基础集群大概是这些。
2、基于ELK的统一日志监控系统
现在我们把es集群按业务场景划分为多个小集群,这样的可以避免不同业务出现抢占资源的情况。
多个ES集群,50+物理节点、每日15T+日志量,多实例部署,接入全站所有服务器日志;
年后,完成全部升级至ElasticSearch 5.X,性能提升明显;
废弃FlumeAgent,使用Firebeat、Rsyslog,小巧稳定、资源占用低;
为部分业务独立开发日志解析器,提高性能,有Java版和Spark版;
我们应用ELK的场景中,最难的就是在agent 资源占用和 agent抽取吞吐之间做权衡,想马儿快,又想马儿不吃草,会针对不同的语言栈,使用不同的agent是实现。
推荐日志使用JSON格式,降低解析压力、增减字段灵活;
我们agent会把日志灌入kafka,然后从kafka出口的日志流就需要稳定、格式化的结构往ES集群小batch灌,这样就出现了使用hangout和自研数据管道两种实现方式,hangout是java版的Logstash,效率仍然满足不了我们的要求,所以,有了基于spark 的自研日志消费管道。
对ELK的使用,算是踩坑无数。讲一些ES主要优化点:
1.索引按小时切分,当索引无数据写入时进行ForceMerge提升查询性能;
2.由于日志收集写请求远远大于读请求,保证每个节点有分片分摊写压力(每个节点1~2个分片),节点磁盘独立;
3.每台服务器(128G内存),1Master+2Data,预留大约一半内存作为System Cache提升查询性能;记住,一定要留足cache 。。
4.cluster.routing.allocation.same_shard.host禁止主从分片被分到同一台服务器上(不同节点),保证服务器宕机时索引可用;
ELK的整体优化思路是为了能抗住低延迟和大日志量的问题;现在我们已经能稳定在每日15T+日志量级,基于这一套统一日志监控系统,做了很多业务、服务的监控和告警。
我们现在吞吐量最大的实时数据流,100w+TPS,全站各个端所有用户行为的实时监控,可以实时看到整体打点水位、各个客户端、各个版本播放器的健康状况
这是推荐接口的实时Dashboard监控效果图:左上是每次请求的最大耗时、右上50分位和99分位耗时统计;左下是推荐接口的整体水位统计、右下是各个Tomcat实例的水位统计;这样可以对实时推荐接口的整体访问量、每个实例的请求量、性能水位、超时请求一目了然,监控神器。基于此可以做阀值的监控,解放双手。
现在每个核心接口分给不同同学来负责,人手配置一个类似的Dashboard。加上告警,就可以腾出手来了。
再分享最前面有一个大的架构图,最上层是数据应用层,我们会对外提供多种服务,包括个性推荐、实时监控、广告系统、风控系统、搜索引擎(基于ES)、后台数据应用等服务都是由我们自己来完成整个服务的部署,用以对外提供访问;这样,除了数据层面的处理,也对我们工程实现上提出了高要求,要能直接提供对外服务。我们现在的玩法是基于Docker生态构建完备的微服务体系来实现,直接上图
前后端完全分离,使用Nginx作为网关,代理后端服务。功能较单一,正在预研其他网关方案;
全面升级至SpringBoot,拥抱微服务;
1.使用内嵌的Web容器(Tomcat、Jetty、Undertow),由应用自己掌控整个生命周期,形成闭环;
2.容器化改造更平滑,提高应用弹性(方便统一底层系统环境、方便扩缩容);
3.内置的Metrics 接口使应用监控更方便。
这样,就讲到斗鱼服务容器化
1.使用K8S作为容器编排引擎,进行容器调度、运行、滚动升级、灰度发布;
2.暴露服务状态接口(isReady,isHeahthy),更好的利用K8S探针进行自我健康检查;
3.容器网络使用Flannel(VxLan模式);
4.使用Nginx作为网关代理外部请求(非容器网络内的请求);
5.进行容器化改造的过程中,对于需要暴露接口的服务,初期可以将服务容器网络设置为宿主机网络,避免接口无法访问的问题(尤其是在服务发现场景,注册的是容器IP,外部无法访问),后期进行宿主机端口感知、注册。
主要挑了核心组件来做简单分享,抛个砖;当然为了支撑Devops开发模式(每位同学从需求分析开始,一直负责设计、开发、测试、发布、运维、告警、优化等服务全周期),需要有配套的任务调度系统(基于ZK自研)、发布系统(基于Jenkins自研)、监控系统(自研)等系统限于篇幅不做展开;
2、斗鱼数据仓库
斗鱼数据仓库最开始就是一个Hive default库,导入的表是Nginx/PHP log。慢慢需要对注册用户进行统计分析,逐渐导入了注册表、礼物流水、充值表等等关系表。逐渐增加到近200张表粗放的放在default库,碰到权限、误删除等问题后,数据仓库分层刻不容缓;
斗鱼数据仓库分层主要分为以下几层:ods:ods层主要用来存储从业务数据库表,如MySQL,MongoDB同步过来的原始数据,以及线上用户行为等原始数据external:external层主要用来存放线上写到HBase数据建立的外部表,以及日志数据的外部表dim:dim层主要用来存放维度表信息,如直播间维度信息等dwd:dwd层主要用来存放从ods层以及dim,external处理清洗过后的数据,方便接下来的计算dw:dw层主要用来对用户或主播等进行一些轻维度的汇总ads:ads层主要是应用层的一些数据,如对外的报表数据archive:archive层主要是归档历史数据
数据仓库中还会根据业务以及数据类型做域的划分:
业务域:ad-广告,game-游戏数据域: log-日志域,pay-交易域
斗鱼数据仓库规范实施数据仓库基本的建设完成后,就会有一些用户操作数据的规范,如:SQL规范,数据时间周期的规范SQL规范主要有以下几个方面类型统一:double,string,bigint数据倾斜:group,count distinct,开窗函数表级&字段级注释条件语句类型必须一致case when语句必须要有else表查询带上库名称
开始同步数据时使用了开源的sqoop作为同步工具,由于对多数据源的支持不够丰富以及对内部系统的兼容性问题,逐渐放弃使用;
自研了Data-Porter工具作为目前主要的多种数据源与数据仓库间的同步工具。Data-Porter基于Spark Pipeline,将数据从DB读取为Spark RDD,再转为Spark DateFrame,最后使用Spark SQL将数据写入Hive,这种通过API由低阶到高阶的应用,实现了无附加操作的数据同步。
目前支持MySQL的数据库分库分表的同步,MongoDB集群同步以及数据源去重,但是也有一些不足的地方,比如对数据源目前还只支持了MySQL和MongoDB,后续会规划开发关于HBase等目前主要使用的数据源的同步支持。
3、斗鱼个性推荐系统
先看看斗鱼个性推荐的主要栏目位:
– App首页几乎都是个性推荐的栏目位,每个用户看到的都是依据自己口味推荐的直播间,千人千面;
– 直播列表中有特定的两个位置;
– 直播间页面中,有“超管推荐”,每个直播间看到的都不一样,百人百面。
其中App首页是完全千人千面,不同的分区、不同的房间,都是根据用户历史行为,预测的用户偏好进行推荐。可以看下斗鱼个性推荐的场景,很多,而且会越来越多。是公司的总体战略目标。
斗鱼个性推荐是从15年开始预研,线下做推荐方案对比、模型效果对比、实际数据试跑,到16年6月份才正式上线。从Web端的列表、直播间内的推荐位,同步APP端上线。现在APP首页大部分都是个性推荐位,做到千人千面的实时推荐;
个性推荐的算法模型选择是一方面,推荐服务本身工程实现的性能也是很大的考验,要支持500w的用户同时在线量,接口处理请求峰值近1w +QPS。得益于服务化,核心功能都配备完备的监控告警。正在上线的Docker容器化,可以大大提升服务的弹性,方便服务规模的扩缩。
个性推荐的效果好坏拼的就是用户画像,对自己用户越熟悉,推荐效果才可能越好;斗鱼的用户画像现在是这么玩的:
从上面的图可以看到,目前我们的推荐系统主要分为三个模块:推荐服务层、数据维护层、监控层。
1)推荐服务层推荐业务规则过滤,根据业务需求过滤不需要推荐的数据推荐算法配置,根据业务场景及推荐位配置不同的推荐算法ABTest分流,用于推荐算法对比及灰度上线结果数据格式化及排序
2)数据维护层基础信息数据使用dubbo提供服务,降低服务层对数据源的依赖基于物品相似、用户标签、KPI体系等算法,离线计算与实时计算相结合推荐算法数据存储,基于不同算法数据分开存储维护数据缓存策略,提升缓存命中率,降低DB请求
3)监控层接口可用性监控、接口性能监控数据质量监控,保证数据准确性推荐效果监控,实时关注推荐转化率
个性推荐无法速成,斗鱼个性推荐当前也有不少问题:
a.推荐规则单一,点击转化率约5成,仍有提升空间
b.推荐服务开发效率及扩展性不高
c.推荐数据分散,复用率低
4.斗鱼风控系统
这个图片有一个很励志的故事,是这样的:20平米房间,2万张卡,前期投入约40万,一天换一次,一个月内所有的卡都跑一圈。每月收入30万,高峰月入百万。工作室的日常:每天晚上将卡一张张取下来,更换新卡。这是黑产的一个缩影。
那斗鱼面对的黑产风险有:
这是前天我从淘宝上搜索斗鱼tv时的结果截图,可以作为现在斗鱼面对黑产形势的一个典型缩影。
主要集中在直播间人气(主播价值的一个衡量依据)、鱼丸(主播可兑换的礼物)、打折鱼翅(黑卡充值—重灾区,主播可以兑换,危害更大更直接)、主播刷关注,可以从淘宝价格上一瞥黑市上各个刷量的难易和获益程度。同时,在搜索结果中,也能看到斗鱼友台出现在搜索结果中,可见,黑产风险是整个行业要面对的,不仅仅是斗鱼。在这一块,是需要行业内的整体合作的,尽管这个合作有些障碍。
斗鱼风控系统是这样的:
1 大力惩治的同时,要保证用户体验,尽量降低误杀;
2 依据用户行为数据获取特征模型,提取作弊行为的特征模型;
3 针对IP和设备画像,对IP和设备进行嫌疑级别评级打分;
4 采用线上实时+离线分析双层识别模型为主,辅以“基于规则-rule-based”判断;
5 提取用户行为风险模型、用户风险评分等级
对照上图,挨个注释一下:
建设决策中心(Drools),识别各种作弊行为,优化反作弊算法模型。风控实时引擎,以实时弹幕、异地登录等关键行为实时流为基础,在结合账号防盗及充值消费数据,实时评估用户风险等级。
用户行为轨迹分析系统,协助分析用户作弊行为,提炼风控规则。风控离线引擎,不定期更新离线风控规则,接入决策中心,统一配置。
风控web管理平台,用于配置决策规则、黑白名单管理、行为轨迹查询等功能。风控数据服务化,对外提供安全访问的接口,实时查询用户风险行为,降低损失。
我们有很多数据;围绕数据我们做了很多努力;要让数据发挥更大的价值
1 、快速发展的小公司有哪些潜在的大数据处理场景?需要用到哪些关键的技术和架构?除了个性化推荐,还有哪些大数据落地的例子?离线计算在斗鱼的应用有哪些?
吴:我个人感觉上大数据一般都会被业务推着走,如果是特意要去玩大数据,可能会比较难推动。比如我从淘宝回武汉,在一号店干了一段时间,在某些场景,确实是不合适。。所以我建议,用集群的方式,先做一个简配版数据仓库,拿到了数据,才好想一些玩法。这个问题大概是这样。
2、看你们刚刚的集群有好几个,分为计算集群,和实时等,为啥不用yarn 的队列机制,分队列进行弹性计算,这样可以充分利用集群。cdh 有推出资源池,有没有去尝试?好几个集群维护比较麻烦,你们这帮是怎么管理的?
吴:我们现在用的cdh版本,也是基于的yarn管理集群资源。
3、对于北上广漂着的想回武汉发现的程序猿们有什么建议和忠告?
吴:这个问题我有经历,所以有发言权。我当时回武汉,是因为家庭原因。所以我是没有选择的情况下回的武汉。现在武汉的坑位比早两年已经多了很多,公司也多了很多。大公司的研发中心,本土起来的互联网公司都有不少。所以坑位有了,就看自身的成长,能不能满足这些坑的期望。我们的offer被好多公司都有抢过,所以薪资这块,我觉得也不是问题,呵呵。
4、斗鱼的负载均衡是如何做的?斗鱼数据安全是怎样保证的? 如果想构建自己的VPN服务器,有啥要注意的?
吴:按我的理解来回答,网站入口是DNS-lvs-nginx-服务容器,数据安全依靠权限管理(账号-角色-权限)。构建自己的VPN,这个我就不太了解的。太偏网络层面,得找IT同学帮忙。
5、我在北京工作已有五年。先后在百度,小米做过游戏视频分发的开发工作。大数据这一块接触的比较少。年后想回武汉发展。请问斗鱼有合适的坑吗?
吴:游戏和视频分发斗鱼现在没有自己做,但是从你的经历来看,在武汉肯定能有坑。
转载请注明来自36大数据():36大数据>> 斗鱼大数据的玩法
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。

我要回帖

更多关于 斗罗大陆头像 的文章

 

随机推荐