大概是现阶段最详细游戏运转指南,英雄战迹乱象

作者:亚搏app官网    发布时间:2020-02-09 12:43    浏览:59 次

[返回]

本文由马哥教育M18期就职于腾讯游戏学员推荐,作者为吴启超、Tom,采编自腾讯课堂,感谢作者辛苦付出。

文章出自:听云博客

近期因游戏造成全民沉沦论的《王者荣耀》可谓是在风头浪尖上,超2亿注册用户、日活跃用户5000万、一月超30亿元的流水——《王者荣耀》已成为社会现象级手游,随之问题接踵而来。部分小学生沉迷后为买游戏道具刷爆家长银行卡、为抢夺游戏中“buff(增益效果)”大打出手。

编者按: 

这些问题怎么产生?

责任又应由谁来承担?

如何进行有效的防止沉迷监管?

       从端游到页游再到手游,15年来中国网游在世界上都有着举足轻重的地位。但是再好的游戏如果出现连接、延迟等问题时也会造成巨大损失,这时游戏运维便发挥了举足轻重的作用。中国网游的发展史,其实也是游戏运维的变革史,今天便由经典武侠手游《大掌门》运维掌门人吴启超来向我们讲述,进入游戏领域10余年来的风风雨雨。

种种问题引发社会广泛讨论。

有服务器的地方就有运维

       如今我们说到游戏,可能想到的是火爆异常的VR,办公室里一言不合带上眼镜就地开打;亦或是刚刚虐了李世石的AlphaGo,扬言要挑战《星际争霸2》“教主”Flash。然而,除去这些还有一个游戏行业不可避免的潮流正在发生,那便是网游化。

       这里说的不止是网游,前不久育碧旗下大作《全境封锁》上线时闹出个小笑话:由于很多国内玩家下载之前没注意是网游,下意识的以为育碧的游戏肯定是单机,好不容易下完之后才发现玩不上,进而发生了不少的骚动。这不是第一个发生这种情况的传统游戏厂商,肯定也不是最后一个,很多有名的游戏公司都在做类似的尝试,Popcap的《植物大战僵尸:花园战争》系列,暴雪的《暗黑3》等,甚至那些还有单机成分的大作也早就开始网络化:大名鼎鼎的《GTA5》、FPS风向标《使命召唤》系列和《战地》系列,网络联机部分的比重也在一年一年的增加。

       网络联机,意味着玩家需要登录官方服务器,“有人的地方就有江湖”,这句话说的不仅是网游里的恩怨情仇,还包括游戏外的种种:“有服务器的地方就有运维。”这便是今天我们要说的话题——游戏运维。

马哥Linux作为Linux运维的号,我们不想谈论《王者荣耀》的对与错,只想说的是:适当娱乐,不伤大雅。

游戏运维编年史

石器时代:端游

       想要了解如今的游戏运维,不得不从早期的端游运维开始说起。对于08年入行端游,11年经历过页游最后14年全面接触手游的吴启超来说,这几年的游戏运维经历让他深切感受到运维思路的巨大转变。

1.端游的运维工种:IDC运维、系统型运维、网络运维、业务型运维、运维值班等。各个工种分工各有侧重。

       IDC运维:装机、换配件、扛着2U的服务器全国各个机房来回跑。

       系统运维:安装各种软件,调试各种不兼容的软件,在各种版本的Linux、Windows上。

       网络运维:二层交换、三层交换、四层交换,还要区分华为、思科。

       业务运维:24点维护,零晨2点维护,零晨5点维护,早上7点维护……

       运维值班:0点盯着屏幕打电话,1点盯着屏幕打电话,2点盯着屏幕打电话……

       运维开发:写着各种的逻辑,因为业务、网络环境、BUG、刚刚帮忙扛完服务器。

2.端游运维业务范围:在端游时代,大部分游戏公司都是自主做各种业务环境,做各种游戏业务需要的各种环境。

       资产管理:服务器、交换机、各种服务分布位置,端口等。

       下载服务器:搭建BT集群,做种子、分发,供玩家下载游戏客户端使用。

       静态缓存服务器:squid + apache|nginx  

       邮件服务器:postfix +sasl +ssl 收发服务、反垃圾邮件服务。

       网络质量监控:somkingping各个机房的交换,各个安放点服务器。

       配置管理:nginx 、apache、lighttpd、MySQL。

       批量管理:ssh公钥/私钥 。

       监控管理:nagios、catcai 然后是c|perl|python|shell +rrdtool各种业务监控图。

3.端游游戏服务器架构:一般来讲都是以一组服务器集群为一个区服单位,单机上的进程提供不同的服务。

      图片 1

       传统运维,任务道远,正因为有过去那些年的翻译文档,兼顾整合方案,以及大批分享技术的前辈、社区,踩着前辈一步一个坑的走过来,才能有今天的运维的局面。

青铜时代:页游

       在2011-2013年左右的页游运维,游戏市场处于探索期,其实运维也处于探索期。端游时代每个新服都要经历上架、装系统,装服务的过程,一般一到两周可以上线一个区服,对于端游高粘性低流动的特性来说可能还好,但是当页游出现时,转变给运维带来的冲击无法估量。页游时代1天开100多个新服的概念,是传统端游运维所不能理解的。当时的运维认为页游就是把所有服务器实现自动部署服务,同时搭配运维自动部服工具就可以了。但事实上如果在开服时一组一组的使用物理服务器,开服速度根本跟不上,资源浪费还非常巨大,两周后用户留存率仅剩5%-7%。成本巨大亏空,急需技术转型,这个时间点上出现了两种概念影响了以后的手游以及云的发展。

1.虚拟化技术

       在2010年11月份左右, kvm出现在RHEL6中,去掉了RHEL 5.X系列中集成的Xen。正是这一次虚拟化技术的转型,而且当时市场的需要,在2011年-2012年掀起了一场私有云建设的风潮。在实践过程中,优点很多,但暴露的缺点也不少。在端游占主要市场的情况下,实践过程中表现出来的不适尤其明显。

       a.虚拟机时钟不准

       b.虚拟机网卡,超负荷down、丢包

       c.多虚拟机间争抢cpu、内存

       d.多虚拟机间的安全访问,虚拟机与物理机间的安全管控

       e.对于关系型数据库磁盘读写慢问题突出。

       f.等等

       以上几点随着时间的推移有的已经然后解决,有的换上了代替方案。时至今日,端游在单纯的虚拟云上部署仍是问题,但是随着物理、虚掩混合云出现,这个局面应该可以被打破。

2.社交化的页游

       社区化的页游戏,为什么这样说呢,因为当时更多的页游信托社区入口,导入用户流量,当时最火的应该是人人网(校内网)的农场偷菜。然后是DZ论坛一堆农场插件袭卷全国,当然这一切都是为了增加用户粘稠度。但是也影响了页游技术的选型,当时基本上大家不约而的选用了于社区相同的LAMP的技术,从而降低开发成本及接入成本。当然现使用JAVA SSH2架构的页游也有。除技术选型外,同时还带入了另一个概念:联运。联运这个概念在页游时代对于端游运维就像一个恶梦,不同区服要随时跨服站,不同区服要随时可以合区,所有数据不再是以物理服务器为单位,而是要逐条打标签,再也看不到账号,只能拿着一串长长的KEY,四处兑换,然后拿着不知道所谓的表标问第三方…….

       在这个时期,是运维开发的爆发年,随着虚拟化技术的推广,越来的越多的运维开始接触自动化运维的概念,开始了自动化运维的奋斗之路,开始了以项目管理的角度看待运维脚本开发。

黄金时代:手游

       随着私有云转为公有云、云时代推动着云计算以及移动互联网的发展,网游行业慢慢进入了手游黄金时代,云时代的变革不仅挑战了整个游戏行业,也挑战了游戏运维。

       1.手游的运维工种:系统型运维,业务型运维。

       2.手游运维业务范围:阿里云、 亚马逊 、UCloud、 蓝汛CDN、 听云监控。

       3.手游游戏服务器架构:一般来讲都是以一组服务器集群为一个平台单位,不同的集群提供不同的服务。

       图片 2

       手游的架构理念是提供一组虚拟服务器,当短连接的时候,每开一组服,将玩家引导到Web集群,随后被分配到不同的MongoDB,数据缓存用在Redis。当第一个服务器玩家请求DB时,会落到Mongo1上;当开第二个服的时候,还是将玩家引导到Mongo1上;以此类推直到运维发现压力累积到一定程度时,便会新开一组MongoDB,Web集群也是如此但只有性能不够时才会添加,一般情况下,每50个新服可能需要添加1个MongoDB。这便实现并解释了当时在页游里希望实现的快速开服方法。

       到此为止我们已经回顾了一遍游戏运维从端游到页游再到手游的演变过程,不难看出,手游对于区服的架构概念不同于端游:端游认为一个物理集群是一个服,而手游认为一个Web请求落到相应的数据库上就是一个服。这样的好处是开服合服都简单,如果前五十组服务器需要合并,实现起来很容易,因为同一个DB的数据是互通的,所以只需发一个公告,服务器加标识即可,不需要进行物理操作也不需要数据迁移。

今天小编带大家走进这些不为人知的幕后英雄Linux游戏运维的世界,一起窥探这神秘世界的一草一木。

游戏运维最强指南

       说完了游戏运维的历史,我们要开始今天的重头戏,如何做好游戏运维?这里就用吴启超的一个冷笑话作为开始:运维为什么存在?a,有服务器;b,因为研发忙不过来。不管是笑没笑,运维确实因为上面两个原因才会诞生的。那么回到正题,想成为玩转上千服务器的游戏运维应该怎么样做呢?系统部运维构建大致如下图:

       图片 3

构建CMDB

       21世纪什么最重要?信息最重要!运维所需信息要涉及:机房、物理服务器、虚拟机、交换机、网络、承载业务、业务配置、承载服务进程、端口等信息。不管是自己采购还是购买云服务,物理服务器和虚拟服务器都做为资产存在,在采购后录入相关的资产管理,给它打上标签,属于哪个游戏,哪个平台,这样不同游戏平台间就不能混用服务器了。然后,是再给不同的服务器标识它承担的业务角色,比如它是MongoDB,我们需要打上的标签会是大掌门-APPSTORE-MongoDB-主库-90000端口-第一组服务。这样一个基础信息录入就完成了。

       这样的信息只要是用来将来批量化部署、管理服务器使用,以及当出现故障时,运维可以很方便的查询相当的服务器以及服务信息。但是数据的及时性、准确性、可检查是一个难点。

集中批量化管理

       CMDB不是TXT文件,而是要变成EXE文件。运维在面临大量服务器的情况下,批量化工具的出现成为必须的结果,在日常的工作当中需要把其流程固化下来,为完成批量化安装、管理打下基础。大掌门喜欢使用 ssh sshpass paramiko libssh2这些基础的技术做批量管理。原因是不用安装简单、稳定、安全、可控。当然吴启超也表示推荐大家使用在市面上流程行puppet、Ansible、SaltStack等技术,为什么?简单、简单、简单!下图就是在做自动化半自动化运维过程中的模型。 

       图片 4

批量管理的难点在于:

       a.命令的并发执行,要控制各点的超时时间

       b.执行过程中,不同功能的不同权限要求

       c.数据通信安全的保证,以及能够正常解析数据指令

       d.人员账号权限管理,权限分发及回收

       e.物理服务器、云服务器统一化安装及老项目改造

       f.网络质量不可靠的情况下,执行不完整的情况下业务功能回滚。

性能与业务监控

  • 应用性能监控

1、每天都会对服务器进行上线,升级等操作,每款游戏在一个平台的集群数在几十个到几百个不等(根据平台大小)。因此每天维护和升级服务器压力极大,服务器异常或响应慢等问题的发生会给用户体验带来伤害。 这样的隐患在于一旦发生游戏关服之后就必须对玩家进行游戏中货币和元宝的赔偿,平均每个玩家补偿的元宝至少在5元以上,游戏币和各类游戏道具若干,以此类推由于服务器故障造成的损失可想而知。

2、大掌门使用了听云Server,能够对服务器响应慢和不可用进行定位,查看慢应用追踪和Web应用过程功能,能够实时定位消耗资源最大的代码和语句,这样就能帮助实时进行有针对性的调整和优化,并且可以快速定位问题时间,最快能到分钟级别。

图片 5

3、发生高并发、服务器压力激增的情况时,平时运行正常的服务器异常概率大幅增加,日常可能的性能瓶颈点会被成倍放大,这就需要实时定位和解决性能瓶颈点,和提前进行预防改善。一般来说,传统日志收集方式耗时耗力,效果非常不好,大掌门用了听云Server后,可以进行1分钟级定位能迅速有效发现瓶颈点。同时还结合了听云Network的压测功能,能够在服务器上线前提前发现到高压力下的瓶颈点,提前预防,避免由于高并发出现的服务器瓶颈。 

4、还有一种性能情况需要提前预防,游戏公司盈利在于玩家的充值,对于官网上从登陆到充值全流程的成功率业务部门极其关注,玩家点击跳转的失败会直接导致充值付费用户的转化率。对此,大掌门通过听云Network的事务流程功能能够实时对事物流程进行警报,帮助业务部门提升用户充值的转化率。

  • 业务监控

       除了性能和硬件监控之外,对于游戏业务运转是否正常也需要建立一套标准去评判。

       对此,大掌门开发了一套适用于全公司所有的游戏的统一登陆、充值、交易平台,解决了前端的SDK接入的问题,一个所有游戏或第三方的API接口统一接入的平台。在做业务型监控时,运维会要求后端开发人员写一个特定账号,在访问现有系统时,会完整的走一遍业务流,这样就可以看到需要的业务数字。

数据仓库搭建

       图片 6

       上图为大掌门数据仓库的结构图,由于数据仓库搭建的话题比较大,只是简单的从数据集市的角度来聊聊,DM指的是数据集市。由于数据集市需要面对不同的人群,因此在数据仓库中需要建立不同的数据集市以面对各方的查询需求,进而对数据按照业务类型进行分类。

       1、财务:关心月度充值数据

       2、商务:关心渠道结算数据

       3、运营:关心用户登陆量、转化率、留存率、平台充值额

       4、产品:关心功能热度、用户体验

       5、客服:关心所有数据及玩家属性

       对于数据方面,运维的压力来自于需要贯穿及掌握所有的数据,并且为所有部门服务。简单的以下图的ETL为例:

       图片 7

王者荣耀从2015下半年至今取得辉煌成就,正所谓最好的爱情莫过于各自努力彼此成就:),运维这期间是Tcaplus伴其成长,遇到了很多风险和挑战。

数据对于运维的痛点:

       1、日志切割工作谁做?研发还是运维。日志切割按什么规则?大小还是日期?

       2、使用什么工具进行日志收集?scribe 还是flume 还是 sls?

       3、数据的准确性谁来保证?日志内容不对、切割不对、传输丢失、入hadoop过滤

       4、数据ETL过程监控,如果出现数据丢失怎么办?

       5、数据采集怎么样尽可能的保证并发的采集,缩短时间。

       6、数据的出现丢失或错误,整体数据回滚。谁来保证?怎么保证?

       7、大量数据下,核对数据丢失情况怎么样核对?用什么方法?

Tcaplus的管理模块由存储服务全局管理系统(OMS)和tcapcenter组成,OMS向用户呈现基于web的管理入口,将用户的指令转发给tcapcenter,实际的控制、管理工作由tcapcenter完成,OMS则将操作的进度和结果反馈给用户。每个存储集群有一个tcapcenter,而OMS与tcapcenter之间是一对多的关系,因此一个OMS可以管理多个存储集群。

那大掌门又是如何解决这些问题的呢:

       1、将数据日志进行切割(按照业务打包日志)并合理命名。比如A登陆日志,B充值日志,C消费日志。分门别类进行打包后,对数据每5分钟切割1次,并生成md5包。

       2、按照划分IDC Region。原来从本机向外传输数据会占用大量带宽,对于本身CPU的消耗大的话都会影响游戏的运行。现在按照IDC region做出划分,每个区域中会有1-3个中心存储服务器。将切割下来的数据放到中心存储上,划分成Aip1、Aip2、Aip3等md5压缩包,此处无需做合并(原因见3)。

       3、建立下载任务。建立好任务列表后,对每5分钟的压缩包进行下载。考虑到如果上面的步骤做了合并的话就可能会产生在传输的时候丢数据却无法确定的情况,因此2步骤无需对数据进行合并。

       4、将下载后的任务加到Hive数据仓库里。将当天的数据放到MySQL中,之前的数据放到Hive里。当运营提出数据需求时便可以到Hive中下载数据。即使数据出现错误,按照上面建立的每5分钟的任务列表也可以重新以规定时间点将数据压缩包重新拉回来。并且该流程可以按照正向、反向双向进行。

       采用5分钟压缩包的另外一个原因在于每台服务器每天产生业务日志大概有5-6G的数据,分到5分钟后,切割完每个文件就是20M-30M,压缩后只占用很少的空间。这样就解决了占用大量带宽的问题。

       5、数据传输后需将数据放到数据仓库(DW)中,数据下载完毕后会根据文件进行存储,当天的数据按照5分钟1个压缩包进入MySQL,MySQL则进入当天的查询。在数据仓库中,数据包按游戏及平台进行分类,这种格局的安排为了在并发时更好的运行。由于游戏与游戏之间是隔离的,因此按照这种模式是为了保证数据进行顺利并发。

 

关于听云

       国内最大的应用性能管理(APM)解决方案提供商,拥有听云App、听云Network、听云Server、听云Browser、听云Sys五条重要产品线。在真实用户体验视角下实现移动客户端、服务端与网络的性能监控与管理。

 

原文链接:

2、存储集群是一组硬件资源的集合体,对其位置没有特别的限制,但按照惯例,同一个集群的节点都应在同一个IDC内,以保证存储服务的性能。

3、Tcaplus数据服务模块的工作原理:API client连接tcapdir,读取tcaproxy列表;tcapdir是Tcaplus API使用者在初始化系统时唯一需要提供的信息;tcapdir可以部署多个,以达到容灾的效果;API client获取tcaproxy列表之后,连接所有的tcaproxy进程。用户发送数据读写请求,Tcaplus API根据用户所指定的表名及key字段信息,决定将请求发送给哪个tcaproxy进程。tcaproxy进程接收到请求消息后,根据其维护的路由表确定目标tcapsvr master,然后将消息转发给该tcapsvr master。tcapsvr master接收到请求消息之后,进行数据读写,并生成响应消息,原路返回经由proxy到达API client. 如果请求消息类型为写操作,tcapsvr在发送响应之前,实际上还会生成一条binlog记录,在较短时间内同步至slave,使得slave可实时维护一份与master相同的数据。

Tcaplus整体架构

回到正题,说一说我们的游戏运维及运维的生存指南和现状。

一直以来,中国网游在世界上都处于举足轻重的地位。从最早的端游到页游再到手游,不仅市场用户爆发式增长,近15年来网游技术的发展也是无比迅速。和单机游戏不同,网游除了游戏制作本身以外还牵涉到服务器端,再好的游戏如果出现链接、延迟等问题时也会造成巨大损失,这时候游戏运维便发挥了举足轻重的作用。

中国网游的发展史,其实也是游戏运维的变革史,我们来看看网络游戏在中国的发展历程吧。

联众桌牌类游戏始于1998年,当然,严格意义上讲,这还算不上网游,真正的网游应该始于2000年开始的《万王之王》和里程碑的游戏《石器时代》;

2002年,《传奇》出现,为网游史添加上了浓重的一笔,也算是中国网游史的分水岭;

2003年,网络游戏被国家被纳入863计划,也正式纳入管理和审批。

顺带提一下,09年第二季度开始做网游老大、行业第一的腾讯游戏,也在这一年,出炉了第一款游戏,也是一款代理游戏、试水作:《凯旋》……由此开始,中国网游进入百花齐放的阶段。

不难看出,中国网游还是个孩子,游戏应用运维工程师,更是最近几年衍生的新生职业领域。 随着D/O分离的加速,游戏运维工程师越来越多的承担着更重要的责任。

一、有服务器的地方就有运维

如今我们说到游戏,可能想到的是火爆异常的VR,办公室里一言不合带上眼镜就地开打;亦或是刚刚虐了李世石的AlphaGo,扬言要挑战《星际争霸2》“教主”Flash。然而,除去这些还有一个游戏行业不可避免的潮流正在发生,那便是网络化。

这里说的不止是网游,前不久育碧旗下网游大作《全境封锁》上线时闹出个小笑话:由于很多国内玩家下载之前没注意是网游,下意识的以为育碧的游戏肯定是单机,好不容易下完之后才发现玩不上,进而发生了不少的骚动。这不是第一个发生这种情况的传统游戏厂商,肯定也不是最后一个,很多有名的游戏公司都在做类似的尝试,Popcap的《植物大战僵尸:花园战争》系列,暴雪的《暗黑3》等,甚至那些还有单机成分的大作也早就开始网络化:大名鼎鼎的《GTA5》、FPS风向标《使命召唤》系列和《战地》系列,网络联机部分的比重也在一年一年的增加。

网络联机,意味着玩家需要登录官方服务器,“有人的地方就有江湖”,这句话说的不仅是网游里的恩怨情仇,还包括游戏外的种种:“有服务器的地方就有运维。”这便是今天我们要说的话题——游戏运维。

二、游戏运维编年史1 石器时代:端游

想要了解如今的游戏运维,不得不从早期的端游运维开始说起。对于08年入行端游,11年经历过页游最后14年全面接触手游的吴启超来说,这几年的游戏运维经历让他深切感受到运维思路的巨大转变。

1.1端游的运维工种:IDC运维、系统型运维、网络运维、业务型运维、运维值班等。各个工种分工各有侧重。

IDC运维:装机、换配件、扛着2U的服务器全国各个机房来回跑。

系统运维:安装各种软件,调试各种不兼容的软件,在各种版本的Linux、Windows上。

网络运维:二层交换、三层交换、四层交换,还要区分华为、思科。

业务运维:24点维护,零晨2点维护,零晨5点维护,早上7点维护……

运维值班:0点盯着屏幕打电话,1点盯着屏幕打电话,2点盯着屏幕打电话……

运维开发:写着各种的逻辑,因为业务、网络环境、BUG、刚刚帮忙扛完服务器。

1.2端游运维业务范围:在端游时代,大部分游戏公司都是自主做各种业务环境,做各种游戏业务需要的各种环境。

资产管理:服务器、交换机、各种服务分布位置,端口等。

下载服务器:搭建BT集群,做种子、分发,供玩家下载游戏客户端使用。

静态缓存服务器:squid+apache|nginx

邮件服务器:postfix+sasl+ssl收发服务、反垃圾邮件服务。

网络质量监控:somkingping各个机房的交换,各个安放点服务器。

配置管理:nginx、apache、lig、MySQL。

批量管理:ssh公钥/私钥。

监控管理:nagios、catcai然后是c|perl|python|shell+rrdtool各种业务监控图。

1.3端游游戏服务器架构:一般来讲都是以一组服务器集群为一个区服单位,单机上的进程提供不同的服务。

传统运维,任务道远,正因为有过去那些年的翻译文档,兼顾整合方案,以及大批分享技术的前辈、社区,踩着前辈一步一个坑的走过来,才能有今天的运维的局面。

2.青铜时代:页游

在2011-2013年左右的页游运维,游戏市场处于探索期,其实运维也处于探索期。端游时代每个新服都要经历上架、装系统,装服务的过程,一般一到两周可以上线一个区服,对于端游高粘性低流动的特性来说可能还好,但是当页游出现时,转变给运维带来的冲击无法估量。页游时代1天开100多个新服的概念,是传统端游运维所不能理解的。当时的运维认为页游就是把所有服务器实现自动部署服务,同时搭配运维自动部服工具就可以了。但事实上如果在开服时一组一组的使用物理服务器,开服速度根本跟不上,资源浪费还非常巨大,两周后用户留存率仅剩5%-7%。成本巨大亏空,急需技术转型,这个时间点上出现了两种概念影响了以后的手游以及云的发展。

2.1虚拟化技术

在2010年11月份左右,kvm出现在RHEL6中,去掉了RHEL5.X系列中集成的Xen。正是这一次虚拟化技术的转型,而且当时市场的需要,在2011年-2012年掀起了一场私有云建设的风潮。在实践过程中,优点很多,但暴露的缺点也不少。在端游占主要市场的情况下,实践过程中表现出来的不适尤其明显。

a.虚拟机时钟不准

b.虚拟机网卡,超负荷down、丢包

c.多虚拟机间争抢cpu、内存

d.多虚拟机间的安全访问,虚拟机与物理机间的安全管控

e.对于关系型数据库磁盘读写慢问题突出。

f.等等

以上几点随着时间的推移有的已经然后解决,有的换上了代替方案。时至今日,端游在单纯的虚拟云上部署仍是问题,但是随着物理、虚掩混合云出现,这个局面应该可以被打破。

2.2 社交化的页游

社区化的页游戏,为什么这样说呢,因为当时更多的页游信托社区入口,导入用户流量,当时最火的应该是人人网的农场偷菜。然后是DZ论坛一堆农场插件袭卷全国,当然这一切都是为了增加用户粘稠度。但是也影响了页游技术的选型,当时基本上大家不约而的选用了于社区相同的LAMP的技术,从而降低开发成本及接入成本。当然现使用JAVASSH2架构的页游也有。除技术选型外,同时还带入了另一个概念:联运。联运这个概念在页游时代对于端游运维就像一个恶梦,不同区服要随时跨服站,不同区服要随时可以合区,所有数据不再是以物理服务器为单位,而是要逐条打标签,再也看不到账号,只能拿着一串长长的KEY,四处兑换,然后拿着不知道所谓的表标问第三方…….

在这个时期,是运维开发的爆发年,随着虚拟化技术的推广,越来的越多的运维开始接触自动化运维的概念,开始了自动化运维的奋斗之路,开始了以项目管理的角度看待运维脚本开发。

3.黄金时代:手游

随着私有云转为公有云、云时代推动着云计算以及移动互联网的发展,网游行业慢慢进入了手游黄金时代,云时代的变革不仅挑战了整个游戏行业,也挑战了游戏运维。

3.1手游的运维工种:系统型运维,业务型运维。

3.2手游运维业务范围:阿里云、亚马逊、UCloud、蓝汛CDN、腾讯蓝鲸、听云监控。

3.3手游游戏服务器架构:一般来讲都是以一组服务器集群为一个平台单位,不同的集群提供不同的服务。

手游的架构理念是提供一组虚拟服务器,当短连接的时候,每开一组服,将玩家引导到Web集群,随后被分配到不同的MongoDB,数据缓存用在Redis。当第一个服务器玩家请求DB时,会落到Mongo1上;当开第二个服的时候,还是将玩家引导到Mongo1上;以此类推直到运维发现压力累积到一定程度时,便会新开一组MongoDB,Web集群也是如此但只有性能不够时才会添加,一般情况下,每50个新服可能需要添加1个MongoDB。这便实现并解释了当时在页游里希望实现的快速开服方法。

到此为止我们已经回顾了一遍游戏运维从端游到页游再到手游的演变过程,不难看出,手游对于区服的架构概念不同于端游:端游认为一个物理集群是一个服,而手游认为一个Web请求落到相应的数据库上就是一个服。这样的好处是开服合服都简单,如果前五十组服务器需要合并,实现起来很容易,因为同一个DB的数据是互通的,所以只需发一个公告,服务器加标识即可,不需要进行物理操作也不需要数据迁移。

4.游戏运维最强指南

说完了游戏运维的历史,我们要开始今天的重头戏,如何做好游戏运维?这里就用吴启超的一个冷笑话作为开始:运维为什么存在?a,有服务器;b,因为研发忙不过来。不管是笑没笑,运维确实因为上面两个原因才会诞生的。那么回到正题,想成为玩转上千服务器的游戏运维应该怎么样做呢?系统部运维构建大致如下图:

4.1构建CMDB

21世纪什么最重要?信息最重要!运维所需信息要涉及:机房、物理服务器、虚拟机、交换机、网络、承载业务、业务配置、承载服务进程、端口等信息。不管是自己采购还是购买云服务,物理服务器和虚拟服务器都做为资产存在,在采购后录入相关的资产管理,给它打上标签,属于哪个游戏,哪个平台,这样不同游戏平台间就不能混用服务器了。然后,是再给不同的服务器标识它承担的业务角色,比如它是MongoDB,我们需要打上的标签会是大掌门-APPSTORE-MongoDB-主库-90000端口-第一组服务。这样一个基础信息录入就完成了。

这样的信息只要是用来将来批量化部署、管理服务器使用,以及当出现故障时,运维可以很方便的查询相当的服务器以及服务信息。但是数据的及时性、准确性、可检查是一个难点。

4.2 集中批量化管理

CMDB不是TXT文件,而是要变成EXE文件。运维在面临大量服务器的情况下,批量化工具的出现成为必须的结果,在日常的工作当中需要把其流程固化下来,为完成批量化安装、管理打下基础。大掌门喜欢使用sshsshpassparamikolibssh2这些基础的技术做批量管理。原因是不用安装简单、稳定、安全、可控。当然吴启超也表示推荐大家使用在市面上流程行puppet、Ansible、SaltStack等技术,为什么?简单、简单、简单!下图就是在做自动化半自动化运维过程中的模型。

批量管理的难点在于:

a.命令的并发执行,要控制各点的超时时间

b.执行过程中,不同功能的不同权限要求

c.数据通信安全的保证,以及能够正常解析数据指令

d.人员账号权限管理,权限分发及回收

e.物理服务器、云服务器统一化安装及老项目改造

f.网络质量不可靠的情况下,执行不完整的情况下业务功能回滚。

4.3 性能与业务监控

4.3.1 应用性能监控

1、每天都会对服务器进行上线,升级等操作,每款游戏在一个平台的集群数在几十个到几百个不等。因此每天维护和升级服务器压力极大,服务器异常或响应慢等问题的发生会给用户体验带来伤害。?这样的隐患在于一旦发生游戏关服之后就必须对玩家进行游戏中货币和元宝的赔偿,平均每个玩家补偿的元宝至少在5元以上,游戏币和各类游戏道具若干,以此类推由于服务器故障造成的损失可想而知。

2、大掌门使用了听云Server,能够对服务器响应慢和不可用进行定位,查看慢应用追踪和Web应用过程功能,能够实时定位消耗资源最大的代码和语句,这样就能帮助实时进行有针对性的调整和优化,并且可以快速定位问题时间,最快能到分钟级别。

3、发生高并发、服务器压力激增的情况时,平时运行正常的服务器异常概率大幅增加,日常可能的性能瓶颈点会被成倍放大,这就需要实时定位和解决性能瓶颈点,和提前进行预防改善。一般来说,传统日志收集方式耗时耗力,效果非常不好,大掌门用了听云Server后,可以进行1分钟级定位能迅速有效发现瓶颈点。同时还结合了听云Network的压测功能,能够在服务器上线前提前发现到高压力下的瓶颈点,提前预防,避免由于高并发出现的服务器瓶颈

4、还有一种性能情况需要提前预防,游戏公司盈利在于玩家的充值,对于官网上从登陆到充值全流程的成功率业务部门极其关注,玩家点击跳转的失败会直接导致充值付费用户的转化率。对此,大掌门通过听云Network的事务流程功能能够实时对事物流程进行警报,帮助业务部门提升用户充值的转化率

4.3.2 业务监控

除了性能和硬件监控之外,对于游戏业务运转是否正常也需要建立一套标准去评判。

对此,大掌门开发了一套适用于全公司所有的游戏的统一登陆、充值、交易平台,解决了前端的SDK接入的问题,一个所有游戏或第三方的API接口统一接入的平台。在做业务型监控时,运维会要求后端开发人员写一个特定账号,在访问现有系统时,会完整的走一遍业务流,这样就可以看到需要的业务数字。

4.4 数据仓库搭建

上图为大掌门数据仓库的结构图,由于数据仓库搭建的话题比较大,只是简单的从数据集市的角度来聊聊,DM指的是数据集市。由于数据集市需要面对不同的人群,因此在数据仓库中需要建立不同的数据集市以面对各方的查询需求,进而对数据按照业务类型进行分类。

1、财务:关心月度充值数据

2、商务:关心渠道结算数据

3、运营:关心用户登陆量、转化率、留存率、平台充值额

4、产品:关心功能热度、用户体验

5、客服:关心所有数据及玩家属性

对于数据方面,运维的压力来自于需要贯穿及掌握所有的数据,并且为所有部门服务。简单的以下图的ETL为例:

数据对于运维的痛点:

1、日志切割工作谁做?研发还是运维。日志切割按什么规则?大小还是日期?

2、使用什么工具进行日志收集?scribe还是flume还是sls?

3、数据的准确性谁来保证?日志内容不对、切割不对、传输丢失、入hadoop过滤

4、数据ETL过程监控,如果出现数据丢失怎么办?

5、数据采集怎么样尽可能的保证并发的采集,缩短时间。

6、数据的出现丢失或错误,整体数据回滚。谁来保证?怎么保证?

7、大量数据下,核对数据丢失情况怎么样核对?用什么方法?

那大掌门又是如何解决这些问题的呢:

1、将数据日志进行切割并合理命名。比如A登陆日志,B充值日志,C消费日志。分门别类进行打包后,对数据每5分钟切割1次,并生成md5包。

2、按照划分IDCRegion。原来从本机向外传输数据会占用大量带宽,对于本身CPU的消耗大的话都会影响游戏的运行。现在按照IDCregion做出划分,每个区域中会有1-3个中心存储服务器。将切割下来的数据放到中心存储上,划分成Aip1、Aip2、Aip3等md5压缩包,此处无需做合并。

3、建立下载任务。建立好任务列表后,对每5分钟的压缩包进行下载。考虑到如果上面的步骤做了合并的话就可能会产生在传输的时候丢数据却无法确定的情况,因此2步骤无需对数据进行合并。

4、将下载后的任务加到Hive数据仓库里。将当天的数据放到MySQL中,之前的数据放到Hive里。当运营提出数据需求时便可以到Hive中下载数据。即使数据出现错误,按照上面建立的每5分钟的任务列表也可以重新以规定时间点将数据压缩包重新拉回来。并且该流程可以按照正向、反向双向进行。

采用5分钟压缩包的另外一个原因在于每台服务器每天产生业务日志大概有5-6G的数据,分到5分钟后,切割完每个文件就是20M-30M,压缩后只占用很少的空间。这样就解决了占用大量带宽的问题。

5、数据传输后需将数据放到数据仓库中,数据下载完毕后会根据文件进行存储,当天的数据按照5分钟1个压缩包进入MySQL,MySQL则进入当天的查询。在数据仓库中,数据包按游戏及平台进行分类,这种格局的安排为了在并发时更好的运行。由于游戏与游戏之间是隔离的,因此按照这种模式是为了保证数据进行顺利并发。

三、游戏应用运维工程师的工作现状

1、对待需求:

有的响应需求,处理的很好,但,不懂得加入自己的思想和总结,每天积极的响应,但,长此以往,一直是积极的响应,像一部长期运转的机器……

有的响应需求,但在处理的基础上,分析需求,优化需求,尽可能的提升后期处理类似的效率;对于不合理的需求,尽快沟通、协调,当然,这是在充分了解游戏的基础上,可以知道需求可以对项目、对运营带来什么样的影响和作用。

2、对待游戏接入:

有的是要求什么做什么,哪怕之前有游戏运维的经验,也不太去考虑,前期的接入遗留的诟病,势必影响后期的运营

有的分析之前的游戏所有可能出现的风险、对待架构慎之又慎,尽可能规避所有后期可能遇到的短板。

3、对待游戏上线维护:

有的只是坚持着、做着,~~~

有的用周边可能用到的一切工具或者资源,去分析所有可能存在优化的地方

4、对待部门流程和建议:

有的不太主动思考,因此总结不多,即使有,也随着随之而来的需求、工作瞬间夭折而去~~~

有的尽可能多的去整理合理化建议、共享自己的所有的心得和总结,是交流,也是传承……

5、还有很多类似的点,但,总归一点,就是是否主动

是否主动思考、是否主动总结、是否主动优化、是否主动分享,是否有主动的心,决定一个 游戏运维人员在做什么和他可能提升的高度

四、游戏应用运维工程师的技能和素质要求?

会写脚本、会游戏的发布等操作、可以应付一些突发故障的处理、熟练操作linux就是一名合格的游戏应用运维工程师么?嗯,算,算是入门了吧

那么我们来看看一名游戏应用运维工程师的技能和素质要求吧

让我们打开你喜欢的任何一款搜索引擎,去搜索:“游戏 + 运维工程师 ” 去看看目前主流的游戏公司对这方面同学的要求吧,简单罗列一个,如下:

a、本科以上学历;

b、有一年以上服务器运维经验;

c、熟悉linux/UNIX等操作系统,有2年以上linux平台操作经验;

d、熟悉Shell编程,熟悉Perl/Python者优先;

e、熟悉主流数据库(Mysql/Oracle);

f、高度的责任心、良好的沟通技巧和团队合作精神,正直进取,有上进心;

g、拥有网络游戏运维经验者优先。

1、技能要求:每条后面都会跟一些注解

如果你翻一下大部分的搜索结果,其实答案已经明了:

A、有运维经验

培养一名真正的运维工程师相对付出的成本是相对较大的,因为,他说来说去是一个复合型职业,虽然D/O分离弱化了一部分比如开发相关的要求,但,网络、系统、脚本编程、数据库、游戏架构方面的知识等等都需要较多的积累和学习,否则,开始相对较为吃力

B、熟悉或者熟练 Linux/Unix等操作系统,并有比较久的操作经验

系统级的越熟练越有用,当然,基本的命令是必须的

C、熟悉任何一种脚本编程语言

基本上来说,shell编程基本要精通最好

D、主流数据库,比如Mysql、Oracle等至少要熟悉

也就是说,应用要至少没有问题,当然,优化等可以进行更好了,一些问题定位和处理、最基本的统计、优化建议等等都需要这些。

E、较丰富的安全、网络知识

很多时候,需要依靠这些知识去定位和解决问题

2、素质要求

A、主动性、积极、乐观

为什么要把这个排在第一位呢,其实,这个是运维效率提升的根本和对内外部满意度提升最有效果的一个素质,也是前面提到现状里运维人员出现差异和不同的决定因素;

优化和效率提升需要主动性和积极的驱动;

问题的解决需要主动性;

沟通需要主动性和乐观的驱使;

……

B、较强的沟通协调能力

游戏应用运维工程师面对的接口可能多达十几个:安全组、网络组、DBA、运营、策划、研发、周边开发等等,看着这些罗列,就应该不难想象,如果没有较强的沟通和协调能力,游戏应用运维工程师的工作将是非常被动和狼狈的。

C、能熬夜….

这个嘛,因为游戏的发布多半会选择在在线最低的晚上、凌晨、或者早上,所以,熬夜是必不可少的经历之一了,当然,陪着他们的还可能有测试、运营等;偶尔,半夜被叫起来定位问题,也是不可避免的。

D、绝对强的抗压性与必须的细心、细致和一丝不苟

经过上面种种的介绍,或许已经可以预料到,无论是运营、客服,还是研发,任何问题必须经过的一环便是游戏应用运维了,在高压的状态下,如何保持清醒的头脑和逻辑分析以及合理安排时间,显得极为重要,更重要的是,需要有在这种高压下持续作战的能力;当一切阻碍被慢慢改进、优化或者消除掉的时候,压力自然会就会少了。成长,也会伴随着这种压力自始至终……

当然,还有一点,他们是admin/root权利的拥有者,他们的一个操作可能使一切天翻地覆,任何的操作可能都需要细心的护航。

E、正直为先

游戏内数据的敏感性大家都已经很清楚;

他们的一丝邪念,修改数据以获取暴利,或许就会毁掉一个人的一生

但,这种做法和偷窃、抢劫毫无区别,当然,可以通过种种手段去限制和把控,但,防,只是手段而已。所以,正直,必须的条件之一,也是比较隐晦的条件…

F、较强的总结、创新能力

一切为了尽可能的提高运营力:质量和效率永远是运营支撑追求的目标。

G、前瞻性

每款游戏都有它的生命周期和发展走向

一切都需要时刻去想着:它会如何?后面该怎么做?目前的这种状态会保持多久?目前的支撑运营能力够不够?是否有优化点?如此种种~~~

H、一颗优化的心

无论是针对产品本身支撑层面的优化,还是针对整个部门平台或者公共组件的优化

当然,优化不是一时脑热,也不是豪放和粗狂,是点点滴滴的积累和每日的总结与凝聚的合力。

五、游戏运维职业的迷惘与发展前景

迷惘和职业现状:

游戏运维工程师经过几年的发展,逐渐已经成为游戏上线、运营不可或缺的主要组成部分,并对游戏运营产生比较大的影响和作用。但,目前大部分人对游戏运维的职业仍然会带给人不少迷惘,因为它不像其他诸如游戏研发、游戏策划、游戏美工等职位有非常明确的职业定位和比较明确的职业规划、没有这些职位有较强的职业认同感和成就感。

1、这个职业尚年轻,很多公司还处于成长和摸索阶段,由于起工作特性,可能很多小的公司D/O分离甚至都没有完全,很多公司的游戏运维工程师还在做着类似机房机器的上架、硬件级的维护等兼职工作。

2、自动化管理还未普及和完备,让这个工作的重复工作相对很大。

3、体系化的理念和技术还在建设和摸索

发展前景:

1、中国网游潜力依然巨大、各游戏公司对有经验的游戏运维工程师的需求量依然会很大

2、运维工程师技术含量及要求会越来越高,同时也是对公司应用、架构最了解最熟悉的人、越来越得到重视

3、游戏运维是一个融合网络、系统、开发、安全、架构、存储等的综合性技术岗位,给大家提供一个很好的个人能力与技术广度的发展空间

4、运维工作的相关经验将会变得非常重要,而且也将成为个人的核心竞争力,具备很好的架构知识、各层面问题的解决能力及方案提供、全局思考能力等

5、如果真要以后不想做运维了,转到其它岗位也比较容易,因为你所做的就是游戏运营,你所接触的,都是游戏运营的各类角色。这一切依赖你的经验和用心程度。

6、技术发展方向:游戏系统架构师、游戏运维专家

文章来自微信公众号: 马哥Linux运维

搜索