互联网运维工作的演进和规划

VicLai 2022-12-29 08:08:08

互联网运维工作,以服务为中心,以稳定、安全、高效为三个基本点,确保公司的互联网业务能够7×24小时为用户提供高质量的服务。

运维人员对公司互联网业务所依赖的基础设施、基础服务、线上业务进行稳定性加强,进行日常巡检发现服务可能存在的隐患,对整体架构进行优化以屏蔽常见的运行故障,多数据中心接入提高业务的容灾能力,通过监控、日志分析等技术手段,及时发现和响应服务故障,减少服务中断的时间,使公司的互联网业务符合预期的可用性要求,持续稳定地为用户提供服务。

在安全方面,运维人员需要关注业务运行所涉及的各个层面,确保用户能够安全、完整地访问在线业务。从网络边界划分、ACL管理、流量分析、DDoS防御,到操作系统、开源软件的漏洞扫描和修补,再到应用服务的XSS、SQL注入防护;从安全流程梳理、代码白盒黑盒扫描、权限审计,到入侵行为检测、业务风险控制等。运维人员需要保障公司提供的互联网业务运行在安全、可控的状态下,确保公司业务数据和用户隐私数据的安全,同时还需要具备抵御各种恶意攻击的能力。

在确保业务稳定、安全的前提下,还需保障业务高效的运转,公司内快速的产出。运维工作需要对业务进行各方面优化,比如,IO优化提升数据库性能,图片压缩降低带宽使用量等,使公司提供的互联网业务以较小的资源投入带来最大的用户价值和体验。同时,还需要通过各种工具平台提升内部产品发布交付的效率,提升公司内运维相关的工作效率。

运维工作分类

运维的工作方向比较多,随着业务规模的不断发展,越成熟的互联网公司,运维岗位会划分得越细。当前很多大型的互联网公司,在初创时期只有系统运维,随着业务规模、服务质量的要求,也逐渐进行了工作细分。一般情况下运维团队的工作分类(见图1-1)和职责如下。

图1-1  运维团队的工作分类

系统运维

系统运维负责IDC、网络、CDN和基础服务的建设(LVS、NTP、DNS);负责资产管理,服务器选型、交付和维修。详细的工作职责如下:

  • (1)IDC数据中心建设

    收集业务需求,预估未来数据中心的发展规模,从骨干网的分布,数据中心建筑,以及Internet接入、网络攻击防御能力、扩容能力、空间预留、外接专线能力、现场服务支撑能力等多个方面评估选型数据中心。负责数据中心的建设、现场维护工作。

  • (2)网络建设

    设计及规划生产网络架构,这里面包括:数据中心网络架构、传输网架构、CDN网络架构等,以及网络调优等日常运维工作。

  • (3)LVS负载均衡和SNAT建设

    LVS是整个站点架构中的流量入口,根据网络规模和业务需求,构建负载均衡集群;完成网络与业务服务器的衔接,提供高性能、高可用的负载调度能力,以及统一的网络层防攻击能力;SNAT集中提供数据中心的公网访问服务,通过集群化部署,保证出网服务的高性能与高可用。

  • (4)CDN规划和建设

    CDN工作划分为第三方和自建两部分。建立第三方CDN的选型和调度控制;根据业务发展趋势,规划CDN新节点建设布局;完善CDN业务及监控,保障CDN系统稳定、高效运行;分析业务加速频道的文件特性和数量,制定最优的加速策略和资源匹配;负责用户劫持等CDN日常故障排查工作。

  • (5)服务器选型、交付和维护

    负责服务器的测试选型,包含服务器整机、部件的基础性测试和业务测试,降低整机功率,提升机架部署密度等。结合对公司业务的了解,推广新硬件、新方案减少业务的服务器投入规模。负责服务器硬件故障的诊断定位,服务器硬件监控、健康检查工具的开发和维护。

  • (6)OS、内核选型和OS相关维护工作

    负责整体平台的OS选型、定制和内核优化,以及Patch的更新和内部版本发布;建立基础的YUM包管理和分发中心,提供常用包版本库;跟进日常各类OS相关故障;针对不同的业务类型,提供定向的优化支持。

  • (7)资产管理

    记录和管理运维相关的基础物理信息,包括数据中心、网络、机柜、服务器、ACL、IP等各种资源信息,制定有效的流程,确保信息的准确性;开放API接口,为自动化运维提供数据支持。

  • (8)基础服务建设

    业务对DNS、NTP、SYSLOG等基础服务的依赖非常高,需要设计高可用架构避免单点,提供稳定的基础服务。

应用运维

应用运维负责线上服务的变更、服务状态监控、服务容灾和数据备份等工作,对服务进行例行排查、故障应急处理等工作。详细的工作职责如下所述。

  • (1)设计评审

    在产品研发阶段,参与产品设计评审,从运维的角度提出评审意见,使服务满足运维准入的高可用要求。

  • (2)服务管理

    负责制定线上业务升级变更及回滚方案,并进行变更实施。掌握所负责的服务及服务间关联关系、服务依赖的各种资源。能够发现服务上的缺陷,及时通报并推进解决。制定服务稳定性指标及准入标准,同时不断完善和优化程序和系统的功能、效率,提高运行质量。完善监控内容,提高报警准确度。在线上服务出现故障时,第一时间响应,对已知线上故障能按流程进行通报并按预案执行,未知故障组织相关人员联合排障。

  • (3)资源管理

    对各服务的服务器资产进行管理,梳理服务器资源状况、数据中心分布情况、网络专线及带宽情况,能够合理使用服务器资源,根据不同服务的需求,分配不同配置的服务器,确保服务器资源的充分利用。

  • (4)例行检查

    制定服务例行排查点,并不断完善。根据制定的服务排查点,对服务进行定期检查。对排查过程中发现的问题,及时进行追查,排除可能存在的隐患。

  • (5)预案管理

    确定服务所需的各项监控、系统指标的阈值或临界点,以及出现该情况后的处理预案。建立和更新服务预案文档,并根据日常故障情况不断补充完善,提高预案完备性。能够制定和评审各类预案,周期性进行预案演练,确保预案的可执行性。

  • (6)数据备份

    制定数据备份策略,按规范进行数据备份工作。保证数据备份的可用性和完整性,定期开展数据恢复性测试。

数据库运维

数据库运维负责数据存储方案设计、数据库表设计、索引设计和SQL优化,对数据库进行变更、监控、备份、高可用设计等工作。详细的工作职责如下所述。

  • (1)设计评审

    在产品研发初始阶段,参与设计方案评审,从DBA的角度提出数据存储方案、库表设计方案、SQL开发标准、索引设计方案等,使服务满足数据库使用的高可用、高性能要求。

  • (2)容量规划

    掌握所负责服务的数据库的容量上限,清楚地了解当前瓶颈点,当服务还未到达容量上限时,及时进行优化、分拆或者扩容。

  • (3)数据备份与灾备

    制定数据备份与灾备策略,定期完成数据恢复性测试,保证数据备份的可用性和完整性。

  • (4)数据库监控

    完善数据库存活和性能监控,及时了解数据库运行状态及故障。

  • (5)数据库安全

    建设数据库账号体系,严格控制账号权限与开放范围,降低误操作和数据泄露的风险;加强离线备份数据的管理,降低数据泄露的风险。

  • (6)数据库高可用和性能优化

    对数据库单点风险和故障设计相应的切换方案,降低故障对数据库服务的影响;不断对数据库整体性能进行优化,包括新存储方案引进、硬件优化、文件系统优化、数据库优化、SQL优化等,在保障成本不增加或者少量增加的情况下,数据库可以支撑更多的业务请求。

  • (7)自动化系统建设

    设计开发数据库自动化运维系统,包括数据库部署、自动扩容、分库分表、权限管理、备份恢复、SQL审核和上线、故障切换等功能。

运维研发

运维研发负责通用的运维平台设计和研发工作,如:资产管理、监控系统、运维平台、数据权限管理系统等。提供各种API供运维或研发人员使用,封装更高层的自动化运维系统。详细的工作职责如下所述。

  • (1)运维平台

    记录和管理服务及其关联关系,协助运维人员自动化、流程化地完成日常运维操作,包括机器管理、重启、改名、初始化、域名管理、流量切换和故障预案实施等。

  • (2)监控系统

    负责监控系统的设计、开发工作,完成公司服务器和各种网络设备的资源指标、线上业务运行指标的收集、告警、存储、分析、展示和数据挖掘等工作,持续提高告警的及时性、准确性和智能性,促进公司服务器资源的合理化调配。

  • (3)自动化部署系统

    参与部署自动化系统的开发,负责自动化部署系统所需要的基础数据和信息,负责权限管理、API开发、Web端开发。结合云计算,研发和提供PaaS相关高可用平台,进一步提高服务的部署速度和用户体验,提升资源利用率。

运维安全

运维安全负责网络、系统和业务等方面的安全加固工作,进行常规的安全扫描、渗透测试,进行安全工具和系统研发以及安全事件应急处理。详细的工作职责如下所述。

  • (1)安全制度建立

    根据公司内部的具体流程,制定切实可行,且行之有效的安全制度。

  • (2)安全培训

    定期向员工提供具有针对性的安全培训和考核,在全公司内建立安全负责人制度。

  • (3)风险评估

    通过黑白盒测试和检查机制,定期产生对物理网络、服务器、业务应用、用户数据等方面的总体风险评估结果。

  • (4)安全建设

    根据风险评估结果,加固最薄弱的环节,包括设计安全防线、部署安全设备、及时更新补丁、防御病毒、源代码自动扫描和业务产品安全咨询等。为了降低可能泄露数据的价值,通过加密、匿名化、混淆数据,乃至定期删除等技术手段和流程来达到目的。

  • (5)安全合规

    为了满足例如支付牌照等合规性要求,安全团队承担着安全合规的对外接口人工作。

  • (6)应急响应

    建立安全报警系统,通过安全中心收集第三方发现的安全问题,组织各部门对已经发现的安全问题进行修复、影响面评估、事后安全原因追查。

运维工作发展过程

早期的运维团队在人员较少的情况下,主要是进行数据中心建设、基础网络建设、服务器采购和服务器安装交付工作。几乎很少涉及线上服务的变更、监控、管理等工作。这个时候的运维团队更多的属于基础建设的角色,提供一个简单、可用的网络环境和系统环境即可。

随着业务产品的逐渐成熟,对于服务质量方面就有了更高的要求。这个时候的运维团队还会承担一些服务器监控的工作,同时会负责LVS、Nginx等与业务逻辑无关的4/7层运维工作。这个时候服务变更更多的是逐台的手工操作,或者有一些简单批量脚本的出现。监控的焦点更多的在服务器状态和资源使用情况上,对服务应用状态的监控几乎很少,监控更多的使用各种开源系统如Nagios、Cacti、Zabbix等。

由于业务规模和复杂度的持续增加,运维团队会逐渐划分为应用运维和系统运维两大块。应用运维开始接手线上业务,逐步开展服务监控梳理、数据备份以及服务变更的工作。随着对服务的深入,应用运维工程师有能力开始对服务进行一些简单的优化。同时,为了应对每天大量的服务变更,也开始编写各类运维工具,针对某些特定的服务能够很方便的批量变更。随着业务规模的增大,基础设施由于容量规划不足或抵御风险能力较弱导致的故障也越来越多,迫使运维人员开始将更多的精力投入到多数据中心容灾、预案管理的方向上。

业务规模达到一定程度后,开源的监控系统在性能和功能方面,已经无法满足业务需求;大量的服务变更、复杂的服务关系,以前靠人工记录、工具变更的方式不管在效率还是准确性方面也都无法满足业务需求;在安全方面也出现了各种大大小小的事件,迫使运维团队投入更多的精力在安全防御上。逐渐的,运维团队形成之前提到的5个大的工作分类,每个分类都需要有专精的人才。这个时候系统运维更专注于基础设施的建设和运维,提供稳定、高效的网络环境,交付服务器等资源给应用运维工程师。应用运维更专注于服务运行状态和效率。数据库运维属于应用运维工作的细化,更专注于数据库领域的自动化、性能优化和安全防御。运维研发和运维安全提供各类平台、工具,进一步提升运维工程师的工作效率,使业务服务运行得更加稳定、高效和安全。

我们将运维发展过程划分为4个阶段,如图1-2所示。

图1-2  运维发展过程

手工管理阶段:业务流量不大,服务器数量相对较少,系统复杂度不高。对于日常的业务管理操作,大家更多的是逐台登录服务器进行手工操作,属于各自为战,每个人都有自己的操作方式,缺少必要的操作标准、流程机制,比如业务目录环境都是各式各样的。

工具批量操作阶段:随着服务器规模、系统复杂度的增加,全人工的操作方式已经不能满足业务的快速发展需要。因此,运维人员逐渐开始使用批量化的操作工具,针对不同操作类型出现了不同的脚本程序。但各团队都有自己的工具,每次操作需求发生变化时都需要调整工具。这主要是因为对于环境、操作的规范不够,导致可程序化处理能力较弱。此时,虽然效率提升了一部分,但很快又遇到了瓶颈。操作的质量并没有太多的提升,甚至可能因为批量执行而导致更大规模的问题出现。运维团队开始建立大量的流程规范,比如复查机制,先上线一台服务器观察10分钟后再继续后面的操作,一次升级完成后至少要观察20分钟等。这些主要还是靠人来监督和执行,但在实际过程中执行往往不到位,反而降低了工作效率。

平台管理阶段:在这个阶段,对于运维效率和误操作率有了更高的要求,运维团队决定开始建设运维平台,通过平台承载标准、流程,进而解放人力和提高质量。这个时候对服务的变更动作进行了抽象,形成了操作方法、服务目录环境、服务运行方式等统一的标准,如程序的启停接口必须包括启动、停止、重载等。通过平台来约束操作流程,如上面提到的上线一台服务器观察10分钟。在平台中强制设定暂停检查点,在第一台服务器操作完成后,需要运维人员填写相应的检查项,然后才可以继续执行后续的部署动作。

系统自调度阶段:更大规模的服务数量、更复杂的服务关联关系、各个运维平台的林立,原有的将批量操作转化成平台操作的方式已经不再适合,需要对服务变更进行更高一层的抽象。将每一台服务器抽象成一个容器,由调度系统根据资源使用情况,将服务调度、部署到合适的服务器上,自动化完成与周边各个运维系统的联动,比如监控系统、日志系统、备份系统等。通过自调度系统,根据服务运行情况动态伸缩容量,能够自动化处理常见的服务故障。运维人员的工作也会前置到产品设计阶段,协助研发人员改造服务使其可以接入到自调度系统中。

在整个运维的发展过程中,希望所有的工作都自动化起来,减少人的重复工作,降低知识传递的成本,使运维交付更高效、更安全,使产品运行更稳定。对于故障的处理,也希望由事后处理变成提前发现,由人工处理变成系统自动容灾。

运维的烦恼

如前所描述那样,随着业务和用户规模越来越大,公司对业务的稳定和质量开始重视起来,这时候公司才意识到需要专职的运维人员介入,而此时的业务系统已经变得非常庞大和复杂。此外,由于互联网产品快速试错的特点,服务架构也在不断地快速变化。

产品研发早期缺少相应的规范和标准,服务的部署方式、启停方式、配置和日志格式等都不统一,服务与服务之间的关联关系错综复杂,服务的各个环节都缺少监控;服务之间的耦合度很高,经常会由于一个小模块的崩溃,导致整个业务系统拒绝服务。

这个时候运维人员更像是保姆、消防员和拆弹专家。运维人员需要细心地呵护服务,让其健康地成长,就像照顾婴儿一样;成长中的服务,经常由于各种不规范带来的历史原因,出现很多意想不到的突发事情,这时候运维人员需要第一时间响应,进行业务的紧急恢复,类似消防员的角色;在日常的服务管理过程中,一个操作顺序或命令的错误,有可能直接让服务中断,这时候运维人员就像拆弹专家,既要细心大胆,又要有耐心,在危机时刻能够快速处理,做出正确决策。

保姆

消防员

拆弹专家

运维人员需要处理各种突发的服务故障,在早期缺少统一规范、缺少业务监控、基础设施不成熟以及业务不断快速变化的时候,运维人员几乎每天都在忙于应付各种大大小小的服务故障。如图2-1所示是一个真实案例中,某个月统计到的服务故障分类和占比。

服务故障分类和占比

除了程序自身导致的故障,机房漏水、机柜断电、光纤被挖断、网络攻击等各种问题也是不得不面对的。一个真实案例中,统计了一天中运维人员接收到的报警数,全天共10652次,运维人员每天都需要解决这些报警事件。其中各报警级别占比如图2-2所示。

各报警级别占比

注:根据监控项的重要程度对告警进行分级是一个很好的实践,P0级别优先级最高,需要立即处理。P3级别需要24小时内完成处理,P3级别大多数是CPU、内存、硬盘类资源超限预警。

业务快速变化、缺少统一规范、缺少文档和培训,运维人员基本上是摸黑接手服务。线上服务经常会埋着各种奇奇怪怪的坑,每一次服务变更都如履薄冰。

案例1

服务上下游处理超时时间不匹配,上游服务的超时时间设置为5毫秒,而下游服务的超时时间却设置成了10毫秒,下游服务还在正常处理请求中,可上游服务却因达到超时设置而将本次请求丢弃了,最终客户端不断重试,导致服务器端压力增大。

一个真实案例中,遇到过上下游服务超时时间单位不一致的情况,因为系统中的各个服务是不同的研发人员负责的,在联调过程中忽略了一些问题,导致上游服务使用秒作为超时时间单位,下游服务却使用了毫秒。某次下游单机故障时,运维人员发现上游容错机制完全无效,依然导致其堆积了大量请求,最终影响服务整体性能。经过了较长时间的追查,才发现是由于超时时间单位问题引起的。

由于缺少规范化,给运维带来了无形的风险,而且故障定位也比较困难。

案例2

集群服务是多台服务器共同完成一个任务,它们之间的调用关系是通过在程序配置文件中配置IP地址或服务器主机名来宣告的。由于IP地址的易读性较差,一般会使用内网DNS提供的主机域名。但有些研发人员却通过修改本机/etc/hosts文件的形式自定义域名解析。这样的修改,使得对目标域名的解析是维护在每台服务器上的,这将极大增加运维管理的风险。试想100台相互存在调用关系的服务器,每台服务器上都需要维护与其他多台服务器的域名关系。当出现服务变更、故障处理、服务迁移时,需要所有上下游服务配合变更,带来很高的操作风险和复杂度。

关联关系

运维属于技术线的末端(见图2-3),产品研发、测试、上线后将持续不断地在线上运行着。互联网产品很少有产品下线的情况,经常会出现某个产品的产品经理、研发工程师、测试工程师都没有了,而这个产品依然还有运维人员在维护,持续提供服务。上游引入的任何缺陷,最终都由运维去承担,上游往往无法感受到运维的压力。随着业务的增长、服务与主机数量的增加,产品各个阶段的缺陷会被进一步放大,运维压力也越来越大。

图2-3

手工操作是初期运维团队的主要方式,渐渐的会形成一些工具或者系统,但都比较零散,适用场景较小,无法产生规模化。运维批量化和自动化所需要的信息非常少,这些信息基本上都靠人工录入,有哪些IDC,放置了什么服务器,服务器部署了什么服务,这些信息都没有自动采集和联动,无法给自动化系统提供必需的基础信息。运维的重复性工作非常多,又较多属于手工操作,不仅效率低,而且手工操作带来的失误率也比较多,几乎无法消除。

运维承受来自于外部不断增长的业务压力,以及快速发展中引入的各种缺陷。同时又面对内部生产力低下,导致工作效率低下和误操作较多的现状。运维是一个比较尴尬的工作,属于技术线的末端,人力、技术和资源的投入也属于末端。运维不出故障是正常,任何由于资源不足、基础设施不稳定、人员误操作导致的问题,都会被业务部门投诉。不过近年来,运维工作的价值越来越被大家认可,运维支持能力成为公司的核心技术竞争力之一。

运维工作需要从两个方向去解决上述提到的问题:提高内部运维效率和降低外部运维压力。

经过统计,运维工作中占比最多的是服务变更、监控管理、容量管理和故障处理。运维团队需要开发运维工具和平台,在运维数据准确的前提下让所有的工作尽量自动化起来。制定相关的标准和流程,运维人员在项目设计阶段就参与进来,进行设计评审,让研发人员交付的项目符合运维准入的要求。同时,让研发人员使用运维相关的工具,使研发、测试、上线阶段的部署行为一致,监控策略一致,且被测试验证过。

运维标准不是凭空制定出来的,需要满足运维自动化相关工具的最低要求。符合运维标准的产品,能够更加方便地进行一键部署,与监控联动等,这样才使研发人员有动力往运维标准靠拢,更积极地使用运维工具,标准和工具才能进一步得到推广和完善。

运维平台

服务可管理的前提是运维数据的准确性,而标准化和流程化是保证数据准确性的前提。只有提供准确的运维数据,才能进一步实现服务的运维自动化。所以,一个能够准确记录和管理服务信息的运维平台,对于运维的发展至关重要。

在运维团队组建初期,运维平台建设一直属于运维团队的工作重点。通过标准和流程的约束,保证信息准确地录入到平台,以便能够准确提供运维所需要的各种维度信息,帮助运维人员开发更上层的系统,获取运行状态、资源占用等信息,与部署系统联动进行服务的动态调度部署和故障容错。

一个真实案例中,早期的运维平台有服务器管理、IDC管理、监控(Zabbix)、密码管理、故障记录等这几个模块,更多的是信息记录,更像一个网页版的Excel。没有流程的引入,信息录入完全依赖于人。这个时候的信息仅仅用来对账,滞后不准确的数据无法作为运维工具的基础依据,更谈不上自动化。平台各个功能模块之间没有信息关联,所有信息如一个个孤岛,对于运维的价值非常低。

随着需求场景的进一步明确,平台在不断建设。形成了两个大的运维平台,即:资产管理平台和服务管理平台,如图3-1所示。

图3-1  两个大的运维平台

资产管理平台负责记录基础的物理信息,如:IDC、服务器(资产编号、参数、采购时间、供应商)、配件、网络设备、IP地址、ACL等。提供了多个子功能,如:预算管理、自助装机、故障报修、IP地址管理、ACL管理、LVS管理等。资产管理平台作为所有物理资源的唯一出入口,通过流程将预算管理、故障管理这些可能导致资产信息变更的环节打通。新采购的服务器录入到资产管理平台,服务器报废也必须经过它。通过资产管理平台,可以很方便地查询各种物理资源的使用情况。比如,一共有多少服务器、有哪些机房、机房的机柜分布情况、每个机柜摆放的服务器位置等信息。

服务管理平台记录了业务运维所需的逻辑信息,提供一个基于树状结构(注:后续简称“服务树”)和权限绑定的管理模型。基于服务树和权限管理,实现域名管理、监控系统、部署自动化、环境初始化等子功能。服务管理平台记录了多个维度的服务信息,比如,产品线内有多少台服务器;谁具备这些服务器的登录权限;产品线对外使用了哪些域名;服务器上部署了什么服务;服务运行的状态、版本、路径;服务都添加了哪些监控等各维度信息。

可以认为资产管理平台和服务管理平台的信息集合就是ITIL里的CMDB(Configuration Management Database)。由于每个运维子团队的分工不同,平台定位和用户场景不同,出于敏捷建设的考虑,将它拆分成了两个平台。资产管理平台的主要用户是系统运维工程师,他们关注设备的出入、维修等管理工作,交付资源给上层业务;服务管理平台的主要用户是应用运维工程师、研发工程师和测试工程师,他们关注服务运行的相关数据。虽然是分开的两个平台,但平台之间通过流程和API接口,实现了数据的相互关联。

资产管理平台负责底层的物理信息管理,提供API供服务管理平台查询和同步。服务管理平台通过API获取新交付的服务器列表及其详细信息,将它们归属到服务树产品线节点,分配对应的权限。应用运维工程师在服务树上领取空闲服务器,进行一系列的环境初始化、服务部署、监控添加等工作。应用运维工程师在服务管理平台提交报修申请、服务器归还等操作,通过API将信息推送到资产管理平台,由系统运维工程师进行相应处理。

两个平台负责所提供信息的准确性,对外提供API接口,可以供更上层的业务使用。基于这些信息,我们可以做更多智能化、自动化的工具开发。

资源使用率

服务器数量达到一定规模后,老板们开始担心了:“每季度这么大金额的服务器采购支出,我们的服务器资源使用率如何?”

指标计算

了解资源使用率的前提是记录所拥有的服务器资源以及归属,在服务器采购到位后,就开始跟踪服务器的各项资源指标。但每次老板们问到这个问题时,作为运维人员还是很难直接回答。虽然记录了每台机器历史的各项资源使用数据,但如何体现整体的资源使用情况,通过简单的指标表示出来还是比较麻烦的。

首先,我们不能把所有服务器罗列出来,逐台给老板汇报。

其次,每台服务器每天的资源占用情况是随时间,随业务特性动态变化的,需要将CPU、内存、磁盘、IO等每个动态变化的资源指标分别换算成一个值。

例如:一台CPU密集型的服务器,每个时间点访问量的不同,CPU使用率也是不同的,如图4-1所示。

最后,每台服务器每天的平均值,由于高峰期或低峰期的差值很大,均值没有任何参考意义。取每台服务器每天的最大峰值,有时候可能由于某一次数据传输,或者跑一个临时MD5运算导致CPU使用率突增,也不能合理代表这台服务器的CPU使用率。

图4-1  CPU使用率

了解到的业界一般的计算方法是:

  • 定义每天的业务高峰期比如为 10:00AM—10:00PM,求这段时间平均值表示该台服务器当天的使用率;
  • 每天取峰值的N个点,求这N个峰值点的平均值表示该台服务器当天的使用率。

对于定义业务高峰期,然后求平均值,我们认为不够精准,很多业务不一定白天时间达到它的峰值。如果每个业务都个性化定义高峰时间,工作量比较大,管理起来也很麻烦。每天取峰值的N个点求平均值,很多时候人工操作或者临时性的计算很容易把这个峰值提得太高。

推荐计算方法如下:

  • (1)每台服务器的CPU、内存、磁盘、IO、网卡数据每5秒钟采集一次;
  • (2)每天分别取这些数据的TOP 5%求平均值。

如图4-2所示为某台服务器某天的监控数据,我们计算出CPU、内存、磁盘和IO的数值如表4-1所示。

图4-2

表4-1 资源数值

资 源 项 数 值
CPU 98.12%
内存 73.29%
磁盘 58.69%
IO 29.05%

当然,怎么计算这个资源数值都没有问题,只要是统一的计算模型,能够表示所有机器的资源占用指标即可。我们这么计算是希望能够更接近服务器的平均峰值,消除一些临时性尖峰导致数值较大的问题。

指标展现

完成了资源使用率计算,但如何整体展现所有服务器的资源使用率也是一个问题。由于业务特性的不同,有消耗CPU的,有消耗内存的,也有类似离线存储消耗磁盘空间的,不可能把所有服务器的某项值加起来,然后求平均值,这样说明不了任何问题,而且值会低得可怜。在一个案例中,公司所有服务器每天的CPU值求平均值,CPU使用率只有28%左右。所有人看到这样的数据都会问一句话:“为什么我们的服务器资源使用率这么低?”

对于如何体现公司整体的服务器资源使用率这个问题,笔者也没有什么好的方法,不过可以从另外两个维度去体现。

  • (1)将整个公司这个维度拆解到最小的相同功能集群的粒度,统计和展现这些小集群的资源使用率情况。这个时候就需要结合之前提到过的“服务树”,我们通过服务树将公司的产品划分到产品线->子系统->集群这样的粒度,每个小集群的功能是类似的,这群服务器的资源使用模型也是类似的。研发或运维在提交采购预算时,以最小集群为单位。领导在审批预算时,可以很方便地查看该集群的资源使用情况,决定是否购买。
  • (2)每月统计出资源使用率不达标的最小集群,发给相关的研发主管和运维人员,督促他们尽快利用或者归还资源。如果一个集群的某项指标一个月内使用率没有超过30%,则认为它的资源使用不达标。

这样侧面解决了如何整体展现公司资源使用率的问题,给出最小集群资源使用率不达标的情况,展现的数据量比较少,而且能够很好地跟进和解决。还可以给出资源使用率不达标服务器和所有服务器的占比曲线,用来观察整个公司服务器资源使用率的变化情况。

这样既满足了工程师需要了解具体信息,执行改进的需求,也满足了老板需要了解整体信息,把握全局的需求。

怎么计算、怎么展现才算合理,每个公司都有自己的做法。当然,在你认为公司整体资源使用率都还不错的情况下,所有服务器的平均值也许可以作为一个基准,用来宏观监控整体资源使用率有没有变好或变坏也是挺不错的。

不达标原因分析

完成上述工作后,笔者所在的团队开展了一次资源使用率未达标服务器原因分析,按照未达标的原因进行了归类,如图4-3所示。

图4-3  资源使用率未达标原因归类

每类原因说明如下:

  • 灾备:该类型服务器属于对重要服务的备份服务器,平时没有或有很少的流量。
  • 特殊服务:该类型服务器属于特殊用途需要独占或者多副本存在,如KeyCenter、ZooKeeper,或类似博客对外服务又需要安全隔离的业务等。
  • 服务部署中:服务扩容、搬迁时,暂时未引入业务流量。
  • 流量未达预期:业务已经在线上运行,但由于流量预估不准确,服务上线后流量和计算量未达到预期。
  • 开发测试中:新服务小流量运行,处于开发联调阶段。
  • 测试环境:研发或测试的线下集群,用于压力测试、功能测试等。
  • 计划下线:服务优化、架构调整、业务功能裁剪等,空闲服务器处于待下线归还状态。
  • 故障中:服务器故障停止业务,处于维修状态中。
  • 高峰预留:为了应对比如电商抢购、春节短信等流量高峰,提前储备的服务器资源。

下面分析导致前几类原因出现的问题。

1.业务线预算不准确

  • 预估的业务流量较大,实际业务流量未达到预期,导致已经上线的服务器资源浪费。
  • 项目计划不准确,原计划3月份进行新服务上线或者扩容,结果项目延迟到6月份,导致3个月时间的服务器资源闲置。

2.服务器采购效率低,缺少快速伸缩的能力

  • 随着公司对于服务器需求的数量越来越大,很早以前那种随用随买的模式已经不适合了,转而采用服务器集采的模式,从预算申请,到领导审批、采购招标、供货商送货、服务器上架、系统装机交付等多个环节,在正常情况下会耗时2个月。那么业务部门往往会提前并较多地购买服务器,造成一定时间段的服务器资源浪费。
  • 为了应对某次突增几倍的业务活动流量,需要提前准备服务器资源。当活动结束后,服务器资源的归往往不及时,归还后其他业务部门消化这部分资源的时间也比较长。
  • 由于公司属于事业部群,服务器采购时资产是划分到各个事业部的。服务器资源归还后,还存在事业部间资产更新计算的问题。

3.缺少资源监控平台

  • 缺少资源监控和审查机制,业务部门浪费的机器也不会及时归还。

资源优化

看到这几类原因后,第一时间能够想到的解决方案就是公有云。类似AWS、阿里云的服务,能够快速地交付或归还虚拟机资源,按时间、按流量收费。虽然大部分业务是可以部署在公有云上的,但还有很多类似HBase、离线计算等对磁盘IO、内网带宽有较高需求的业务,不太适合在虚拟机上部署,成熟公司这部分业务的服务器数量一般占到30%~60%。

可以考虑公有云和自建机房相结合使用的方案,一方面可以通过缩短服务器采购周期,资源能够具备快速伸缩的能力,结合预算审批、资源监控等手段,将不达标服务器控制在合理范围内。其次,将适合弹性伸缩的业务部署在公有云平台上。综合考虑后,可选的解决思路如下:

  • (1)采用物理机租赁模式,提高服务器交付效率;
  • (2)支持私有云和公有云的使用,降低物理机的需求;
  • (3)统一预算平台,限制不达标业务的申请;
  • (4)资源监控,不达标服务器资源能够及时归还。

在IDC内部提供私有云的解决方案,进一步提升交付效率。对于无状态、安全不敏感、有突增服务器或带宽需求的业务,推荐使用公有云。

运维的未来

DevOps

相对于瀑布开发模式,敏捷开发过程的一个基本原则就是以更快的频率交付最小化可用的软件。高频率的部署,每天数百个版本的发布,经常会由于运维部署自动化程度的不足,导致部署任务堆积在运维人员的面前。对于研发人员而言,线上服务运行环境对其属于黑盒,研发、测试和上线时的行为不一致,研发和运维之间的沟通错位,会造成各种部署问题。为了解决传统意义上的研发行为和运维行为存在的脱节现象,提高持续交付的效率,DevOps的理念应运而生。为了适用与DevOps相关的快速部署节奏,ITIL流程的很多方面,特别是围绕着变更、配置和发布流程方面,需要将所有过程尽量自动化起来。

伴随着DevOps的理念,涌现出一批优秀的开源软件,比如Jekins、Puppet、Chef、SaltSatck、Docker等。Jekins属于持续集成的自动化构建工具;Puppet、Chef、SaltStack属于配置管理和任务执行类工具,方便我们快速同步变更到所需要的环境中。

Docker是近年来最火的开源项目之一,它在Cgroup、LXC基础之上封装,基于Linux内核支持的NameSpace进行资源隔离,实现了进程级虚拟化。早期我们考虑服务整体部署的时候,抽象认为每台服务器类似一个终端设备,每个需要被部署的服务是其上安装运行的App应用。为了达到服务整体部署,不破坏系统纯净的环境,我们制定了一系列部署要求。比如,要求服务所依赖的相关组件自包含、自解决;制定线上目录规范,进行环境隔离;要求所有服务必须有统一的启停接口,方便运维人员或系统进行控制管理等。在Docker出现后,这些部署需要考虑的前置条件都迎刃而解,Docker逐渐成为我们整个运维体系中一个不可或缺的关键组件,也是部署自动化、动态调度部署的前提。研发人员通过Docker进行服务封装,能够很方便地在开发、测试和线上环境中部署运行服务,达到部署行为的幂等。在此过程中,运维人员不需要过多的参与,只需要把Docker容器放置在合适的地方启动即可;在有IaaS、PaaS或者自有调度系统支持的情况下,甚至部署Docker容器、启动容器和监控服务的工作都可以由系统自动完成,整个部署工作不需要运维人员参与。

云计算

近些年来,随着云服务概念的普及、云服务厂商的持续投入、技术的不断发展,云服务的单位成本在持续下降,云服务已经成为一种不可阻挡的趋势。这给传统的IT建设理念,造成了一定的冲击。

传统的应用部署,需要兼顾应用程序、数据、运行时环境、中间层、操作系统、虚拟化、服务器、存储、网络等很多方面,单位建设成本和维护成本很高,同时对专业人才的需求更多、要求更高,无形中增加了业务运行的成本支出。图6-1描述了传统IT建设和IaaS、PaaS所关注的不同层次。

图6-1  传统IT和IaaS、PaaS方面的对比

IaaS(基础设施即服务),在传统应用部署的基础上,将OS以下的层次都负责起来,即操作系统、资源虚拟化、服务器、存储、网络,减少运维工作量;OpenStack作为领先的开源解决方案,也是我们运维体系建设的重要方向之一。提供商业服务的AWS,也是属于IaaS平台典型的代表。

安全问题是影响我们使用云服务的关键因素,和传统运维不一样,网络设备、宿主机等资源的权限都在云服务厂商手里,网络流量的出入也需要经过他们的设备,云服务厂商自身的安全规范和审计还比较薄弱。随着HTTPS的大量使用、VPC的成熟、云服务厂商自身安全加固等,这些安全因素也在逐渐减小。当然,由于所有用户使用虚拟机共享宿主机,虚拟机被攻陷获取宿主机的安全问题还依然存在,比如2015年5月份披露的毒液漏洞(VENOM,CVE编号CVE-2015-3456),攻击者可以在有问题的虚拟机中进行逃逸,获取宿主机代码执行的权限。

云服务的出现,我们不需要再关注OS层面以下的问题。随着云服务的逐渐成熟,能够提供足够的资源储备和交付效率,我们不需要投入大量的人力在机房建设、服务器采购和网络管理方面,也不需要储备更多的资源应对突发业务、网络攻击等。对于公司而言,资源得到进一步优化,不需要那么多的基础运维人员,而且效率比以往更高了。

PaaS(平台即服务),在传统应用部署的基础上,将应用的运行时环境、中间层通过规范化的方式给管理起来,并实现容量的自动伸缩。本质上,PaaS是作为一种应用部署的规范,并通过相应的机制来保障该规范的实施,以及进一步地实现资源的动态调度,达到容量自动伸缩的目的。PaaS由于具有强约束性,主要适用于简单业务,但不能满足比较复杂的业务架构。我们可以根据PaaS的特性,通过Docker容器将业务进行封装,使业务达到可随意部署和资源隔离的程度,并参考Borg的设计思路定制动态调度系统,通过系统调度服务的部署和监控,减少对应用运维人员的依赖。

云服务厂商还会提供其他各种类SaaS(软件即服务)的服务,比如CloudWatch、EMR(Elastic MapReduce)、RDS(Relational Database Service)、CloudFront等,进一步降低对运维人员的依赖,运维人员不需要搭建和运维相关的基础设施或服务。比如RDS提供丰富的数据库主从搭建、数据迁移、慢查询监控等功能,不需要数据库运维人员投入过多精力在数据库日常运维方面,可以把更过的精力投入在数据库设计和优化方面。

在传统网络架构中心,根据业务需求部署后,如果发生任何变更,都需要重新修改网络设备(如交换机、防火墙)的配置。这是一个非常痛苦的过程,并且不同品牌网络设备的OS都各不相同,统一配置的难度可想而知。在移动互联网瞬息万变的今天,高稳定和高性能的网络已经不足以支持业务的需求,灵活性和敏捷性更为关键。传统网络模式的问题在于它的封闭性和自治性很难与应用直接产生关系。随着SDN(Software Defined Network)技术的成熟,可以让其变得更轻而易举。SDN提出将控制层面和数据层面分离,通过集中或分布式控制器统一管控,通过OpenFlow协议提供网络的可编程能力,让用户可以在网络上定义各种应用程序,通过软件来定义逻辑上的网络拓扑,以满足对网络资源的不同需求,而无须关心底层网络的物理拓扑结构。在未来,网络设备也类似一台台服务器,由软件控制和管理,不需要过多依赖网络运维人员。

运维的未来是充满危机和挑战的,从当前虚拟化和云计算的发展趋势来看,未来的互联网服务一定是依托在云端。通过云服务厂商提供的各类服务组件,结合DevOps的理念,将运维所涉及的工作串联起来、自动化起来。运维人员的工作逐渐由体力密集型向脑力密集型转变,不再需要大量的运维人员从事那些基础建设、服务变更、故障处理等烦琐的体力工作。运维工作更大的方向是提供平台化的运维产品,提供运维数据的可视化、运维工作的自动化,由操作、响应类转变为优化、规划类的工作内容。甚至连传统的硬件设备管理,也逐渐地通过软件层面去实现,更加的高效和自动化。作为运维人员,已经不能和以前一样,只关注某个产品、某个领域的专业技能运维,我们需要关注技术的变化趋势,拥抱变化,做好运维转型,成为云服务建设或使用的专家,成为业务规划或性能优化的专家……

云原生

过去十年,随着云计算的发展,云原生技术架构逐步被更多的科技企业采纳和应用,主要体现在持续交付(continues delivery)、微服务和容器化(containerization)、构建可观测系统(building observable system)等等方面。在这个过程中,在组织架构上,也发生了相应的一些变化,主要体现为传统架构中,规模庞大的集中化职能团队,逐步打散后重新组合为更小更敏捷、相互独立的闭环应用开发团队(application development team),其作为一个个独立的 feature team,就着某个目标,快速迭代和验证,和业务一起为努力达成 Business KPIs 增砖添瓦。在这个看似自然而然的转变背后,却需要有着强大的「配套技术支撑」。

虽然在当下,技术分工越来越细,有负责 coding 的,有负责 CI/CD 的,有负责 infra 的,有负责 monitoring 的,有负责 chaos 的,等等,但是归根结底,作为技术团队,为了协同业务达成 Business KPIs,核心价值不外乎提炼为:如何把用户需要的、对用户有用的功能,更快地提供给用户,并保障这些功能稳定的工作,同时在这个持续迭代的过程中,通过软件工程等方法提升效率,进而降低成本

在这个组织变化演进的过程中,运维首当其冲,需要率先做出响应,解决好以下三个具体问题:

  • 如何支持业务更快的迭代;
  • 如何保障业务平稳的运行;
  • 如何通过软件工程方法论和实践(software engineering principles),持续提升自动化水平,以降低成本;

关于运维往云原生方向的组织转型,可以参考阅读快猫系列文章《建立云原生组织的8个要素》

建立云原生组织的8个要素

关于快猫星云

快猫星云是一家云原生智能运维科技公司,由开源监控工具“夜莺监控”的核心开发团队组成。

快猫星云打造的云原生监控分析平台——Flashcat平台,旨在解决云原生架构、混合云架构下统一监控难、故障定位慢的问题。Flashcat平台支持云原生架构、公有云、物理机/虚拟机、混合云等多种环境的监控数据统一采集,集告警分析、可视化、数据分析于一体,从业务到应用到基础设施,打通 metrics、logging、tracing、event,提供数据层、产品层、场景层真正统一的监控解决方案

本文遵循「知识共享许可协议 CC-BY-NC-SA 4.0 International」,未经作者书面许可,不允许用于商业用途的转载、分发、和演绎。本文内容,由 Wilbur、VicLai 等共同撰写,仅代表相关个人见解和立场,与任何公司、组织无关。

« 上一篇:Apache Hadoop HDFS 监控
» 下一篇:HAProxy 监控
快猫星云 联系方式 快猫星云 联系方式
快猫星云 联系方式
快猫星云 联系方式
快猫星云 联系方式
快猫星云
OpenSource
开源版
Flashcat
Flashcat
FlashDuty
Flashduty