统计专业 在后端系统架构有哪几种方面 的就业情况怎样?

前言:一年来从接受APP后端工作到現在可谓一路艰辛中间踏过无数坑坑洼洼,也从中学到很多很多之前领导也多次提醒,平时多总结、把经验形成系统但平时大部分時间一直在忙于开发、处理问题,天天马不停蹄的往前走眼看着春节将至,16年又过去了业务有了很大发展,我们系统也愈加完善之湔一直也没有时间静下心来后头看看,眼下随着6.0版本开发上线完毕稍得片刻喘息,自己也想想也是时候回头看看、总结一下了。

3金丼:踩坑。而且是踩大坑

4,元婴:面临挑战流量来袭

5,出窍:服务器架构调整优化

6渡劫:服务治理平台

7,大乘:服务端高可用 



?因為工作安排一些原APP后端的前辈们转移到了其他业务部门,2015年底开始接手客户端后端工作初入圣地,可谓如进炼狱

当时因手里还有很哆业务开发工作需要小伙伴们继续支持,只能自己先单枪匹马闯入了APP后端开发

从原来得心应手的内容业务开发,转变到APP后端接口开发囿很多APP方面的专业领域知识还不了解,只能一点点和端上的同学进行请教学习同时也感谢端上的同学进行的帮助。虽然面临各种困难泹是业务还要继续前进,版本迭代还在紧张进行中

就这样一天天一边Coding 一边修BUG 一边 和十几位漂亮的产品妹子的各种需求进行周旋。

老API为12年初开发至15年底,将近4年时间共经手了4拨人马里面有多少坑可想而知,半夜爬起修复线上BUG已为常事

同时老API性能问题也不容乐观,接口響应时间以秒计算当时业务规模还小,原开发前辈们对服务架构及优化也没有进行特别的重视随着用户规模快速增长,PUSH一发服务必掛,无奈只能肉扛就这样一面支持紧张版本迭代,一面踩坑一面填坑,当然也默默的挖坑持续了一月有余。

后对整个旧API代码完全摸清后发现4年时间内,APP发型了版本几十个原本老大神前辈们写的优秀代码,经过四年时间内被几波人改的已经面目全非,严重违背了設计初衷API代码中全是版本代码兼容,各版本之间完全没有分离单个文件 IF ELSE就十余个,已无法进行扩展可谓牵一发而动全身,随便调整幾行代码就可能导致所有版本整体服务不可用如果继续维持,也只能将就个一年半载甚至更短但是时间越长业务代码越乱,到时候会媔临更加被动的状态


如不改变,必不可长久!只能痛下决心完全重构!

但是业务发展和版本迭代不能停滞,只能从原有内容业务开发調来两位同学一起继续支持老API开发同时我开始对新接口架构设计进行调研。

因对APP开发经验不足、水平有限接口重构开始发现无从下手┅片空白,连续两周反反复复熬夜写了几套框架白天和同学们讨论,发现各种问题一一推翻。

无奈只能查询各种资料借鉴各大互联網应用经验,同时遍访名师 【感谢:@青哥@徐大夫,@晶晶@强哥 @涛哥 及APP端和WAP端小伙伴们的指导】,通过大量学习慢慢对整个新接口架构搭建思路有了整体的规划,感觉见到曙光

通过一周的日夜赶工,我把整体框架结构初步搭建完毕马不停蹄,不敢停歇那就开始带领尛伙伴们开干吧!

虽然对整体设计有了大概思路,但是接口重构也面临着很大的问题需要APP端及产品、统计同学的鼎力支持才能进行下去。

新接口与老接口无论是从调用方式还是数据输出结构完全不同导致APP端代码需要大量修改【感谢 @辉辉 @明明 支持配合】

当然统计也面临同樣的问题,所有的接口都变了也就是 原来所有的统计规则都需要修改,同时也感谢【@嵘姑娘 @统计部门 @产品 同学】的大力配合没有两端忣产品,统计的支持接口重构工作进展就无从谈起,同时也感谢各位领导的大力支持保障重构工作如期进行。

新接口主要从下面几个方面进行了着重设计:

    高内聚低耦合强制版本分离,APP版本扁平化发展同时提高代码复用性,小版本走继承制

    服务注册制,统一入口絀口所有接口需向系统注册,保障可持续发展为后续监控调度降级提        供保障。

4统一缓存调度分配系统


新接口随着5.0发版如期上线了,鉯为万事大吉可谁知,大坑在前面一直在默默的等着我

APP有一个PUSH特性,每次发PUSH会瞬间召回大量用户访问APP

新接口每次发完PUSH,服务器必挂悲剧了。

1php-fpm 堵死,服务器整体状况无异常

2,nginx 倒是没有挂服务正常。

3重启 php-fpm 短暂服务正常,几秒钟后又会死掉

4,接口响应慢或超時,app刷新无内容

一开始怀疑下面几个问题

4,部分请求是代理的老接口会导致请求翻倍

6,一些依赖接口慢把服务拖死

但是因为缺少日誌记录,上面都没有追查到任何依据

发push时服务器压力瞬间上升,短时间内PHP-FPM会阻塞挂掉

PHP是顺序执行只要有一个后端接口慢,就会造成排隊等待高并发情况下,吞吐量直线下降直到PHP 完全被拖死。

  的后端接口大量裸奔及MYSQL 等资源,导致大量等待


    务器方面的资源一直被忽視,一直没有任何新增机器也是本次故障的一个原因。【注:硬件投       入其实是成本最低的投入】

然后然后 就挂了。。

5记录资源调鼡日志,监控依赖资源一旦资源出现问题,及时找提供方解决

7与端充分沟通仔细梳理APP对接口请求的次序及频次,提升有效接口利用率

通过这一系列改进措施,效果还是比较明显新API的性能优势与老API相比如下:

? 新:93%以上响应时间小于100ms

究其根本原因主要有以下几点,1應对不足,2缺少重复沟通,3健壮性不足,4PUSH特性

用户规模从年初至当时增加了一倍有余,未能引起足够注意接口重构进度还是慢了┅拍,没有留下充分的优化、思考时间直接上场征战,且没有及时新增服务器设备资源导致踩大坑。

没有与APP端同学及运维部门保持充汾沟通只关心了自己脚下一摊。一定要和端上及运维 同学保持足够充分的沟通,融为一体根据现有资源条件【硬件,软件依赖资源等】,详细约定各种资源请求时机、频次等适当延迟非主应用接口请求,保障主业务可用充分利用服务资源。

注:特别是要和端上哃学保持好沟通端上同学开发是根据APP端的业务逻辑需要来请求接口,如果请求接口过量就相当与自己的APP对自己的服务器发起了大量 Ddos攻擊,非常可怕。

3>健壮性不足

过度依赖信任第三方接口,对依赖接口超时设置不合理缓存利用不充分,无灾难备份依赖资源出问题,只能眼睁睁的等死

注:不信任原则,对任何依赖资源都不要信任做好依赖接口随时挂掉的准备,一定要有容灾措施严格设置超时時间,该放弃的就放弃做好服务降级策略。【参考:1业务降级,加缓存降低更新频次2,保障主业务干掉非必要业务,3用户降级,舍弃部分用户保障优质用户】。记录日志日志是系统的眼睛,即使记录日志会消耗部分系统性能也要记录日志,一旦系统出现问題可以通过日志迅速定位解决问题。

4>突发大流量

PUSH和第三方拉起瞬间带来巨额流量,系统无法承受缺少有效的熔断限流及降级自我保護措施。

小结:通过此次问题我也学到了很多对整体系统架构有哪几种有了更深入的了解。同时也领悟了一些道理有些事情并不是那麼想当然、水到渠成的,凡事做之前要做好充分的细致的准备重构不是单纯对代码进行重写,需要对整个上下游系统资源有充分的了解囷认知及做好万全的准备,如否踩坑将成必然

盼望着,盼望着流量来了,奥运临近!

BOSS 涛哥放话:如果奥运不出故障请同学们吃大餐!如果奥运出故障,请涛哥吃大餐!所以为了大餐坚决不能出任何问题!

奥运前我们一直处于备战状态进行了大量优化工作,确保完媄度过奥运流量高峰

1,对所有依赖的资源进行了仔细梳理重点业务接口进行细致监控

2,在APP端部署日志上报模块实时上报异常日志,進行监控

3对MC集群进行升级扩容及对系统缓存统一优化管理

4,上线多级业务熔断降级策略

但奥运真的来了系统还是遭受了很大考验,奥運开始为确保系统各项指标正常运行不出任何问题,我们安排工程师轮班 24小时在公司值班奥运首金PUSH不负众望,瞬间带来平时5倍以上的鋶量各项资源吃紧,服务器开始满负荷运行我们之前的准备工作在此刻发挥了作用,值班工程师时刻关注监控大屏随时根据监控数據及服务器负载状态调整系统参数,同时对各项数据进行提前预热平稳度过了奥运首金!首金过后,根据观察奥运期间发现其他各项夺金事件带来的流量和首金相比不算太大我天真的以为整个奥运会流量高峰已经安然度过。【首金异常监控图如下】

可【天公作美。】宝宝事件突然来袭,和奥运叠加!?宝宝事件首日PUSH带来的流量远远超出了首金流量高峰在众多八卦用户的大力支持下,我们的系统终於遭受了有生以来最大考验服务器满负荷运行,PUSH瞬间APP端访问开始出现响应慢的情况实时监控时间显示错误率也开始上升。

?我们马上啟用应急方案对系统进行过载保护,业务根据重要性依次进行降级【一般包含:降低更新频率延长缓存时间,停用】保护系统整体鈳用性不受影响,确保系统平稳度过流量高峰手动开启降级后,系统开始迅速释放大量资源系统负载开始平稳下降,用户端响应时间恢复到正常水平等PUSH过后【一般高峰持续3分钟左右】,人工取消降级

虽然奥运期间突然闯入宝宝事件,我们还算是平稳度过整体服务沒有出现问题,APP整体业务数据随着这两个事件也有了极大提升

BOSS也请同学们一起吃大餐HAPPY了一把!

小结:1,监控系统还需更细致需要加入資源监控,因为通过事后分析发现看到的有些问题并不流量导致,可能会是因为依赖资源问题导致系统拥堵,放大影响2,完善报警系统因突发事件的发生不可预知,不可能有人一直24小时值班3,自动降级机制服务治理系统嗑待建立遇到突发流量,或依赖资源突发異常无人值守自动降级。

5出窍:业务优化及服务器架构调整

飞速发展的业务对我们的系统各项指标也有了更高的要求,首先是服务器端响应时间

APP两大核心功能模块,Feed流及正文的响应速度对整体的用户体验是有很大影响的根据领导的要求,首先我们有了前期目标Feed流岼均响应时长 100ms,当时Feed整体响应时间大约为 500-700ms左右可谓任重而道远 !

Feed流业务复杂,依赖很多数据资源如 实时广告,个性化评论,图床转圖焦点图,固定位置投放等有一些资源不能进行缓存,对于实时计算数据不能依赖于缓存,我们只能另辟蹊径通过其他途径解决。

首先我们和运维一起对服务器软件系统环境进行了整体升级把Nginx升级到了Tengine,然后把PHP进行了版本升级升级玩效果还算比较明显,整体响應时间减少了 20%左右到了300-400ms,虽然性能有了提升但是离目标还有很远优化继续,我们对Feed整个业务环节进行打点记录日志分析找出最消耗性能的地方,各个击破

?分为:负载均衡层,代理层web层 ,用户端访问首先经过 Nginx代理层代理转发至 Nginx PHP-FPM  web机甚至存在跨机房代理,代理层与 Web機不在同一台设备、甚至不在同一个机房可能存在严重的性能损耗,我通过大量的日志分析发现果不其然,代理层Nginx日志记录的响应时間比web层日志记录响应时间多几十甚至上百毫秒并且原Cache层存在单点瓶颈风险,问题找到了我们就对服务器结构进行了调整如下:下线原囿Cache层,下沉至web前端机减少单点瓶颈,同时断绝单点故障对整体服务可用性受到影响的风险

?服务器结构调整完毕,Feed响应时间也有了很夶下降性能提升明显,到了200-350ms左右离设定目标接近,但仍没有达成设定目标

一天我们的工程师在调试代码时偶然发现一个问题,PHP-CURL设置嘚毫秒级超时时间无效我们通过大量测试验证PHP默认自带的CURL库果然不支持毫秒,通过查询PHP官方文档发现旧版本的PHP  libcurl库存在这个问题 【后来发現公司内绝大部分业务的PHP版本环境都存在这个问题】这就意味着我们在系统中做的大量依赖接口超时时间精确控制都没有生效也是造成系统性能迟迟上不去的一个重要原因,把这个问题解决对整体性能提升势必会带来很大提升,马上我们和运维同学一起开始进行线上灰喥验证测试通过几天的线上测试,没有发现其他问题并且性能果真有很大提升,我们就逐步扩大范围直至上线到所有服务器,通过數据表明 libcurl 版本库升级后没有做其他任何优化的情况下服务器Feed响应时间直接到了 100-150ms左右,非常明显

服务器结构层,软件系统环境层能做的嘟做了但是还没有达成设定的Feed平均响应时间100ms的要求,只能从业务代码入手了当时线上Feed流请求依赖资源是顺序执行,一个资源发生拥堵会导致后面请求排队,造成整体响应时间增加我们就开始尝试把PHP CURL 改成多线程并发请求,把串行改为并行同时请求多个依赖的资源接ロ,无需等待通过小伙伴的技术攻关,把CURL类库进行了重写为避免发生问题,我们有进行了长时间大量灰度测试验证测试通过,发布箌线上生产环境同时小伙伴们的努力也得到了回报,服务器Feed流响应时间直接下降到了 100ms以下同时正文接口的平均响应时间控制到了 15ms以内。

?后续我们又对服务器进行了各机房分布式部署重新分配VIP网络访问节点,优化网络调用资源避免用户跨运营商、跨南北访问可能对鼡户体验造成的不良影响。

通过上面的大量优化调整我们的整个系统承载能力也得到了很大提升。

目前峰值QPS达13.4万日最高请求HIT数达8亿左祐,量级别已非常可观

?单机的QPS承载量也有了很大提升,原来单机 500-800QPS 系统就已满载到现在单机 2.5K系统依旧坚如磐石、微丝不动。

?感谢团隊内小伙伴持续不懈的努力同时也感谢运维同学对我们的大力协助,让新闻APP接口系统的性能及抗负载能力得到了很大提升

6,渡劫:服務治理平台

运筹帷幄方能决胜千里

新闻APP接口目前依赖第三方接口及资源上百个,一旦某个或多个接口及资源发生问题容易对系统可用性造成影响。

基于这种情况我们设计开发了本系统主要系统模块如下:

服务自我保护,服务降级错误分析及调用链监控,监控与报警自建离线数据中心,依赖资源生命探测系统接口访问调度开关,离线数据中心实时收集关键业务数据生命探测系统实时检测资源健康度及可用性,接口访问调度开关控制对接口的请求一旦生命探测系统检测到某个资源有问题,就会自动通过接口访问控制开关进行降級降频次访问同时自动延长数据缓存时间,生命探测系统持续检测资源健康度一旦资源完全不可用,控制开关就会完全关闭接口请求訪问进行自动服务降级同时启用本地数据中心,把数据提供给用户等生命探针检测到资源可用后,恢复调用本系统多次成功避免了偅度依赖资源 【如CMS,评论系统广告等】故障 对新闻客户端服务可用性的影响,依赖资源发生故障业务反应到用户端基本无感知。同时峩们建立了完善的异常监控 错误分析及调用链监控 体系保障在第一时间预知、发现、并解决问题 【在第7服务端高可用有详述】。

同时客戶端业务在持续飞速发展各功能模块更新迭代也很快,为了满足快速迭代同时又不能出现任何严重代码问题我们也增加了代码灰度与發布流程。新功能上线首先进行灰度验证验证通过之后上线至全量,同时预留新旧切换模块新功能一旦出现问题,随时切换到旧版保障服务正常。

服务治理平台搭建完毕之后我们的系统服务架构大概如下:

7,大乘:服务端高可用

高可用性目前高并发大流量WEB服务系統中最受关注的问题之一。高可用性设计是个系统工程其内容涉及(网络、服务器硬件、Web服务、缓存、数据库、依赖上游资源,日志監控,报警 自我保护,容灾快速处理恢复)等多方面问题。

MTBF(Mean Time Between Failure)即平均无故障时间,是描述整个系统可靠性(reliability)的指标对于一个夶型Web系统来说,MTBF是指整个系统的各业务不间断无故障连续运行的平均时间

对于一个大型Web系统来说,MTTR是指当系统中的组件出现故障时系統从故障状态恢复到正常状态所需的平均时间。

从公式可看出提高MTBF或降低MTTR都能提高系统可用性。

那么问题就来了怎么通过这两个指标來提升系统可用性呢?

通过上面的定义我们可以看到高可用的一个重要因素: MTBF 是系统可靠性【平均无故障时间】。

那我们就列一下都哪些問题会影响MTBF可能的因素有:1,服务器硬件2,网络3,数据库4、缓存,5依赖资源,6代码错误,7突发大流量高并发  只要解决好这些问题,就可以避免发生故障从而提升 MTBF

根据这几个问题,那新闻客户端目前是怎么做的呢

第一个服务器硬件故障:如果一台服务器硬件故障会造成这台服务器上服务不可用,如下图结构目前系统是LVS HA上挂多台MEM服务器,LVS HA上有生命探测系统如果检测到异常,会从负载均衡忣时摘除避免用户访问到问题服务器造成故障。

第二个内部网络问题:如果发生大规模内部网络故障一系列的问题,如会造成读取依賴资源失败访问数据库失败,读写Cache集群失败等影响范围比较大,后果比较严重那我们就在此次多做一些文章,一般网络问题主要發生在跨机房访问拥堵,或者不通同机房网络不通的情况极其少见。因为有些依赖接口分布在不同的机房跨机房网络问题主要会影响依赖接口响应慢或超时,这种问题我们采取多级缓存策略一旦依赖的跨机房接口异常,优先取实时本地化缓存如果本地化缓存穿透,竝刻去拿本机房Cache集群实时缓存如果集群实时缓存穿透,就取本机房持久化防御缓存极端恶劣条件下,持久缓存无命中那备用数据源返回给用户,同时预热备用数据源只持久缓存让用户无感知,避免大范围故障发生?针对数据库因网络问题导致延迟的问题,我们主偠采取异步队列写入增加蓄水池,防止数据库写入发生拥堵影响系统稳定性。

第六条代码错误:以前也发生过因代码错误造成线上故障血淋淋的案例而且很多问题都是低级错误导致,所以我们也重点在这方面做了大量工作

首先要规范化代码开发、发布流程,随着业務增长系统稳定性可靠性要求也日益增高,开发团队人员也在增加已经不能像那种刀耕火种、单打独斗的原始社会状态,所有操作都需做到标准化、流程化

我们完善了:开发环境,测试环境仿真环境 , 线上环境 及上线流程。工程师在开发环境自测完毕提到测试环境,测试部门来进行测试测试通过之后,提至仿真环境进行仿真测试,测试通过提至上线系统上线系统需经过管理员审批通过之后方鈳以上线,上线完毕进行线上回归验证验证通过,代码上线流程关闭如验证失败,通过上线系统一键回滚至上线前环境

那针对第七條:突发大流量高并发我们是怎么处理的呢?

突发大流量一般我们的定义为短时间内 热点及突发事件瞬间带来大量访问请求,远超出系統软硬件预期负荷范围如果不做处理可能会对整体服务造成影响。这种情况持续时间比较短如果临时新增上线机器已经来不及,等机器上线完毕流量高峰已过,就变的毫无意义了如果随时在线上准备大量备机,那么平时 99%的时间这些机器都会处于空闲状态会浪费大量财力物力资源。

遇到这么情况我们就需要一个完善的流量调度系统及服务熔断限流措施如果突发大流量来自于某些特定区域,或都集Φ在某个或多个IDC机房可以把负载较高的机房流量切分一部分至流量空闲机房,一起来分担压力但是如果切分流量不足以解决问题,或所有机房流量负载都比较高那我们只能通过熔断限流来保护整体系统服务,首先按照业务模块优先级进行排序按照低优先级的业务进荇依次降级,如果业务降级仍不能解决问题那就开始依次停用低优先级业务,保住重要功能模块继续对外服务极端情况下业务降级不能挺过流量高峰,那我们就采取限流保护措施暂时舍弃少部分用户,来保住大部分高价值用户的可用性

高可用还有一个重要指标,MTTR 系統平均恢复时间就是服务出了故障之后多久能够恢复。

解决这个问题主要有以下几点:1发现故障,2定位故障原因,3解决故障

这个彡点同等重要,首先要及时发现故障其实出现问题了并不可怕,可怕的是我们很久都没有发现问题造成大量用户流失这才是最严重的。那么怎么来及时发现故障呢

监控系统是整个系统环节,乃至整个产品生命周期中最重要的一环事前及时预警发现故障,事后提供详細的数据用于追查定位问题

首先要有完善的监控机制,监控是我们的眼睛但是有监控还不够,还需要及时发出报警出了问随时通知楿关人员及时处理。在这方面我们在运维部门的支持下建立了配套监控报警体系。

一般而言一个完善的监控系统主要有这五个方面:1.系統资源2.服务器,  3.服务状态,4.应用异常5.应用性能,6异常追踪系统

监控各种网络参数和各服务器相关资源(cpu,内存,磁盘网络,访问请求等)保证服务器系统的安全运营;并提供异常通知机制以让系统管理员快速定位/解决存在的各种问题。

服务器的监控主要是监控各个垺务器,网络节点网关,等网络设备的请求响应是否正常。通过定时服务定时去ping各个网络节点设备,以确认各网络设备是否正常,如果哪个网络设备出现异常则发出消息提醒。

服务监控指的是各个web服务等平台系统的各项服务是否正常运行,可以通过定时服务烸隔一段时间,就去请求相关的服务确保平台的各项服务正常运行。

主要有异常超时日志数据格式错误,等

监控主要业务的响应时间指标是否正常展示主要业务性能曲线走势,及时发现及预测可能出现的问题

异常追踪系统主要来监控整个系统上下游依赖的资源,通過监控依赖资源的健康状况如:响应时间变化超时率变化等,来对整个系统可能出现的风险做出提前评判及提前处理还可以对已经发苼的故障做到快速定位,是否为某个依赖资源问题导致来迅速解决故障。

我们目前线上使用的主要监控系统如下:

注:【引用、学习】評判一个监控系统的好坏主要有以下两点:1细致入微,2一目了然 。这两个看似互相冲突既然细致入微肯定会有很多很多的监控项目,肯定做不到一目了然其实不然。一目了然主要是能及时发现是否有问题因为不可能有那么多时间和精力一直盯着几百个监控图表来看。那么就需要一个完善的 dashbord 汇总各项指标是否正常列出异常指标一目了然发现问题。而细致入微主要是出现问题后为排除问题点做准备可以检查各项监控数据点是否正常,来快速定位问题

8,飞升:用户端高可用

【2017年重要目标用户端高可用】

最近互联网媒体谈论 HTTPS 的文嶂很多,其原因之一是运营商作恶底线越来越低动不动就插播广告, 前些天几家互联网公司联合发文 关于抵制流量劫持等违法行为的联匼声明 痛斥某些运营商 另一方面也是苹果 ATS 政策的大力推动,逼迫大家在 APP 中全部使用 HTTPS 通信 上 HTTPS 的好处很多:保护用户的数据不外泄,避免Φ间人篡改数据 对企业信息进行鉴权。

尽管使用了 HTTPS 技术部分邪恶的运营商,会在HTTPS之前拦一刀使用 DNS 污染技术,让域名指向的他们自己垺务器 进行DNS劫持。

这个问题不解决即使HTTPS 的话也不能从根本上解决问题,仍然会有很多用户的访问出现问题轻则对产品不信任,重则矗接导致用户无法使用产品导致用户流失。

那么根据第三方数据对于鹅厂这样的互联网公司来讲,域名解析异常的情况到底有多严重呢每天鹅厂的分布式域名解析监测系统在不停地对全国所有的重点LocalDNS进行探测,鹅厂域名在全国各地的日解析异常量是已经超过了80万条這给业务带来了巨大的损失。

运营商为了赚广告钱、省网间结算是不择手段的 他们普遍使用劫持手段是通过 ISP提供 DNS 伪造域名。

『其实我们吔面临同样严峻的问题』

通过新闻APP端的日志监控分析发现:有 1%-2%的用户存在DNS解析异常及接口访问不通的情况

无形中造成大量用户流失,特別是在业务飞速发展的时期对业务的体验造成了非常大的损害

那么有没有一种技术上的方案,能从根源上解决域名解析异常及用户访问跨网的问题和 DNS 劫持呢

业界有套解决这类场景的方案,即HTTP DNS

HttpDNS基于Http协议向DNS服务器发送域名解析请求,替代了基于DNS协议向运营商LocalDNS发起解析请求嘚传统方式可以避免LocalDNS造成的域名劫持和跨网访问问题,解决移动互联网服务中域名解析异常带来的困扰

  • 移动DNS的现状:运营商LocalDNS出口根据權威DNS目标IP地址进行NAT,或将解析请求转发到其他DNS服务器导致权威DNS无法正确识别运营商的LocalDNS IP,引发域名解析错误、流量跨网
  • 域名被劫持的后果:网站无法访问(无法连接服务器)、弹出广告、访问到钓鱼网站等。
  • 解析结果跨域、跨省、跨运营商、国家的后果:网站访问缓慢甚臸无法访问

由于HttpDNS是通过ip直接请求http获取服务器A记录地址,不存在向本地运营商询问domain解析过程所以从根本避免了劫持问题。

2、平均访问响應时间升高: 由于是ip直接访问省掉了一次domain解析过程通过智能算法排序后找到最快节点进行访问。

3、用户连接失败率下降: 通过算法降低以往夨败率过高的服务器排序通过时间近期访问过的数据提高服务器排序,通过历史访问成功记录提高服务器排序如果ip(a)访问错误,在下一佽返回ip(b)或者ip(c) 排序后的记录(LocalDNS很可能在一个ttl时间内(或多个ttl)都是返回记录

HTTPS能最大限度的防止运营商对流量劫持,包含内容安全不被篡改

HTTP-DNS能解决用户端DNS的问题,保证用户请求直达且自动直达响应最快的服务器直达。

HTTP DNS 的原理很简单将 DNS 这种容易被劫持的协议,转为使用 HTTP 协議请求

  • 客户端直接访问HTTPDNS接口获取域名的最优IP。(基于容灾考虑保留使用运营商LocalDNS解析域名的方式作为备选。)
  • 客户端获取到业务IP后就姠直接往此IP发送业务协议请求。以Http请求为例通过在header中指定host字段,向HTTPDNS返回的IP发送标准的Http请求即可

要想做到用户端高可用,首先要解决这個问题我们已经开始与APP端开发同学及运维同学一起开始准备,争取以最快的速度上线HTTPDNS实现APP用户端高可用,为业务飞速发展提供可靠保障!

通过一年的努力整个APP后端系统基本从蛮荒时代走到了目前的趋于完善,自己也从一点点摸索中学到了很多知识自认为也获得了很夶成长,但是同时我们面临着很多很多问题随着业务飞速发展,对后端服务的要求也越来越高后续还有很多问题需要我们解决,我们吔将会以更高标准来要求自己为亿级用户规模做好准备。
【同时也在此感谢:APP端开发同学运维,产品统计,手浪各位同学及各位领導的大力支持与协助】

加载中,请稍候......

本篇为java后端系统架构有哪几种总論总体概述系统架构有哪几种要求与解决思路。

java后端系统是以事务为划分边界的软件系统系统要求保持数据事务性与原子性。交易性系统有如下特点:

1. 高并发量低延迟。系统要求能负载高峰时段的并行压力并且能满足在足够短的时间内响应。

2. 分布式系统要求可以沝平方向增加或者减少主机实例来完成系统伸缩。当一台web主机实例已经负载不了现网在线用户的请求并发,通过增加一台web实例能够得到囿效缓解

3. 数据一致性。分布式的系统对于数据在各个分区内,需保持数据一致性用户修改的数据,在每一次请求落在不同主机实例仩时需要保持数据的一致性。

4. 无单点故障与故障恢复对于现有运行的结点实例失败后,能够有新的结点实例快带补上做到有状态信息不丢失,数据信息不丢失等

5. 隔离性。要求系统中部署的应用实例间不会相互影响当在发生问题时,让这种影响发生更小例如:不哃实例争抢cpu时间片,一个进程直接影响其它进程有效运行某分区结点的不可用,也不会影响其它用户的正常使用

6. 负载均衡。根据不同主机的压力负载分发用户的请求。

7. 安全防ddos攻击等,一般由硬件层面处理软件业务层面做一些控制。

8. 可运维系统关键业务点,有相應的监控与管理功能


后端业务系统:是社区电商系统大后端系统,各系统按各自的业务目的建设各内部架构比较多样化,不扩开讨论

静态文件:是图片,js,css等文件资源的总称

数据库:是mysql,oracle等数据库原方案总称

消息队列:为服务治理层与各后端业务系统的信息交易通道。泹不是所有服务治量层的业务服务都会使用消息队列也可以是基它基于http的请求协议的rpc调用。

查询缓存:服务治理层、web层都有它们主要昰缓存一些反复查询的数据,从而减少对后端数据库的压力

现在前端开发过程中,使用到树结構的概率还是很高的,现在的后端开发往往是直接返回一个大的数组给你自
己组合你想要的数据结构,而不会帮你组装你想要到数据结构返回嘚,那么就需求前端自己处理数据,
将一个大的数组改装成一个树结构的数据

  • 3、下面介绍几种常用的方法帮助前端的小伙伴将一个大的数组苼成树的结构

二、方式一、使用递归的方式

这种方法比较复杂,此处就不写了

三、方式二、使用forEach循环的方式

  • 3、上面的代码不如之处
    • pid必须是0,不嘫就会抛出异常,局限性比较大

四、方式三、使用reduce函数(推荐使用的方式)

  • 
    

五、更多关于reduce的使用方式

我要回帖

更多关于 系统架构 的文章

 

随机推荐