今天看啥  ›  专栏  ›  狗厂

Go代码重构:23倍的性能爆增

狗厂  · 掘金  ·  · 2018-07-12 03:45
sunsky303‘s随笔 工作、生活、兴趣、理想和思考

Go代码重构:23倍的性能爆增

 

几周前,我读了一篇名为“ Good Code vs Go Code中的错误代码 ”的文章,作者指导我们逐步完成实际业务用例的重构。

本文的重点是将“坏代码”转变为“良好代码”:更具惯用性,更易读,利用go语言的细节。但它也坚持将性能作为项目的一个重要方面。这引发了我的好奇心:让我们深入挖掘!


该程序基本上读取一个输入文件,并解析每一行以填充内存中的对象。

 

 

    作者不仅在Github上发布 了源代码,他还写了一个惯用的基准。这是一个非常好的主意,就像邀请调整代码并使用命令重现测量:
$ go test -bench =。

 

 
    每次执行μs(越小越好)

因此,在我的机器上,“好代码”的速度提高了16%。我们能获得更多吗?

根据我的经验,代码质量和性能之间存在有趣的关联。当您成功地重构代码以使其更清晰且更加分离时,您通常最终会使其更快,因为它不会使之前执行的无关指令变得混乱,并且还因为一些可能的优化变得明显且易于实现。

另一方面,如果你进一步追求性能,你将不得不放弃简单并诉诸于黑客。你确实会刮掉几毫秒,但代码质量会受到影响,因为它会变得更难以阅读和推理,更脆弱,更不灵活。

 

 

攀登mount Simplicity,然后降序

这是一个权衡:你愿意走多远?

为了正确确定您的绩效工作的优先顺序,最有价值的策略是确定您的瓶颈并专注于它们。要实现这一点,请使用分析工具!PprofTrace是你的朋友:

$ go test -bench =。-cpuprofile cpu.prof 
$ go tool pprof -svg cpu.prof> cpu.svg
 

 

一个相当大的CPU使用率图(点击SVG)
$ go test -bench =。-trace trace.out 
$ go工具跟踪trace.out
 

 

彩虹追踪:许多小任务(点击打开,仅限Chrome)

跟踪证明使用了所有CPU内核(底线0,1等),这在一开始看起来是件好事。但它显示了数千个小的彩色计算切片,以及一些空闲插槽,其中一些核心处于空闲状态。我们放大:

  一个3毫秒的窗口(点击打开,仅限Chrome)

每个核心实际上花费大量时间闲置,并在微任务之间保持切换。看起来任务的粒度不是最优的,导致许多上下文切换以及由于同步而导致的争用。

让我们检查一下竞争检测器是否同步是正确的(如果没有,那么我们的问题比性能更大):

$ go test -race 
PASS

是!!看起来是正确的,没有遇到数据争用情况。测试函数和基准函数是不同的(参见文档),但在这里他们调用相同的函数ParseAdexpMessage,我们可以使用 -race

“好”版本中的并发策略包括在其自己的goroutine中处理每行输入,以利用多个核心。这是一种合法的直觉,因为goroutines的声誉是轻量级和廉价的。我们多少得益于并发性?让我们与单个顺序goroutine中的相同代码进行比较(只需删除行解析函数调用之前的go关键字)

     

 

每次执行μs(越小越好)

哎呀,没有任何并行性,它实际上更快。这意味着启动goroutine的(非零)开销超过了同时使用多个核心所节省的时间。

自然的下一步,因为我们现在顺序而不是同时处理行,是为了避免使用结果通道的(非零)开销:让我们用裸片替换它。

    每次执行μs(越小越好)

我们现在从“好”版本获得了大约40%的加速,只是简化了代码,删除了并发(差异)。

 

 

使用单个goroutine,在任何给定时间只有1个CPU内核正在工作。

现在让我们看一下Pprof图中的热函数调用:

 

 

发现瓶颈

我们当前版本的基准(顺序,带切片)花费86%的时间实际解析消息,这很好。我们很快注意到,总时间的43%用于将正则表达式与(* Regexp).FindAll匹配  。

虽然regexp是从原始文本中提取数据的一种方便灵活的方法,但它们存在缺陷,包括内存和运行时的成本。它们很强大,但对于许多用例来说可能有点过分。

在我们的程序中,模式

patternSubfield =“ - 。[^  - ] *”

主要用于识别以短划线“ - ” 开头的“  命令 ”,并且一行可能有多个命令。通过一些调整,可以使用bytes.Split完成。让我们调整代码(commitcommit)以使用Split替换regexp:

 

 

每次执行μs(越小越好)

哇,这是40%的额外增益!

CPU图现在看起来像这样:

     

 

没有更多正则表达式的巨大成本。从5个不同的功能中分配内存花费了相当多的时间(40%)。有趣的是,总时间的21%现在由字节.Trim  。

 

 

这个函数引起了我的兴趣:我们可以做得更好吗?

bytes.Trim期望一个“  cutset string”作为参数(对于要在左侧和右侧删除的字符),但我们仅使用单个空格字节作为cutset。这是一个例子,您可以通过引入一些复杂性来获得性能:实现您自己的自定义“trim”函数来代替标准库函数。在 自定义的“微调” 的交易,只有一个割集字节。

 

    每次执行μs(越小越好)

是的,另外20%被削减了。当前版本的速度是原始“坏”速度的4倍,而机器只使用1个CPU内核。相当实质!


之前我们放弃了在线处理级别的并发性,但是通过并发更新仍然存在改进的空间,并且具有更粗略的粒度。例如,在每个文件在其自己的goroutine中处理时,处理6,000个文件(6,000条消息)在我的工作站上更快:

 

 

 

  每条消息μs(越小越好,紫色并发)

66%的胜利(即3倍的加速),这是好的但“不是那么多”,因为它利用了我所有的12个CPU内核!这可能意味着使用新的优化代码,处理整个文件仍然是一个“小任务”,goroutine和同步的开销不可忽略不计。

有趣的是,将消息数量从6,000增加到120,000对顺序版本的性能没有影响,并且降低了“每个消息的1个goroutine”版本的性能。这是因为启动大量的goroutine是可能的,有时是 有用的,但它确实给go运行时调度程序带来了一些压力。

我们可以通过仅创建少数工作人员来减少执行时间(不是12倍因素,但仍然是这样)例如12个长期运行的goroutine,每个goroutine处理一部分消息:

 

 


 

每条消息μs(越小越好,紫色并发)

与顺序版本相比,大批消息的调优并发性删除了79%的执行时间。请注意,只有在确实要处理大量文件时,此策略才有意义。

所有CPU核心的最佳利用包括几个goroutine,每个goroutine处理相当数量的数据,在完成之前没有任何通信和同步。

选择与可用CPU核心数相等的多个进程(goroutine)是一种常见的启发式方法,但并不总是最佳:您的里程可能会根据任务的性质而有所不同。例如,如果您的任务从文件系统读取或发出网络请求,那么性能比CPU核心具有更多的goroutine是完全合理的。

 

 

每条消息μs(越小越好,紫色并发)

我们已经达到了这样的程度,即通过本地化增强很难提高解析代码的效率。现在,执行时间由小对象(例如Message结构)的分配和垃圾收集主导,这是有道理的,因为已知内存管理操作相对较慢。进一步优化分配策略......留给狡猾的读者练习。


使用完全不同的算法也可以带来很大的加速。

在这里,我从这次演讲中汲取灵感

  Go - Rob Pike中的词汇扫描

构建自定义Lexer()和自定义Parser( )。这是一个概念证明(我没有实现所有的角落情况),它不像原始算法那么直观,并且错误处理可能很难正确实现。但是,它比以前的优化版本节俭快30%。

 

 

每条消息μs(越小越好,紫色并发)

是的,与初始代码相比,这是一个23倍的加速因子。


这就是今天,我希望你喜欢这个旅程。以下是一些免责声明和外卖:

  • 可以使用不同的技术在多个抽象级别上提高性能,并且增益是乘法的。
  • 首先调整高级抽象:数据结构,算法,适当的解耦。稍后调整低级抽象:I / O,批处理,并发,stdlib使用,内存管理。
  • Big-O分析是基础,但通常 不是使给定程序运行得更快的相关工具。
  • 基准测试很难。使用分析和基准来发现瓶颈并深入了解您的代码。请记住,基准测试结果并不是最终用户在生产中遇到的“真实”延迟,并且将这些数字与盐分相提并论。
  • 幸运的是,工具(BenchPprof TraceRace detector Cover)使性能探索变得平易近人且令人兴奋。
  • 编写好的相关测试并非易事。但它们非常珍贵,可以帮助“保持正常”,即重构,同时保留原始的正确性和语义。
  • 花一点时间问问自己“足够快”的速度有多快。不要浪费时间过度优化一次性脚本。考虑到优化伴随着成本:工程时间,复杂性,错误,技术债务。
  • 在模糊代码之前要三思而后行。
  • Ω(n²)及以上的算法通常很昂贵。
  • O(n)或O(n log n)或更低的复杂度通常很好。
  • 隐性因素是不容忽视的!例如,文章中的 所有改进都是通过降低这些因素来实现的,而不是通过改变算法的复杂性类来实现的。
  • I / O通常是一个瓶颈:网络请求,数据库查询,文件系统。
  • 正则表达式往往是比实际需要更昂贵的解决方案。
  • 内存分配比计算更昂贵。
  • 堆栈中的对象比堆中的对象便宜。
  • 切片可用作替代昂贵的重新分配的替代方案。
  • 字符串对于只读使用(包括重新设置)是有效的,但对于任何其他操作,[]字节更有效。
  • 内存局部性很重要(CPU缓存友好性)。
  • 并发和并行是很有用的,但要正确起来很棘手。
  • 当挖掘更深层次和更低层次时,有一个“玻璃地板”,你真的不想在其中突破。如果你渴望asm指令,内在函数,SIMD ...也许你应该考虑去做原型,然后切换到低级语言来充分利用硬件和每纳秒!
谋胆并重

posted on 2018-07-11 18:50 sunsky303 阅读(640) 评论(3) 编辑 收藏

评论

#1楼 2018-07-11 19:01 博客园团队  

您好,文中的图片无法显示,麻烦上传一下图片 支持(0)反对(0)http://pic.cnblogs.com/face/35695/20140318223943.png   

#2楼[楼主] 2018-07-11 20:06 sunsky303  

@ 博客园团队
传了 支持(0)反对(0)http://pic.cnblogs.com/face/420532/20170329141435.png   

#3楼40183882018/7/11 22:24:40 2018-07-11 22:24 牛腩  

支持支持 支持(0)反对(0)http://pic.cnblogs.com/face/u41249.jpg    刷新评论刷新页面返回顶部 注册用户登录后才能发表评论,请 登录注册访问网站首页。 【推荐】超50万VC++源码: 大型组态工控、电力仿真CAD与GIS源码库!
【推荐】如何快速搭建人工智能应用?
【大赛】2018首届“顶天立地”AI开发者大赛
腾讯云0710 最新IT新闻:
· 小米前高管巴拉借IPO大赚一笔 持股价值2.09亿美元
· App Store十岁了,这里是和App有关的十个小秘密
· ARM和RISC-V公然开撕,GNOME之父指责ARM
· Facebook为学者提供1PB数据:供其研究虚假信息
· 请放过年轻人、放过我爸妈:知识付费,毒手正下沉
» 更多新闻... 最新知识库文章:
· 危害程序员职业生涯的三大观念
· 断点单步跟踪是一种低效的调试方法
· 测试 | 让每一粒尘埃有的放矢
· 从Excel到微服务
· 如何提升你的能力?给年轻程序员的几条建议
» 更多知识库文章...

导航

统计

  • 随笔 - 148
  • 文章 - 1
  • 评论 - 30
  • 引用 - 0

公告

搜索

   

常用链接

最新随笔

我的标签

随笔档案(149)

文章档案(1)

积分与排名

  • 积分 - 27900
  • 排名 - 15458

最新评论

阅读排行榜

评论排行榜

推荐排行榜

--written by sunsky303




原文地址:访问原文地址
快照地址: 访问文章快照