python高性能微服务框架japronto

最近由于业务,在看用 Python 写的一些微服务框架,查看资料偶然看到 Japronto 项目

这个项目的官方介绍是

Japronto (from Portuguese "já pronto" /ˈʒa pɾõtu/ meaning "already done") is a screaming-fast , scalable , asynchronous Python 3.5+ HTTP toolkit integrated with pipelining HTTP server based on uvloop and picohttpparser . It’s targeted at speed enthusiasts, people who like plumbing and early adopters.

特点官方已经用粗体标明: 极其快可拓展异步

并且看到了性能比较图:

python高性能微服务框架japronto

性能对比图(出自https://github.com/squeaky-pl/japronto)

感到十分震惊,因此查看了一下这个框架,并且进行了一下实际测量。

本次实验采用的是MacBook Pro Early 2015

CPU:2.7GHz Intel Core i5

内存: 8G 1867 Mhz DDR3

Japronto安装非常简单,因此在此没必要赘述,我们可以按照官方用的测试样例进行简单编写探讨:

from japronto import Application


def hello(request):
    return request.Response(text='Hello world!')


app = Application()
app.router.add_route('/', hello)
app.run(debug=True)

这是一个最基本的样例

压测选用的是 wrk 软件( 项目地址是 https://github.com/wg/wrk ),这是一个压测软件,可以在一个多核cpu机器中生成非常高的负载,并且采用多线程设计。

我们首先使用 10 线程10000 连接来测试 20 s

wrk -t10 -d20s -c10000 http://127.0.0.1:8080

使用 Japronto 得到的结果如下:

Running 20s test @ http://127.0.0.1:8080
  10 threads and 10000 connections
  Thread Stats   Avg      Stdev     Max   +/- Stdev
    Latency     8.79ms    5.68ms 130.32ms   90.38%
    Req/Sec     2.77k     2.43k   11.67k    75.04%
  551833 requests in 20.09s, 48.42MB read
  Socket errors: connect 9757, read 78, write 0, timeout 0
Requests/sec:  27468.38
Transfer/sec:      2.41MB

可以看到,有近 27.4k/srequest , 性能可以说非常高。相比之下, golang 所做的服务器的效率我们也可以进行一下测试:

Golang服务器测试结果

Running 20s test @ http://127.0.0.1:6888/
  10 threads and 10000 connections
  Thread Stats   Avg      Stdev     Max   +/- Stdev
    Latency   364.90ms  209.53ms   1.10s    62.27%
    Req/Sec     1.59k     1.20k    9.61k    88.92%
  313932 requests in 20.52s, 123.95MB read
  Socket errors: connect 0, read 0, write 0, timeout 33
Requests/sec:  15299.29
Transfer/sec:      6.04MB

Requests/sec15.3k/s , 效率明显低于 Japronto , 同时我们又对 Tornado 性能进行了比较,由于测试框架已经写了部分逻辑,因此比较时均选用计算 Fibonacci 数列第1项进行比较

使用 Japronto 计算 Fibonacci 数列得到的结果如下:

10 threads and 10000 connections
  Thread Stats   Avg      Stdev     Max   +/- Stdev
    Latency     9.83ms    2.70ms  33.98ms   75.53%
    Req/Sec     2.48k     2.61k   10.32k    80.24%
  494265 requests in 20.09s, 37.71MB read
  Socket errors: connect 9757, read 64, write 0, timeout 0
Requests/sec:  24596.95
Transfer/sec:      1.88MB

使用 Tornado 计算 Fibonacci 数列得到的结果如下:

10 threads and 10000 connections
  Thread Stats   Avg      Stdev     Max   +/- Stdev
    Latency     1.21s   550.13ms   2.00s    60.52%
    Req/Sec   234.02    283.96     3.28k    88.09%
  21391 requests in 20.07s, 2.73MB read
  Socket errors: connect 0, read 0, write 0, timeout 18967
Requests/sec:   1065.88
Transfer/sec:    139.48KB

显然 Tornado 的处理能力比较捉鸡,并且基本都 timeout 了,因此为了提高性能,用 golang反向代理,进行任务分发,在同意主机启动多个进程来实验是凑可以提高 Tornado 性能,实验的结果如下所示:

python高性能微服务框架japronto

多进程Tornado处理能力

即使进行了多进程任务分发,性能仍然比较一般,响应速度比较慢。

因此可以认为,虽然 Japronto 的性能没有官方描述得如此美好,但仍然是一个非常高效的框架。

原文 

https://studygolang.com/articles/17329

本站部分文章源于互联网,本着传播知识、有益学习和研究的目的进行的转载,为网友免费提供。如有著作权人或出版方提出异议,本站将立即删除。如果您对文章转载有任何疑问请告之我们,以便我们及时纠正。

PS:推荐一个微信公众号: askHarries 或者qq群:474807195,里面会分享一些资深架构师录制的视频录像:有Spring,MyBatis,Netty源码分析,高并发、高性能、分布式、微服务架构的原理,JVM性能优化这些成为架构师必备的知识体系。还能领取免费的学习资源,目前受益良多

转载请注明原文出处:Harries Blog™ » python高性能微服务框架japronto

赞 (0)
分享到:更多 ()

评论 0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址