python使用fastapi测试;node.js使用fastify;rust则使用actix。

选择的python和node框架,是在搜索 “最快的<某语言>api “时得到的最高结果;rust的actix是一直高度维护的。

测试的基础很简单;在我的macbook pro m1上,每个框架处理来自网络服务器的5000个基本 “hello, world “响应需要多长时间?

我用来运行测试的代码非常简单,显然,我们只关心速度:

python

客户端代码:

<b>import</b> requests

from requests.adapters <b>import</b> httpadapter

from requests.packages.urllib3.util.retry <b>import</b> retry

max_reties = 3

def create_retriable_session():

s = requests.session()

retries = retry(

total=max_reties,

)

s.mount(‘http:<font><i>//’, httpadapter(max_retries=retries))</i></font><font>

s.mount(‘https:</font><font><i>//’, httpadapter(max_retries=retries))</i></font><font>

<b>return</b> s

def main():

s = create_retriable_session()

<b>for</b> _ in range(0, 5000):

s.get(</font><font>”http://127.0.0.1:8000/”</font><font>)

</font>

服务器端,使用fastapi:

from fastapi <b>import</b> fastapi

app = fastapi()

@app.get(<font>”/”</font><font>)

async def root():

<b>return</b> {</font><font>”message”</font><font>: </font><font>”hello world”</font><font>}

</font>

运行服务器:

uvicorn main:app

测试结果:

5.22 s ± 221 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

下面是使用另外一个框架fastfy使用 异步 后的代码:

<b>const</b> fastify = require(‘fastify’)({logger: false})

<b>const</b> port = 8000;

fastify.get(‘/’, async (request, reply) => {

<b>return</b> {message: ‘hello world’}

})

<b>const</b> start = async () => {

<b>try</b> {

await fastify.listen(port)

} <b>catch</b> (err) {

fastify.log.error(err)

process.exit(1)

}

}

start()

再次测试结果:

4.49 s ± 84.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

比较结果:

fastapi每秒处理约957.85次,fastfy每秒处理1113.59次。

rust

use actix_web::{app, get, httpresponse, httpserver, responder};

#[get(<font>”/”</font><font>)]

async fn hello() -> impl responder {

httpresponse::ok().body(</font><font>”{\”message\”: \”hello world\”}”</font><font>)

}

#[actix_web::main]

async fn main() -> std::io::result<()> {

httpserver::<b>new</b>(|| {

app::<b>new</b>()

.serb> express = require(‘express’)

<b>const</b> app = express()

<b>const</b> port = 8000

app.get(‘/’, (req, res) => {

res.json({message: <font>”hello world”</font><font>})

})

app.listen(port, () => {

console.log(`example app listening at http:</font><font><i>//localhost:${port}`)</i></font><font>

})

</font>

测试结果:

4.88 s ± 152 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)rust

use actix_web::{app, get, httpresponse, httpserver, responder};

#[get(<font>”/”</font><font>)]

async fn hello() -> impl responder {

httpresponse::ok().body(</font><font>”{\”message\”: \”hello world\”}”</font><font>)

}

#[actix_web::main]

async fn main() -> std::io::result<()> {

httpserver::<b>new</b>(|| {

app::<b>new</b>()

.service(hello)

})

.bind(</font><font>”127.0.0.1:8000″</font><font>)?

.run()

.await

}

</font>

测试结果:

4.32 s ± 58.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

比较结果:

我们再次看到,rust比python快,也比fastify快,rust能够每秒处理1157.41个请求,每秒比fastify快44个请求,比fastapi每秒快200个请求。

node.js

只是为了好玩,express是最常见的节点框架,所以我也想测试一下,express比fastify的功能更全面,所以我估计它也会更慢。

<b>const</b> express = require(‘express’)

<b>const</b> app = express()

<b>const</b> port = 8000

app.get(‘/’, (req, res) => {

res.json({message: <font>”hello world”</font><font>})

})

app.listen(port, () => {

console.log(`example app listening at http:</font><font><i>//localhost:${port}`)</i></font><font>

})

</font>

测试结果:

4.88 s ± 152 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

而且确实比fastify要慢。

结论

rust绝对是最快的选择,但它是最好的吗?我不确定我是否能回答这个问题,因为98%的情况下这要取决于。你的团队知道什么?该框架有你需要的功能吗?如果没有,你能建立它吗?如果你没有一个专家团队,学习起来有多容易?该框架在4-5年内存在的可能性有多大?

这些测试有一些注意事项,它们是在python中运行的,所以它们只能以python发出请求的速度运行,而且它们不是多线程的,所以框架也可能不会使用多线程来响应,这取决于python请求库中的会话工作方式。另外,一般来说,node是单线程的,node用队列来伪造并发,但是有一种方法可以解决这个问题,那就是用workers,它允许你在不同的线程上运行多个服务器,这取决于cpu有多少逻辑核心,这在生产中非常有用,因为它有巨大的性能提升,但同样,这些测试不能从中受益。

这篇文章的重点不是让你转到actix/rust的生产服务器上,重点是展示我在学习新东西时喜欢的一种简单的方法,并希望展示测试并不总是要严肃或复杂。