Skip to content

一个简单的搭建图像识别imagenet的flask后端API的方式,修改了全局model load的方式,使用nginx搭配Gunicorn启动Flask增加了模型推理的速度,使用虚拟环境搭配sh的启动方式,可以直接对model进行一键重启,并有错误日志监控。有问题,欢迎联系我。

License

Notifications You must be signed in to change notification settings

CarryChang/Flask-Keras-Restful-Api

Repository files navigation

996.icu

Flask-Keras-Restful-Api

一个简单的imagenet的flask后端API,修改了全局model load的方式,增加了模型推理的速度,使用nginx搭配Gunicorn启动Flask,使用虚拟环境搭配sh的启动方式,可以直接对model进行一键重启,并有错误日志监控

一键部署,源代码修改自: Building a simple Keras + deep learning REST API 使用TF2替换了原始的keras,为模型提速

使用方法

  1. 首先在服务器上部署虚拟环境 ,假设虚拟环境在/home,cd /home 进入home
  2. 在hoem文件夹中使用python3 -m venv v1创建虚拟环境,v1就是虚拟环境的名字,然后使用souce v1/bin/activate加载虚拟环境
  3. 在虚拟环境下使用pip install -r requirement.txt 安装所需要的库,然后使用chmod +777 restart.sh部署模型的后端
  4. 使用ip:8000/predict是post的地址,使用python keras_model_client.py即可模拟请求,注意模型第一次初始化的时间因为需要加载预训练模型,推理速度有些慢,目前单机单线曾运行的正常推理速度在100ms之内,多进程部署会继续提速

代码结构:使用前后分离的架构,完全使用Python实现

  1. keras_model_server.py表示后端的model api,直接通过post传参的形式进行,直接搭配nginx+Gunicorn部署即可
  2. keras_model_client.py表示模型前端的调用,传入两张图片,然后使用imagenet的模型进行识别,模型第一次初始化的时间因为需要加载预训练模型,推理速度有些慢,目前单机单线曾运行的正常推理速度在100ms之内,多进程部署会继续提速

后端启动打印的log

模型输出的结果

About

一个简单的搭建图像识别imagenet的flask后端API的方式,修改了全局model load的方式,使用nginx搭配Gunicorn启动Flask增加了模型推理的速度,使用虚拟环境搭配sh的启动方式,可以直接对model进行一键重启,并有错误日志监控。有问题,欢迎联系我。

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published