Yolov7实战,实现网页端的实时目标检测

摘要:今天给大家分享的是yolov7网络实践,并且可以做成web端,只要你输入图像,选择对应模型就可以输出检测结果。让我们开始代码吧!

从此不迷路

计算机视觉研究院

计算机视觉研究院专栏

今天给大家分享的是yolov7网络实践,并且可以做成web端,只要你输入图像,选择对应模型就可以输出检测结果。让我们开始代码吧!

01

概述

源码:

论文:

Yolov7:最新最快的实时检测框架,最详细分析解释(附源代码)

02

实验

搭建环境,这里直接用conda按照源码requirements.txt安装就行。

具体内容可以见下面链接:

手把手教学Yolov7的搭建及实践

接下来我们继续,怎么把训练好的模型部署到web端,这样后期就可以随时可以检测图像。

首先跟推理一样:

parser = argparse.ArgumentParserparser.add_argument('--weights', nargs='+', type=str, default=model+".pt", help='model.pt path(s)') parser.add_argument('--source', type=str, default='Inference/', help='source') # file/folder, 0 for webcam parser.add_argument('--img-size', type=int, default=640, help='inference size (pixels)') parser.add_argument('--conf-thres', type=float, default=0.25, help='object confidence threshold') parser.add_argument('--iou-thres', type=float, default=0.45, help='IOU threshold for NMS') parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu') parser.add_argument('--view-img', action='store_true', help='display results') parser.add_argument('--save-txt', action='store_true', help='save results to *.txt') parser.add_argument('--save-conf', action='store_true', help='save confidences in --save-txt labels') parser.add_argument('--nosave', action='store_true', help='do not save images/videos') parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --class 0, or --class 0 2 3') parser.add_argument('--agnostic-nms', action='store_true', help='class-agnostic NMS') parser.add_argument('--augment', action='store_true', help='augmented inference') parser.add_argument('--update', action='store_true', help='update all models') parser.add_argument('--project', default='runs/detect', help='save results to project/name') parser.add_argument('--name', default='exp', help='save results to project/name') parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment') parser.add_argument('--trace', action='store_true', help='trace model') opt = parser.parse_args

然后在代码开始增加训练模型pth的位置及一些依赖:

import gradio as grimport osos.system("wget https://github.com/***/yolov7.pt")os.system("wget https://github.com/***/yolov7-e6e.pt")os.system("wget https://github.com/***/yolov7-e6.pt") import argparseimport timefrom pathlib import Path import cv2import torchimport torch.backends.cudnn as cudnn...

接下来就是初始化、读取模型、读取数据、推理。

© THE END

转载请联系本公众号获得授权

计算机视觉研究院

计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

具体内容可以参考CSDN的he_eeeeeeeeeee,进入主页既可以或更加详细的操作流程。

来源:阿杜科技小伙

相关推荐