您好,
会员登录 快速注册
退出 ( 条未读消息)
关于本站 意见反馈 首页

公告:小宅博客网可以开发票了,需要发票的,去群里找群主哈!!
全部文章分类
  • 人工智能 >

  • 编程语言 >

  • WPF系列 >

  • ASP.NET系列 >

  • Linux >

  • 数据库 >

  • 嵌入式 >

  • WEB技术 >

  • PLC系列 >

  • 微服务与框架 >

  • 小宅DIY >

  • 学习资料 >

OpenCv基础 ANN车牌识别 yolov5车牌识别 指针式仪表识别 ROS系列 YOLO Halcon Detectron2 昇腾AI ChatGPT在线体验 英伟达JETSON ChatGLM ChatTTS FunASR 地平线 ByteTrack 魔搭社区 LangChain
C C# C++ Python Java Go
WPF
ASP.NET小功能 GPS定位系统-MVC GPS定位系统-VUE ASP.NET WebRTC
Linux Linux内核 Shell MakeFile
MySql SqlServer Oracle
STM8 STM32 51单片机
VUE入门 HTML JavaScript CSS layui镜像网站 ElementUi中文官网 element-plus 图标
三菱 欧姆龙 西门子 施耐德 松下 台达
IOTSharp IOTGateway ABP FRAMEWORK Docker
亚克力音响 编程仙途:智驭万法
面试题与技巧 Python入门技能树 微软C#教程
首页 编程之美 工具下载 全国就业 流量地图 文心一言
YOLO
YOLO 学习介绍 Labelme安装与运行 YOLOv5 安装开发环境 YOLOv5 官方数据集训练方法 YOLOv5 自定义数据集训练方法 YOLOv5 GPU训练方法 YOLOv5 调用USB摄像头识别 YOLOv5 在Ubuntu22.10安装运行环境 YOLOv5 实例分割-官方数据集训练方法 YOLOv5 实例分割-Labelme标注与json文件转txt YOLOv5 pt转onnx文件 YOLOv5 pt转engine文件 YOLOv5 C#中进行模型预测(.net版) YOLOv5 C#中进行模型预测(winform版) YOLOv5 C++进行模型预测 YOLOv5-7.0 安装开发环境 YOLOx 安装开发环境 YOLOx 官网数据集训练方法1(VOC) YOLOx 官网数据集训练方法2(COCO) YOLOx 自定义数据集训练方法1(VOC) YOLOx 自定义数据集训练方法2(COCO) YOLOx 调用USB摄像头识别 YOLOv8 安装开发环境 YOLOv8 官方数据集训练方法 YOLOv8 pt转onnx文件与测试 YOLOv11 安装开发环境 YOLOv11 自定义目标检测模型训练
YOLOx 官网数据集训练方法1(VOC)
YOLOx 自定义数据集训练方法1(VOC)
激萌の小宅 小宅博客网 YOLO

文章作者:激萌の小宅

促销:¥0

价格:¥0

配送方式: 购买后立即生效(如购买异常,请联系站长)
付款之后一定要等待自动跳转结束,否则购买可能会失败
  • 0 天

    有效期

  • 0

    总销量

  • 0

    累计评价

YOLOx 官方数据集训练方法2(COCO)

1.准备工作

下载数据集(这是博主目前找到的最小的数据集文件了,很多数据集都是好几个G,根本没法下载,太大了~):

https://www.kaggle.com/datasets/sagnik1511/thermal-dog-dataset-instance-segmentation

该下载地址需要登录,但是注册比较麻烦,关于注册的问题,可以参考《YOLOv5 官方数据集训练方法》


数据集下载:

链接:https://pan.baidu.com/s/113kJW9LUUi2C3rL058RByg

提取码:lce8

QQ截图20230205000444.jpg

将数据集解压到“YOLOX-main\datasets”目录下

QQ截图20230205000938.jpg


文件含义说明:


训练集标签

测试集标签

目标检测

instances_train2017.json

instances_val2017.json

关键点检测

person_keypoints_train2017.json

person_keypoints_val2017.json

看图说话

captions_train2017.json

captions_val2017.json

来源:https://www.ai2news.com/blog/2950594/#google_vignette


2.修改文件

1、将"datasets/coco annotations/annotations"文件夹,拷贝到“datasets/train”目录下,不然训练会出错。

2、将“datasets/validation/val2017”文件夹,拷贝到“datasets/train”目录下,不然训练会出错。

就像下面这样:

QQ截图20230205003225.jpg

3、第一个需要修改的文件是“YOLOX-main\YOLOX-main\yolox\data\datasets\coco_classes.py”

打开“instances_train2017.json”文件,可以知道,里面涉及到的种类有两种。我们修改如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Copyright (c) Megvii, Inc. and its affiliates.

COCO_CLASSES = (
    "Human",
    "Dog"
)

4、第二个修改修改的文件是“YOLOX-main\YOLOX-main\exps\example\custom\yolox_s.py”

该文件记录了训练图片的路径,修改如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Copyright (c) Megvii, Inc. and its affiliates.
import os

from yolox.exp import Exp as MyExp


class Exp(MyExp):
    def __init__(self):
        super(Exp, self).__init__()
        self.depth = 0.33
        self.width = 0.50
        self.exp_name = os.path.split(os.path.realpath(__file__))[1].split(".")[0]

        # Define yourself dataset path
        self.data_dir = "datasets/train"
        self.train_ann = "instances_train2017.json"
        self.val_ann = "instances_val2017.json"
        # 种类数
        self.num_classes = 2
        # 训练次数
        self.max_epoch = 100
        # 线程数,windows下要设置成0
        self.data_num_workers = 0
        # 每训练10次就进行一次评估
        self.eval_interval = 10


2.官方图库训练流程

注意:训练时如果报下面这个错误,则需要配置环境变量。

 Command '['where', 'cl']' returned non-zero exit status 1.

参考博客:https://blog.csdn.net/SINPER123/article/details/124920875

主要操作也就是添加下面两个环境变量(需要最新的Visual Studio环境)

1、新建环境变量INCLUDE,添加:(Include可能有多个版本,经验是选择新的)

C:\Program Files\Microsoft Visual Studio\2022\Community\VC\Tools\MSVC\14.34.31933\Include;
C:\Program Files (x86)\Windows Kits\10\Include\10.0.22000.0\Ucrt;
C:\Program Files (x86)\Windows Kits\10\Include\10.0.22000.0\Um;
C:\Program Files (x86)\Windows Kits\10\Include\10.0.22000.0\shared;

2、新建环境变量LIB, 添加:

C:\Program Files\Microsoft Visual Studio\2022\Community\VC\Tools\MSVC\14.34.31933\Lib\X64;

C:\Program Files (x86)\Windows Kits\10\Lib\10.0.22000.0\Ucrt\X64;
C:\Program Files (x86)\Windows Kits\10\Lib\10.0.22000.0\Um\X64;


说明:如果想使用GPU进行训练,请在train.py文件的前面添加下面代码

import os
os.environ['CUDA_VISIBLE_DEVICES']='0'

QQ图片20230209103654.jpg

然后执行训练命令:

python tools/train.py -f exps/example/custom/yolox_s.py -d 1 -b 8 --fp16 -c yolox_s.pth

QQ截图20230205010119.jpg

编译完了就生成下面这些文件了。

QQ截图20230205010752.jpg

然后使用best_ckpt.pth文件去测试我们的图片,命令如下:

python tools/demo.py image -f exps/example/custom/yolox_s.py -c ./YOLOX_outputs/yolox_s/best_ckpt.pth --path assets/me.jpg --conf 0.3 --nms 0.65 --tsize 640 --save_result

识别结果保存在“YOLOX-main\YOLOX_outputs\yolox_s\vis_res\2023_02_09_20_29_18”目录下面:

me.jpg

YOLOx 官网数据集训练方法1(VOC)
YOLOx 自定义数据集训练方法1(VOC)

友情链接: CSDN激萌の小宅 95知识库 自考题库 罗分明个人网络博客 精益编程leanboot

小宅博客  www.bilibili996.com All Rights Reserved. 备案号: 闽ICP备2024034575号

网站经营许可证  福建省福州市 Copyright©2021-2025 版权所有

小宅博客
首页 智能家居 地图定位
公告:小宅博客网可以开发票了,需要发票的,去群里找群主哈!!

文章作者:激萌の小宅

促销:¥0

价格:¥0

配送方式: 购买后立即生效(如购买异常,请联系站长)
付款之后一定要等待自动跳转结束,否则购买可能会失败
  • 0 天

    有效期

  • 0

    总销量

  • 0

    累计评价

YOLOx 官方数据集训练方法2(COCO)

1.准备工作

下载数据集(这是博主目前找到的最小的数据集文件了,很多数据集都是好几个G,根本没法下载,太大了~):

https://www.kaggle.com/datasets/sagnik1511/thermal-dog-dataset-instance-segmentation

该下载地址需要登录,但是注册比较麻烦,关于注册的问题,可以参考《YOLOv5 官方数据集训练方法》


数据集下载:

链接:https://pan.baidu.com/s/113kJW9LUUi2C3rL058RByg

提取码:lce8

QQ截图20230205000444.jpg

将数据集解压到“YOLOX-main\datasets”目录下

QQ截图20230205000938.jpg


文件含义说明:


训练集标签

测试集标签

目标检测

instances_train2017.json

instances_val2017.json

关键点检测

person_keypoints_train2017.json

person_keypoints_val2017.json

看图说话

captions_train2017.json

captions_val2017.json

来源:https://www.ai2news.com/blog/2950594/#google_vignette


2.修改文件

1、将"datasets/coco annotations/annotations"文件夹,拷贝到“datasets/train”目录下,不然训练会出错。

2、将“datasets/validation/val2017”文件夹,拷贝到“datasets/train”目录下,不然训练会出错。

就像下面这样:

QQ截图20230205003225.jpg

3、第一个需要修改的文件是“YOLOX-main\YOLOX-main\yolox\data\datasets\coco_classes.py”

打开“instances_train2017.json”文件,可以知道,里面涉及到的种类有两种。我们修改如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Copyright (c) Megvii, Inc. and its affiliates.

COCO_CLASSES = (
    "Human",
    "Dog"
)

4、第二个修改修改的文件是“YOLOX-main\YOLOX-main\exps\example\custom\yolox_s.py”

该文件记录了训练图片的路径,修改如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Copyright (c) Megvii, Inc. and its affiliates.
import os

from yolox.exp import Exp as MyExp


class Exp(MyExp):
    def __init__(self):
        super(Exp, self).__init__()
        self.depth = 0.33
        self.width = 0.50
        self.exp_name = os.path.split(os.path.realpath(__file__))[1].split(".")[0]

        # Define yourself dataset path
        self.data_dir = "datasets/train"
        self.train_ann = "instances_train2017.json"
        self.val_ann = "instances_val2017.json"
        # 种类数
        self.num_classes = 2
        # 训练次数
        self.max_epoch = 100
        # 线程数,windows下要设置成0
        self.data_num_workers = 0
        # 每训练10次就进行一次评估
        self.eval_interval = 10


2.官方图库训练流程

注意:训练时如果报下面这个错误,则需要配置环境变量。

 Command '['where', 'cl']' returned non-zero exit status 1.

参考博客:https://blog.csdn.net/SINPER123/article/details/124920875

主要操作也就是添加下面两个环境变量(需要最新的Visual Studio环境)

1、新建环境变量INCLUDE,添加:(Include可能有多个版本,经验是选择新的)

C:\Program Files\Microsoft Visual Studio\2022\Community\VC\Tools\MSVC\14.34.31933\Include;
C:\Program Files (x86)\Windows Kits\10\Include\10.0.22000.0\Ucrt;
C:\Program Files (x86)\Windows Kits\10\Include\10.0.22000.0\Um;
C:\Program Files (x86)\Windows Kits\10\Include\10.0.22000.0\shared;

2、新建环境变量LIB, 添加:

C:\Program Files\Microsoft Visual Studio\2022\Community\VC\Tools\MSVC\14.34.31933\Lib\X64;

C:\Program Files (x86)\Windows Kits\10\Lib\10.0.22000.0\Ucrt\X64;
C:\Program Files (x86)\Windows Kits\10\Lib\10.0.22000.0\Um\X64;


说明:如果想使用GPU进行训练,请在train.py文件的前面添加下面代码

import os
os.environ['CUDA_VISIBLE_DEVICES']='0'

QQ图片20230209103654.jpg

然后执行训练命令:

python tools/train.py -f exps/example/custom/yolox_s.py -d 1 -b 8 --fp16 -c yolox_s.pth

QQ截图20230205010119.jpg

编译完了就生成下面这些文件了。

QQ截图20230205010752.jpg

然后使用best_ckpt.pth文件去测试我们的图片,命令如下:

python tools/demo.py image -f exps/example/custom/yolox_s.py -c ./YOLOX_outputs/yolox_s/best_ckpt.pth --path assets/me.jpg --conf 0.3 --nms 0.65 --tsize 640 --save_result

识别结果保存在“YOLOX-main\YOLOX_outputs\yolox_s\vis_res\2023_02_09_20_29_18”目录下面:

me.jpg