1.环境准备
在这之前,需要先准备主机的环境,环境如下:
Ubuntu18.04
cuda11.3
pytorch:1.11.0
torchvision:0.12.0
在服务器上执行以下命令,
创建yolov8虚拟环境
1 | conda create -n yolov8 python=3.8 |
进入虚拟环境
1 | conda activate yolov8 |
安装pytorch v1.11.0
pytorch v1.11.0(torch1.11.0+cu1113 ,torchvision0.12.0+cu113)
1 | # CUDA 11.3 pip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https://download.pytorch.org/whl/cu113 |
下载yolov8的代码
先创建yolov8文件夹,存放等会要下载的yolov8代码mkdir yolov8
进入yolov8文件夹,cd yolov8
下载yolov8代码git clone https://github.com/ultralytics/ultralytics.git
其他配置
1 | pip install ultralytics |
2.VisDrone数据集准备
数据集下载
github链接上下载:官方链接
下载Task1:Object Detectino in Images下面的四个VisDrone-DET dataset数据集
下载好zip文件后,使用winscp将zip文件传输到远程服务器上。
在服务器上进入到zip文件所在的文件夹中使用unzip命令解压zip文件。
如: unzip VisDrone2019-DET-val.zip
数据集处理
和yolov5所需要的格式一致。参考yolov5数据处理方法。
主要是labels的生成,可以在yolov8下面新建一个visdrone2yolov.py文件。
1 | from utils.general import download, os, Path def visdrone2yolo(dir): from PIL import Image from tqdm import tqdm def convert_box(size, box): # Convert VisDrone box to YOLO xywh box dw = 1. / size[0] dh = 1. / size[1] return (box[0] + box[2] / 2) * dw, (box[1] + box[3] / 2) * dh, box[2] * dw, box[3] * dh (dir / 'labels').mkdir(parents=True, exist_ok=True) # make labels directory pbar = tqdm((dir / 'annotations').glob('*.txt'), desc=f'Converting {dir}') for f in pbar: img_size = Image.open((dir / 'images' / f.name).with_suffix('.jpg')).size lines = [] with open(f, 'r') as file: # read annotation.txt for row in [x.split(',') for x in file.read().strip().splitlines()]: if row[4] == '0': # VisDrone 'ignored regions' class 0 continue cls = int(row[5]) - 1 # 类别号-1 box = convert_box(img_size, tuple(map(int, row[:4]))) lines.append(f"{cls} {' '.join(f'{x:.6f}' for x in box)}\n") with open(str(f).replace(os.sep + 'annotations' + os.sep, os.sep + 'labels' + os.sep), 'w') as fl: fl.writelines(lines) # write label.txt dir = Path('/home/yolov5/datasets/VisDrone2019') # datasets文件夹下Visdrone2019文件夹目录 # Convert for d in 'VisDrone2019-DET-train', 'VisDrone2019-DET-val', 'VisDrone2019-DET-test-dev': visdrone2yolo(dir / d) # convert VisDrone annotations to YOLO labels |
正确执行代码后,会在’VisDrone2019-DET-train’, ‘VisDrone2019-DET-val’, ‘VisDrone2019-DET-test-dev三个文件夹内新生成labels文件夹,用以存放将VisDrone数据集处理成YoloV8格式后的数据标
修改数据配置文件
记事本或notepad++打开ultralytics-main\ultralytics\datasets\文件夹下的VisDrone.yaml文件,将其中path参数修改为VisDrone2019文件夹所在的路径。
3.训练/验证/导出
训练
打开终端(或者pycharm等IDE),进入虚拟环境,随后进入yolov8文件夹,在终端中输入下面命令,即可开始训练。
1 | yolo task=detect mode=train model=yolov8s.pt data=datasets/VisDrone.yaml batch=16 epochs=100 imgsz=640 workers=0 device=0 |
验证
- val数据集上验证
激活yolov8虚拟环境conda activate yolov8
进入yolov8文件夹cd pyCode/yolov8/ultralytics/ultralytics/
使用如下命令,即可完成对验证数据的评估。
开始验证
1 | yolo task=detect mode=val model=runs/detect/train4/weights/best.pt data=datasets/VisDrone.yaml device=0 |
验证结果如下。
- 在test数据集上验证
将datasets/VisDrone.yaml文件中的val路径修改为:VisDrone2019-DET-test-dev/images
1 | # Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..] # path: ../datasets/VisDrone # dataset root dir path: /home/xxx/yolov5/datasets/VisDrone # dataset root dir train: VisDrone2019-DET-train/images # train images (relative to 'path') 6471 images val: VisDrone2019-DET-test-dev/images # val images (relative to 'path') 548 images VisDrone2019-DET-val/images test: VisDrone2019-DET-test-dev/images # test images (optional) 1610 images |
使用如下命令,即可完成在VisDrone2019-DET-test-dev数据集上的评估。
开始验证
1 | yolo task=detect mode=val model=runs/detect/train4/weights/best.pt data=datasets/VisDrone.yaml device=0 |
结果如下
导出
使用如下命令即可导出
1 | yolo task=detect mode=export model=runs/detect/train4/weights/best.pt |