Bootstrap

FLIR配对行人车辆目标检测数据集,10400+张数据集包含3个类别,为pedestrian,bicycle,car,jpg图片和txt标签,指定好路径直接可用于yolov5/v7训练数据详情:

FLIR配对行人车辆目标检测数据集,10400+张 数据集包含3个类别,为pedestrian,bicycle,car,jpg图片和txt标签,指定好路径直接可用于yolov5/v7训练 数据详情:配对的可见光红外图像,txt标签通用。

 

FLIR配对行人车辆目标检测数据集,10400+张 数据集包含3个类别,为pedestrian,bicycle,car,jpg图片和txt标签,指定好路径直接可用于yolov5/v7训练 数据详情:配对的可见光红外图像,txt标签通用。

FLIR配对行人车辆目标检测数据集 (FLIR Paired Visible and Infrared Pedestrian and Vehicle Detection Dataset)

数据集描述

本数据集旨在支持在可见光和红外图像中进行行人、自行车和汽车的目标检测任务。数据集特别适用于智能交通系统、自动驾驶技术以及夜间或低光照条件下的目标检测。通过使用该数据集训练的目标检测模型可以帮助提高在不同光照条件下的目标识别能力。

数据量
  • 总图片数: 10,400+张
  • 类别数: 3种
  • 图像格式: JPEG
  • 标注格式: YOLO格式(每个图像对应一个文本文件,包含边界框坐标及类别标签)
检测目标
  • 行人 (pedestrian)
  • 自行车 (bicycle)
  • 汽车 (car)
数据格式
  • 图像格式: JPEG
  • 标注格式:
    • YOLO格式(每个图像对应一个文本文件,包含边界框坐标及类别标签)
    • 标签文件与图像文件一一对应,命名相同但扩展名为.txt
目录结构
flir_paired_dataset/
├── images/
│   ├── visible/
│   │   ├── train/
│   │   │   ├── img1.jpg
│   │   │   ├── img2.jpg
│   │   │   └── ...
│   │   ├── val/
│   │   │   ├── img10001.jpg
│   │   │   ├── img10002.jpg
│   │   │   └── ...
│   ├── infrared/
│   │   ├── train/
│   │   │   ├── img1.jpg
│   │   │   ├── img2.jpg
│   │   │   └── ...
│   │   ├── val/
│   │   │   ├── img10001.jpg
│   │   │   ├── img10002.jpg
│   │   │   └── ...
├── labels/
│   ├── train/
│   │   ├── img1.txt
│   │   ├── img2.txt
│   │   └── ...
│   ├── val/
│   │   ├── img10001.txt
│   │   ├── img10002.txt
│   │   └── ...
└── data.yaml
data.yaml 配置文件
train: 
  - ./flir_paired_dataset/images/visible/train
  - ./flir_paired_dataset/images/infrared/train
val: 
  - ./flir_paired_dataset/images/visible/val
  - ./flir_paired_dataset/images/infrared/val

nc: 3  # 类别数量
names: ['pedestrian', 'bicycle', 'car']  # 类别名称

使用方法

1. 安装依赖库

确保安装了必要的Python库,如torch(PyTorch)、ultralytics(用于YOLOv5/v7)和其他相关依赖:

pip install torch ultralytics
2. 训练脚本

以下是一个简单的训练脚本示例,展示如何使用YOLOv5进行训练。

YOLOv5 训练脚本
from ultralytics import YOLO
import torch

# 设置设备
device = 'cuda' if torch.cuda.is_available() else 'cpu'

# 加载预训练模型或从头开始训练
model = YOLO('yolov5s.pt')  # 使用预训练的YOLOv5s模型
# model = YOLO()  # 从头开始训练

# 开始训练
results = model.train(
    data='path/to/data.yaml',  # 指定数据集配置文件路径
    epochs=100,  # 训练轮次
    batch=16,  # 批处理大小
    imgsz=640,  # 输入图像尺寸
    workers=8,  # 数据加载线程数
    device=device,  # 使用GPU设备编号,默认为0
    project='flir_paired_detection',  # 保存结果的项目名称
    name='exp',  # 实验名称
    exist_ok=True  # 如果存在相同实验名,覆盖旧的结果
)

# 可视化训练结果
results.plot()

# 保存模型
model.save('flir_paired_detection_model.pt')
3. 推理代码

以下是一个简单的推理代码示例,展示如何使用训练好的YOLOv5模型进行推理。

YOLOv5 推理代码
import cv2
from ultralytics import YOLO

# 加载训练好的模型
model = YOLO('flir_paired_detection_model.pt')

def detect_objects(image_path):
    # 读取图像
    image = cv2.imread(image_path)
    
    # 进行推理
    results = model(image)
    
    # 绘制检测结果
    for result in results:
        boxes = result.boxes
        for box in boxes:
            x1, y1, x2, y2 = map(int, box.xyxy[0])
            label = model.names[int(box.cls)]
            confidence = float(box.conf)
            color = (0, 255, 0)  # 绿色
            cv2.rectangle(image, (x1, y1), (x2, y2), color, 2)
            cv2.putText(image, f'{label} {confidence:.2f}', (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, color, 2)
    
    # 显示检测结果
    cv2.imshow('Detection Result', image)
    cv2.waitKey(0)
    cv2.destroyAllWindows()

# 示例用法
image_path = 'path/to/your/image.jpg'
detect_objects(image_path)

图形用户界面 (GUI) 设计

如果您希望提供一个更友好的用户界面,可以使用tkinter来创建一个简单的GUI。

1. 安装依赖库

确保安装了tkinter库,用于创建图形界面:

pip install tk
2. GUI代码示例

以下是一个简单的Tkinter GUI示例,展示如何创建一个用户友好的图形界面,支持加载图像并进行目标检测。

import tkinter as tk
from tkinter import filedialog, messagebox
from PIL import Image, ImageTk
import cv2
from ultralytics import YOLO

# 加载训练好的模型
model = YOLO('flir_paired_detection_model.pt')

def load_image():
    global image_path
    image_path = filedialog.askopenfilename(filetypes=[("Image files", "*.jpg;*.jpeg;*.png")])
    if image_path:
        image = Image.open(image_path)
        image = image.resize((640, 480))
        photo = ImageTk.PhotoImage(image)
        image_label.config(image=photo)
        image_label.image = photo

def detect_objects():
    if image_path:
        # 读取图像
        image = cv2.imread(image_path)
        image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
        
        # 进行推理
        results = model(image)
        
        # 绘制检测结果
        for result in results:
            boxes = result.boxes
            for box in boxes:
                x1, y1, x2, y2 = map(int, box.xyxy[0])
                label = model.names[int(box.cls)]
                confidence = float(box.conf)
                color = (0, 255, 0)  # 绿色
                cv2.rectangle(image, (x1, y1), (x2, y2), color, 2)
                cv2.putText(image, f'{label} {confidence:.2f}', (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, color, 2)
        
        # 显示检测结果
        image = Image.fromarray(cv2.cvtColor(image, cv2.COLOR_RGB2BGR))
        image = image.resize((640, 480))
        photo = ImageTk.PhotoImage(image)
        image_label.config(image=photo)
        image_label.image = photo

# 创建主窗口
root = tk.Tk()
root.title("FLIR Paired Object Detection")

# 自定义主题风格
root.tk_setPalette(background='#F0F0F0', foreground='black', activeBackground='blue', activeForeground="white")

# 图像显示区域
image_label = tk.Label(root, bg='#F0F0F0')
image_label.pack(pady=20)

# 按钮
load_button = tk.Button(root, text="Load Image", command=load_image, bg='blue', fg='white')
load_button.pack(side=tk.LEFT, padx=10)

detect_button = tk.Button(root, text="Detect Objects", command=detect_objects, bg='blue', fg='white')
detect_button.pack(side=tk.RIGHT, padx=10)

# 运行主循环
root.mainloop()

总结

这个FLIR配对行人车辆目标检测数据集包含了10,400多张JPEG图像,每张图像都有对应的YOLO格式的TXT标注文件。数据集涵盖了三种常见的目标类型:行人、自行车和汽车,并且提供了可见光和红外两种图像。通过提供的脚本,您可以直接使用YOLOv5/v7等目标检测算法进行模型训练和推理。此外,还提供了一个简单的Tkinter GUI示例,方便用户加载图像并查看检测结果。希望这些信息和代码能帮助您更好地理解和使用这个数据集。

;