Ultralytics 创建尖端的、最先进的(SOTA) YOLO models 基于多年在计算机视觉和人工智能领域的基础研究。我们的模型不断更新以提高性能和灵活性 快速, 准确的,和 易于使用他们擅长于 object detection, tracking, instance segmentation, image classification, and 摆姿势 estimation 任务。
在“详细文档”中查找 Ultralytics Docs通过获取支持 GitHub Issues加入讨论 Discord, Reddit,和的 Ultralytics Community Forums!
请求企业许可证用于商业用途 Ultralytics Licensing.
文档说明
请参见下方的快速入门安装和使用示例。 关于训练、验证、预测和部署的全面指导,请参阅我们的完整文档 Ultralytics Docs.
安装安装 ultralytics 包裹,包括所有内容 requirements在一段话中 Python>=3.8 环境 with PyTorch>=1.8.
1 pip install ultralytics
对于其他安装方法,包括 Conda, Docker,通过Git从源代码构建,请参阅以下内容 Quickstart Guide.
使用说明CLI
您可以直接通过命令行界面(CLI)使用Ultralytics YOLO yolo 命令:
12 # Predict using a pretrained YOLO model (e.g., YOLO11n) on an image
的 yolo 命令支持各种任务和模式,可以接受额外的参数如 imgsz=640探索YOLO CLI Docs 查看更多示例。
Python
Ultralytics YOLO 也可以直接集成到您的 Python 项目中。 它接受相同的 configuration arguments 作为命令行界面:
12345678910111213141516171819202122 from ultralytics import YOLO # Load a pretrained YOLO11n modelmodel = YOLO("yolo11n.pt") # Train the model on the COCO8 数据集用于 100 epochstrain_results = model.train( data="coco8.yaml", # Path to dataset configuration file epochs=100, # Number of training epochs imgsz=640, # Image 尺寸 for training device="cpu", # Device to run on (e.g., 'cpu', 0, [0,1,2,3])) # Evaluate the model's performance on the validation setmetrics = model.val() # Perform object detection on an imageresults = model("path/to/image.jpg") # Predict on an imageresults[0].show() # Display results # Export the model to ONNX format for deploymentpath = model.export(format="onnx") # Returns the path to the exported model
在YOLO中发现更多示例 Python Docs.
✨ 模型
Ultralytics 支持多种 YOLO 模型,包括早期版本如 YOLOv3 到最新 YOLO11下面的表格展示了在上进行预训练的YOLO11模型 COCO dataset for Detection, Segmentation, and Pose Estimation此外, Classification 在预训练模型上 ImageNet 数据集是可用的。 Tracking 该模式与所有检测、分割和姿态模型兼容。 全部 Models 会自动从最新的Ultralytics下载 release 首次使用时。
检测(COCO)
探索 Detection Docs 关于使用示例。 这些模型是在上训练的 the COCO dataset,包含80个物体类别。
| Model | size (像素) |
平均精度均值val 50-95 |
速度 CPU ONNX 毫秒 |
Speed T4 TensorRT10 (ms) |
params (M) |
浮点运算次数 (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
- mAPval 值指的是单模型单尺度性能在的 COCO val2017 数据集。见 YOLO Performance Metrics 详情请参见。
用以复制yolo val detect data=coco.yaml device=0 - Speed 指标是在此基础上平均的 COCO val images 使用一个 Amazon EC2 P4d 实例。用以测量的CPU速度 ONNX 导出。 GPU speeds measured with TensorRT export.
Reproduce withyolo val detect data=coco.yaml batch=1 device=0|cpu
参考以下内容 Segmentation Docs for usage examples. These models are trained on COCO-Seg,包括80个类别。
| Model | size (pixels) |
mAP盒子 50-95 |
mAP口罩 50-95 |
Speed CPU ONNX (ms) |
Speed T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
|---|---|---|---|---|---|---|---|
| YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
| YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
| YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
| YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
| YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
- mAPval 值适用于单模型单尺度的 COCO val2017 dataset. See YOLO Performance Metrics for details.
Reproduce withyolo val segment data=coco.yaml device=0 - Speed 指标是在COCO验证图像上使用一种进行平均的 Amazon EC2 P4d instance. CPU speeds measured with ONNX 导出。GPU速度以以下方式测量 TensorRT export.
Reproduce withyolo val segment data=coco.yaml batch=1 device=0|cpu
咨询 Classification Docs for usage examples. These models are trained on ImageNet涵盖1000个类别。
| Model | size (pixels) |
acc top1 |
acc top5 |
Speed CPU ONNX (ms) |
Speed T4 TensorRT10 (ms) |
params (M) |
FLOPs (B)在224处 |
|---|---|---|---|---|---|---|---|
| YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 0.5 |
| YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 1.6 |
| YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 5.0 |
| YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 6.2 |
| YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 13.7 |
- acc 数值代表模型在该数据集上的准确性 ImageNet 数据集验证集。
Reproduce withyolo val classify data=path/to/ImageNet device=0 - Speed 指标是在ImageNet验证图像上平均使用的 Amazon EC2 P4d instance. CPU speeds measured with ONNX export. GPU speeds measured with TensorRT export.
Reproduce withyolo val classify data=path/to/ImageNet batch=1 device=0|cpu
看看这个 Pose Estimation Docs for usage examples. These models are trained on COCO-Pose着重于“人”这一类别。
| Model | size (pixels) |
mAPpose 50-95 |
mAPpose 50 |
Speed CPU ONNX (ms) |
Speed T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
|---|---|---|---|---|---|---|---|
| YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
| YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
| YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
| YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
| YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
- mAPval values are for single-model single-scale on the COCO Keypoints val2017 dataset. See YOLO Performance Metrics for details.
Reproduce withyolo val pose data=coco-pose.yaml device=0 - Speed metrics are averaged over COCO val images using an Amazon EC2 P4d instance. CPU speeds measured with ONNX export. GPU speeds measured with TensorRT export.
Reproduce withyolo val pose data=coco-pose.yaml batch=1 device=0|cpu
检查一下 OBB Docs for usage examples. These models are trained on DOTAv1包括15个类别。
| Model | size (pixels) |
mAPtest 50 |
Speed CPU ONNX (ms) |
Speed T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
| YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
| YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
| YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
| YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
- mAPtest 值是针对单模型多尺度性能的 DOTAv1 test set.
通过复制来繁殖yolo val obb data=DOTAv1.yaml device=0 split=test并提交合并后的结果到该 DOTA evaluation server. - Speed metrics are averaged over DOTAv1 val images using an Amazon EC2 P4d instance. CPU speeds measured with ONNX export. GPU speeds measured with TensorRT export.
Reproduce byyolo val obb data=DOTAv1.yaml batch=1 device=0|cpu
整合
我们与领先人工智能平台的关键集成扩展了Ultralytics产品的功能,增强了数据集标注、训练、可视化和模型管理等任务。 发现Ultralytics如何与合作伙伴如携手合作 Weights & Biases, Comet ML, Roboflow, and Intel OpenVINO可以优化您的AI工作流程。 继续探索 Ultralytics Integrations.
| Ultralytics HUB 🌟 | Weights & Biases | Comet | Neural Magic |
|---|---|---|---|
| 简化YOLO工作流程:轻松完成标注、训练和部署 Ultralytics HUB现在试用! | 跟踪实验、超参数和结果 Weights & Biases. | 免费 forever, Comet ML 让你可以保存YOLO模型、恢复训练并交互式地可视化预测结果。 | 使用YOLO进行推理,速度可提升至最高6倍 Neural Magic DeepSparse. |
🌟 Ultralytics HUB
体验无缝AI Ultralytics HUB,一个集数据可视化、训练YOLO模型和部署于一体的平台——无需编程。 将图像转化为可操作的见解,借助我们的尖端平台和用户友好的界面,轻松实现您的AI愿景 Ultralytics App开始你的旅程 Free 今天!
🤝 贡献
我们依*社区合作不断进步!没有像您这样的开发者贡献,Ultralytics YOLO 不会成为目前的最先进框架。 请查看我们的 Contributing Guide 开始使用。我们也欢迎您的反馈——通过完成我们的问卷分享您的体验 Survey一个巨大的 谢谢 🙏 感谢所有贡献者!
我们期待您的贡献,帮助使Ultralytics生态系统更加完*!
许可证
超力科技提供两种许可选项,以满足不同的需求:
- GNU Affero General Public License v3.0: 这个 OSI-approved 开源许可证非常适合学生、研究人员和爱好者。 它鼓励开放协作和知识共享。 看看这个 LICENSE 文件以获取详细信息。
- 超视力企业许可证: 专为商业用途设计,此许可允许将Ultralytics软件和AI模型无缝集成到商业产品和服务中,绕过AGPL-3.0的开源要求。如果您涉及商业部署的使用案例,请通过以下方式联系我们: Ultralytics Licensing.
📞 联系
对于与Ultralytics软件相关的错误报告和功能请求,请访问 GitHub Issues对于问题、讨论和社区支持,请加入我们的活跃社区 Discord, Reddit, and the Ultralytics Community Forums我们在这里帮助您解决所有与Ultralytics相关的问题!
免责声明 © 2025 - 虚宝阁
本站部分源码来源于网络,版权归属原开发者,用户仅获得使用权。依据《计算机软件保护条例》第十六条,禁止:
- 逆向工程破解技术保护措施
- 未经许可的分发行为
- 去除源码中的原始版权标识
※ 本站源码仅用于学习和研究,禁止用于商业用途。如有侵权, 请及时联系我们进行处理。












