Object Detection SOTA 모델 Ultralytics YOLO11
Yolo 모델이 벌써 11까지 나왔다.
Ultralytics에서 지원되는 yolo 모델을 보면 YOLOv3 ~ YOLOv11/ SAM,SAM2, FastSAM, YOLO-World까지 다양한 모델들을 지원한다.
아마 많은 사람들이 사용하는 이유중 하나는 간편하게 학습을 할 수 있고 지속적으로 코드 관리는 한다는 점이 있을 것이다.
성능을 살펴보면 기존의 YOLOv10보다 좋은것을 확인할 수 있다 mAP 기준
https://github.com/ultralytics/ultralytics
YOLO11의 주요 특징
- 향상된 성능: YOLOv8m 대비 22% 적은 매개변수로 더 높은 mAP 점수 달성
- 다양한 작업 지원: 객체 감지, 분류, 포즈 추정, 인스턴스 분할 등
- 개선된 아키텍처: 더 정확한 특징 추출과 처리 속도 향상
- 유연한 배포: 클라우드 및 엣지 디바이스 모두에 적합
예시코드
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt")
# Train the model
train_results = model.train(
data="coco8.yaml", # path to dataset YAML
epochs=100, # number of training epochs
imgsz=640, # training image size
device="cpu", # device to run on, i.e. device=0 or device=0,1,2,3 or device=cpu
)
# Evaluate model performance on the validation set
metrics = model.val()
# Perform object detection on an image
results = model("path/to/image.jpg")
results[0].show()
# Export the model to ONNX format
path = model.export(format="onnx") # return path to exported mode
YOLO11은 컴퓨터 비전 분야에 새로운 가능성을 제시하며, AI 커뮤니티의 혁신을 이끌 것으로 기대됩니다. 정확성, 속도, 효율성을 결합한 이 모델은 실시간 애플리케이션에 특히 적합하며, 다양한 산업 분야에서 활용될 것으로 전망되며 자세한 내용은 YOLO Vision 컨퍼런스를 확인해보시면 좋을 것 같다.
https://www.ultralytics.com/ko/events/yolovision
YOLO 비전 2024
마드리드에서 열리는 YOLO VISION 2024에 참여하세요. 지금 바로 하이브리드 이벤트에 참가하여 비전 AI 분야의 리더 및 전문가들과 함께하세요.
www.ultralytics.com
참고자료
https://www.ultralytics.com/ko/events/yolovision
https://www.ultralytics.com/ko/blog/ultralytics-yolo11-has-arrived-redefine-whats-possible-in-ai