Befehlszeilenschnittstelle
Die Ultralytics CLI) bietet eine unkomplizierte Möglichkeit, Ultralytics YOLO zu verwenden, ohne dass eine Python erforderlich ist. Die CLI unterstützt die Ausführung verschiedener Aufgaben direkt vom Terminal aus unter Verwendung der yolo
Befehl, der keine Anpassungen oder Python erfordert.
Beobachten: Mastering Ultralytics YOLO : CLI
Beispiel
Ultralytics yolo
Befehle verwenden die folgende Syntax:
yolo TASK MODE ARGS
wo:
- TASK
(optional) ist eine der folgenden Optionen [erkennen, segmentieren, klassifizieren, posieren, obb]
- MODE
(erforderlich) ist eines von [train, val, predict, export, track, benchmark]
- ARGS
(optional) sind eine beliebige Anzahl von benutzerdefinierten arg=value
Paare wie imgsz=320
die die Standardeinstellungen außer Kraft setzen.
Alle ARGS im Volltext anzeigen Leitfaden zur Konfiguration oder mit yolo cfg
.
Trainieren Sie ein Erkennungsmodell für 10 Epochen mit einer anfänglichen Lernrate von 0,01:
yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01
Vorhersage mit einem vorab trainierten Segmentierungsmodell für ein YouTube-Video der Bildgröße 320:
yolo predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320
Validieren Sie ein vortrainiertes Erkennungsmodell mit einer Stapelgröße von 1 und einer Bildgröße von 640:
yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
Exportieren Sie ein YOLO in das ONNX mit der Bildgröße 224x128 (kein TASK erforderlich):
yolo export model=yolo11n-cls.pt format=onnx imgsz=224,128
Führen Sie spezielle Befehle aus, um Versionen, Einstellungen, Prüfungen und vieles mehr anzuzeigen:
yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg
Wo:
TASK
(fakultativ) ist eine der[detect, segment, classify, pose, obb]
. Wenn nicht explizit übergeben, wird YOLO versuchen, dieTASK
aus dem Modelltyp.MODE
(erforderlich) ist eine der[train, val, predict, export, track, benchmark]
ARGS
(optional) sind eine beliebige Anzahl von benutzerdefiniertenarg=value
Paare wieimgsz=320
die die Standardeinstellungen außer Kraft setzen. Für eine vollständige Liste der verfügbarenARGS
siehe die Konfiguration Seite unddefaults.yaml
.
Warnung
Die Argumente müssen als arg=val
Paare, getrennt durch ein Gleichheitszeichen =
Zeichen und durch Leerzeichen zwischen den Paaren getrennt. Verwenden Sie nicht --
Argument-Präfixe oder Kommas ,
zwischen den Argumenten.
yolo predict model=yolo11n.pt imgsz=640 conf=0.25
✅yolo predict model yolo11n.pt imgsz 640 conf 0.25
❌yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25
❌
Zug
Trainieren Sie YOLO mit dem COCO8-Datensatz für 100 Epochen bei einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite Konfiguration.
Beispiel
Starten Sie das Training von YOLO11n auf COCO8 für 100 Epochen bei Bildgröße 640:
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640
Nehmen Sie eine unterbrochene Trainingseinheit wieder auf:
yolo detect train resume model=last.pt
Val
Validieren Sie die Genauigkeit des trainierten Modells auf dem COCO8-Datensatz. Es werden keine Argumente benötigt, da die model
seine Ausbildung beibehält data
und Argumente als Modellattribute.
Beispiel
Validieren Sie ein offizielles YOLO11n-Modell:
yolo detect val model=yolo11n.pt
Validieren Sie ein individuell trainiertes Modell:
yolo detect val model=path/to/best.pt
Vorhersage
Verwenden Sie ein trainiertes Modell, um Vorhersagen für Bilder zu treffen.
Beispiel
Vorhersage mit einem offiziellen YOLO11n-Modell:
yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'
Vorhersage mit einem benutzerdefinierten Modell:
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'
Exportieren
Exportieren Sie ein Modell in ein anderes Format wie ONNX oder CoreML.
Beispiel
Exportieren Sie ein offizielles YOLO11n-Modell in das ONNX :
yolo export model=yolo11n.pt format=onnx
Exportieren Sie ein benutzerdefiniertes trainiertes Modell in das ONNX :
yolo export model=path/to/best.pt format=onnx
Die verfügbaren Ultralytics sind in der nachstehenden Tabelle aufgeführt. Sie können in jedes beliebige Format exportieren, indem Sie die format
Argument, d.h., format='onnx'
oder format='engine'
.
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , half , optimize , nms , batch , device |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch , device |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data , fraction , device |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data , fraction , device |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch , device |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch , device |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch , device |
TF Lite | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , nms , batch , data , fraction , device |
TF Kante TPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz , device |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , nms , batch , device |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch , device |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half , device |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch , device |
IMX500 | imx |
yolo11n_imx_model/ |
✅ | imgsz , int8 , data , fraction , device |
RKNN | rknn |
yolo11n_rknn_model/ |
✅ | imgsz , batch , name , device |
Vollständig sehen export
Einzelheiten über die Exportieren Seite.
Überschreiben von Standardargumenten
Überschreiben Sie die Standardargumente, indem Sie sie in der CLI als arg=value
Paare.
Tipp
Trainieren Sie ein Erkennungsmodell für 10 Epochen mit einer Lernrate von 0,01:
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01
Vorhersage mit einem vorab trainierten Segmentierungsmodell für ein YouTube-Video der Bildgröße 320:
yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320
Validieren Sie ein vortrainiertes Erkennungsmodell mit einer Stapelgröße von 1 und einer Bildgröße von 640:
yolo detect val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
Überschreiben der Standard-Konfigurationsdatei
Überschreiben Sie die default.yaml
Konfigurationsdatei vollständig durch Übergabe einer neuen Datei mit der Option cfg
Argument, wie zum Beispiel cfg=custom.yaml
.
Erstellen Sie dazu zunächst eine Kopie von default.yaml
in Ihrem aktuellen Arbeitsverzeichnis mit der Option yolo copy-cfg
Befehl, der eine default_copy.yaml
Datei.
Sie können diese Datei dann als cfg=default_copy.yaml
zusammen mit allen zusätzlichen Argumenten, wie imgsz=320
in diesem Beispiel:
Beispiel
yolo copy-cfg
yolo cfg=default_copy.yaml imgsz=320
Lösungen Befehle
Ultralytics bietet gebrauchsfertige Lösungen für gängige Computer-Vision-Anwendungen über die CLI. Diese Lösungen vereinfachen die Implementierung komplexer Aufgaben wie Objektzählung, Workout-Überwachung und Warteschlangenverwaltung.
Beispiel
Zählen Sie Objekte in einem Video oder Live-Stream:
yolo solutions count show=True
yolo solutions count source="path/to/video.mp4" # specify video file path
Überwachen Sie Trainingsübungen anhand eines Posenmodells:
yolo solutions workout show=True
yolo solutions workout source="path/to/video.mp4" # specify video file path
# Use keypoints for ab-workouts
yolo solutions workout kpts=[5, 11, 13] # left side
yolo solutions workout kpts=[6, 12, 14] # right side
Zählen von Objekten in einer bestimmten Warteschlange oder Region:
yolo solutions queue show=True
yolo solutions queue source="path/to/video.mp4" # specify video file path
yolo solutions queue region="[(20, 400), (1080, 400), (1080, 360), (20, 360)]" # configure queue coordinates
Führen Sie Objekterkennung, Instanzsegmentierung oder Posenschätzung in einem Webbrowser mit Streamlit durch:
yolo solutions inference
yolo solutions inference model="path/to/model.pt" # use custom model
Sehen Sie sich die verfügbaren Lösungen und ihre Optionen an:
yolo solutions help
Weitere Informationen über Ultralytics finden Sie auf der Seite Lösungen.
FAQ
Wie verwende ich die Ultralytics YOLO CLI) für das Modelltraining?
Um ein Modell über die CLI zu trainieren, führen Sie einen einzeiligen Befehl im Terminal aus. Um zum Beispiel ein Erkennungsmodell für 10 Epochen mit einer Lernrate von 0,01 zu trainieren, führen Sie aus:
yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01
Dieser Befehl verwendet die train
Modus mit bestimmten Argumenten. Eine vollständige Liste der verfügbaren Argumente finden Sie in der Leitfaden zur Konfiguration.
Welche Aufgaben kann ich mit der Ultralytics YOLO CLI durchführen?
Die Ultralytics YOLO CLI unterstützt verschiedene Aufgaben, darunter Erkennung, Segmentierung, Klassifizierung, Posenschätzung und orientierte Bounding-Box-Erkennung. Sie können auch Operationen durchführen wie:
- Ein Modell trainieren: Laufen
yolo train data=<data.yaml> model=<model.pt> epochs=<num>
. - Lauf-Vorhersagen: Verwenden Sie
yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>
. - Ein Modell exportieren: Ausführen
yolo export model=<model.pt> format=<export_format>
. - Lösungen verwenden: Laufen
yolo solutions <solution_name>
für vorgefertigte Anwendungen.
Passen Sie jede Aufgabe mit verschiedenen Argumenten an. Eine detaillierte Syntax und Beispiele finden Sie in den jeweiligen Abschnitten wie Trainieren, Vorhersagen und Exportieren.
Wie kann ich die Genauigkeit eines trainierten YOLO mit Hilfe der CLI validieren?
Zur Validierung eines Modells Genauigkeitverwenden Sie die val
Modus. Um zum Beispiel ein vorab trainiertes Erkennungsmodell mit einem Chargengröße von 1 und einer Bildgröße von 640, ausführen:
yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
Dieser Befehl evaluiert das Modell auf dem angegebenen Datensatz und liefert Leistungskennzahlen wie mAP, Präzision und Recall. Weitere Einzelheiten finden Sie im Abschnitt Val.
In welche Formate kann ich meine YOLO über die CLI exportieren?
Sie können YOLO in verschiedene Formate exportieren, darunter ONNX, TensorRT, CoreML, TensorFlow und andere. Um zum Beispiel ein Modell in das ONNX zu exportieren, führen Sie aus:
yolo export model=yolo11n.pt format=onnx
Der Exportbefehl unterstützt zahlreiche Optionen, um Ihr Modell für bestimmte Einsatzumgebungen zu optimieren. Vollständige Informationen zu allen verfügbaren Exportformaten und ihren spezifischen Parametern finden Sie auf der Seite Export.
Wie verwende ich die vorgefertigten Lösungen in der Ultralytics CLI?
Ultralytics bietet gebrauchsfertige Lösungen über das solutions
Befehl. Zum Beispiel, um Objekte in einem Video zu zählen:
yolo solutions count source="path/to/video.mp4"
Diese Lösungen erfordern nur eine minimale Konfiguration und bieten sofortige Funktionalität für gängige Computer-Vision-Aufgaben. Um alle verfügbaren Lösungen zu sehen, führen Sie yolo solutions help
. Jede Lösung hat spezifische Parameter, die an Ihre Bedürfnisse angepasst werden können.